阅读视图

🦞龙虾初体验

龙虾刚出来的时候,我无动于衷;龙虾爆火的时候,我依然无动于衷;龙虾开始被卸载的时候,我终于不再无动于衷了。

从春节的时候,龙虾忽然就开始变得热度极高。几乎所有人都在讨论龙虾,以及养虾的话题。这儿东西最开始的时候,给我的感觉就是,如果本地没有足够多的资源,龙虾就发挥不出自己的作用;如果直接用自己的电脑去安装,又会出现龙虾权限过高的问题。

龙虾做得事情,可能在我的预期范围之外。单纯为龙虾创建一个沙盒环境,意义感觉也不是很大。如果一个问题需要解决两遍,那感觉和不解决似乎也没太多的区别。

尽管如此,龙虾的热度还是越来越高,一度出现各种上门安装的服务。

再后来出现线了,各种收费卸载的服务。果然是此一时,彼一时,三十年河东三十年河西。

然而,在这滚滚的卸载浪潮中,我逆流而上,反其道而行之,我安装龙虾了。

不得不多,openclaw基于node的服务还是蛮笨重的,安装的确有点麻烦,刚开始为了省事,直接百度云买了个所谓的9.9的open claw实例,然而订阅coding plan的时候发现根本抢不到。

使用按量付费之后,简单尝试了以下,发现效果还是可以的,不过就是太费token了。千帆大模型感觉体验也还ok。

可以理解你的意图,也能正常的推进任务。然而,不能订阅,这个长期跑费用是个问题。

于是再次尝试别的方式,直接腾讯清凉弄了台99的服务器,干净安装openclaw,模型选择参考的杜郎的文章里提到的nvidia nim。好处是免费,当然,速率还是有限制的。

昨天的时候,第一次玩这个东西没啥经验,还是用的kimi,后来尝试minimax,但是效果怎么说呢,不知道是配置问题还是啥问题,总是不尽如意。

再后来看到了zero claw,号称体积更小,占用资源更少。直接二进制安装,下载之后启动:

至于怎么在公网访问,直接使用nginx反代即可,参考: https://cnb.cool/oba.by/baby-claw

这次直接用glm5,配置好之后,整体体验感觉有些差,就是非常智障的感jio。

假装执行,这种处理逻辑真是可以,如果我不知道文章分类都有啥,差点就信了。在这种状况下不得不再切回openclaw。鉴于昨天的配置问题,今天reset之后,尝试重新配置运行,依然用与zero claw同样的glm5,这次相对来说还是比较顺利的。

与之前zero claw的对比就会发现了,这次好歹是真的获取到相关的分类了,而不是假装执行。

所以,有的时候虽然都说自己很厉害,但是不对比永远都不知道谁更厉害。很多东西不是单纯说说就可以的,当然zero的优势在于部署方便,占用资源更低,但是作为一个agent,实际的效果并没有赶上open claw。

所以,现在各种龙虾层出不穷,如果不知道选择哪一只,建议还是选择原版,open claw,虽然安装费劲点。但是相对来说,没那么弱智(在同样的模型glm5下)。

上图为三小时token消耗量。

微信公众号文章,自动发布wp效果:

相关资源:

https://cnb.cool/oba.by/baby-claw 

https://dujun.io/28c43a95-478f-5e2a-8805-510244c99494.html

https://build.nvidia.com/z-ai/glm5

https://q.qq.com/qqbot/openclaw/index.html

  •