🦞龙虾初体验
龙虾刚出来的时候,我无动于衷;龙虾爆火的时候,我依然无动于衷;龙虾开始被卸载的时候,我终于不再无动于衷了。
从春节的时候,龙虾忽然就开始变得热度极高。几乎所有人都在讨论龙虾,以及养虾的话题。这儿东西最开始的时候,给我的感觉就是,如果本地没有足够多的资源,龙虾就发挥不出自己的作用;如果直接用自己的电脑去安装,又会出现龙虾权限过高的问题。
龙虾做得事情,可能在我的预期范围之外。单纯为龙虾创建一个沙盒环境,意义感觉也不是很大。如果一个问题需要解决两遍,那感觉和不解决似乎也没太多的区别。
尽管如此,龙虾的热度还是越来越高,一度出现各种上门安装的服务。
再后来出现线了,各种收费卸载的服务。果然是此一时,彼一时,三十年河东三十年河西。
然而,在这滚滚的卸载浪潮中,我逆流而上,反其道而行之,我安装龙虾了。
不得不多,openclaw基于node的服务还是蛮笨重的,安装的确有点麻烦,刚开始为了省事,直接百度云买了个所谓的9.9的open claw实例,然而订阅coding plan的时候发现根本抢不到。
使用按量付费之后,简单尝试了以下,发现效果还是可以的,不过就是太费token了。千帆大模型感觉体验也还ok。
可以理解你的意图,也能正常的推进任务。然而,不能订阅,这个长期跑费用是个问题。
于是再次尝试别的方式,直接腾讯清凉弄了台99的服务器,干净安装openclaw,模型选择参考的杜郎的文章里提到的nvidia nim。好处是免费,当然,速率还是有限制的。
昨天的时候,第一次玩这个东西没啥经验,还是用的kimi,后来尝试minimax,但是效果怎么说呢,不知道是配置问题还是啥问题,总是不尽如意。
再后来看到了zero claw,号称体积更小,占用资源更少。直接二进制安装,下载之后启动:
至于怎么在公网访问,直接使用nginx反代即可,参考: https://cnb.cool/oba.by/baby-claw
这次直接用glm5,配置好之后,整体体验感觉有些差,就是非常智障的感jio。
假装执行,这种处理逻辑真是可以,如果我不知道文章分类都有啥,差点就信了。在这种状况下不得不再切回openclaw。鉴于昨天的配置问题,今天reset之后,尝试重新配置运行,依然用与zero claw同样的glm5,这次相对来说还是比较顺利的。
与之前zero claw的对比就会发现了,这次好歹是真的获取到相关的分类了,而不是假装执行。
所以,有的时候虽然都说自己很厉害,但是不对比永远都不知道谁更厉害。很多东西不是单纯说说就可以的,当然zero的优势在于部署方便,占用资源更低,但是作为一个agent,实际的效果并没有赶上open claw。
所以,现在各种龙虾层出不穷,如果不知道选择哪一只,建议还是选择原版,open claw,虽然安装费劲点。但是相对来说,没那么弱智(在同样的模型glm5下)。
上图为三小时token消耗量。
微信公众号文章,自动发布wp效果:
相关资源:
https://cnb.cool/oba.by/baby-claw
https://dujun.io/28c43a95-478f-5e2a-8805-510244c99494.html