Openclaw 开发速度太快了, 1 分钟一个 feature

3 月 10 日
 zitup

我发现时间都花在调教上了,只要 SOUL 、MEMORY 、AGENT 调教好了,真挺好用。

discord 聊天截图

App 截图

8127 次点击
所在节点    程序员
41 条回复
iloveyoucool
3 月 10 日
codex 的 apikey 怎么获取的,我加入了 chatgpt 的工作空间,可以写代码用 gpt5.4 ,没看到怎么搞到 apikey
Dream4U
3 月 10 日
@iloveyoucool OpenClaw 支持 oauth ,不需要 API
PawnW
3 月 10 日
求问大佬是怎么调教 SOUL 、MEMORY 、AGENT 的啊,尤其是 AGENT 这一块
kneo
3 月 10 日
你就说快不快吧
phli
3 月 10 日
@fj19 别推 macmini 了。。根本不行。。
David666
3 月 10 日
路过,调教好又不分享实际经验或写篇文章分享
inframe
3 月 10 日
龙虾本地用 4 卡跑 Qwen3-32B 能吃满,感觉还行,
算力上看是 1 次 1w-2w token
justforvx
3 月 10 日
@inframe 什么配置的,能跑起来
justforvx
3 月 10 日
@inframe 服务器什么配置,什么显卡,cpu 还有内存,看看手头设备能不能跑起来
zitup
3 月 10 日
@PawnW 你就先开始开发,感觉哪里不对就让它修改。比如它忘了某个 feature ,你就跟它说项目相关的记到[project]/dosc/prd.md 里,同时在 MEMORY.md 记录索引 prd.md 使用方式。一直更新就好了
zitup
3 月 10 日
@David666 目前用着还行,我也还在摸索
inframe
3 月 11 日
@justforvx #29 服务器的,4 卡 3090 ,4x24G 显存,内存 512G ,2 个 AMD 24 核 CPU ,
固态硬盘放模型文件提速,
CPU 没有满负荷的场景 不重要
RobberPhex
3 月 11 日
Codex/Gemini/Qwen/Copilot/OpenCode 都有免费额度,换着用。
catazshadow
3 月 11 日
“550W 真是太快了”
gdkttt
3 月 11 日
开发的快,钱也烧的快
evamayy
3 月 11 日
用什么模型比较划算
evamayy
3 月 11 日
用什么模型比较划算呢
zitup
3 月 11 日
@catazshadow 夸张了🤣
zitup
3 月 11 日
@gdkttt 没赚钱之前,token 尽量白嫖
zitup
3 月 11 日
@evamayy 优先 claude/codex ,次选 Gemini ,再次选 qwen/minimax/glm 等。成本也是依次减少

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1197168

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX