dify 好用吗,还是直接用 mcp 手撸更靠谱

2025 年 6 月 22 日
 pureGirl
7068 次点击
所在节点    程序员
47 条回复
ration
2025 年 6 月 22 日
两个不是一个东西
pureGirl
2025 年 6 月 22 日
@ration 搭建 ai agent 的两种方法,用低代码和不用
DefoliationM
2025 年 6 月 22 日
手撸,dify 这东西根本没发直接上生产用,他只能编排完之后用它的平台运行,调用它的接口。
加上整个后端都是 python ,太重了,而且所有流畅只能在它自己的框架/ui 内设定,没法自己改代码的细节,如果是用代码写,就方便很多。
如果前期测试用用可能还行,但是后期要放到生产里的时候还是要自己重新用代码实现。
还有就是如果你用了话,后面有新模型新参数(比如 reason model 的 think 字段,vllm 都花了很长实现才支持),你还需要等它更新。
zhoudaiyu
2025 年 6 月 22 日
不能高可用部署,除非花钱
8820670
2025 年 6 月 22 日
@pureGirl 一楼说的没错 不是一个东西。
MCP 只是一个调用标准协议。
而 dify 是完整的低代码开发平台。
实际去做 agent 的时候,你会发现 交互、切片、参数、解析、展示等等等,每一处都是非常复杂的。
包括 dify 本身也没有做到六边形。特别是在 RAG 部分,其实还是非常弱鸡,我们使用的时候基本上还是后端套一个 ragflow 来补充他的能力。
但毋庸置疑,dify 是体验、交互上最好的。甚至说 是最接近六边形的。
另外 其实还有一个非常好的方法,dify 做好之后,你可以在上层套一个 newapi 把做好的 agent 又变成一个 openai 兼容的接口 你就可以随便用了。
8820670
2025 年 6 月 22 日
另外就是 其实不要迷信大语言模型以及 MCP ,有这功夫不如直接调用 API 实在。
大语言模型聊天交互,就是给什么都不会的人使用的。
gibber
2025 年 6 月 23 日
@DefoliationM 但自己要去实现一整套 ai 应用编排的功能,也是相当大的成本啊,加上市场变化快,可能自己的产品还没出来,就又有概念新方向了。
burnsby
2025 年 6 月 23 日
dify 挺好用的,手撸完全没必要
ration
2025 年 6 月 23 日
@pureGirl 应该是类似 langchain 这一类框架手撸。一般应用 dify 还是挺好用的,手撸我觉得挺麻烦
visper
2025 年 6 月 23 日
如果你需要方便的可视化编排调试的话,用 dify 吧。很方便,占用资源也不多。如果你只是想做个特别的功能实现一点 ai 应用,直接手写调用 api 就行。现在 ai 时代叫它化你写代码都很快。
alienx717
2025 年 6 月 23 日
若依整了个架子,右侧窗口打开 dify 的对话,调整投喂文档格式版式这种工作花了 99%的时间,模型全部使用的是付费的 api ,公司内使用者说好,我也不知道是不是真的好
VtoEXL
2025 年 6 月 23 日
@8820670 #5
你好,上层套一个 newapi 变成一个 openai 兼容的接口,这个怎么做呢
pureGirl
2025 年 6 月 23 日
@8820670 你就是典型的只知道定义理解不了精髓的人
Mzs
2025 年 6 月 23 日
换个角度 有些同事不会写代码的 我培训 1 小时后他就直接用 dify 搭建自己的助手了
unco020511
2025 年 6 月 23 日
dify 之前存在不少的问题,现在不知道怎么样了,但 dify 这种形式是非常好的,谁都可以去编排 AI 应用
kuonkuon
2025 年 6 月 23 日
dify 支持 mcp ,理论上 dify 应该能验证绝大多数 AI 的应用方案。并且小公司(没有啥大压力的调用场景)也可以直接用到生产环境,改起来不要太方便。后期怕出问题,再把 dify 当流程图自己写就是。
csfreshman
2025 年 6 月 23 日
@zhoudaiyu 你用户名后面显示 pro ,花钱了吗?
johnnyyeen
2025 年 6 月 23 日
可以了解一下 langchain ,我看过很多 low code 框架(dify maxkb),都是 depend on langchain 的
neutrino
2025 年 6 月 23 日
@pureGirl mcp 意义不大,建议直接 API
DefoliationM
2025 年 6 月 23 日
@gibber 不用实现一整套,按照自己的业务流程来,llm 和向量数据库基本都有现在成的 sdk 能用,大部分时间依旧是写业务的代码,并不会在实现 sdk 上花费实现,模型也可以直接用 vllm 这种运行。而且就是因为市场变化快,自己的代码调整起来更方便,随时可以更新 sdk 改动,等第三方实现,他会不会跟进都是问题,到时候迁移成自己的代码又是成本。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1140276

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX