V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
whats
V2EX  ›  问与答

RAG 怎么做才能有好的效果

  •  1
     
  •   whats · Jul 26, 2024 · 3031 views
    This topic created in 643 days ago, the information mentioned may be changed or developed.
    近期做大模型 RAG 相关的研究,尝试了语义切片、RaptorRAG 、微软的 GraphRAG ,效果都不是特别好,一方面文档的索引速度特别慢,Raptor 索引一篇 20w 字的文档要差不多两个小时,GraphRAG 对 token 消耗量惊人。另一方面,花大力气索引出来的知识库,只有特定场景比较好用,比如 GraphRAG 对实体关系类的问题回答较好,但是涉及多步推理或者一些法律条文类的文档基本答非所问。因此比较好奇大家做 RAG 时都是使用的什么策略去索引文档和检索索引后的知识。
    5 replies    2024-07-26 12:06:07 +08:00
    cexll
        1
    cexll  
       Jul 26, 2024
    现目前无解,花大价钱用 llm 推理所有 rag 的内容 微调进大模型 ,不过效果也没有那么好,毕竟 llm 的能力摆在那里
    mercurylanded
        2
    mercurylanded  
       Jul 26, 2024
    大部分 rag 优化的知识检索这块,prompt 还是需要你自己按照场景去调试吧
    Garphy
        3
    Garphy  
       Jul 26, 2024
    我猜主要还是大模型提纯不够,以及外挂向量与大模型内部 token 向量并没有融合的很好
    NoobNoob030
        4
    NoobNoob030  
       Jul 26, 2024
    索引策略:传统 milvus 向量索引取 n 条,用 es 关键字索引取 n 条,然后具体 n 数量和 chuck size 以及权重看场景,最后拼起来做 prompt

    prompt 的姿势就比较多,思路大致就是:效果不好 -> (拆 prompt 步骤 / 加校验步骤 / 换 prompt 方式) 三选一 -> 测试效果。重复这个循环能满足大部分需求

    类似劳动法顾问助手这种需求。与其在市面上找成熟产品方案不如自己写写 python ,写起来很快而且可以灵活应对需求变动
    lookStupiToForce
        5
    lookStupiToForce  
       Jul 26, 2024
    偏个题
    不知道有没有尝试过 mem0 ,说是要给 llm 加额外记忆层,不同于 RAG 技术
    https://github.com/mem0ai/mem0
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2705 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 37ms · UTC 14:46 · PVG 22:46 · LAX 07:46 · JFK 10:46
    ♥ Do have faith in what you're doing.