V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
MarlonFan
V2EX  ›  程序员

OpenAI 接口访问速度问题

  •  
  •   MarlonFan ·
    marlonfan · Mar 29, 2023 · 3316 views
    This topic created in 1127 days ago, the information mentioned may be changed or developed.

    发现使用 stream 模式能非常快的响应结果. 但是如果直接使用 gpt3.5-turbo 模式的话, 每个问题的答案生成需要 20s 左右。 不知道大家有什么好办法么?

    目前使用了新加坡机场 和 aws 日本节点, 都非常的慢。

    8 replies    2023-03-31 00:00:51 +08:00
    charmToby
        1
    charmToby  
       Mar 29, 2023   ❤️ 1
    就用 Stream 模式就行,很快的,可以了解下 SSE ,很简单的,每次返回一个字,和官网效果一样。
    swulling
        2
    swulling  
       Mar 29, 2023   ❤️ 1
    总时长是一样的,只是 stream 让你感觉快了而已
    cocomiko
        3
    cocomiko  
       Mar 29, 2023   ❤️ 1
    stream 从第一个字到最后一个字也差不多要花 20s 左右
    tool2d
        4
    tool2d  
       Mar 29, 2023 via Android   ❤️ 1
    你写代码只能用 stream 模式,用非 stream 实在太慢了。
    yrj
        5
    yrj  
       Mar 30, 2023   ❤️ 1
    如果不是做聊天,没必要搞打字效果。。
    TomsOutside
        6
    TomsOutside  
       Mar 30, 2023   ❤️ 1
    感觉跟你的问题有关,偏综合性的,比较性的,会更慢一些
    ex1gtnim7d
        7
    ex1gtnim7d  
       Mar 30, 2023   ❤️ 1
    接机器人的时候就很蛋疼,因为各种场景和应用下的机器人,基本都不支持流式输出
    MarlonFan
        8
    MarlonFan  
    OP
       Mar 31, 2023 via iPhone
    感谢大家,了解了,可能确实体感占据很大一部分因素
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2640 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 40ms · UTC 12:41 · PVG 20:41 · LAX 05:41 · JFK 08:41
    ♥ Do have faith in what you're doing.