摘要:
之前文章《用 LangChain 驱动本地 Ollama 模型》讲叙了使用 LangChain 进行大模型对话。 大模型的响应时间一般都会比较长,那么如何考虑给用户更好的体验呢? 流式输出 类似打字机一样的效果,按token输出。 安装依赖 pip install -U uvicorn "fasta 阅读全文
之前文章《用 LangChain 驱动本地 Ollama 模型》讲叙了使用 LangChain 进行大模型对话。 大模型的响应时间一般都会比较长,那么如何考虑给用户更好的体验呢? 流式输出 类似打字机一样的效果,按token输出。 安装依赖 pip install -U uvicorn "fasta 阅读全文
posted @ 2026-03-24 11:52
BugShare
阅读(7)
评论(0)
推荐(0)

浙公网安备 33010602011771号