摘要: 手撸AI对话助手带上思考过程 之前文章《用 LangChain 驱动本地 Ollama 模型》讲叙了使用 LangChain 进行大模型对话。 大模型的响应时间一般都会比较长,那么如何考虑给用户更好的体验呢? 流式输出 类似打字机一样的效果,按token输出。 安装依赖 pip install -U uvicorn "fasta 阅读全文
posted @ 2026-03-24 11:52 BugShare 阅读(7) 评论(0) 推荐(0)