摘要: 为本地部署的大模型添加API Key认证:Nginx实现方案 在使用 LangChain 开发大模型应用时,我们经常会遇到这样的场景: 使用在线模型(如 OpenAI、通义千问等)时,自带 API Key 认证机制 本地部署的 Ollama、vLLM 等模型服务,默认没有任何认证 在本地或局域网环境下问题还不明显;但一旦你需要: 将模型服务暴露到公网 提供给团 阅读全文
posted @ 2026-01-25 23:27 BugShare 阅读(15) 评论(1) 推荐(0)