摘要:
部署 Claude Code(由 Anthropic 提供),并连接自托管的大语言模型(如 Qwen、Llama 系列等),完全绕过 Anthropic 官方 API,实现离线/内网安全开发辅助。 目录 前言 🔧 一、安装 Claude Code CLI ⚙️ 二、全局配置文件设置 💻 三、VS 阅读全文
部署 Claude Code(由 Anthropic 提供),并连接自托管的大语言模型(如 Qwen、Llama 系列等),完全绕过 Anthropic 官方 API,实现离线/内网安全开发辅助。 目录 前言 🔧 一、安装 Claude Code CLI ⚙️ 二、全局配置文件设置 💻 三、VS 阅读全文
posted @ 2026-03-13 11:53
JohnCHsu
阅读(327)
评论(1)
推荐(0)
基于 Docker + llama.cpp 的本地化 AI 代理平台完整部署指南 本方案已在单卡 22GB 显存(如 RTX 2080Ti)环境下验证,达到性能与功能的较好平衡,适用于 长上下文、低并发、高精度 的私有化 AI 代理场景。 目录 方案说明 llama.cpp 本地模型服务部署 Ope
浙公网安备 33010602011771号