AI应用开发
第一阶段:基础概念与提示工程 (Prompt Engineering)
目标:理解 AI 是如何“思考”的,学会写出高质量的指令。
- 核心知识点:
- LLM 基础:Token、Temperature、Context Window(上下文窗口)、Hallucination(幻觉)。
- 提示词技巧:Zero-shot/Few-shot、Chain of Thought (CoT)、角色扮演、结构化输出(JSON)。
- 推荐资料:
- DeepLearning.AI: Prompt Engineering for Developers (吴恩达与 OpenAI 合作的免费短课程,必看)。
- Prompt Engineering Guide: promptingguide.ai (最全面的提示词工程指南,有中文版)。
第二阶段:AI 开发框架 (LangChain / LlamaIndex)
目标:学会使用“胶水框架”将 AI 模型与你的代码、数据库、API 连接起来。
- 核心知识点:
- LangChain: 目前最主流的 AI 开发框架,掌握 Chains、Memory、Tools。
- LlamaIndex: 专注于数据索引和检索,适合处理私有文档。
- 推荐资料:
- LangChain 官方文档: python.langchain.com (也有 JS/TS 版本)。
- YouTube 频道: Greg Kamradt (Data Independent) (非常适合初学者的 LangChain 教程)。
第三阶段:RAG (检索增强生成) 与 向量数据库
目标:让 AI 能够基于你提供的私有数据(如公司文档、个人笔记)回答问题。
- 核心知识点:
- Embeddings (嵌入):将文本转化为数学向量。
- Vector Databases: 学习使用 Pinecone, Milvus, Weaviate 或轻量级的 Chroma。
- RAG 流程:文档切分 -> 向量化 -> 检索 -> 增强生成。
- 推荐资料:
- Pinecone Learning Center: Vector Databases 基础教程。
- Hugging Face: NLP Course (了解模型背后的基本原理)。
第四阶段:前端集成与 AI UI/UX
目标:在前端实现流畅的 AI 交互体验。
- 核心知识点:
- Streaming (流式传输):实现像 ChatGPT 那样逐字蹦出来的效果(SSE/WebSockets)。
- Vercel AI SDK: 前端开发者接入 AI 的神器,支持 React/Next.js。
- 交互设计:如何处理 AI 的延迟、错误反馈、会话管理。
- 推荐资料:
- Vercel AI SDK 文档: sdk.vercel.ai (前端必看)。
- Build an AI Chatbot (Next.js): 搜索 Vercel 官方的聊天机器人模板。
第五阶段:Agent (智能体) 与 LLMOps
目标:构建能够自主决策、调用外部工具(如搜索、运行代码)的 AI。
- 核心知识点:
- Function Calling (函数调用):让 AI 决定何时调用你的 API。
- Evaluation (评估):如何判断 AI 的回答好不好(使用 Ragas 或 LangSmith)。
- CI/CD for AI: 自动化测试提示词的效果。
- 推荐资料:
- LangSmith: docs.smith.langchain.com (用于调试和监控 AI 流水线)。
- AutoGPT / BabyAGI: 研究这些开源项目的思路。
针对您的背景(前端 + CI/CD)的进阶建议:
- 利用 Node.js 生态:虽然 AI 界 Python 是主流,但 LangChain.js 和 Vercel AI SDK 已经非常成熟,你可以直接用 TypeScript 开发。
- AI + CI/CD 实践:
- 尝试写一个 GitHub Action,当有 PR 提交时,自动调用 OpenAI API 进行 Code Review。
- 写一个脚本,自动将 Linux 报错日志发送给 AI 并返回修复建议。
- 本地部署实验:
- 下载 Ollama。它能让你在本地(甚至你的 WSL 环境下)一键运行 Llama 3 或 Mistral 模型,无需支付 API 费用,非常适合练习。
建议起手项目: 构建一个“个人技术文档助手”。
- 功能:你可以把你的 Linux 笔记、前端代码片段喂给它。
- 技术栈:Next.js + Vercel AI SDK + Ollama (本地) 或 OpenAI API。
国内
1. 模型与 API 平替(解决“引擎”问题)
不需要 OpenAI,国内现在的模型 API 性能已经非常强劲,且对开发者极其友好。
- DeepSeek (深度求索):强烈推荐。目前国内口碑最好的模型之一,API 接口与 OpenAI 完全兼容,价格极低甚至有大量免费额度,文档清晰。
- 智谱 AI (BigModel):源自清华,提供功能强大的 GLM 系列模型,有非常完善的开发者中心。
- 通义千问 (阿里):通过“积木办”或“百炼”平台接入,文档非常适合中文开发者。
2. 提示工程 (Prompt Engineering) 平替
- Learning Prompt (中文版):这是一套完全免费、由国内开发者编写的提示工程教程,内容非常系统。
- 提示工程指南 (中文镜像):很多社区(如 GitHub 镜像站)都有 Prompt Engineering Guide 的中文翻译版。
3. 开发框架与工具平替
- Dify (强烈推荐):这是一个国产开源的 LLM 应用开发平台。它把 LangChain、RAG、工作流等复杂概念可视化了。
- 特点:你可以直接在本地用 Docker 部署,或者使用其云端版。它非常适合前端开发者快速构建 AI 应用。
- 官网/文档:dify.ai (国内访问流畅)。
- LangChain Chatchat:国内最火的基于 LangChain 的开源 RAG 项目,中文文档极其丰富,适合研究如何处理本地知识库。
- 搜索关键词:在 Gitee 或 GitHub 镜像站搜索
chatchat-space/Langchain-Chatchat。
- 搜索关键词:在 Gitee 或 GitHub 镜像站搜索
4. 视频与社区资源(解决“教程”问题)
- Bilibili (B站):搜索以下关键词,质量不输 YouTube:
- “秋叶aaaki”:虽然偏绘图,但对 AI 基础环境讲解极好。
- “跟李沐学 AI”:前亚马逊首席科学家,中文讲解深度学习和模型原理。
- 搜索“LangChain 实战”或“RAG 应用开发”,有很多国内大厂工程师的分享。
- 稀土掘金 (Juejin):国内前端开发者最集中的地方,搜索“AI 助手”、“LLM 应用”,有大量高质量的技术专栏。
5. 本地运行环境(解决“成本”问题)
- Ollama (国内镜像安装):Ollama 是本地运行 AI 模型的最佳工具。
- 技巧:虽然官网在国外,但你可以通过国内的 ModelScope (魔搭社区) 下载模型权重,或者使用国内开发者提供的 Docker 镜像安装。
- ModelScope (魔搭社区):阿里的开源模型平台,可以看作是国内的 Hugging Face。
- 链接:modelscope.cn (下载模型速度极快)。
重新规划的“国内环境”学习路径:
- 第一周:玩转 DeepSeek API
- 注册 DeepSeek 开发者平台,用 Node.js 写一个简单的脚本调用其 API。
- 学习如何通过 API 实现“流式输出”(Streaming)。
- 第二周:本地部署 Dify
- 在你的 WSL (Ubuntu) 环境下,用 Docker Compose 启动 Dify。
- 尝试在 Dify 里接入 DeepSeek 的 API,做一个简单的“代码 Review 助手”。
- 第三周:掌握 RAG (知识库)
- 在 Dify 或 LangChain Chatchat 中上传一份你的前端项目文档。
- 学习什么是“向量化”,尝试让 AI 根据你的文档回答问题。
- 第四周:前端集成
- 学习使用国内云厂商(如字节跳动的 Coze 扣子国内版)提供的插件或 SDK,将 AI 功能集成到你的前端页面中。
给您的特别建议: 既然您有 Linux (WSL) 基础,建议先安装 Docker。有了 Docker,你可以在本地一键运行 Dify、向量数据库和各种国产大模型,这会极大地降低你的学习门槛。

浙公网安备 33010602011771号