AI应用开发

第一阶段:基础概念与提示工程 (Prompt Engineering)

目标:理解 AI 是如何“思考”的,学会写出高质量的指令。

  • 核心知识点:
    • LLM 基础:Token、Temperature、Context Window(上下文窗口)、Hallucination(幻觉)。
    • 提示词技巧:Zero-shot/Few-shot、Chain of Thought (CoT)、角色扮演、结构化输出(JSON)。
  • 推荐资料:

第二阶段:AI 开发框架 (LangChain / LlamaIndex)

目标:学会使用“胶水框架”将 AI 模型与你的代码、数据库、API 连接起来。

  • 核心知识点:
    • LangChain: 目前最主流的 AI 开发框架,掌握 Chains、Memory、Tools。
    • LlamaIndex: 专注于数据索引和检索,适合处理私有文档。
  • 推荐资料:

第三阶段:RAG (检索增强生成) 与 向量数据库

目标:让 AI 能够基于你提供的私有数据(如公司文档、个人笔记)回答问题。

  • 核心知识点:
    • Embeddings (嵌入):将文本转化为数学向量。
    • Vector Databases: 学习使用 Pinecone, Milvus, Weaviate 或轻量级的 Chroma。
    • RAG 流程:文档切分 -> 向量化 -> 检索 -> 增强生成。
  • 推荐资料:

第四阶段:前端集成与 AI UI/UX

目标:在前端实现流畅的 AI 交互体验。

  • 核心知识点:
    • Streaming (流式传输):实现像 ChatGPT 那样逐字蹦出来的效果(SSE/WebSockets)。
    • Vercel AI SDK: 前端开发者接入 AI 的神器,支持 React/Next.js。
    • 交互设计:如何处理 AI 的延迟、错误反馈、会话管理。
  • 推荐资料:
    • Vercel AI SDK 文档: sdk.vercel.ai (前端必看)。
    • Build an AI Chatbot (Next.js): 搜索 Vercel 官方的聊天机器人模板。

第五阶段:Agent (智能体) 与 LLMOps

目标:构建能够自主决策、调用外部工具(如搜索、运行代码)的 AI。

  • 核心知识点:
    • Function Calling (函数调用):让 AI 决定何时调用你的 API。
    • Evaluation (评估):如何判断 AI 的回答好不好(使用 Ragas 或 LangSmith)。
    • CI/CD for AI: 自动化测试提示词的效果。
  • 推荐资料:
    • LangSmith: docs.smith.langchain.com (用于调试和监控 AI 流水线)。
    • AutoGPT / BabyAGI: 研究这些开源项目的思路。

针对您的背景(前端 + CI/CD)的进阶建议:

  1. 利用 Node.js 生态:虽然 AI 界 Python 是主流,但 LangChain.js 和 Vercel AI SDK 已经非常成熟,你可以直接用 TypeScript 开发。
  2. AI + CI/CD 实践:
    • 尝试写一个 GitHub Action,当有 PR 提交时,自动调用 OpenAI API 进行 Code Review。
    • 写一个脚本,自动将 Linux 报错日志发送给 AI 并返回修复建议。
  3. 本地部署实验:
    • 下载 Ollama。它能让你在本地(甚至你的 WSL 环境下)一键运行 Llama 3 或 Mistral 模型,无需支付 API 费用,非常适合练习。

建议起手项目: 构建一个“个人技术文档助手”。

  • 功能:你可以把你的 Linux 笔记、前端代码片段喂给它。
  • 技术栈:Next.js + Vercel AI SDK + Ollama (本地) 或 OpenAI API。

 

国内

1. 模型与 API 平替(解决“引擎”问题)

不需要 OpenAI,国内现在的模型 API 性能已经非常强劲,且对开发者极其友好。

  • DeepSeek (深度求索):强烈推荐。目前国内口碑最好的模型之一,API 接口与 OpenAI 完全兼容,价格极低甚至有大量免费额度,文档清晰。
  • 智谱 AI (BigModel):源自清华,提供功能强大的 GLM 系列模型,有非常完善的开发者中心。
  • 通义千问 (阿里):通过“积木办”或“百炼”平台接入,文档非常适合中文开发者。

2. 提示工程 (Prompt Engineering) 平替

  • Learning Prompt (中文版):这是一套完全免费、由国内开发者编写的提示工程教程,内容非常系统。
  • 提示工程指南 (中文镜像):很多社区(如 GitHub 镜像站)都有 Prompt Engineering Guide 的中文翻译版。

3. 开发框架与工具平替

  • Dify (强烈推荐):这是一个国产开源的 LLM 应用开发平台。它把 LangChain、RAG、工作流等复杂概念可视化了。
    • 特点:你可以直接在本地用 Docker 部署,或者使用其云端版。它非常适合前端开发者快速构建 AI 应用。
    • 官网/文档:dify.ai (国内访问流畅)。
  • LangChain Chatchat:国内最火的基于 LangChain 的开源 RAG 项目,中文文档极其丰富,适合研究如何处理本地知识库。
    • 搜索关键词:在 Gitee 或 GitHub 镜像站搜索 chatchat-space/Langchain-Chatchat

4. 视频与社区资源(解决“教程”问题)

  • Bilibili (B站):搜索以下关键词,质量不输 YouTube:
    • “秋叶aaaki”:虽然偏绘图,但对 AI 基础环境讲解极好。
    • “跟李沐学 AI”:前亚马逊首席科学家,中文讲解深度学习和模型原理。
    • 搜索“LangChain 实战”或“RAG 应用开发”,有很多国内大厂工程师的分享。
  • 稀土掘金 (Juejin):国内前端开发者最集中的地方,搜索“AI 助手”、“LLM 应用”,有大量高质量的技术专栏。

5. 本地运行环境(解决“成本”问题)

  • Ollama (国内镜像安装):Ollama 是本地运行 AI 模型的最佳工具。
    • 技巧:虽然官网在国外,但你可以通过国内的 ModelScope (魔搭社区) 下载模型权重,或者使用国内开发者提供的 Docker 镜像安装。
  • ModelScope (魔搭社区):阿里的开源模型平台,可以看作是国内的 Hugging Face。

重新规划的“国内环境”学习路径:

  1. 第一周:玩转 DeepSeek API
    • 注册 DeepSeek 开发者平台,用 Node.js 写一个简单的脚本调用其 API。
    • 学习如何通过 API 实现“流式输出”(Streaming)。
  2. 第二周:本地部署 Dify
    • 在你的 WSL (Ubuntu) 环境下,用 Docker Compose 启动 Dify。
    • 尝试在 Dify 里接入 DeepSeek 的 API,做一个简单的“代码 Review 助手”。
  3. 第三周:掌握 RAG (知识库)
    • 在 Dify 或 LangChain Chatchat 中上传一份你的前端项目文档。
    • 学习什么是“向量化”,尝试让 AI 根据你的文档回答问题。
  4. 第四周:前端集成
    • 学习使用国内云厂商(如字节跳动的 Coze 扣子国内版)提供的插件或 SDK,将 AI 功能集成到你的前端页面中。

给您的特别建议: 既然您有 Linux (WSL) 基础,建议先安装 Docker。有了 Docker,你可以在本地一键运行 Dify、向量数据库和各种国产大模型,这会极大地降低你的学习门槛。

posted @ 2026-03-23 22:34  Summer_ee  阅读(1)  评论(0)    收藏  举报