2026.1.27总结

通过调用大模型来了解大模型和智能体的区别
并根据示例代码有了一个更深的理解

md

1、获取大模型

导入 dotenv 库的 load_dotenv 函数,用于加载环境变量文件(.env)中的配置

import dotenv
from langchain_openai import ChatOpenAI
import os
dotenv.load_dotenv() #加载当前目录下的 .env 文件
os.environ['OPENAI_API_KEY'] = os.getenv("OPENAI_API_KEY1")
os.environ['OPENAI_BASE_URL'] = os.getenv("OPENAI_BASE_URL")

创建大模型实例

llm = ChatOpenAI(model="deepseek-chat") # 修改为 deepseek-chat 或 deepseek-coder

直接提供问题,并调用llm

response = llm.invoke("什么是大模型?1+1=?")
print(response)

md

2、提示词模板

from langchain_core.prompts import ChatPromptTemplate

需要注意的一点是,这里需要指明具体的role,在这里是system和用户

prompt = ChatPromptTemplate.from_messages([
("system", "你是世界级的技术文档编写者"),
("user", "{input}") # {input}为变量
])

我们可以把prompt和具体llm的调用和在一起。

chain = prompt | llm
message = chain.invoke({"input": "大模型中的LangChain是什么?"})
print(message)

print(type(message))

posted @ 2026-02-07 23:52  臧博涛  阅读(4)  评论(0)    收藏  举报