摘要: https://www.runoob.com/vscode/vscode-tutorial.html 阅读全文
posted @ 2026-04-09 13:58 echo-efun 阅读(4) 评论(0) 推荐(0)
摘要: 项目名称核心用途推荐理由/亮点直达网址 build-your-own-x 动手实战:从零实现数据库、操作系统、编译器等 ⭐ 48.7万+ Stars。深入理解技术底层的最佳路径,提供大量“自己造轮子”的实践教程 👉 点击访问 GitHub awesome 资源导航:全网技术领域优质资源大索引 ⭐ 阅读全文
posted @ 2026-04-09 13:42 echo-efun 阅读(7) 评论(0) 推荐(0)
摘要: 一、MCP是什么? MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 定义的一个开放协议。 模型上下文协议(MCP)是一个用于将AI应用程序连接到外部系统的开源标准。有了MCP,像Claude、LibreChat、ChatGPT等AI应用就可以连接到: 阅读全文
posted @ 2026-04-09 11:12 echo-efun 阅读(4) 评论(0) 推荐(0)
摘要: 一、核心参数概览 英文术语标准中文翻译业内通俗叫法/备注 Temperature 温度 直接叫“温度”。指控制随机性的参数。 Max Tokens 最大令牌数 / 最大生成长度 也叫“最大词元数”。指输出内容的字数上限。 Top P 核采样 / Top P 采样 技术文档常称“核采样”。指控制候选词 阅读全文
posted @ 2026-04-08 17:52 echo-efun 阅读(15) 评论(0) 推荐(0)
摘要: 为了 改进LLM文本生成结果,开发人员仅限于改进提示,并且有许多提示工程技术可以帮助。可通过以下方式来改进用户文本生成体验。 一、以编程方式修改用户提示 若要向用户对话添加系统提示,不使用特殊API。根据需要再提示中附件指令,可使用如下方法来改进用户提示: 1.1上下文启动 *创建系统提示,明确在特 阅读全文
posted @ 2026-04-08 14:25 echo-efun 阅读(1) 评论(0) 推荐(0)
摘要: 1、上下文窗口——发送给LLM的提示词和LLM的回复的完整历史记录就是上下文窗口。 *实际上,你发送的每个新提示都包含你之前的的所有提示和模型的答复,LLM使用此完整历史记录作为上下文来创建下一个答案。 *每个LLM都有一个最大上下文窗口大小,按模型和版本更改。如果对话超过上下文窗口大小,LLM会删 阅读全文
posted @ 2026-04-08 11:09 echo-efun 阅读(3) 评论(0) 推荐(0)
摘要: 1、知识截止 LLM只知道他们在特定日期接受过的训练,如果没有外部数据连接,无法访问实时或专用信息 2、幻觉 LLM可能会生成不准确或误导性信息 3、透明度 不能始终跟踪生成的内容的源或或准确性,同时没有内置的验证步骤 4、没有领域特定知识 除非用户提供内部或专有数据,否则LLMs不会了解这些数据 阅读全文
posted @ 2026-04-08 09:36 echo-efun 阅读(4) 评论(0) 推荐(0)
摘要: 1、延迟初始化定义 一个对象的延迟初始化意味着该对象的创建延迟至第一次使用该对象时 2、延迟初始化目的 主要用于提高性能,避免浪费计算,减少程序内存要求 3、使用形式 Lazy<T> 4、当使用Lazy<T> 对象的 .Value 属性时,对象才会被创建;如下构建一个Orders类 public c 阅读全文
posted @ 2026-04-07 14:50 echo-efun 阅读(1) 评论(0) 推荐(0)
摘要: <Grid> <Grid.RowDefinitions> <RowDefinition/> <RowDefinition/> <RowDefinition/> </Grid.RowDefinitions> <Grid.ColumnDefinitions> <ColumnDefinition/> <C 阅读全文
posted @ 2026-04-01 16:26 echo-efun 阅读(2) 评论(0) 推荐(0)
摘要: 1、shape介绍 1.1、形状Shape包括Ellipse、Line、Path、Polygon、Polyline、Rectangle 1.2、Shape对象派生于UIElement 1.3、Shape对象共享属性 *Stroke——绘制形状的轮廓方式(如边框颜色) *StrokeThickness 阅读全文
posted @ 2026-04-01 14:20 echo-efun 阅读(1) 评论(0) 推荐(0)