会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
YZG5N
博客园
首页
新随笔
联系
订阅
管理
2026年3月28日
机器学习基础(五)从0理解反向传播:梯度到底是怎么来的?
摘要: 在学习了损失函数和梯度下降之后,我产生了一个更本质的问题: 梯度,是从哪里来的? 一、引入 我们已经知道: 损失函数(Loss)用于衡量预测误差 梯度下降(Gradient Descent)用于不断优化参数 但这里有一个关键缺口: 梯度下降依赖“梯度”,那梯度是如何计算的? 这就是今天要解决的问题
阅读全文
posted @ 2026-03-28 23:21 YZG5N
阅读(6)
评论(0)
推荐(0)
2026年3月27日
机器学习基础(四):损失函数与优化目标
摘要: 一、引入 在上一节中,我们已经学习了如何利用梯度下降来不断优化参数。 但一个更本质的问题是: 模型如何判断当前的预测是“好”还是“坏”? 要回答这个问题,我们需要引入一个核心概念——损失函数。 二、从误差到损失函数 在正式讨论损失函数之前,我们先来看“误差(Error)”: \[\text{误差}
阅读全文
posted @ 2026-03-27 23:34 YZG5N
阅读(4)
评论(0)
推荐(0)
2026年3月26日
人工智能入门学习DAY3
摘要: Day 3 学习记录 一、今日学习目标 由于今日状态不佳,重点攻克两个核心概念: 向量的距离(欧式距离) 梯度与梯度下降 二、向量的距离(欧式距离) 本质 两个向量之间的直线距离 基本公式 设两个向量 \(\boldsymbol{a}, \boldsymbol{b}\): \[d(\boldsymb
阅读全文
posted @ 2026-03-26 23:52 YZG5N
阅读(6)
评论(0)
推荐(1)
2026年3月25日
人工智能入门学习DAY2
摘要: 一、今日学习目标 1、掌握矩阵核心算法:加法,数乘,矩阵乘法,转置 2、理解矩阵乘法的几何意义 3、 用NumPy实现所有的基础矩阵运算 二、矩阵的核心算法 1、矩阵加法 本质: 矩阵的对应位置相加 条件: 矩阵的行列数必须完全相同 公式: 若:A = (ai,j),B=(bi,j) 则:C = A
阅读全文
posted @ 2026-03-25 23:11 YZG5N
阅读(8)
评论(0)
推荐(0)
2026年3月24日
人工智能入门学习Day1
摘要: 机器学习入门:从向量到矩阵变换 一、数据的本质:向量 在机器学习中,所有数据本质上都可以表示为向量。 例如: 身高 = 180 体重 = 70 年龄 = 20 可以表示为一个向量: x = [180, 70, 20] 向量的本质是: 按顺序排列的一组数值,用于描述一个对象的特征 二、模型的本质:矩阵
阅读全文
posted @ 2026-03-24 22:25 YZG5N
阅读(18)
评论(0)
推荐(1)
公告