摘要: 在学习了损失函数和梯度下降之后,我产生了一个更本质的问题: 梯度,是从哪里来的? 一、引入 我们已经知道: 损失函数(Loss)用于衡量预测误差 梯度下降(Gradient Descent)用于不断优化参数 但这里有一个关键缺口: 梯度下降依赖“梯度”,那梯度是如何计算的? 这就是今天要解决的问题 阅读全文
posted @ 2026-03-28 23:21 YZG5N 阅读(6) 评论(0) 推荐(0)
摘要: 一、引入 在上一节中,我们已经学习了如何利用梯度下降来不断优化参数。 但一个更本质的问题是: 模型如何判断当前的预测是“好”还是“坏”? 要回答这个问题,我们需要引入一个核心概念——损失函数。 二、从误差到损失函数 在正式讨论损失函数之前,我们先来看“误差(Error)”: \[\text{误差} 阅读全文
posted @ 2026-03-27 23:34 YZG5N 阅读(4) 评论(0) 推荐(0)
摘要: Day 3 学习记录 一、今日学习目标 由于今日状态不佳,重点攻克两个核心概念: 向量的距离(欧式距离) 梯度与梯度下降 二、向量的距离(欧式距离) 本质 两个向量之间的直线距离 基本公式 设两个向量 \(\boldsymbol{a}, \boldsymbol{b}\): \[d(\boldsymb 阅读全文
posted @ 2026-03-26 23:52 YZG5N 阅读(6) 评论(0) 推荐(1)
摘要: 一、今日学习目标 1、掌握矩阵核心算法:加法,数乘,矩阵乘法,转置 2、理解矩阵乘法的几何意义 3、 用NumPy实现所有的基础矩阵运算 二、矩阵的核心算法 1、矩阵加法 本质: 矩阵的对应位置相加 条件: 矩阵的行列数必须完全相同 公式: 若:A = (ai,j),B=(bi,j) 则:C = A 阅读全文
posted @ 2026-03-25 23:11 YZG5N 阅读(8) 评论(0) 推荐(0)
摘要: 机器学习入门:从向量到矩阵变换 一、数据的本质:向量 在机器学习中,所有数据本质上都可以表示为向量。 例如: 身高 = 180 体重 = 70 年龄 = 20 可以表示为一个向量: x = [180, 70, 20] 向量的本质是: 按顺序排列的一组数值,用于描述一个对象的特征 二、模型的本质:矩阵 阅读全文
posted @ 2026-03-24 22:25 YZG5N 阅读(18) 评论(0) 推荐(1)