摘要: Step-Aware TCN-MLP模型通俗解读:带“步长注意力”的时序卷积升级版 Step-Aware TCN-MLP是步长感知(Step-Aware)时序卷积网络(TCN) 与多层感知机(MLP)的组合模型——核心是在你已理解的普通TCN-MLP基础上,增加“时序步长感知机制”,让模型能主动区分 阅读全文
posted @ 2025-12-13 08:35 wangya216 阅读(4) 评论(0) 推荐(0)
摘要: TCN-MLP模型通俗解读:“卷积版时序特征提取器”替代RNN的高效组合 TCN-MLP是时序卷积网络(Temporal Convolutional Network,TCN) 与多层感知机(Multi-Layer Perceptron,MLP) 的组合模型——核心逻辑是:用TCN(专为时序数据设计的 阅读全文
posted @ 2025-12-13 08:30 wangya216 阅读(19) 评论(0) 推荐(0)
摘要: LSTM通俗解读:带“智能记忆开关”的RNN LSTM是Long Short-Term Memory(长短期记忆网络) 的缩写,是循环神经网络(RNN)的“升级版”——核心解决了传统RNN处理长序列数据时的“梯度消失”问题,能精准记住“长期重要信息”、忘掉“短期无关信息”,就像人读长篇小说时,能记住 阅读全文
posted @ 2025-12-13 07:55 wangya216 阅读(19) 评论(0) 推荐(0)
摘要: 卷积通俗解读:CNN的“特征提取放大镜” 卷积(Convolution)是卷积神经网络(CNN)的核心操作,本质是用一个“小模板(卷积核/过滤器)”在数据(比如图像、语音)上滑动,逐区域计算“模板与数据的匹配度”,从而提取局部特征(比如图像的边缘、纹理,语音的频率特征)。 你可以把卷积理解为:用一个 阅读全文
posted @ 2025-12-13 02:16 wangya216 阅读(7) 评论(0) 推荐(0)
摘要: 卷积核的来源——从“手工设计”到“模型自学” 卷积核的来源分两个阶段:传统图像处理中是人工手动设计,而深度学习的CNN中,卷积核是模型通过训练自动“学出来”的可学习参数(和你之前学的线性回归里的权重w、偏置b本质一样,都是训练优化的目标)。 一、传统图像处理:手工设计卷积核(固定规则,无学习) 在深 阅读全文
posted @ 2025-12-13 02:15 wangya216 阅读(7) 评论(0) 推荐(0)
摘要: RNN通俗解读:带“记忆”的神经网络 RNN是Recurrent Neural Network(循环神经网络) 的缩写,核心是解决「序列数据」的处理问题——和CNN处理空间结构数据(如图像)不同,RNN专门处理有“先后顺序”的序列数据(比如文本、语音、时间序列),因为它自带“记忆功能”,能把前一步的 阅读全文
posted @ 2025-12-13 01:59 wangya216 阅读(7) 评论(0) 推荐(0)
摘要: 这是一个非常实际且关键的问题!答案是: 通常,池化层(如 MaxPooling)并不是在“所有卷积层之后统一做一次”,而是 在多个卷积层之后(常见是1~2个)插入一个池化层**,形成“卷积 → 卷积 → 池化”的模块化堆叠结构。 一、典型 CNN 架构中的卷积-池化模式 以经典网络为例: ✅ Ale 阅读全文
posted @ 2025-12-13 01:53 wangya216 阅读(3) 评论(0) 推荐(0)
摘要: 有。 一、自学习参数(Learnable Parameters / Model Parameters) ✅ 定义 由模型在训练过程中自动学习的参数,通过反向传播 + 优化器(如SGD、Adam)不断更新,目标是最小化损失函数。 🔧 典型例子 组件 自学习参数 全连接层(Dense/Linear) 阅读全文
posted @ 2025-12-13 01:20 wangya216 阅读(4) 评论(0) 推荐(0)
摘要: 这是一个非常关键且常见的问题。简明回答如下: 不是“每个神经元”单独负责一个特征,也不是“整层”作为一个整体提取一个特征,而是: 每一层的多个神经元协同工作 下面我们从机制、实例和认知三个层面展开说明。 一、机制层面:神经元是“特征检测器”,层是“特征抽象层级” ✅ 每个神经元 ≈ 一个可学习的特征 阅读全文
posted @ 2025-12-13 01:16 wangya216 阅读(3) 评论(0) 推荐(0)
摘要: 在人工智能的世界里,有一种神奇的学习方式,它不需要人类手把手标注数据,却能让AI学会识别图像、理解语言,甚至预测未来——这就是自监督学习(Self-Supervised Learning)。 听起来有点玄?别急,我们用一个简单的比喻来揭开它的面纱。 🧩 比喻:AI在玩“填空游戏” 想象你小时候做语 阅读全文
posted @ 2025-12-10 13:43 wangya216 阅读(21) 评论(0) 推荐(0)
摘要: 是的。“主动学习(Active Learning)”是机器学习中一种高效利用标注数据的策略,它的核心思想可以用一句话概括: 让模型自己决定“接下来最该学哪一条数据”,而不是被动地接受所有已标注的数据。 下面我们用一个生活化的例子 + 技术解释,帮你彻底理解。 🌰 举个生活例子:学生 vs 老师 想 阅读全文
posted @ 2025-12-10 13:41 wangya216 阅读(19) 评论(0) 推荐(0)
摘要: AI里的“自主学习”和“机器学习”是一回事吗? 在人工智能(AI)的讨论中,我们常听到两个词:“机器学习”和“自主学习”。有人把它们当作同义词使用,也有人觉得“自主学习”听起来更高级、更接近人类智能。那么,这两个概念到底是不是一回事?它们之间又有什么联系与区别? 答案是:“自主学习”不是严格的技术术 阅读全文
posted @ 2025-12-10 13:38 wangya216 阅读(6) 评论(0) 推荐(0)
摘要: 机器学习的主要范式 机器学习是人工智能的核心分支,其核心目标是让计算机系统能够从数据中自动学习规律,并用于预测、决策或控制。根据训练数据的形式、可用信息以及学习目标的不同,机器学习方法通常被划分为若干“学习范式”。理解这些范式,有助于我们选择合适的方法解决实际问题。 以下是当前主流的机器学习范式及其 阅读全文
posted @ 2025-12-08 08:56 wangya216 阅读(15) 评论(0) 推荐(0)
摘要: 从“混为一谈”到“各有专攻”:规则式AI、自动控制与人工智能的历史纠葛 在科技圈,“人工智能”“自动控制”“规则式AI”这三个概念曾长期纠缠不清。上世纪90年代以前,不少人把家里的恒温空调、工厂的流水线控制系统都称为“AI”;而今天,我们已经清楚地知道:PID温控不算AI,早期的故障诊断专家系统也与 阅读全文
posted @ 2025-12-08 07:01 wangya216 阅读(11) 评论(0) 推荐(0)
摘要: 符号主义AI:规则驱动的“专家系统”如何给汽车“诊病”? 提到符号主义AI(Symbolic AI),它其实就是我们常说的“规则式AI”的理论根基。作为人工智能发展早期的核心流派,其核心思想非常直观:将人类专家的知识转化为机器可理解的符号与规则,再通过逻辑推理解决问题。 为了更具体地理解这一范式,我 阅读全文
posted @ 2025-12-08 07:00 wangya216 阅读(15) 评论(0) 推荐(0)
摘要: 反向传播算法:攻克多层感知机训练难题的关键革命 在神经网络发展的历史长河中,多层感知机(Multilayer Perceptron,MLP)曾因训练难题被束之高阁,而反向传播算法(Backpropagation) 的出现,犹如一把钥匙,打开了多层神经网络实用化的大门。它不仅解决了多层感知机梯度计算的 阅读全文
posted @ 2025-12-07 22:15 wangya216 阅读(26) 评论(0) 推荐(0)
摘要: 卷积神经网络是从多层感知机基础上发展起来的吗? 在深度学习的发展历程中,卷积神经网络(CNN)和多层感知机(MLP)是两大核心架构,二者时常被放在一起比较。一个常见的疑问是:卷积神经网络是否从多层感知机的基础上发展而来? 答案是:CNN并非MLP的直接衍生产物,二者是基于不同设计理念、并行发展的神经 阅读全文
posted @ 2025-12-07 22:04 wangya216 阅读(27) 评论(0) 推荐(0)
摘要: 澄清:梯度下降优化的是模型参数,而非损失函数本身 在深度学习的表述中,“通过梯度下降(如SGD、Adam)优化损失函数”是一个口语化的简化说法,很容易引发误解——它的真实含义并不是修改损失函数的公式或参数,而是通过调整神经网络的可学习参数,来最小化损失函数的取值。下面我们从概念本质、操作流程和易混点 阅读全文
posted @ 2025-12-07 21:55 wangya216 阅读(11) 评论(0) 推荐(0)
摘要: 梯度下降:站在碗壁,如何找到最低点? 想象你站在一个巨大、光滑的陶瓷碗的内壁上。 你被蒙住眼睛,看不见碗底,也看不到碗口——但你知道:真正的目标在碗的最底部。 这,就是深度学习中“梯度下降”的核心画面。 🥣 为什么是“碗”?——损失函数的形状 在训练AI模型时,我们用一个叫 损失函数(Loss F 阅读全文
posted @ 2025-12-07 21:41 wangya216 阅读(8) 评论(0) 推荐(0)
摘要: 梯度:明明是个“方向”,为啥偏叫“度”? 提到“梯度”,很多人第一次见这个词都会犯嘀咕: 它明明是深度学习里给模型指路的“方向标”,告诉模型该往哪走才能让预测更准,怎么看都是个方向概念,为啥名字里带个“度”字? 这事儿得从数学老祖宗的“起名艺术”和它的真实本领说起。 先给结论:梯度的“度”,不是“角 阅读全文
posted @ 2025-12-07 21:36 wangya216 阅读(20) 评论(0) 推荐(0)
摘要: 不同深度学习框架中实现人工神经元基本计算单元的模块对比 在人工神经网络中,最核心的计算单元遵循统一的数学形式: \[\mathbf{y} = f(\mathbf{W}\mathbf{x} + \mathbf{b}) \]其中: \(\mathbf{x}\) 是输入向量, \(\mathbf{W}\) 阅读全文
posted @ 2025-12-07 21:04 wangya216 阅读(6) 评论(0) 推荐(0)
摘要: 一文读懂激活函数 激活函数是让神经网络从“只能拟合直线”变成“能拟合复杂曲线”的关键。没有激活函数,再深的神经网络也只是个“线性回归的堆叠”;有了激活函数,神经网络才能识别图像、翻译语言、预测复杂规律。 今天我们就用通俗的语言,讲透激活函数的核心逻辑:它是什么、为什么需要它、常用激活函数有哪些,以及 阅读全文
posted @ 2025-12-07 20:46 wangya216 阅读(49) 评论(0) 推荐(1)
摘要: 一文读懂MindSpore的construct方法:神经网络的“自动流水线” 在MindSpore里写神经网络时,总有个绕不开的construct方法——它既不用我们手动调用,却能让模型自动完成从输入到输出的计算。很多新手会疑惑:这方法到底是干啥的?啥时候会跑起来?为啥不能直接写个forward函数 阅读全文
posted @ 2025-12-07 20:26 wangya216 阅读(8) 评论(0) 推荐(0)
摘要: 实操教程:MindSpore中确定神经网络隐藏层与输出层神经元数量 在神经网络建模中,隐藏层/输出层神经元数量的配置直接决定模型性能。不合理的设置会导致欠拟合、过拟合或训练收敛困难。本文基于MindSpore框架,通过理论+完整代码实操,系统讲解输出层与隐藏层神经元数量的确定逻辑,涵盖鸢尾花3分类、 阅读全文
posted @ 2025-12-07 20:25 wangya216 阅读(7) 评论(0) 推荐(0)
摘要: scikit-learn 能否做深度学习?——兼谈不同神经元数量的模型对比实验实现 在机器学习工具选型中,很多人会有一个疑问:scikit-learn(简称sklearn)只支持传统机器学习,不包含深度学习功能吗? 答案是:不完全准确。sklearn 的核心定位是传统机器学习(如决策树、SVM、逻辑 阅读全文
posted @ 2025-12-07 20:15 wangya216 阅读(9) 评论(0) 推荐(0)