摘要:
Step-Aware TCN-MLP模型通俗解读:带“步长注意力”的时序卷积升级版 Step-Aware TCN-MLP是步长感知(Step-Aware)时序卷积网络(TCN) 与多层感知机(MLP)的组合模型——核心是在你已理解的普通TCN-MLP基础上,增加“时序步长感知机制”,让模型能主动区分 阅读全文
posted @ 2025-12-13 08:35
wangya216
阅读(4)
评论(0)
推荐(0)
摘要:
TCN-MLP模型通俗解读:“卷积版时序特征提取器”替代RNN的高效组合 TCN-MLP是时序卷积网络(Temporal Convolutional Network,TCN) 与多层感知机(Multi-Layer Perceptron,MLP) 的组合模型——核心逻辑是:用TCN(专为时序数据设计的 阅读全文
posted @ 2025-12-13 08:30
wangya216
阅读(19)
评论(0)
推荐(0)
摘要:
LSTM通俗解读:带“智能记忆开关”的RNN LSTM是Long Short-Term Memory(长短期记忆网络) 的缩写,是循环神经网络(RNN)的“升级版”——核心解决了传统RNN处理长序列数据时的“梯度消失”问题,能精准记住“长期重要信息”、忘掉“短期无关信息”,就像人读长篇小说时,能记住 阅读全文
posted @ 2025-12-13 07:55
wangya216
阅读(19)
评论(0)
推荐(0)
摘要:
卷积通俗解读:CNN的“特征提取放大镜” 卷积(Convolution)是卷积神经网络(CNN)的核心操作,本质是用一个“小模板(卷积核/过滤器)”在数据(比如图像、语音)上滑动,逐区域计算“模板与数据的匹配度”,从而提取局部特征(比如图像的边缘、纹理,语音的频率特征)。 你可以把卷积理解为:用一个 阅读全文
posted @ 2025-12-13 02:16
wangya216
阅读(7)
评论(0)
推荐(0)
摘要:
卷积核的来源——从“手工设计”到“模型自学” 卷积核的来源分两个阶段:传统图像处理中是人工手动设计,而深度学习的CNN中,卷积核是模型通过训练自动“学出来”的可学习参数(和你之前学的线性回归里的权重w、偏置b本质一样,都是训练优化的目标)。 一、传统图像处理:手工设计卷积核(固定规则,无学习) 在深 阅读全文
posted @ 2025-12-13 02:15
wangya216
阅读(7)
评论(0)
推荐(0)
摘要:
RNN通俗解读:带“记忆”的神经网络 RNN是Recurrent Neural Network(循环神经网络) 的缩写,核心是解决「序列数据」的处理问题——和CNN处理空间结构数据(如图像)不同,RNN专门处理有“先后顺序”的序列数据(比如文本、语音、时间序列),因为它自带“记忆功能”,能把前一步的 阅读全文
posted @ 2025-12-13 01:59
wangya216
阅读(7)
评论(0)
推荐(0)
摘要:
这是一个非常实际且关键的问题!答案是: 通常,池化层(如 MaxPooling)并不是在“所有卷积层之后统一做一次”,而是 在多个卷积层之后(常见是1~2个)插入一个池化层**,形成“卷积 → 卷积 → 池化”的模块化堆叠结构。 一、典型 CNN 架构中的卷积-池化模式 以经典网络为例: ✅ Ale 阅读全文
posted @ 2025-12-13 01:53
wangya216
阅读(3)
评论(0)
推荐(0)
摘要:
有。 一、自学习参数(Learnable Parameters / Model Parameters) ✅ 定义 由模型在训练过程中自动学习的参数,通过反向传播 + 优化器(如SGD、Adam)不断更新,目标是最小化损失函数。 🔧 典型例子 组件 自学习参数 全连接层(Dense/Linear) 阅读全文
posted @ 2025-12-13 01:20
wangya216
阅读(4)
评论(0)
推荐(0)
摘要:
这是一个非常关键且常见的问题。简明回答如下: 不是“每个神经元”单独负责一个特征,也不是“整层”作为一个整体提取一个特征,而是: 每一层的多个神经元协同工作 下面我们从机制、实例和认知三个层面展开说明。 一、机制层面:神经元是“特征检测器”,层是“特征抽象层级” ✅ 每个神经元 ≈ 一个可学习的特征 阅读全文
posted @ 2025-12-13 01:16
wangya216
阅读(3)
评论(0)
推荐(0)

浙公网安备 33010602011771号