会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zylyehuo
博客地址: https://chuna2.787528.xyz/zylyehuo/ github地址:https://github.com/zylyehuo gitee地址:https://gitee.com/zylyehuo
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
···
14
下一页
2025年7月26日
UE4 运行卡顿解决方法
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 将这个选项取消勾选
阅读全文
posted @ 2025-07-26 22:58 zylyehuo
阅读(16)
评论(0)
推荐(0)
2025年7月17日
机器学习主要算法全称整理
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 参考 《动手学深度学习》第二版 参考 【王树森】深度强化学习(DRL) ├── 机器学习 (ML) - 让计算机系统从数据中“学习”规律,无需显式编程。 ├── 传统机器学习方法 (非神经网络为主) │ ├── 监督学习
阅读全文
posted @ 2025-07-17 21:17 zylyehuo
阅读(115)
评论(0)
推荐(0)
2025年7月14日
Python安装低版本gym库
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 第一步 pip install gym==0.26.1 第二步 不要卸载最新的版本,直接pip安装指定的低版本 pip install gym==0.22.0
阅读全文
posted @ 2025-07-14 22:04 zylyehuo
阅读(21)
评论(0)
推荐(0)
2025年7月12日
Transformer 架构
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 参考 强烈推荐!台大李宏毅自注意力机制和Transformer详解! Inference Encoder Decoder AT NAT Encoder-Decoder Train
阅读全文
posted @ 2025-07-12 23:35 zylyehuo
阅读(14)
评论(0)
推荐(0)
多头自注意力机制(Multi-head Self-attention)
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 参考 强烈推荐!台大李宏毅自注意力机制和Transformer详解!
阅读全文
posted @ 2025-07-12 21:49 zylyehuo
阅读(23)
评论(0)
推荐(0)
自注意力机制(Self-attention)
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 参考 强烈推荐!台大李宏毅自注意力机制和Transformer详解! 基本思路 利用矩阵乘法,实现并行计算
阅读全文
posted @ 2025-07-12 21:19 zylyehuo
阅读(19)
评论(0)
推荐(0)
2025年7月11日
卷积神经网络(LeNet)
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 一、导入所用库 import torch from torch import nn from d2l import torch as d2l 二、自定义重塑层 class Reshape(nn.Module): def f
阅读全文
posted @ 2025-07-11 21:28 zylyehuo
阅读(241)
评论(0)
推荐(0)
多层感知机的从零开始实现
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 基本设置 import torch from torch import nn from d2l import torch as d2l batch_size = 256 train_iter, test_iter = d2
阅读全文
posted @ 2025-07-11 21:08 zylyehuo
阅读(35)
评论(0)
推荐(0)
【线性回归】使用 PyTorch 手写一个线性回归从零开始的训练过程
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 一. 数据准备阶段 1. 导入库 %matplotlib inline import random import matplotlib.pyplot as plt import torch from d2l import
阅读全文
posted @ 2025-07-11 14:55 zylyehuo
阅读(20)
评论(0)
推荐(0)
2025年7月5日
卷积神经网络(多输入多输出通道)
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/
阅读全文
posted @ 2025-07-05 20:30 zylyehuo
阅读(17)
评论(0)
推荐(0)
2025年7月1日
文献整理及阅读(zotero+小绿鲸)
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ zotero Zotero7保姆级教程|科研党/研究生必备文献管理终极指南 小绿鲸 平板上面也可以使用小绿鲸,平板与电脑可同步操作 SCI阅读 竟能如此丝滑?Zotero+小绿鲸超级联动
阅读全文
posted @ 2025-07-01 23:33 zylyehuo
阅读(41)
评论(0)
推荐(0)
多层感知机示例:逐行解析
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 多层感知机(MLP)训练过程 可以把多层感知机(MLP)的训练过程想象成“小学生做练习题 + 老师批改并讲解”的一个循环 1. 拿到一张“试卷”(输入数据) 每次训练,我们从训练集中抽一小批图片(比如 256 张 28×2
阅读全文
posted @ 2025-07-01 19:05 zylyehuo
阅读(220)
评论(0)
推荐(0)
2025年6月30日
典型深度学习训练流程
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 用最通俗的“做菜”比喻来讲讲一个典型的深度学习训练流程: 1. 准备食材(数据准备) 食材:时尚服饰图片 + 标签(比如“鞋子”“衬衫”) 切菜:把图片分成「训练集」和「测试集」,一次处理一小盘(batch),这样不会下锅
阅读全文
posted @ 2025-06-30 20:26 zylyehuo
阅读(242)
评论(0)
推荐(1)
激活函数整理
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ 参考:https://blog.csdn.net/qq_42691298/article/details/126590726 为什么要使用激活函数 如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,
阅读全文
posted @ 2025-06-30 17:55 zylyehuo
阅读(42)
评论(0)
推荐(0)
2025年6月26日
黄金组合【Latex + TexStudio + Mendely + Overleaf + Git】
摘要: 博客地址:https://chuna2.787528.xyz/zylyehuo/ “工欲善其事必先利其器” “像写代码一样写论文,论文给人类读,代码给机器读” ① Latex 高效率排版语言 【胎教级LaTeX排版教程】可能是全网最全最细的LaTeX排版教程,数学建模美赛和科研党的福音 ② TexStu
阅读全文
posted @ 2025-06-26 15:54 zylyehuo
阅读(39)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
···
14
下一页
公告