摘要: Traceback (most recent call last): File "/home/software/anaconda3/envs/bert_env/lib/python3.7/site-packages/autosklearn/automl.py", line 634, in fit s 阅读全文
posted @ 2023-10-08 17:50 emanlee 阅读(43) 评论(0) 推荐(0)
摘要: 在 UCSC Genome Browser 中进行的操作都会保存在当前的URL (浏览器中输入网址信息的输入框中的文本)中,可以分享给别人打开查看。 UCSC Genome Browser Gateway:https://genome.ucsc.edu/cgi-bin/hgGateway https 阅读全文
posted @ 2023-10-08 09:29 emanlee 阅读(763) 评论(0) 推荐(0)
摘要: http://mitra.stanford.edu/kundaje/akundaje/release/blacklists/hg38-human/hg38.blacklist.bed.gz 黑名单:顾名思义,就是有问题的区域!具体怎么定义,包含哪些信息呢?咱来详细唠一唠: 在The ENCODE B 阅读全文
posted @ 2023-10-08 09:29 emanlee 阅读(763) 评论(0) 推荐(0)
摘要: 关于关闭浏览器选项卡后保持 Jupyter notebook 运行 最简单的解决方法似乎是 内置单元魔法 %%capture: %%capture output # Time-consuming code here 保存,关闭标签,稍后回来.输出现在存储在 output 变量中: output.sh 阅读全文
posted @ 2023-10-08 09:28 emanlee 阅读(1666) 评论(0) 推荐(0)
摘要: shape[-1] 首先需要知道,对于二维张量,shape[0] 代表行数,shape[1] 代表列数,同理,三维张量还有 shape[2]; 一般来说 -1 代表最后一个,所以shape[-1]代表最后一个维度,如在二维张量里,shape[-1]表示列数,注意,即使是一维行向量,shape[-1] 阅读全文
posted @ 2023-10-08 09:27 emanlee 阅读(592) 评论(0) 推荐(0)
摘要: keras.optimizers.Adam(learning_rate=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False) learning_rate: float >= 0. 学习率。 beta_1: f 阅读全文
posted @ 2023-10-08 09:26 emanlee 阅读(123) 评论(0) 推荐(0)
摘要: Input()参数解析 layers.Input( shape=None, batch_size=None, name=None, dtype=None, sparse=False, tensor=None, ragged=False, **kwargs,)Returns: A tensor. 参数 阅读全文
posted @ 2023-10-08 09:26 emanlee 阅读(2323) 评论(0) 推荐(0)
摘要: 本文章向大家介绍Keras(七)Keras.layers各种层介绍,主要包括Keras(七)Keras.layers各种层介绍使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。 一、网络层 keras的层主要包括: 常用层(Core)、卷积层(Convol 阅读全文
posted @ 2023-10-08 09:26 emanlee 阅读(1308) 评论(0) 推荐(0)
摘要: tf.keras.backend.int_shape函数 tf.keras.backend.int_shape(x) 定义在:tensorflow/python/keras/backend.py。 返回张量或变量的shape,作为int或None条目的元组。 参数: x:张量或变量。 返回: 整数元 阅读全文
posted @ 2023-10-08 09:25 emanlee 阅读(133) 评论(0) 推荐(0)
摘要: 空间数据的全局平均池化操作。 一张图片通过卷积核提取特征,有几个卷积核就有几个特征。一张图片需要经过几次卷积,每次卷积时卷积核的个数都按2的n次方增加。第一次卷积, 卷积核2个, 得2张图,池化压缩长宽;第二次卷积, 卷积核4个, 得4张图,池化压缩长宽;因为卷积次数有限,池化大小默认(2,2),因 阅读全文
posted @ 2023-10-08 09:25 emanlee 阅读(615) 评论(0) 推荐(0)
摘要: Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。如果本层的输入数据的维度大 阅读全文
posted @ 2023-10-08 09:25 emanlee 阅读(183) 评论(0) 推荐(0)
摘要: Keras Multiply Multiply 层的函数接口。 该层接收一个列表的同shape张量,并返回它们的逐元素积的张量,shape不变。 用法 tf.keras.layers.multiply( inputs, **kwargs ) 参数 inputs 输入张量列表(至少 2 个)。 **k 阅读全文
posted @ 2023-10-08 09:25 emanlee 阅读(204) 评论(0) 推荐(0)
摘要: Keras MaxPooling2D 2D最大池化层keras.layers.MaxPooling2D(pool_size=(2, 2), strides=None, padding='valid', data_format=None)参数详解 pool_size: 池化窗口大小 strides: 阅读全文
posted @ 2023-10-08 09:25 emanlee 阅读(315) 评论(0) 推荐(0)
摘要: Keras Flatten 作用:Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。例子: from keras.models import Sequential from keras.layers.core import 阅读全文
posted @ 2023-10-08 09:24 emanlee 阅读(371) 评论(0) 推荐(0)
摘要: 一、Keras 中使用 Dropout 正则化减少过度拟合Dropout正则化是最简单的神经网络正则化方法。其原理非常简单粗暴:任意丢弃神经网络层中的输入,该层可以是数据样本中的输入变量或来自先前层的激活。它能够模拟具有大量不同网络结构的神经网络,并且反过来使网络中的节点更具有鲁棒性。阅读完本文,你 阅读全文
posted @ 2023-10-08 09:24 emanlee 阅读(163) 评论(0) 推荐(0)
摘要: Keras Model https://cloud.tencent.com/developer/article/2162930 Keras 模型 Keras提供的模型,其中分为两类: Sequential 顺序模型 Model 类模型 我们可以通过 from keras.models import 阅读全文
posted @ 2023-10-08 09:24 emanlee 阅读(416) 评论(0) 推荐(0)
摘要: 2023-02-04 22:17:02.457962: I tensorflow/stream_executor/cuda/cuda_driver.cc:831] failed to allocate 152.00M (159383552 bytes) from device: CUDA_ERROR 阅读全文
posted @ 2023-10-08 09:22 emanlee 阅读(125) 评论(0) 推荐(0)
摘要: Dead kernel Jupyter notebook 出现 Dead kernel 原因: GPU内存(显存)不够用了。 阅读全文
posted @ 2023-10-08 09:21 emanlee 阅读(44) 评论(0) 推荐(0)
摘要: https://zhuanlan.zhihu.com/p/371296750 https://zhuanlan.zhihu.com/p/420954745 CAM目标检测 https://zhuanlan.zhihu.com/p/564056982 首先CAM是什么?CAM全称Class Activ 阅读全文
posted @ 2023-10-08 09:21 emanlee 阅读(685) 评论(0) 推荐(0)
摘要: 目标检测(Object Detection),也叫目标提取,是一种基于目标几何和统计特征的图像分割。它将目标的分割和识别合二为一,其准确性和实时性是整个系统的一项重要能力。 尤其是在复杂场景中,需要对多个目标进行实时处理时,目标自动提取和识别就显得特别重要。 1. 什么是目标检测1.1 目标检测的定 阅读全文
posted @ 2023-10-08 09:21 emanlee 阅读(1591) 评论(0) 推荐(0)
摘要: Good : https://blog.csdn.net/qq_46378251/article/details/128773539 https://blog.csdn.net/m0_59286668/article/details/128768117 https://www.jianshu.com 阅读全文
posted @ 2023-10-08 09:21 emanlee 阅读(97) 评论(0) 推荐(0)
摘要: https://www.laike.net/article-11-295083-0.html 使用K.function()调试keras操作 Keras的底层库使用Theano或TensorFlow,这两个库也称为Keras的后端。无论是Theano还是TensorFlow,都需要提前定义好网络的结 阅读全文
posted @ 2023-10-08 09:05 emanlee 阅读(256) 评论(0) 推荐(0)
摘要: LaTex's package manager tlmgr tlmgr是TeX Live中包含的包和配置管理器的名称。它完全独立于操作系统可能提供的任何包管理器。您可以运行 tlmgr --help 查看命令 yum -y install texlive-xetex texlive-fonts-re 阅读全文
posted @ 2023-10-08 09:05 emanlee 阅读(433) 评论(0) 推荐(0)
摘要: AttributeError Traceback (most recent call last) /tmp/ipykernel_23207/4182898696.py in <module> 45 monitor='loss') # 由于 46 > 47 history = model.fit(x_ 阅读全文
posted @ 2023-10-08 09:03 emanlee 阅读(408) 评论(0) 推荐(0)
摘要: 视频: https://www.bilibili.com/video/BV1sA41157Fk/?spm_id_from=333.337.search-card.all.click&vd_source=6292df769fba3b00eb2ff1859b99d79e https://www.bili 阅读全文
posted @ 2023-10-08 09:02 emanlee 阅读(49) 评论(0) 推荐(0)
摘要: 多模态预训练CLIP https://zhuanlan.zhihu.com/p/477760524 先导知识 残差网络 Transformer 前言 CLIP(Contrastive Language–Image Pre-training)[1]是OpenAI的第一篇多模态预训练的算法,它延续了GP 阅读全文
posted @ 2023-10-08 09:01 emanlee 阅读(542) 评论(0) 推荐(0)
摘要: 文本分类 转自 https://mp.weixin.qq.com/s/0hKzedHimfPtWgzEk49YzA https://mp.weixin.qq.com/s/0hKzedHimfPtWgzEk49YzA A Survey on Text Classification: From Shal 阅读全文
posted @ 2023-10-08 08:58 emanlee 阅读(67) 评论(0) 推荐(0)
摘要: 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。 本文将分 3 期进行连载,共介绍 20 个在文本分类 阅读全文
posted @ 2023-10-08 08:58 emanlee 阅读(226) 评论(0) 推荐(0)
摘要: https://mp.weixin.qq.com/s/f5SkoWD4BY_HDWfPi5R5ng 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含 阅读全文
posted @ 2023-10-08 08:58 emanlee 阅读(539) 评论(0) 推荐(0)
摘要: centos ntfs Centos系统服务器挂载硬盘(ntfs格式和exfat格式) ntfs格式硬盘挂载 首先安装ntfs-3g yum install ntfs-3g 安装成功后挂载: mount.ntfs-3g /dev/sdh disk_tmp 阅读全文
posted @ 2023-10-08 08:53 emanlee 阅读(256) 评论(0) 推荐(0)
摘要: Centos安装I219-LM网卡驱动 https://chuna2.787528.xyz/marixh/p/16927623.html 查询适合我的网卡命令: 1 2 [root@192 src]# lspci|grep net 00:1f.6 Ethernet controller: Intel C 阅读全文
posted @ 2023-10-08 08:53 emanlee 阅读(496) 评论(0) 推荐(0)
摘要: https://chuna2.787528.xyz/dyh-air/p/9257237.html git push git push命令用于将本地分支的更新,推送到远程主机。它的格式与git pull命令相仿。 $ git push <远程主机名> <本地分支名>:<远程分支名> 注意:这里的:前后是必 阅读全文
posted @ 2023-10-08 08:51 emanlee 阅读(66) 评论(0) 推荐(0)
摘要: 连续词袋模型(CBOW) Word2vec模型可用来映射每个词到一个向量。 Google 公司在 2013年开放了 Word2vec这一款用于训练词向量的软件工具。Word2vec 可以根据给定的语料库,通过优化后的训练模型快速有效地将一个词语表达成向量形式,为自然语言处理领域的应用研究提供了新的工 阅读全文
posted @ 2023-10-08 08:47 emanlee 阅读(92) 评论(0) 推荐(0)
摘要: 安装: https://aka.ms/vs/16/release/vc_redist.x64.exe安装之后重启。 pip install scikit-learn -i https://pypi.tuna.tsinghua.edu.cn/simple 如何在python中pip安装boto3 在p 阅读全文
posted @ 2023-10-08 08:46 emanlee 阅读(521) 评论(0) 推荐(0)
摘要: REF https://new.qq.com/rain/a/20210314A024L600 http://news.sohu.com/a/593842474_185201 https://www.modb.pro/db/228241 表格式数据领域仍然主要以梯度提升决策树(GBDT)算法为主导。 阅读全文
posted @ 2023-10-08 08:45 emanlee 阅读(149) 评论(0) 推荐(0)
摘要: Python是如何被解释执行的 https://www.zhihu.com/question/401754962/answer/2411977049 https://baijiahao.baidu.com/s?id=1714042589101426350&wfr=spider&for=pc http 阅读全文
posted @ 2023-10-08 08:44 emanlee 阅读(153) 评论(0) 推荐(0)
摘要: Sante DICOM Editor官方版是业界领先的DICOM文件编辑和操作应用程序,这款软件可以对拍摄的病人影像数据进行调整,可以标注影像的图像区域,可以立即将诊断的结果显示在报告上,方便您通过Sante DICOM Editor管理自己的DICOM影像数据。 3D Slicer对输入数据进行三 阅读全文
posted @ 2023-10-08 08:43 emanlee 阅读(263) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/v_JULY_v/article/details/102708459 word2vec是一种将word转为向量的方法,其包含两种算法,分别是skip-gram和CBOW,它们的最大区别是skip-gram是通过中心词去预测中心词周围的词,而CBOW是通过周 阅读全文
posted @ 2023-10-08 08:43 emanlee 阅读(2357) 评论(0) 推荐(1)
摘要: RNN 无法并行 我们先看一个典型的基于RNN的Encoder-Decoder结构 输入是:“机器学习“,输出是“machine learning”。模型的大概工作时序是:Encoder部分,输入序列逐个送进RNN,计算出最后时刻的隐藏状态c,作为上下文信息传给Decoder。Decoder部分,将 阅读全文
posted @ 2023-10-08 08:41 emanlee 阅读(1559) 评论(0) 推荐(1)
摘要: https://www.rethink.fun/ https://www.bilibili.com/video/BV1do3LzUE6q/ 📚 深度学习入门好书推荐 1. “鱼书”《深度学习入门:基于Python的理论与实践》 🐟 这本书是深度学习入门的经典之作,豆瓣评分高达9.5。从基础概念到 阅读全文
posted @ 2023-10-08 08:41 emanlee 阅读(143) 评论(0) 推荐(0)
摘要: Windows Defender是windows10系统自带的杀毒软件。默认情况下它处于打开的状态。大多数第三方的杀毒软件都可以识别,并代替它。 但是大多数情况下,我们总是有各种理由需要关闭它,例如 Windows Defender 导致资源使用率高或系统出现其他问题,尤其是下载文件,误删除的概率极 阅读全文
posted @ 2023-10-08 08:39 emanlee 阅读(51665) 评论(2) 推荐(1)
摘要: Towards Data Science: https://towardsdatascience.com/ FQ GOODKDnuggets: https://www.kdnuggets.com/Analytics Vidhya: https://www.analyticsvidhya.com/ F 阅读全文
posted @ 2023-10-08 08:39 emanlee 阅读(444) 评论(0) 推荐(0)
摘要: 8 Innovative BERT Knowledge Distillation Papers That Have Changed The Landscape of NLP Contemporary state-of-the-art NLP models are difficult to be ut 阅读全文
posted @ 2023-10-08 08:39 emanlee 阅读(30) 评论(0) 推荐(0)
摘要: 动手学Bert文本分类-Pytorch实现 https://www.bilibili.com/video/BV1FT4y1G7Rs?p=3&vd_source=6292df769fba3b00eb2ff1859b99d79e BERT代码(源码)从零解读【Pytorch-手把手教你从零实现一个BER 阅读全文
posted @ 2023-10-08 08:19 emanlee 阅读(38) 评论(0) 推荐(0)
摘要: python next iter https://blog.csdn.net/weixin_42782150/article/details/109315355 Python 的列表推导式在处理的数据量很大的时候,性能会有所下降。因为很多时候用户并不需要一下子取出所有数据,只是在需要的时候才拿,这时 阅读全文
posted @ 2023-10-08 08:19 emanlee 阅读(71) 评论(0) 推荐(0)
摘要: https://www.zotero.org/ Zotero is a free, easy-to-use tool to help you collect, organize, annotate, cite, and share research. https://www.gingersoftwa 阅读全文
posted @ 2023-10-08 08:18 emanlee 阅读(29) 评论(0) 推荐(0)
摘要: python pandas.DataFrame.plot( )画图 DataFrame.plot(x=None, y=None, kind='line', ax=None, subplots=False, sharex=None, sharey=False, layout=None,figsize= 阅读全文
posted @ 2023-10-08 08:17 emanlee 阅读(401) 评论(0) 推荐(0)
摘要: TextCNN 一、TextCNN详解1、TextCNN是什么 我们之前提到CNN时,通常会认为属于CV领域,是用于解决计算机视觉方向问题的模型,但是在2014年,Yoon Kim针对CNN的输入层做了一些变形,提出了文本分类模型TextCNN。与传统图像的CNN网络相比,TextCNN 在网络结构 阅读全文
posted @ 2023-10-08 08:17 emanlee 阅读(209) 评论(0) 推荐(0)
摘要: squeeze() 函数:从数组的形状中删除单维度条目,即把shape中为1的维度去掉用法:numpy.squeeze(a,axis = None) a表示输入的数组; axis用于指定需要删除的维度,但是指定的维度必须为单维度,否则将会报错; axis的取值可为None 或 int 或 tuple 阅读全文
posted @ 2023-10-08 08:17 emanlee 阅读(404) 评论(0) 推荐(0)
摘要: Chinese-Text-Classification Github项目地址: https://github.com/JackHCC/Chinese-Text-Classification-PyTorch 作者:JackHCC 链接:https://www.jianshu.com/p/9438fd0 阅读全文
posted @ 2023-10-08 08:15 emanlee 阅读(668) 评论(0) 推荐(0)
摘要: Microsoft Visual C++ Redistributable is not installed, this may lead to the DLL load failure. It can be downloaded at https://aka.ms/vs/16/release/vc_ 阅读全文
posted @ 2023-10-08 08:15 emanlee 阅读(211) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-10-08 08:13 emanlee 阅读(0) 评论(0) 推荐(0)
摘要: 将第一层卷积层和最末层权值乘以负一,除最末层的所有偏置量也都乘以负一,这样的话,你把所有最大池化改成最小池化,结果一模一样。说明最大池化和最小池化的解空间是相等的。 用最大池化是前辈们的习惯,你如果硬生生要用最小池化也无妨。 补充:这里我也有说的不是很严谨的地方。最大池化和最小池化解空间一样仅仅针对 阅读全文
posted @ 2023-10-08 08:12 emanlee 阅读(50) 评论(0) 推荐(0)
摘要: 修改django启动时绑定的IP和端口 python manage.py runserver IP:port 例如: python manage.py runserver 192.168.1.100:8088 python–django项目如何设置用自己的iP地址访问项目 1、首先需要执行>mana 阅读全文
posted @ 2023-10-08 08:11 emanlee 阅读(902) 评论(0) 推荐(0)
摘要: 可以用下面这张图大致理解注意力层和卷积层以及全连接层的主要区别。右边分别是全局注意力层和局部注意力层,最典型的自注意力可以认为是局部注意力的一种。注意力层中的连线颜色表明这些权重在不断变化,而在卷积层和全连接层中它们通过梯度下降缓慢变化。 在神经网络中,注意力机制的计算公式通常是这样的: 其中, 表 阅读全文
posted @ 2023-10-08 08:11 emanlee 阅读(124) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-10-08 08:11 emanlee 阅读(0) 评论(0) 推荐(0)
摘要: 情感/观点/评论 倾向性分析ChnSentiCorp_htl_all 数据集数据概览:7000 多条酒店评论数据,5000 多条正向评论,2000 多条负向评论下载地址:https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datase 阅读全文
posted @ 2023-10-08 08:10 emanlee 阅读(683) 评论(0) 推荐(0)
摘要: https://jalammar.github.io/a-visual-guide-to-using-bert-for-the-first-time/ A Visual Guide to Using BERT for the First Time Translations: Chinese, Kor 阅读全文
posted @ 2023-10-08 08:10 emanlee 阅读(62) 评论(0) 推荐(0)
摘要: 现在我们使用计算机时,用的大多数都是计算机的高级语言,编制程序来告诉计算机“做什么”,怎么做的。对计算机的利用带来了诸多不便,也严重影响了计算机应用的进一步推广。理解自然语言,也可以称为自然语言的处理,语言虽然表示成一连串文字符号或一连串声音流,但内部其实是一个层次化的结构,从语言的构成中就可以清楚 阅读全文
posted @ 2023-10-08 08:08 emanlee 阅读(565) 评论(0) 推荐(0)
摘要: https://paperswithcode.com/sota/time-series-forecasting-on-etth2-48?p=informer-beyond-efficient-transformer-for 时序数据预测 https://colab.research.google.c 阅读全文
posted @ 2023-10-08 08:07 emanlee 阅读(107) 评论(0) 推荐(0)
摘要: Vali Loss: nan Test Loss: nan Training loss is decreasing while validation loss is NaN https://discuss.pytorch.org/t/training-loss-is-decreasing-while 阅读全文
posted @ 2023-10-08 08:07 emanlee 阅读(43) 评论(0) 推荐(0)
摘要: 直接打开 py 文件,不会出现工具栏 阅读全文
posted @ 2023-10-08 08:06 emanlee 阅读(450) 评论(0) 推荐(0)
摘要: 目录informer相关模型数据集划分模型参数跑通自定义数据集预测结果可视化informer相关 论文:https://arxiv.org/abs/2012.07436 感谢论文作者对AI科学做出的贡献,才能像我这种普通人能有机会接触这么nice的文章。作者的github:GitHub - zhou 阅读全文
posted @ 2023-10-08 08:06 emanlee 阅读(2770) 评论(0) 推荐(0)
摘要: 针对Informer中时序数据ETT油温数据分析针对Informer中时序数据ETT油温数据分析 油温数据介绍 数据问题介绍 数据分析油温数据介绍电力变压器油温数据,由国家电网提供,该数据集是来自中国同一个省的两个不同县的变压器数据,时间跨度为2年,原始数据每分钟记录一次(用 m 标记),每个数据集 阅读全文
posted @ 2023-10-08 08:04 emanlee 阅读(984) 评论(0) 推荐(0)
摘要: https://openreview.net/forum?id=J4gRj6d5Qm Q1: For time series without clear periodicity, whether Auto-Correlation still works or not? In Table 3 of m 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(46) 评论(0) 推荐(0)
摘要: Our results show that DLinear outperforms existing complex Transformer-based models in most cases by a large margin. In particular, for the Exchange-R 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(89) 评论(0) 推荐(0)
摘要: While some deep learning models discover dependencies in decomposed time series, they are not good at capturing local dynamics and long-term dependenc 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(31) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_44790306/article/details/124064177 摘要本周一是对Informer论文的阅读,其关注的问题依然是长时间序列预测问题。也是从self-attention 机制的缺陷出发,做了一些优化于改进工作,像ProbSpa 阅读全文
posted @ 2023-10-08 08:02 emanlee 阅读(1717) 评论(0) 推荐(0)
摘要: Informer: 一个基于Transformer的效率优化的长时间序列预测模型 Informer创新点介绍 ProbSparse self-attention self-attention蒸馏机制 一步Decoder 实验结果 总结 Informer: Beyond Efficient Trans 阅读全文
posted @ 2023-10-08 08:02 emanlee 阅读(924) 评论(0) 推荐(0)
摘要: 参数量方法一:pytorch自带方法,计算模型参数总量 参数量方法二: summary的使用:来自于torchinfo第三方库 参数量方法三: summary的使用:来自于torchsummary第三方库 计算量方法一:thop的使用,输出计算量FLOPs和参数量parameter我们通常要通过计算 阅读全文
posted @ 2023-10-08 08:01 emanlee 阅读(8842) 评论(0) 推荐(0)
摘要: https://www.zhihu.com/question/547837668 https://www.zhihu.com/question/24021704 https://www.zhihu.com/question/24021704/answer/2245867156 傅立叶原理表明:任何连 阅读全文
posted @ 2023-10-08 08:01 emanlee 阅读(80) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_49967436/article/details/121736079 3.1.Multi-Head Attention(图2-红色圆圈部分,图3-红色长方体) 3.2.Self-sttention Distilling(图2-蓝色圆圈部分,图 阅读全文
posted @ 2023-10-08 07:59 emanlee 阅读(97) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-10-08 07:53 emanlee 阅读(0) 评论(0) 推荐(0)
摘要: pytorch permute permute(dims)将tensor的维度换位。参数:参数是一系列的整数,代表原来张量的维度。比如三维就有0,1,2这些dimension。例: import torch import numpy as np a=np.array([[[1,2,3],[4,5,6 阅读全文
posted @ 2023-10-08 07:53 emanlee 阅读(42) 评论(0) 推荐(0)
摘要: https://www.bilibili.com/video/BV1m14y1a74s/?spm_id_from=333.337.search-card.all.click&vd_source=6292df769fba3b00eb2ff1859b99d79e 阅读全文
posted @ 2023-10-08 07:53 emanlee 阅读(124) 评论(0) 推荐(0)
摘要: pytorch transpose >>> x = torch.randn(2, 3)>>> xtensor([[ 1.0028, -0.9893, 0.5809], [-0.1669, 0.7299, 0.4942]])>>> torch.transpose(x, 0, 1)tensor([[ 1 阅读全文
posted @ 2023-10-08 07:52 emanlee 阅读(82) 评论(0) 推荐(0)
摘要: 全文 https://ieeexplore.ieee.org/document/7526959 Soft Exponential Activation Function A Soft Exponential Activation Function is a parametric neuron act 阅读全文
posted @ 2023-10-08 07:50 emanlee 阅读(33) 评论(0) 推荐(0)