上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 19 下一页
摘要: [轻量化网络]MobileNet V2学习笔记 谷歌轻量化卷积神经网络MobileNet V2,用于移动端实时边缘计算部署。 构建先升维后降维,在降维时使用线性激活函数,带残差的Inverted bottleck模块,防止ReLU信息丢失。 在图像分类、目标检测、语义分割等任务上实现了网络轻量化、速度和准确度的权衡。 阅读全文
posted @ 2022-09-22 18:30 大师兄啊哈 阅读(1911) 评论(0) 推荐(0)
摘要: [轻量化网络]MobileNet V1学习笔记 MobileNet V1是谷歌2017年提出的轻量化卷积神经网络,用于在移动端、边缘终端设备上进行实时边缘计算和人工智能推理部署。 使用深度可分离卷积Depthwise Separable Convolution,在保证准确度性能的基础上,将参数量、计算量压缩为标准卷积的八到九分之一。引入网络宽度超参数和输入图像分辨率超参数,进一步控制网络尺寸。 在ImageNet图像分类、Stanford Dog细粒度图像分类、目标检测、人脸属性识别、人脸编码、以图搜地等计算机视觉任务上,结合知识蒸馏进行评估,MobileNet表现出极致的轻量化和速度性能。 阅读全文
posted @ 2022-09-19 19:31 大师兄啊哈 阅读(1333) 评论(0) 推荐(1)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/16076569.html 如果你和我一样是一个后端开发者,那么日志就是通向你的应用的窗口了。不像前端,后端应用除了日志信息外没多少可以直接看到的东西。以下是我写日志的时候,遵循的一些个人原则。 记在后而非前 想当年, 阅读全文
posted @ 2022-03-30 13:18 大师兄啊哈 阅读(171) 评论(0) 推荐(0)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/16054955.html 1. 原因 librosa库在读取wav的时候,是直接用自己的库进行读取分析的,但是如果是mp3,则会调用ffmpeg作为后端进行解析,而调用的方式,是使用系统调用ffmpeg命令进行解码。 阅读全文
posted @ 2022-03-25 15:36 大师兄啊哈 阅读(1948) 评论(0) 推荐(0)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/15989783.html 1. 工程结构 参考了一些博主和项目经验,总结出的一套比较通用的结构,如下: FastPro/ |-- scripts/ | |— run.sh |-- logs/ | |-- 2022-3 阅读全文
posted @ 2022-03-10 15:41 大师兄啊哈 阅读(2739) 评论(0) 推荐(0)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/15749808.html 1. 问题 在跑./run.sh的时候,因为在一些数据集(如magicdata)的预处理中,会调用local/word_segment.py进行分词处理。查了一下,看到mmseg是n年前的包 阅读全文
posted @ 2021-12-30 17:32 大师兄啊哈 阅读(1167) 评论(0) 推荐(0)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/15732493.html 1. 前言 我们知道,在kaldi的egs中有很多例子,在运行run.sh的时候,会对测试集进行推断,中间会留下很多日志,其中在日志叫cer_xxx或者wer_xxx的,可以找到相应的字准确 阅读全文
posted @ 2021-12-26 11:10 大师兄啊哈 阅读(842) 评论(0) 推荐(0)
摘要: 在搜索最后加上 –csdn 即可。 (完) 阅读全文
posted @ 2021-11-10 12:48 大师兄啊哈 阅读(598) 评论(0) 推荐(0)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/15465053.html 1. 报错 使用python3本地安装pymmseg-cpp或者直接使用pip安装,一直报以下错误: error in pymmseg setup command: use_2to3 is 阅读全文
posted @ 2021-10-26 11:46 大师兄啊哈 阅读(13401) 评论(2) 推荐(5)
摘要: 原文链接:https://chuna2.787528.xyz/harrymore/p/15387117.html 1. TensorRT的模型转换 当我们需要利用NVIDIA的硬件进行加速模型的时候,很多时候会选择将模型转为TensorRT模型,不同的框架下有各种各样的转换方式,如转为uff然后再转Te 阅读全文
posted @ 2021-10-09 18:16 大师兄啊哈 阅读(2575) 评论(0) 推荐(0)
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 19 下一页