上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 341 下一页
摘要: #train the model history = model.fit(x_train, y_train, batch_size=32, epochs=100, validation_split=0.1, shuffle=True, class_weight=class_weights, call 阅读全文
posted @ 2023-09-10 23:58 emanlee 阅读(750) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/FY_2018/article/details/116951278 compute_class_weight这个函数的作用是对于输入的样本,平衡类别之间的权重,下面写段测试代码测试这个函数: # coding:utf-8 from sklearn.util 阅读全文
posted @ 2023-09-10 23:36 emanlee 阅读(364) 评论(0) 推荐(0)
摘要: 卸载包时,出现错误 PackagesNotFoundError: The following packages are missing from the target environment: 解决方法 使用 pip 卸载 阅读全文
posted @ 2023-08-25 23:29 emanlee 阅读(448) 评论(0) 推荐(0)
摘要: ModuleNotFoundError: No module named 'torch._six' 由于torch 2.0版本没有这个模块,因此,只需要降低torch版本,就可以解决。 1)新建一个虚拟环境 2)安装低版本torch REF https://blog.csdn.net/wzwddkb 阅读全文
posted @ 2023-08-25 23:09 emanlee 阅读(8178) 评论(0) 推荐(1)
摘要: REF https://zhuanlan.zhihu.com/p/486373530?utm_id=0 None实际上是增加了一个维度,它不是原维度的索引。 以一维为例 x = np.arange(3) # array([0, 1, 2]) ( 注意,这个一维数组的shape是(3,),而不是(1, 阅读全文
posted @ 2023-08-16 22:20 emanlee 阅读(417) 评论(0) 推荐(0)
摘要: https://www.desmos.com/calculator?lang=zh-CN https://hs.luomashu.com/ https://www.wolframalpha.com/examples/mathematics/plotting-and-graphics https:// 阅读全文
posted @ 2023-08-16 10:39 emanlee 阅读(10278) 评论(0) 推荐(0)
摘要: 深入理解规范化 1.Normalization 先看下基本概念。 Normalization 翻译为规范化、标准化、归一化。 维基百科中给出: min-max normailzation(常简称为 normailzation): Mean normalization: Standardization 阅读全文
posted @ 2023-07-26 20:51 emanlee 阅读(491) 评论(0) 推荐(0)
摘要: 深入理解卷积(机器学习,深度学习,神经网络) https://zhuanlan.zhihu.com/p/611815827?utm_id=0 卷积 (Convolution) 当给定一张新图时,CNN 并不能准确地知道这些特征到底要匹配原图的哪些部分,所以它会在原图中把每一个可能的位置都进行尝试,相 阅读全文
posted @ 2023-07-26 18:43 emanlee 阅读(1122) 评论(0) 推荐(1)
摘要: 各种各样的激活函数(详细) 深入理解激活函数 各种各样的激活函数(表格对比) 如何选择激活函数? 一句话:“那么该用那种呢?”用ReLU非线性函数。注意设置好学习率,或许可以监控你的网络中死亡的神经元占的比例。如果单元死亡问题困扰你,就试试Leaky ReLU或者Maxout,不要再用sigmoid 阅读全文
posted @ 2023-07-25 19:45 emanlee 阅读(286) 评论(0) 推荐(0)
摘要: 各种各样的激活函数(详细) 深入理解激活函数 各种各样的激活函数(表格对比) 深入理解激活函数 激活函数对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。如图,在神经元中,输入(inputs )通过加权,求和后,还被作用在一个函数上,这 阅读全文
posted @ 2023-07-25 17:09 emanlee 阅读(202) 评论(0) 推荐(0)
上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 341 下一页