4,957
社区成员




① Transformer架构解析(@加油呀,哒哒哒)
[质量分:86;难度等级:中(关键词:架构);新鲜技术:99]
摘要:我们观察事物时,之所以能够快速判断一种事物(当然允许判断是错误的), 是因为我们大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断,而并非是从头到尾的观察一遍事物后,才能有判断结果。正是基于这样的理论,就产生了注意力机制。
② Transformer模型架构(位置编码与注意力机制理解)(@fade猫)
[质量分:81;难度等级:中(关键词:架构);新鲜技术:99]
摘要:应该不会,引入一个例子,一个人在北京国贸,属于北京市,还有一个人在上海陆家嘴,属于上海市,突然我们按照某种规则,让这两个人同时向东走5公里,从空间上来看,他们较之前空间上的位置发生了移动,但是他们的空间关系并没有改变,依然相隔这么远。
③ tensorflow/keras如何自定义layer(@爱编程的喵喵)
[质量分:90;难度等级:初;新鲜技术:99]
摘要:虽然tf.keras.layers为我们封装了一些高级API(已经定义好了一些现成的layer,详情见),但有时并不能满足我们的需求,因此需要构建自己的layer,下面会先讲一个简单例子,方便直接使用,如想了解底层原理,可移步第二章查看。
④ 深度学习基础入门篇[8]::计算机视觉与卷积神经网络、卷积模型CNN综述、池化讲解、CNN参数计算(@汀、人工智能)
[质量分:87;难度等级:初(关键词:基础,入门);新鲜技术:100]
摘要:计算机视觉的发展历程要从生物视觉讲起。, 4对应的是输出的通道数,2对应的是输入的通道数,两个3是卷积核的尺寸,最后的4就是bias的数量了, 值得注意的是, bias是数量与输出的通道数保持一致。因此,我们可以得出,一个卷积层的参数量的公式,如下: $
⑤ anaconda安装pytorch-GPU版本(python3.7)(@源先生)
[质量分:87;难度等级:初(关键词:安装);新鲜技术:99]
摘要:可以看到,本机的CUDA Version是11.6版本,所以在选择torch+cuda版本时,要注意,必须小于11.6.按快捷键ctrl+f,搜索cu102-cp37(表示cuda10.2版本,python3.7版本),寻找合适的安装文件。
⑥ Lesson14---卷积神经网络(@YoLo-8)
[质量分:86;难度等级:初;新鲜技术:99]
摘要:2如下一个尺寸为66的图片,对他进行最大池化,池化模板的尺寸为22,步长为2,就是把它按照2*2的小区域进行分块,把每个块合并成一个像素,去每个块中的最大值,作为合并后的像素值。可以看到高斯模糊在平滑物体表面的同时,能够更好的保持物体的表面和轮廓。
⑦ 1.音视频基础(@苍天饶过谁?)
[质量分:86;难度等级:初(关键词:基础);新鲜技术:98]
摘要:
⑧ yolov5剪枝与知识蒸馏【附代码】(@爱吃肉的鹏)
[质量分:85;难度等级:初(领域:Python入门;匹配程度:0.14);新鲜技术:99]
摘要:剪枝和知识蒸馏均属于模型轻量化设计,剪枝是将已有网络通过剪枝的手段得到轻量化网络,可分为和,该技术,而是通过计算各个权重或者通道的贡献度大小,剪去贡献度小的权重或通道,再。
⑨ 深度学习 | LSTM-Attention模型答疑(@机器学习之心)
[质量分:83;难度等级:初;新鲜技术:99]
摘要:具体来说,通过计算每个时间步的隐藏状态和整个序列的相似度,得到每个时间步的权重,然后将每个时间步的隐藏状态乘上对应的权重,并将所有乘积相加得到加权向量。每个LSTM层的输入为一个时间序列特征,输出作为Attention机制的输入。
⑩ 数字图像处理—图像分割算法详解(边缘检测、阈值处理)(@看星河的兔子)
[质量分:82;难度等级:初(领域:算法;匹配程度:0.03);新鲜技术:99]
摘要:令R表示一幅图像占据的整个空间区域。图像分割:把R分为n个子区域R1,R2,…,Rn的过程,满足。