5,891
社区成员




① 实战OpenCV之形态学操作(希望_睿智:[博客] [成就])
[质量分:93;难度等级:未知;新鲜技术:99]
摘要:形态学操作是一种基于图像形状的处理方法,主要用于结构分析,比如:边缘检测、轮廓提取、噪声去除等。这些操作通常使用一个称为“结构元素”(Structuring Element)的核来进行,结构元素可以是任何形状,但最常见的有矩形和圆形。
② 【机器学习-无监督学习】降维与主成分分析(Francek Chen:[博客] [成就])
[质量分:97;难度等级:未知;新鲜技术:99]
摘要:1. 什么是降维?降维(Dimensionality Reduction)是将训练数据中的样本(实例)从高维空间转换到低维空间,该过程与信息论中有损压缩概念密切相关。同时要明白的,不存在完全无损的降维。
③ 数据分析-30-电影死亡笔记中的数据分析思维(皮皮冰燃:[博客] [成就])
[质量分:96;难度等级:未知;新鲜技术:99]
摘要:死亡笔记》改编自小畑健同名日本人气漫画《Death note》,故事描述拥有一本写上姓名就能将人置于死地笔记本的高中生夜神月与天才警部搜查官L之间斗争的故事。该系列共有四部:第一部《死亡笔记》于2006年6月17日在日本上映。
④ 自然语言处理之语法解析:BERT:自然语言生成与BERT(zhubeibei168:[博客] [成就])
[质量分:95;难度等级:未知;新鲜技术:99]
摘要:自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究如何处理和运用自然语言;自然语言认知则是指让计算机“懂”人类的语言。NLP建立于两者之间,是连接计算机与人类语言的桥梁。
⑤ ✨机器学习笔记(六)—— ReLU、多分类问题、Softmax、Adam、反向传播(Fetters04:[博客] [成就])
[质量分:94;难度等级:未知;新鲜技术:99]
摘要:🤓就会出现了将前一个线性回归得出的输出,作为下一个线性回归的输入去计算,最终其实就是线性函数的线性组合,则还是一个线性函数,这样的话就没有必要去写这么个多层的神经网络了,本质就是一个一层的输入输出映射,根本就不需要神经网络。在这两种情况下,向量。
⑥ 用于高频交易预测的最优输出LSTM(量化交易曾小健(金融号):[博客] [成就])
[质量分:93;难度等级:未知;新鲜技术:99]
摘要:此外,文中还提到了一些简化的LSTM单元结构,以及对LSTM单元中最重要的门进行修改的建议。此外,文章讨论了构建实时在线机器学习实验协议的挑战,不仅仅是工程目标(即LOB的中间价格预测),还包括开发适合基于较少训练周期的短期训练的动态调整的NN。
⑦ NLP任务之文本分类(情感分析)(Hiweir ·:[博客] [成就])
[质量分:93;难度等级:未知;新鲜技术:99]
摘要:查看模型参数与层结构super().init() #继承父类的方法#全连接层#Bert模型输出的数据的最后一维度是768,这里输入的第0维度也要是768。
⑧ 每天五分钟深度学习pytorch:基于pytorch搭建一元线性回归模型(幻风_huanfeng:[博客] [成就])
[质量分:92;难度等级:未知;新鲜技术:99]
摘要:一元线性回归是只有一个自变量 (自变量x和因变量y)线性相关关系的方法。也就是说输入x的维度只有一维,我们可以理解为它是一个输入层有一个神经元,没有隐藏层,输出层有一个神经元的简单的神经网络。
⑨ GPU、AI、CUDA(dotdotyy:[博客] [成就])
[质量分:90;难度等级:未知;新鲜技术:99]
摘要:相比之下,GPU就是为了简单大规模的数值计算任务而设计的,有成千上万个较小的处理核心,处理大规模的简单但相似的计算任务,例如神经网络中的矩阵运算和张量运算。因此控制逻辑简单,不需要对复杂指令的支持,它的重点在于提供更多的核心,实现同时执行大量的简单任务。
⑩ pytorch张量基础(背水:[博客] [成就])
[质量分:89;难度等级:未知;新鲜技术:99]
摘要:张量可以表示从标量到高维数组的数据结构,它在 PyTorch 的计算图中扮演着基础角色。张量是一个数组的通用化,可以表示标量(0维)、向量(1维)、矩阵(2维)及更高维的数组。张量在神经网络中的应用,是构建复杂模型的基础。等函数进行分块和拼接。