虚拟学习社区的特点、类型、设计等相关知识的分享
高校 IT 实力排行榜 (2213)
请编写您的帖子内容
社区频道(6)
显示侧栏
卡片版式
全部
新生报道
校友交流
知识分享
求职就业
Ada助手
最新发布
最新回复
标题
阅读量
内容评分
精选

113
评分
5
虚拟学习社区的特点、类型、设计等相关知识的分享
请大家一起交流一下虚拟学习社区的学习资源及相关知识
复制链接 扫一扫
分享

25
评分
回复
论文精读:Deepsort:SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC
1.核心思想在本文中,我们整合了外观信息来提高SORT的性能。由于这种扩展,我们能够通过更长的遮挡周期来跟踪对象,有效地减少了身份开关的数量。2.主要内容ABSTRACT简单的在线和实时跟踪(SORT)是一种实用的多目标跟踪方法,重点关注简单、有效的算法。在本文中,我们整合了外观信息来提高SORT的性能。由于这种扩展,我们能够通过更长的遮挡周期来跟踪对象,有效地减少了身份开关的数量。本着原始框架的精神,我们将大部分的计算复杂性放在一个离线的训练前阶段,在那里我们在一个大规模的...
复制链接 扫一扫
分享

14
评分
回复
论文精读:FairMOT: On the Fairness of Detection and Re-Identification in MultipleObject Tracking
1.提出背景以往的工作通常将re-ID视为次要任务,其准确性受到主要检测任务的严重影响。因此,网络偏向于主检测任务,这对re-ID任务不公平。2. 核心思想将MOT表示为单个网络中目标检测和reid的多任务学习,因为它允许两个任务的联合优化,并且具有较高的计算效率。然而,我们发现这两个任务倾向于相互竞争,这需要仔细处理。特别是,以往的工作通常将re-ID视为次要任务,其准确性受到主要检测任务的严重影响。因此,网络偏向于主检测任务,这对re-ID任务不公平。为了解决这个问题,我们提出了一种基于无锚
复制链接 扫一扫
分享

13
评分
回复
论文精读:EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
1.做了什么卷积神经网络(ConvNets)通常是在固定的资源预算下开发的,如果有更多的资源可用,则会扩大规模以获得更好的准确性。在本文中,我们系统地研究了模型的缩放,并确定了仔细平衡网络的深度、宽度和分辨率可以导致更好的性能。基于这一观察结果,我们提出了一种新的尺度方法,该方法使用简单而高效的复合系数均匀地调整深度/宽度/分辨率的所有维度。我们证明了该方法在扩大移动网络和ResNet上的有效性。作者使用神经结构搜索来设计一个新的基线网络,并对其进行扩展,以获得一系列模型,称为效率网,它实现了比以前
复制链接 扫一扫
分享

27
评分
回复
注意力机制
1.导论心理学原理动物需要在复杂环境下有效关注值得注意的点心理学框架:人类根据随意线索和不随意线索选择注意点一眼扫过去,你看到一个红色的杯子,这是随意线索,你想读书了,你看到一本书,这是不随意线索卷积、全连接、池化层都只考虑不随意线索·注意力机制则显示的考虑随意线索,随意线索被称之为查询(query)。每个输入是一个值(value)和不随意线索(key)的对通过注意力池化层来有偏向性的选择选择某些输入非参注意力池化层给定数据(xi;yi), i = 1,..., n平
复制链接 扫一扫
分享

27
评分
回复
编码器和解码器
1.编码器—解码器(seq2seq)正在上传…重新上传取消
复制链接 扫一扫
分享

22
评分
回复
论文精读——Inception-v4,Inception-ResNet and the Impact of Residual Connections on Learning
论文链接:https://arxiv.org/pdf/1602.07261.pdf1.提出问题是不是结合残差连接与Inception结构能够产生更好的结果?2.做了什么我们给出了充足的实验证据,残差连接使得Inception网络训练速度得到巨大的提升。论文给出了几种新的主流网络结构(residual and non-residual Inception networks)。我们进一步阐明,在保证宽Residual Inception网络的稳定性...
复制链接 扫一扫
分享

22
评分
回复
tensorflow-图片预处理API示例
1.keras.preprocessing.imagedef preprocess_image(img): img = image.load_img(img, target_size=(299, 299)) img = image.img_to_array(img) img = img / 255.0 return img2.tf.io.read_filedef preprocess_image(image): image = tf.io.read_f
复制链接 扫一扫
分享

21
评分
回复
RestNet论文精读
1.提出问题深度神经网络很难训练,不仅仅是过拟合的问题,而且训练不动,训练误差很高2.干了什么为了解决这个问题,我们提出残差学习框架(residual learning framework),使得神经网络的训练变得容易,并且我们的网络比之前所有的网络都要深。3.解决方法我们将网络层(layers)明确的定义为需要学习的残差函数(residual function,关于输入的函数),而不是学习未指定的函数(unreferenced functions)。4.网络结构Plain
复制链接 扫一扫
分享

23
评分
回复
Inception v2/Inception v3详解
1.Inception v2改进策略(1)卷积核分解5*5——3*3从计算代价上考虑,更大的卷积核(比如5x5或者7x7)计算代价的增长具有不对称性。比如,5x5滤波器参数量是3x3滤波器参数量的25/9=2.78倍。当然,在网络的前几层,5x5的卷积核可以获得更大的视野范围,以及获取空间信息之间的相关性,所以降低卷积核大小的代价会降低网络的表达能力。当然,我们是不是可以用多层的网络(参数更少)代替5x5卷积层,并且保持输入和输出的大小不变。如果我们放大5x5的卷积计算图,我们可以看...
复制链接 扫一扫
分享

19
评分
回复
使用tensorflow实现inception v3
1.inception整体结构1.figure5实现def inception_1(x,param1,param2,param3,param4): # branch1 1*1-3*3-3*3 branch1 = conv_fn(x,filters=param1[0],kernel_size=(1,1),strides=1) branch1 = conv_fn(branch1,filters=param1[1],kernel_size=(3,3),strides=1)
复制链接 扫一扫
分享

31
评分
回复
图像分类算法篇——LeNet-5
LeNet-5为卷积神经网络架构的鼻祖,它是由Yann Lecun于1998年创建,已经被广泛应用于手写体数字识别一、网络架构LeNet-5架构 层 类型 特征图 大小 内核大小 步幅 激活函数 OUT 全连接 —— 10 —— —— RBF F6 全连接 —— 84 —— —— tanh C4 卷积 120 1*1 5*5 1 ...
复制链接 扫一扫
分享

19
评分
回复
图像分类算法篇--基于LeNet的手写体数字识别
1、加载数据from tensorflow import keras# 加载数据(X_train_full, y_train_full), (X_test, y_test) = keras.datasets.fashion_mnist.load_data()X_train, X_valid = X_train_full[:-5000], X_train_full[-5000:]y_train, y_valid = y_train_full[:-5000], y_train_full[-50
复制链接 扫一扫
分享

44
评分
回复
图像分类篇——AlexNet详解
一、概述AlexNet是由2012年ImageNet竞赛参赛者Hinton和他的学生AlexKrizhevsky设计的。AlexNet在当年赢得了ImageNet图像分类竞赛的冠军,使得CNN成为图像分类问题的核心算法模型,同时引发了神经网络的应用热潮。1.AlexNet的创新作为具有历史意义的网络结构,AlexNet包含以下方面的创新。(1)非线性激活函数ReLU在AlexNet出现之前,sigmoid是最为常用的非线性激活函数。sigmoid函数能够把输入的连续实值压缩到0和...
复制链接 扫一扫
分享

391
评分
回复
VGG 网络详解
1.网络概述在网络深度与网络性能的关系上,牛津大学视觉几何团队提出了一种深层次且性能良好的网络模型,即VGG网络模型。VGG很好地继承了AlexNet的衣钵,同时拥有着鲜明的特点,即网络层次较深。牛津大学视觉几何团队在ILSVRC2014上提出了VGGNet。VGGNet的网络结构简单、规整且高效。VGGNet较为典型的网络结构主要有VGG16和VGG19,本节主要介绍VGG16,其网络结构如表5-1所示。VGGNet对输入图像的默认大小是224×224×3。从表5-1中可以看出,VGG16指该网.
复制链接 扫一扫
分享

24
评分
回复
基于VGG-19的猫十二分类
1.数据详情cat_12数据集包含3个部分,训练集cat_12_train,测试集cat_test,以及存储图片名称及标签的train_list.txt2.数据预处理train_list.txt文件存储了文件名称和标签,文件格式如下,我们定义了prepare_image函数分别将文件路径与标签存储于X_train与y_train中,并打乱数据加载数据时,使用keras.image模块进行数据的加载,并进行数据归一化操作from keras.preprocessing impo.
复制链接 扫一扫
分享

21
评分
回复
论文整理:GoogLeNet--Going deeper with convolutions
1.摘要我们提出了一种代号为“GoogleNet”的深度卷积神经网络架构,它负责在2014年ImageNet大规模视觉识别挑战(ILSVRC14)中设置分类和检测的新技术状态。该体系结构的主要特点是提高了网络内部计算资源的利用率。这是通过一个精心设计的设计来实现的,它允许增加网络的深度和宽度,同时保持计算预算不变。为了优化质量,体系结构的决策是基于赫布原则和多尺度处理的直觉。在我们提交给ILSVRC14时使用的一个特殊化身是GoogLeNet,这是一个22层的深度网络,其质量...
复制链接 扫一扫
分享

601
评分
回复
GoogLeNet详解
1.GoogLeNet神经网络GoogLeNet专注于加深网络结构,同时引入了新的基本结构——Inception模块,以增加网络的宽度。GoogLeNet一共22层,没有全连接层,在2014年的ImageNet图像识别挑战赛中获得了冠军。GoogLeNet最初始的想法很简单,想要更好的预测效果,就要从网络深度和网络宽度两个角度出发增加网络的复杂度。但这个思路有两个较为明显的问题。首先,更复杂的网络意味着更多的参数,就算是ILSVRC这种有1000类标签的数据集也很容易...
复制链接 扫一扫
分享

21
评分
回复
批量归一化
1.解决问题损失出现在最后,在反向传播的过程中,后面的层梯度较大,训练较快,数据在最底部,底部层梯度较小,训练较慢。底部层一变化,所有都得跟着变·最后的那些层需要重新学习多次,导致收敛变慢2.批量归一化的思想·固定小批量输入的分布(均值和方差)然后再做额外的调整(可学习的参数):3.作用在全连接层和卷积层输出上,激活函数前全连接层和卷积层输入上●对全连接层,作用在特征维●对于卷积层,作用在通道维我们可以将每个像素看做一个样本的话,(这种思想也常用语1*1.
复制链接 扫一扫
分享
为您搜索到以下结果: