2021年11月15日- 20日,阿里 + 快手计算机视觉岗面试题分享

julyedu_7 2021-12-13 16:11:07

问题1:BN大致的计算流程?

1. 计算样本均值。

2. 计算样本方差。

3. 样本数据标准化处理。

4. 进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。

 

问题2:BN的优点?

1. 计算样本均值。

2. 计算样本方差。

3. 样本数据标准化处理。

4. 进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。

 

问题3:stacked hourglass和u-net的skip connection有什么区别?

他们的相似之处有如下三点:

1. 结构对称,成U型;

2. 含有skip connection连接,底层和高层特征有规律的融合;均是原图下采样-上采样至目标图的流程,类似沙漏(hourglass)形状。当然,他们也有不同的地方:

3. 前者的单个方块是Resenet block,后者就是简单的卷积核;前者可以做多个类似结构的堆叠,后者是单个U型

 

问题4:hrnet的数据融合有什么特别的?

大多数现有方法从由高到低分辨率网络产生的低分辨率表示中恢复高分辨率表示。相反,本文在整个过程中保持高分辨率的表示。我们将高分辨率子网开始作为第一阶段,逐步添加高到低分辨率子网以形成更多阶段,并行连接多个子网,每个子网具有不同的分辨率。我们进行重复的多尺度融合,使得高到低分辨率表示可以重复从其他分辨率的表示获取信息,从而导致丰富的高分辨率表示。因此,预测的关键点热图可能更准确,空间更精确。

 

问题5:dropout作用,训练测试有啥不一样的地方?

dropout在训练时,以一定的概率p来drop掉相应的神经网络节点,以(1-p)的概率来保留相应的神经网络节点,这相当于每一次训练时模型的网络结构都不一样,也可以理解为训练时添加了不同的数据,所以能够有效减少过拟合。

问题呢,是出在测试时,因为训练的时候以概率pdrop了一些节点,比如dropout设置为0.5,隐藏层共有6个节点,那训练的时候有3个节点的值被丢弃,而测试的时候这6个节点都被保留下来,这就导致了训练和测试的时候以该层节点为输入的下一层的神经网络节点获取的期望会有量级上的差异。

为了解决这个问题,在训练时对当前dropout层的输出数据除以(1-p),之后再输入到下一层的神经元节点,以作为失活神经元的补偿,以使得在训练时和测试时每一层的输入有大致相同的期望。

 

问题6:1*1卷积核作用?

1. 实现跨通道的交互和信息整合

2. 进行卷积核通道数的降维和升维

3. 对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合

4. 可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。

 

问题7:实验指标讲一下?

参考回答

1. 准确率(Accuracy)

2. 精确率/查准率(Precision)

3. 查全率(Recall)

4. F1-score

5. ROC 和 AUC

6. Precision-Recall曲线

7. IOU和mIOU

...全文
772 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
CSDN-Ada助手 2023-01-13
  • 打赏
  • 举报
回复
您可以前往 CSDN问答-人工智能 发布问题, 以便更快地解决您的疑问

69

社区成员

发帖
与我相关
我的任务
社区描述
本2022新大厂AI面试1000题,每周节选今2022年各大厂的最新面试题,包括且不限于美团、网易、伴鱼、作业帮、商汤、腾讯、滴滴、蚂蚁金服、好未来、百度等等,一方面算法,一方面AI,且有答案有解析
社区管理员
  • v_JULY_v
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧