2021年9月科大讯飞-cv方向面试题6道

julyedu_7 2021-12-31 11:06:05

1、 常见的attention机制,说明channel attention 和 self attention 的原理

答:

self-attention、channel attention、spatial attention、multi-head attention、transformer

自注意力机制是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。

1.ce loss 的公式,说完了问BCE loss,就纯背公式

sigmoid 和 softmax,BCE与CE loss function_阿猫的自拍的博客-CSDN博客_ce loss

2、triplet loss的训练要注意什么

答:

构造类内差异大、类间差异小的数据集

3、softmax求导

答:

4、KL散度,

答:

KL散度可以用来衡量两个概率分布之间的相似性,两个概率分布越相近,KL散度越小

5、检测模型里为啥用smoothL1去回归bbox

答:

从上面的导数可以看出,L2 Loss的梯度包含 (f(x) - Y),当预测值 f(x) 与目标值 Y 相差很大时,容易产生梯度爆炸,而L1 Loss的梯度为常数,通过使用Smooth L1 Loss,在预测值与目标值相差较大时,由L2 Loss转为L1 Loss可以防止梯度爆炸。

6、前沿的检测范式DETR,transformer等等

答:

与传统的计算机视觉技术不同,DETR将目标检测作为一个直接的集合预测问题来处理。它由一个基于集合的全局损失和一个Transformer encoder-decoder 结构组成,该全局损失通过二分匹配强制进行唯一预测。给定固定的学习对象查询集,则DETR会考虑对象与全局图像上下文之间的关系,以直接并行并行输出最终的预测集。由于这种并行性,DETR非常快速和高效。

↓ ↓ ↓以下5本书,电子版,直接送 ↓ ↓ ↓

刚出的《2021年最新大厂AI面试题 Q3版》还没来得及拍照:

 

《2021年最新大厂AI面试题 Q2版》、《2021年最新大厂AI面试题 Q3版》《机器学习十大算法系列》、《名企AI面试100题》及《名企AI面经100篇》私我,免费取!

...全文
571 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
CSDN-Ada助手 2023-01-13
  • 打赏
  • 举报
回复
您可以前往 CSDN问答-人工智能 发布问题, 以便更快地解决您的疑问

69

社区成员

发帖
与我相关
我的任务
社区描述
本2022新大厂AI面试1000题,每周节选今2022年各大厂的最新面试题,包括且不限于美团、网易、伴鱼、作业帮、商汤、腾讯、滴滴、蚂蚁金服、好未来、百度等等,一方面算法,一方面AI,且有答案有解析
社区管理员
  • v_JULY_v
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧