参与讨论赢取好礼!AI规模化落地, Intel至强的七重助力!

吴小花❀ 2019-07-05 11:44:41
AI规模化落地, Intel至强的七重助力

业界对AI大规模落地的需求正当时,但应用落地的背后都离不开稳定、高效的处理器进行支撑。此时,CPU已完成一轮又一轮的全面迭代升级, 生态系统不断得到完善。那么基于CPU的优势,如何帮助业界攻克应用难关,助力AI实现规模化应用落地呢?

这次,我们将重点从算法工程师、AI开发者和数据科学家们在AI落地时遇到的问题出发,从CPU性能、数据处理、可扩展性、内存、模型部署和推理、大数据分析以及端到端的AI应用部署七大维度,具体探讨CPU在AI全生命周期实践中的种种进阶,以帮助开发者对选择合适的处理器有深入了解。

借此,CSDN技术社区举办了“AI规模化落地, Intel至强的七重助力”的有奖活动。邀请CSDN社区的开发者,就AI应用开发过程中遇到芯片层面的问题,畅谈自己的观点和解决之道。

问题一CPU在云和大数据处理上一直具有性能高效和成本低的优势,进入人工智能时代后, CPU也在更新迭代以适用于规模化的AI应用落地。对于AI实践中的机器学习和深度学习模型训练和推理,CPU架构的优势是什么?

问题二决定深度学习模型效果最重要的因素之一就是数据规模和数据质量,算法工程师往往要花很多时间来处理用于模型训练和测试的庞大数据, 工程师如何利用CPU架构的优势来优化数据预处理工作以节省时间?

问题三在深度学习和机器学习领域,不管是模型训练还是推理,为了分配和部署计算能力,常常需要在基于现有的IT基础设施或者云平台进行硬件扩展。算法工程师应该如何利用CPU的可扩展性,做到更好的并行计算,让深度学习跑得更快?

问题四训练深度学习模型需要消耗大量的内存,因此内存限制往往是一个瓶颈,算法工程师应该如何充分利用CPU的内存,以扩展到大规模集群上?另外,是否有其他更高效经济的方法进行模型训练和推理?

问题五深度学习模型真正发挥出价值的阶段不应只是在测试集上进行评估,而是将模型部署到企业实际的生产环境中,真正用于推理。实际上,目前主要用于AI模型推理的平台都是基于CPU架构,但也有人认为在深度学习实践中应该去搭建一套新的专用设施,这种做法是否必要?如何基于现有CPU架构实现快速部署?

问题六Hadoop和Spark是目前非常流行的大数据管理和处理框架,想利用数据进行深度学习训练,通常需要把这些数据导出,然后进行处理,这个过程不仅耗时而且投资较大。为了提高处理效率,降低部署的复杂度和成本,算法工程师如何直接在这些大数据平台上进行深度学习训练?

问题七深度学习应用的开发周期很长,而且往往会涉及多个工具和平台,导致AI开发者的技术门槛很高, 是否有解决方案可以帮助开发者轻松实现从云端到终端侧的跨平台部署,更快地构建端到端的深度学习应用?

活动规则

针对“AI规模化落地, Intel至强的七重助力”的7个问题,用户可选取一道或者多道进行论坛帖的回复,畅谈关于芯片在AI应用开发过程中,自己的见解和解决之道。

回复格式“#问题一#XXXXXXXXX”。

回答的问题越多,获奖几率则越高。


时间安排

活动时间:7月5日-7月26日

获奖公布及发放7月29日-8月10日


活动奖励

每道问题将评选出1名用户,赠送价值
700元的Intel第二代神经棒或机械键盘,共计7个。

针对所有参与的用户,将通过盖楼的方式,在20的倍数楼层,赠送价值150元的商务双肩背包,共计15个。

获奖注意事项:

一个用户最多获奖一次。

拒绝刷帖及恶意评论,所有楼层内容必须是针对7个问题有效的评论,主办方有权删除无效贴。

如遇无效评论,该楼层作废,无效评论下面的楼层按照顺序向前平移。

活动结束后将通过站内信通知获奖者,获奖者也可通过联系活动工作人员进行领取奖品。


活动联系人: 吴女士 wutong@csdn.net
获奖名单公布
...全文
678721 291 打赏 收藏 举报
写回复
291 条回复
切换为时间正序
当前发帖距今超过3年,不再开放新的回复
发表回复
  • 打赏
  • 举报
回复
颁奖了吗
  • 打赏
  • 举报
回复
业余草 2019-08-06
还未发奖啊
  • 打赏
  • 举报
回复
业余草 2019-07-29
引用 294 楼 业余草 的回复:
300 楼了
我是来领奖的
  • 打赏
  • 举报
回复
业余草 2019-07-29
300 楼了
  • 打赏
  • 举报
回复
#问题一#优势1:inter 技术实力雄厚 优势2:大品牌值得信赖 优势3:CPU处理不同类型数据的计算能力以及处理分支与跳转的逻辑判断能力这些都比GPU要强。
优势4:更新迭代快
优势5:市面上的成熟解决方案多
  • 打赏
  • 举报
回复
#问题三#制程工艺不断向更高的晶体管密度发展,为芯片带来更强的性能和更低的功耗。拥有领先的制程技术,是构建领先硬件产品的关键。制程的领先仍然是英特尔继续发挥产品优势的关键因素,在10纳米领域英特尔继续推动产品的发展。在Foveros的制程中,英特尔的3D封装技术可实现在逻辑晶圆上堆叠逻辑处理单元,能够把逻辑芯片和逻辑芯片连在一起,更好地发挥异构功效
  • 打赏
  • 举报
回复
橙色阳光 2019-07-26
#问题四#利用英特尔至强可扩展处理器 对硬件可支持更高的内存容量,Cooper Lake 是继 Cascade Lake 后的英特尔至强可扩展处理器
  • 打赏
  • 举报
回复
#问题七# 端到端当然是最适合当前技术选型的相关devops的技术内容得益于更快更好的 CPU 机器学习模型非结构化数据、更复杂和大量数据的问题上有更好的计算力、更多数据和各种易于使用的开源框架,比如 keras、TensorFlow 
  • 打赏
  • 举报
回复
#问题六#个人认为在Hadoop上的数据对不同源数据,需要数据格式进行整合,分训练数据和测试数据按业务需要进行训练
  • 打赏
  • 举报
回复
耀眼light 2019-07-26
#问题三#采用NVIDIA® Tesla® V100去进行模型训练和推理,这款GPU 是最先进的数据中心,可以加速AI的,有很强的性能计算,数据科学,它是NVIDIA Volta架构,16GB 和32GB的配置,一颗GPU里面相当于100颗CPU的性能。
  • 打赏
  • 举报
回复
#问题一#英特尔第二代至强 ,有了深度学习加速指令集优化AI场景、Speed Select内核控制技术,增加傲腾数据中心持久内存的支持.发展已经越来越好了,各大测评机构的报告也显示了其不错的表现
  • 打赏
  • 举报
回复
橙色阳光 2019-07-26
#问题一#InterCPU架构的优势:CPU至强成本低,更新换代快速,适用于规模化应用.成熟解决方案多.大品牌值得信赖
  • 打赏
  • 举报
回复
#问题二#CPU中当所有线程都并行计算,计算能力强。对于神经网络的深度学习说,这种并行计算能力是值得的推荐的
  • 打赏
  • 举报
回复
橙色阳光 2019-07-26
#问题二#工程师如何利用CPU架构的优势来优化数据预处理工作以节省时间? 从数据规模来说,大规模的数据需要更强的计算能力及更好的缓存 从数据质量来说,需要模型训练与测试数据用于保证高质量的数据 至强处理器CPU架构大幅提升了并行处理功能,物理核当两个虚拟核并行计算,借此可以成倍提升运算能力,还拥有超线程的能力,用于临时提升算力以满足深度学习模型环境所需. 个人非常看好Intel对AI人工智能方面所做得贡献,其在CPU性能、数据处理、可扩展性、内存、模型部署和推理、大数据分析以及端到端的AI应用部署等方面帮助开发者推出合适的CPU及对应的解决方案,实现快速落地,成倍提升开发效率. 希望活动越办越好~~~~
  • 打赏
  • 举报
回复
马Jack 2019-07-26
#问题二#增加CPU的缓存大小去减少算法计算的时间,因为缓存在数据流程执行中更靠近CPU,缓存越大,可以存储的数据就越多,缓存被读写的频率很高,CPU下一步要执行的代码就放在缓存,它比RAM的执行速度更快。
  • 打赏
  • 举报
回复
#问题三#机器学习和深度学习技术的特殊属性使它们能全面分析和评估大量数据,以便训练许多不同的类,从而更有效地区分对象。这些数据越来越多地在被创建。为了使用深度学习,必须首先训练CNN。在这个训练过程涉及对象的典型外部特征,例如颜色,形状,纹理和表面结构。基于这些属性将对象划分为不同的类,以便稍后更精确地分配它们。
  • 打赏
  • 举报
回复
赖赖子 2019-07-26
#问题四#CPU不管是与内部的内存还是外部的内存都应该在数据调度上进行优化,那些是需要放到内部缓存的,那些是要放到外部缓存的,这种数据架构优化起来对数据处理能力来说是一个大大的提升。
  • 打赏
  • 举报
回复
#问题七#在神经网络端到端学习,我们可以将许多重要问题都可以抽象为变长序列学习问题解决变长序列的端到端学习,目前主要有两种主流的思路:一种是 CTC (Connectionist Temporal Classification,连接时序分类);另一种是 Encoder-Decoder的思路。CTC 最早用于手写体字符识别上[19],并且一度是语音识别的研究热点[20-23]。变长序列学习的 En-De 方法中,可以关注 Google 和 Yoshua Bengio 两个团队的工作。
  • 打赏
  • 举报
回复
胸有惊雷 2019-07-26
#问题四#通过在算法中采用降低数值精度的方法,降低存储器中标量数据的数值精度是最大限度地降低深度学习能耗的关键,因为对标量数据应用权重的大多数深度学习算法对于细微的舍入误差都具有极高的宽容度。例如,与32位定点加法器相比,8位定点加法器的能耗可减少3.3倍、面积减少3.8倍;与32位浮点加法器相比,8位定点加法器的能耗可减少30倍、面积减少116倍。降低精度还可以减少存储此类典型稀疏矩阵数据所需的存储区域和能量,并控制可能很快成为系统性能瓶颈的存储带宽问题。
  • 打赏
  • 举报
回复
加载更多回复(271)
相关推荐
发帖
人工智能技术

4174

社区成员

专题开发/技术/项目 人工智能技术
社区管理员
  • community_35
  • Ashley0001
  • 大龙剑神
加入社区
帖子事件
创建了帖子
2019-07-05 11:44
社区公告
暂无公告