背景:
2016年 AlphaGo 的横空出世让“人工智能”再度成为街头巷尾人人讨论的话题。所谓“人工智能”,业界有强人工智能和弱人工智能之分,其区别就在于是不是能够进行“推理”和“解决问题”。强人工智能的定义是直到类神经网络算法可以用强大的运算能力加以模拟之后才开始出现的,但即便如此,以目前CPU的运算能力来讲,模拟类神经网络算法的代价非常之大,于是有人想到了用GPU的强大运算能力来做,效果不错,但其还是无法满足于人们对强人工智能的预期。今年 6 月份,在我们CSDN公开课上来了一位新讲师——赛灵思(Xilinx)。他们谈到了他们的 reVISION 堆栈,准备把 FPGA 的硬件加速的能力来加快对类神经网络算法的模拟,这难道会成为一个新的趋势吗?
那么,问题来了。
对于类神经网络算法的模拟,您觉得是用GPU合适?还是 FPGA更合适?
或者通俗地讲,
人工智能到底用GPU还是用FPGA?
作为程序员的你,更倾向于哪一种方案呢?
快来亮出你的观点吧:http://blog.csdn.net/PK.html
参与观点活动,就能获得奖励!
活动时间:8月1日-8月31日
奖励说明:
1、凡是参与观点活动
投票并发表
有效评论的参与者,都将获得
CSDN的C币5个
2、活动结束后会在评论中挑选10名优秀参与者,送出
CSDN VIP季卡,享季度资料免费下载!
还等什么?快来参与吧!