如何让程序同时利用CPU和GPU呢?

edwardliqi 2013-12-05 09:51:48
小弟在这里有个问题

有一个非常复杂的矩阵运算,特别耗时

CPU计算太慢了,于是想到了gpu

如何让程序运行到矩阵运算时自动的调用gpu协助呢?

求推荐书或者网站。

...全文
1789 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
jiandingzhe 2013-12-17
  • 打赏
  • 举报
回复
GPU需要特别的方法。目前有两个编程架构:Nvidia独有的CUDA,多平台的OpenCL。 总体上来讲,GPU编程是在使用另外一台计算机,它有自己的内存和处理器。而且GPU的硬件架构和CPU也不太一样,优化起来需要不同的思路。 另外,Nvidia提供了CuBlas库,实现了Blas线性代数接口,使用CUDA实现。你可以直接用那个,如果你的显卡是N卡。
yiyefangzhou24 2013-12-17
  • 打赏
  • 举报
回复
for(int i = 0; i < 1000000;i++) cpu是抢占式的,并不是循环次数多就占cpu,要看你循环你做什么
edwardliqi 2013-12-17
  • 打赏
  • 举报
回复
额。。。一定要自己从头开始摸索么。。 没有简单的例程么 比如 for(int i = 0; i < 1000000;i++) 这样一个循环如何放到显卡的GPU中去

64,650

社区成员

发帖
与我相关
我的任务
社区描述
C++ 语言相关问题讨论,技术干货分享,前沿动态等
c++ 技术论坛(原bbs)
社区管理员
  • C++ 语言社区
  • encoderlee
  • paschen
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
  1. 请不要发布与C++技术无关的贴子
  2. 请不要发布与技术无关的招聘、广告的帖子
  3. 请尽可能的描述清楚你的问题,如果涉及到代码请尽可能的格式化一下

试试用AI创作助手写篇文章吧