Nvida GEforce GTX 1650支持CUDA吗?

whoispo 2019-07-17 09:46:02
我的笔记本显卡为GTX 1650,官网上给出的支持CUDA的型号列表中不包括这款显卡(见图1)。但是NVIDA显卡控制面板中的系统信息里又包含CUDA核心(见图2和图4)。我自己用GPU-Z测试了,也支持CUDA(见图3)。这款显卡到底支持不支持CUDA编程开发呀? 请各位大牛帮我解惑。

我后面下载了Cuda 10.1,在Visual studio新建了Cuda工程,编译生成exe没有问题。运行的时候,发现调用cudaGetDeviceCount(&n)返回的n=0。这样看是没有Cuda Device啊,但是Nvida的控制面板和GPU-z中的Cuda又是什么呢?


...全文
21521 12 打赏 收藏 转发到动态 举报
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复

其实显卡占用率不是这么算的,你程序调用显卡的cuda在狂跑,你占用3%的时候打开任务管理器选中显卡,把其中一个改成cuda看看,基本是100%

零壹博弈 2020-08-16
  • 打赏
  • 举报
回复
我的就是1650的卡,其实1650的卡跑起来没啥问题,不行的话,就换用Tensorflow2.x版本的,虽然和1.x区别很大,但我估计你学1.x版本也是刚开始学,不如先入坑2.x,安装很方便,学起来也不算吃力。pytoch1.6也完美支持。搭配cuda10.1,cudnn765 你可以参考下我的博文:https://blog.csdn.net/weixin_45709671/article/details/107448136
weixin_42656222 2020-08-08
  • 打赏
  • 举报
回复 4
我的也是GTX1650显卡,然后我的cuda和cudnn也都配置成功,但运行程序的时候就是不能使用GPU加速,不知道你最后解决这个问题了吗,如果解决了,麻烦教一下小弟,拜托了
ChshuoComing 2021-12-20
  • 举报
回复
@weixin_42656222 我安装cuda总是出错请教一下你是为什么么?
双倍芝士 2020-06-21
  • 打赏
  • 举报
回复
引用 4 楼 CCDDzclxy 的回复:
不好意思,有点挖坟了,但是 我也遇到了这个问题,官网上现在还是没有 1650显示出来啊(https://developer.nvidia.com/cuda-gpus#compute),而且 我的就是 1650的显卡,配置什么的 都没问题,训练也OK 没有报错(我弄的是 object detect的训练),但是就是一点:训练的时候,Python进程不占用GPU,总体GPU都是3%以下,基本就不在用GPU,CPU基本100%(信息是Win10的"任务管理器"里面看的) 感觉就是 配好了,但是 根本就没有去用这个显卡啊,你们的现象是什么?? PS:我配了另外一台机子 gtx 1060,就是好好的,OS:Win7, 用 nvida-smi看GPU都是在用的,占用率 70%左右;CPU也不会是满的状态
很多显卡型号官网都没有更新的,只要NVIDIA控制面板信息里有写cuda的都可以。我的是笔记本mx150,官网支持列表上同样没有列出,但是驱动里面有注明,下了cuda11.0,改了dll文件以后一样可以跑TensorFlow,占用率也就是百分之十左右,但是2g的显存会占到1.7g,说明是有调用gpu加速的。
CCDDzclxy 2020-04-16
  • 打赏
  • 举报
回复
不好意思,有点挖坟了,但是 我也遇到了这个问题,官网上现在还是没有 1650显示出来啊(https://developer.nvidia.com/cuda-gpus#compute),而且 我的就是 1650的显卡,配置什么的 都没问题,训练也OK 没有报错(我弄的是 object detect的训练),但是就是一点:训练的时候,Python进程不占用GPU,总体GPU都是3%以下,基本就不在用GPU,CPU基本100%(信息是Win10的"任务管理器"里面看的) 感觉就是 配好了,但是 根本就没有去用这个显卡啊,你们的现象是什么?? PS:我配了另外一台机子 gtx 1060,就是好好的,OS:Win7, 用 nvida-smi看GPU都是在用的,占用率 70%左右;CPU也不会是满的状态
windsfoxes 2021-08-17
  • 举报
回复
@CCDDzclxy 老哥,我也是一样的,用网上的测试代码,gpu都是在使用的,一跑object detect就只用cpu了,宁解决了吗?
韩@csdn 2020-01-14
  • 打赏
  • 举报
回复 3
支持。 Both the GTX 1050ti and GTX 1650 support CUDA, and either is new enough to be supported by TensorFlow. The 1050ti has compute capability (CC) 6.1 and the 1650 has CC 7.5. Tensorflow currently requires CC 3.5. If you are planning to run training (rather than just inference), you will want to make sure the frame buffer is large enough to support your models of interest. 详见: https://devtalk.nvidia.com/default/topic/1056611/container-tensorflow/does-gtx-1050ti-or-1650-for-notebook-support-tensorflow-gpu/ https://en.wikipedia.org/wiki/CUDA#GPUs_supported
℡.陈之 2021-11-08
  • 举报
回复
@韩@csdn 谢谢大佬!看来是支持的
Insight呀 2022-02-09
  • 举报
回复
@韩@csdn 请问1050可以吗
csdnfala 2019-10-15
  • 打赏
  • 举报
回复
https://blog.csdn.net/csdnfala/article/details/91358622
hacker_G 2019-09-28
  • 打赏
  • 举报
回复
同问,请问1650是否支持cuda
NVIDIA GeForce8/GeForce9/GeForce GTX200系列显卡最新驱动180.48 WHQL多国语言版For WinXP/XP-MCE(2008年11月20日发布)传说已久的NVIDIA驱动“二次爆发”在经过几个测试版本之后终于爆发,今日凌晨,NVIDIA发布了一款全新的GeForce驱动,版本号为180.48,这也是GeForce 180系列“二次爆发”驱动的第一个官方正式版本,已经通过了微软的WHQL认证。新驱动编译于11月12日,包含PhysX 8.10.13物理驱动,支持GeForce 8800/9000/GTX 200系列独立显卡和GeForce 9200/9300/9400集成显卡,全面支持Windows XP/Vista 32/64-bit操作系统。新版驱动除了提升游戏性能外,还添加了一系列新的实用功能,具体如下:1.在通过认证的Intel X58芯片组主板上支持SLI,但仅限GeForce GTX 280/260和9800 GX2/GTX+/GTX五款显卡。2.多显示器模式下支持SLI,主要是双屏。3.支持某块显卡专门处理PhysX物理加速效果。4.支持DirectX 9/10、OpenGL模式下的单卡和多卡SLI技术,包括三路SLI、四路SLI。5.支持CUDA通用计算技术。6.支持Folding@home分布式计算应用。7.安装NVIDIA System Tools软件后可以对GPU进行超频并监控其温度。8.大量的3D游戏兼容性修正。9.全面提升3D游戏性能,与GeForce 178系列相比:3DMark Vantage Performance级别最多提升10%、《刺客的信条》13%、《BioShock》13%、《英雄连:抵抗前线15%》、《Crysis Warhead》10%、《鬼泣4》25%、《Far Cry 2》38%、《超级房车赛:起点》18%、《失落的星球:殖民地》80%、《冲突世界》18%。支持显卡列表:GeForce GTX 280、GTX 260、9800 GX2、9800 GTX+、9800 GTX、9800 GT、9600 GT、9600 GSO、9500 GT、9500 GS、9400 GT、9400、9300、9200、8800 Ultra、8800 GTX、8800 GTS 512、8800 GTS、8800 GT、8800 GS
自编译tensorflow: 1.python3.5,tensorflow1.12; 2.支持cuda10.0,cudnn7.3.1,TensorRT-5.0.2.6-cuda10.0-cudnn7.3; 3.无mkl支持; 软硬件硬件环境:Ubuntu16.04,GeForce GTX 1080 TI 配置信息: hp@dla:~/work/ts_compile/tensorflow$ ./configure WARNING: --batch mode is deprecated. Please instead explicitly shut down your Bazel server using the command "bazel shutdown". You have bazel 0.19.1 installed. Please specify the location of python. [Default is /usr/bin/python]: /usr/bin/python3 Found possible Python library paths: /usr/local/lib/python3.5/dist-packages /usr/lib/python3/dist-packages Please input the desired Python library path to use. Default is [/usr/local/lib/python3.5/dist-packages] Do you wish to build TensorFlow with XLA JIT support? [Y/n]: XLA JIT support will be enabled for TensorFlow. Do you wish to build TensorFlow with OpenCL SYCL support? [y/N]: No OpenCL SYCL support will be enabled for TensorFlow. Do you wish to build TensorFlow with ROCm support? [y/N]: No ROCm support will be enabled for TensorFlow. Do you wish to build TensorFlow with CUDA support? [y/N]: y CUDA support will be enabled for TensorFlow. Please specify the CUDA SDK version you want to use. [Leave empty to default to CUDA 10.0]: Please specify the location where CUDA 10.0 toolkit is installed. Refer to README.md for more details. [Default is /usr/local/cuda]: /usr/local/cuda-10.0 Please specify the cuDNN version you want to use. [Leave empty to default to cuDNN 7]: 7.3.1 Please specify the location where cuDNN 7 library is installed. Refer to README.md for more details. [Default is /usr/local/cuda-10.0]: Do you wish to build TensorFlow with TensorRT support? [y/N]: y TensorRT support will be enabled for TensorFlow. Please specify the location where TensorRT is installed. [Default is /usr/lib/x86_64-linux-gnu]://home/hp/bin/TensorRT-5.0.2.6-cuda10.0-cudnn7.3/targets/x86_64-linux-gnu Please specify the locally installed NCCL version you want to use. [Default is to use https://github.com/nvidia/nccl]: Please specify a list of comma-separated Cuda compute capabilities you want to build with. You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus. Please note that each additional compute capability significantly increases your build time and binary size. [Default is: 6.1,6.1,6.1]: Do you want to use clang as CUDA compiler? [y/N]: nvcc will be used as CUDA compiler. Please specify which gcc should be used by nvcc as the host compiler. [Default is /usr/bin/gcc]: Do you wish to build TensorFlow with MPI support? [y/N]: No MPI support will be enabled for TensorFlow. Please specify optimization flags to use during compilation when bazel option "--config=opt" is specified [Default is -march=native -Wno-sign-compare]: Would you like to interactively configure ./WORKSPACE for Android builds? [y/N]: Not configuring the WORKSPACE for Android builds. Preconfigured Bazel build configs. You can use any of the below by adding "--config=" to your build command. See .bazelrc for more details. --config=mkl # Build with MKL support. --config=monolithic # Config for mostly static monolithic build. --config=gdr # Build with GDR support. --config=verbs # Build with libverbs support. --config=ngraph # Build with Intel nGraph support. --config=dynamic_kernels # (Experimental) Build kernels into separate shared objects. Preconfigured Bazel build configs to DISABLE default on features: --config=noaws # Disable AWS S3 filesystem support. --config=nogcp # Disable GCP support. --config=nohdfs # Disable HDFS support. --config=noignite # Disable Apacha Ignite support. --config=nokafka # Disable Apache Kafka support. --config=nonccl # Disable NVIDIA NCCL support. Configuration finished 编译: bazel build --config=opt --verbose_failures //tensorflow/tools/pip_package:build_pip_package 卸载已有tensorflow: hp@dla:~/temp$ sudo pip3 uninstall tensorflow 安装自己编译的成果: hp@dla:~/temp$ sudo pip3 install tensorflow-1.12.0-cp35-cp35m-linux_x86_64.whl

579

社区成员

发帖
与我相关
我的任务
社区描述
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
  • CUDA编程社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧