社区
CUDA
帖子详情
cuda texture问题
血恋龙城
2017-12-25 04:35:12
提示texture不是模板
需要加什么头文件吗?
...全文
574
1
打赏
收藏
cuda texture问题
提示texture不是模板 需要加什么头文件吗?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
江湖人称纪博大
2020-12-10
打赏
举报
回复
不是 ,是vs没有识别这个命令。
CUDA
图像处理 不带
text
ure
用
CUDA
处理图像的一个demo,这个demo中用到了opencv,但是未使用
text
ure
CUDA
cpp class
text
ure demo
CUDA
cpp class
text
ure demo MD5:a740adf3cbdbd2dcf823a120a0eec9d7
cuda
_cpp_class_
text
ure_demo.rar
cuda
检测工具 devicequery.zip(不含源代码,源代码在
cuda
sdk 8.0里)
cuda
检测工具 devicequery.zip(不含源代码,源代码在
cuda
sdk 8.0里) deviceQuery.exe Starting...
CUDA
Device Query (Runtime API) version (
CUDA
RT static linking) Detected 1
CUDA
Capable device(s) Device 0: "GeForce GTX 760"
CUDA
Driver Version / Runtime Version 9.2 / 8.0
CUDA
Capability Major/Minor version number: 3.0 Total amount of global memory: 2048 MBytes (2147483648 bytes) ( 6) Multiprocessors, (192)
CUDA
Cores/MP: 1152
CUDA
Cores GPU Max Clock rate: 1137 MHz (1.14 GHz) Memory Clock rate: 3004 Mhz Memory Bus Width: 256-bit L2 Cache Size: 524288 bytes Maximum
Text
ure Dimension Size (x,y,z) 1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096) Maximum Layered 1D
Text
ure Size, (num) layers 1D=(16384), 2048 layers Maximum Layered 2D
Text
ure Size, (num) layers 2D=(16384, 16384), 2048 layers Total amount of constant memory: 65536 bytes Total amount of shared memory per block: 49152 bytes Total number of registers available per block: 65536 Warp size: 32 Maximum number of threads per multiprocessor: 2048 Maximum number of threads per block: 1024 Max dimension size of a thread block (x,y,z): (1024, 1024, 64) Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535) Maximum memory pitch: 2147483647 bytes
Text
ure alignment: 512 bytes Concurrent copy and kernel execution: Yes with 1 copy engine(s) Run time limit on kernels: Yes Integrated GPU sharing Host Memory: No Support host page-locked memory mapping: Yes Alignment requirement for Surfaces: Yes Device has ECC support: Disabled
CUDA
Device Driver Mode (TCC or WDDM): WDDM (Windows Display Driver Model)
cuda
检测工具 devicequery.exe
deviceQuery.exe Starting...
CUDA
Device Query (Runtime API) version (
CUDA
RT static linking) Detected 1
CUDA
Capable device(s) Device 0: "GeForce GTX 650"
CUDA
Driver Version / Runtime Version 9.1 / 8.0
CUDA
Capability Major/Minor version number: 3.0 Total amount of global memory: 2048 MBytes (2147483648 bytes) ( 2) Multiprocessors, (192)
CUDA
Cores/MP: 384
CUDA
Cores GPU Max Clock rate: 1072 MHz (1.07 GHz) Memory Clock rate: 2500 Mhz Memory Bus Width: 128-bit L2 Cache Size: 262144 bytes Maximum
Text
ure Dimension Size (x,y,z) 1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096) Maximum Layered 1D
Text
ure Size, (num) layers 1D=(16384), 2048 layers Maximum Layered 2D
Text
ure Size, (num) layers 2D=(16384, 16384), 2048 layers Total amount of constant memory: 65536 bytes Total amount of shared memory per block: 49152 bytes Total number of registers available per block: 65536 Warp size: 32 Maximum number of threads per multiprocessor: 2048 Maximum number of threads per block: 1024 Max dimension size of a thread block (x,y,z): (1024, 1024, 64) Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535) Maximum memory pitch: 2147483647 bytes
Text
ure alignment: 512 bytes Concurrent copy and kernel execution: Yes with 1 copy engine(s) Run time limit on kernels: Yes Integrated GPU sharing Host Memory: No Support host page-locked memory mapping: Yes Alignment requirement for Surfaces: Yes Device has ECC support: Disabled
CUDA
Device Driver Mode (TCC or WDDM): WDDM (Windows Display Driver Model) Device supports Unified Addressing (UVA): Yes Device PCI Domain ID / Bus ID / location ID: 0 / 1 / 0 Compute Mode: deviceQuery,
CUDA
Driver =
CUDA
RT,
CUDA
Driver Version = 9.1,
CUDA
Runtime Version = 8.0, NumDevs = 1, Device0 = GeForce GTX 650 Result = PASS
《GPU高性能计算之
CUDA
》实例
《GPU高性能计算之
CUDA
》实例。 GPU高性能计算系列丛书的第一本《GPU高性能计算之
CUDA
》已经出版,由张舒,褚艳利,赵开勇,张钰勃所编写。本书除了详细介绍了
CUDA
的软硬件架构以及C for
CUDA
程序开发和优化的策略外,还包含有大量的实例供读者学习参考用。 下表是各个实例的介绍列表。 文件夹 对应书中章节 备注 ACsearch_DPPcompact_with_driver 5.2.2 AC多模式匹配算法 asyncAPI 2.5 异步API调用示例 bandwidthTest 2.3.6 带宽测试 Bitonic 5.1.1 双调排序网络 conjugateGradient 5.2.1 共轭梯度算法,CUBLAS实现
cuda
MPI 2.7.3
CUDA
+MPI管理GPU集群
cuda
OpenMP 2.7.2
CUDA
+OpenMP管理多GPU deviceQuery 2.1.4 设备查询 histKernel 2.4.3 亮度直方图统计 matrixAssign 2.1.4 矩阵赋值 matrixMul 4.7.1 矩阵乘法,利用shared memory matrixMul_Berkeley 4.7.1 矩阵乘法,利用register reduction 4.7.2 并行归约(缩减)程序 scan 5.1.2 Scan算法,例如计算前缀和 scanLargeArray 5.1.2 Scan算法,可以处理大数组 simpleCUBLAS 5.1.3 CUBLAS库的简单应用 simpleCUFFT 5.1.4 CUFFT库的简单应用 simpleD3D9 2.6.2
CUDA
与Direct3D 9互操作 simpleD3D10 2.6.2
CUDA
与Direct3D10互操作 simpleGL 2.6.1
CUDA
与OpenGL互操作 simpleMultiGPU 2.7.1 多设备控制 simpleStreams 2.5.2 流的使用演示 simple
Text
ure 2.3.8 简单的纹理使用 simple
Text
ureDrv 2.3.8 简单的纹理使用,驱动API 实现 sortingNetworks 5.1.1 双调排序网络,处理大数组 threadMigration 2.7.1 通过上下文管理和设备管理功能实现多设备并行计算 timing 4.2.1 设备端测时 transpose 4.7.3 矩阵转置 transposeDiagonal 4.7.3 矩阵转置,考虑partition conflict VectorAdd 2.2.3/2.3.4 矢量加 VectorAddDrv 2.2.3/2.3.4 矢量加,驱动API实现 【备注】以上工程,均在Windows XP 64-bit + Tesla C1060 +
CUDA
2.3 + VS2005环境下测试通过。
CUDA
580
社区成员
2,919
社区内容
发帖
与我相关
我的任务
CUDA
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
复制链接
扫一扫
分享
社区描述
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章