NVIDIA 培训 | 参加 NVIDIA 认证在线分享会,了解认证科目和备考建议
社区首页 (3576)





请编写您的帖子内容
社区频道(11)
显示侧栏
卡片版式
全部
活动
博客
有问有答
深度学习培训中心
研讨会汇总
有奖征文
Ada助手
博文收录
官方网站
GPU 应用库
最新发布
最新回复
标题
阅读量
内容评分
精选

39
评分
回复


NVIDIA 培训 | 参加 NVIDIA 认证在线分享会,了解认证科目和备考建议
NVIDIA 培训 | 参加 NVIDIA 认证在线分享会,了解认证科目和备考建议 NVIDIANVIDIA英伟达2025年04月21日 18:05北京 NVIDIA 深度学习培训中心(DLI)将于 2025 年 6 月在北京举办 3 场 NVIDI
复制链接 扫一扫
分享

68
评分
回复


NVIDIA CUDA-X
适用于 AI 的采用 GPU 加速的微服务和库
PHYSICS WARP-Webpage|Doc NVIDIA Warp 是一个开发者框架,用于在 Python 中构建和加速数据生成和空间计算。Warp 让程序员能够轻松编写用于仿真 AI、机器人开发和机器学习 (ML) 的 GPU 加速、基于内
复制链接 扫一扫
分享

43
评分
回复


什么是向量数据库
嵌入模型将各种数据(例如文本、图像、图表和视频)转换为数字向量,从而在多维向量空间中捕捉其含义和细微差别。嵌入技术的选择取决于应用需求,平衡语义深度、计算效率、要编码的数据类型和维数等因素。将向量映射到多维空间可以对向量的语义相似性进行细致入微的分析,从而显著提高搜索和数据分类的准确性。嵌入模型在使用 AI 聊天机器人、大型语言模型 (LLM) 和带有向量数据库的检索增强生成 (RAG) 的 AI 应用中起着至关重要的作用,以及搜索引擎和许多其他用例。
复制链接 扫一扫
分享

32
评分
回复


NVIDIA 与 Hugging Face 合作简化生成式 AI 模型部署
随着生成式 AI 的快速发展,社区已采取两种重要方式来促进这种扩展:迅速发布最先进的基础模型,并简化它们与应用程序开发和生产的集成。NVIDIA 通过优化基础模型来提高性能,帮助企业更快地生成代币,降低运行模型的成本,并通过 NVIDIA NIM 改善最终用户体验,从而为这一努力提供帮助。
复制链接 扫一扫
分享

31
评分
回复


什么是大型语言模型
大型语言模型主要代表一类称为transformer网络的深度学习架构。transformer模型是一种神经网络,它通过跟踪顺序数据中的关系(例如本句中的单词)来学习上下文和含义。transformer由多个transformer块(也称为层)组成。例如,transformer具有自注意力层、前馈层和规范化层,它们共同作用以解密输入以预测推理时的输出流。这些层可以堆叠在一起以形成更深的transformer和强大的语言模型。
复制链接 扫一扫
分享

30
评分
回复


什么是图神经网络?
图神经网络将深度学习的预测能力应用于丰富的数据结构,这些数据结构将对象及其关系描述为图中由线连接的点。在 GNN 中,数据点称为节点,它们由线(称为边)连接,元素以数学方式表示,因此机器学习算法可以在节点、边或整个图的级别做出有用的预测。
复制链接 扫一扫
分享

28
评分
回复


什么是量子计算?
在史蒂夫·乔布斯 (Steve Jobs) 推出可以放入口袋的计算机之前 27 年,物理学家保罗·贝尼奥夫 (Paul Benioff) 发表了一篇论文,表明理论上可以构建一个可以隐藏在顶针中的更强大的系统——量子计算机。以其旨在利用的亚原子物理学命名,贝尼奥夫在 1980 年描述的概念至今仍在推动研究,包括努力构建计算领域的下一件大事:一个可以使 PC 在某些方面看起来像算盘一样古怪的系统。
复制链接 扫一扫
分享

29
评分
回复


可扩展联邦学习以增强 LLM 性能
想要了解有关 NIM 的更多信息?,即可免费访问任何基础设施云、数据中心或个人工作站上最多 16 个 GPU 上的自托管 NVIDIA NIM 和微服务。加入免费的 NVIDIA 开发者计划后,您可以随时通过 NVIDIA API 目录访问 NIM。要获得企业级安全性、支持和 API 稳定性,请选择通过我们的免费 90 天 NVIDIA AI Enterprise 试用版使用企业电子邮件地址访问 NIM 的选项。在不断发展的大型语言模型 (LLM) 领域,有效的数据管理是一个关键挑战。
复制链接 扫一扫
分享

27
评分
回复


NVIDIA Jetson Orin Nano 开发套件获得超级提升
生成式 AI 领域正在快速发展,新的大型语言模型 (LLM)、视觉语言模型 (VLM) 和视觉语言动作 (VLA) 模型每天都在涌现。为了站在这个变革时代的最前沿,开发人员需要一个足够强大的平台,能够使用 CUDA 优化推理和开放 ML 框架,将最新模型从云端无缝部署到边缘。为了支持机器人和多模态代理中生成式 AI 工作负载的新兴应用,NVIDIA 通过软件更新刷新了开发套件,性能空前提升高达 1.7 倍,新价格令人惊叹,仅为 249 美元。
复制链接 扫一扫
分享

31
评分
回复


NVIDIA Blackwell架构技术
想要了解有关 NIM 的更多信息?,即可免费访问任何基础设施云、数据中心或个人工作站上最多 16 个 GPU 上的自托管 NVIDIA NIM 和微服务。加入免费的 NVIDIA 开发者计划后,您可以随时通过 NVIDIA API 目录访问 NIM。要获得企业级安全性、支持和 API 稳定性,请选择通过我们的免费 90 天 NVIDIA AI Enterprise 试用版使用企业电子邮件地址访问 NIM 的选项。在AI和大型语言模型(LLMs)迅速发展的领域中,追求实时性能和可扩展性至关重要。
复制链接 扫一扫
分享

30
评分
回复


什么是预训练模型?
想要了解有关 NIM 的更多信息?,即可免费访问任何基础设施云、数据中心或个人工作站上最多 16 个 GPU 上的自托管 NVIDIA NIM 和微服务。加入免费的 NVIDIA 开发者计划后,您可以随时通过 NVIDIA API 目录访问 NIM。要获得企业级安全性、支持和 API 稳定性,请选择通过我们的免费 90 天 NVIDIA AI Enterprise 试用版使用企业电子邮件地址访问 NIM 的选项。
复制链接 扫一扫
分享

27
评分
回复


什么是DPU
在数据中心、DPU 或数据处理单元中移动数据的专家是一种新型的可编程处理器,将与 CPU 和 GPU 一起成为计算的三大支柱之一。当然,您可能已经熟悉中央处理器。多年来,CPU 是大多数计算机中唯一的可编程元件,灵活且响应迅速。最近,GPU 或图形处理单元发挥了核心作用。最初用于提供丰富的实时图形,它们的并行处理能力使它们成为各种加速计算任务的理想选择。得益于这些功能,GPU 对于人工智能、深度学习和大数据分析应用程序至关重要。
复制链接 扫一扫
分享

28
评分
回复


什么是归并排序
因此,此操作的符号表示为 O(1)。这篇文章的目的是为您提供有关合并排序算法的可靠背景信息,这些信息可以作为更复杂算法的基础知识。对于大小为 n 的列表,归并排序算法完成的预期步数、最小步数和最大步数都是相同的。您还应该知道,合并排序方法在不同情况下的执行时间的时间复杂度,在最佳、最差和平均情况下保持不变。合并排序算法是常用的,与其他排序算法相比,该算法背后的直觉和实现相当简单。在按升序对列表中的元素进行排序的上下文中,合并排序方法将列表分成两半,然后遍历新的两半,不断将它们进一步细分为更小的部分。
复制链接 扫一扫
分享

28
评分
回复


cuNumeric加速 Python 应用程序
这篇文章介绍了 cuNumeric,它是基于 Legion 编程系统的 NumPy 的替代品。它透明地加速 NumPy 程序并将其分发到任何规模和功能的机器,通常是通过更改单个模块导入语句。cuNumeric 通过将 NumPy 应用程序接口转换为 Legate 编程模型并利用 Legion 运行时的性能和可扩展性来实现这一点。
复制链接 扫一扫
分享

28
评分
回复


我与NVIDIA的故事
我与NVIDIA的故事,记录了小何尚走上AI之路的点点滴滴,也记录了我来到CSDN的心路历程
复制链接 扫一扫
分享

28
评分
回复


大型语言模型有什么用?
大型语言模型识别、总结、翻译、预测、生成文本和其他内容。AI 应用程序正在总结文章、撰写故事和进行长时间对话——而大型语言模型正在承担繁重的工作。大型语言模型或 LLM 是一种深度学习算法,可以根据从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他内容。大型语言模型是 Transformer 模型最成功的应用之一。它们不仅用于教授 AI 人类语言,还用于理解蛋白质、编写软件代码等等。
复制链接 扫一扫
分享

28
评分
回复


NVIDIA 开发者社区第十一届Sky Hackathon训练营实验手册---AWS Sagemaker AI部分
在这部分实验中,我们将利用AWS Sagemaker下载并部署NIM。
复制链接 扫一扫
分享

33
评分
回复


NVIDIA NIM:加速多模态RAG应用开发的强大引擎
本技术博客将深入探讨NVIDIA NIM的各个方面,帮助开发者和企业了解如何利用这一强大工具构建高性能的多模态RAG应用。NVIDIA NIM的技术架构和核心组件NIM的部署方法和最佳实践NIM API的使用详解和代码示例多模态RAG应用开发的完整流程NIM与流行框架的集成方法性能优化和扩展策略实际应用案例分析开发最佳实践和未来展望。
复制链接 扫一扫
分享

41
评分
回复


CUDA Cooperative Groups详解
Cooperative Groups提供了多种类型的线程组,可以分为隐式组和显式组两大类。
复制链接 扫一扫
分享

29
评分
回复


CUDA Dynamic Parallelism深度解析
CUDA Dynamic Parallelism是CUDA编程模型的一个扩展,它允许CUDA内核直接在GPU上创建和同步新的工作(即启动新的内核)。在传统的CUDA编程模型中,只有CPU(主机)能够启动GPU内核,而Dynamic Parallelism使得GPU线程也能够启动新的内核,从而实现更灵活的并行计算模式。Dynamic Parallelism的核心优势在于,它使得并行计算可以在程序的任何需要的地方动态创建,而不需要CPU的干预。
复制链接 扫一扫
分享
为您搜索到以下结果:
1,329
社区成员
1,428
社区内容





NVIDIA 企业开发者社区
NVIDIA 开发者技术交流
复制链接 扫一扫

确定
社区描述
NVIDIA 开发者技术交流 人工智能 企业社区
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
