NVIDIA Warp

NVIDIA Warp 是一个专为计算物理、AI 和优化工作流打造的开源 Python 框架,可在 GPU 上实现加速计算。

立即下载
文档论坛


NVIDIA Warp 的工作原理

加速物理仿真

NVIDIA Warp 为开发者提供了一种简单方式,用于编写面向仿真 AI、机器人技术和机器学习(ML)的 GPU 加速程序。借助 NVIDIA Warp,Python 开发者可以构建加速且可微分的仿真工作流,用于驱动 PyTorch、JAX、NVIDIA PhysicsNeMoNVIDIA Omniverse™ 等框架中的 ML 流水线。它既能带来接近原生 CUDA® 代码的仿真性能,又保留了 Python 带来的便捷性和开发效率。

基于内核的代码

NVIDIA Warp 执行 Python 的即时 (JIT) 运行时编译 CUDA 内核级代码和 x86 代码。基于内核的编程 提供与 GPU 硬件紧密映射的低级抽象, 与基于张量的编程不同,它提供了隐式内核 融合 (由用户控制) 、对线程的精细控制, 对条件逻辑、稀疏散射和收集的原生支持 在仿真代码中很常见。

可微编程

除了生成前向模式内核代码外,Warp 还可以生成 反向模式 (伴随) 核函数,用于传播 将模拟结果返回到框架中,例如 PyTorch 和 JAX 网络训练、设计优化和参数估计。

基于图块的编程

NVIDIA Warp 提供基于线程块的编程模型 协作以在数据图块上执行运算。这种抽象允许 利用 Tensor Core 等专用硬件单元 高性能矩阵乘法和里叶变换,同时 使开发者能够优化全局、共享、 和寄存器内存,用于加速科学计算。

原生几何基元

NVIDIA Warp 提供高性能数据结构 模拟和图形。开发者可以利用三角形网格、稀疏网格 体积 (NanoVDB) 和空间加速结构 (如哈希网格) 和边界卷层次结构 (BVH) 。这些基元经过优化 来加速复杂的几何查询,例如光线投射和最近的 邻居搜索。

稀疏线性代数

NVIDIA Warp 支持稀疏线性代数运算 模拟。它提供高效的块稀疏行 (BSR) 和压缩 稀疏行 (CSR) 矩阵格式,以及预先设定条件的迭代 共梯度 (CG) 和针对 GPU 优化的 GMRES 等求解器 执行。

有限元法 (FEM) 工具包

NVIDIA Warp 提供了一个用于求解差分的专用模块 使用有限元方法的方程。它使用户能够定义 域上的积分,组装稀疏线性系统,并解决这些问题 内置求解器。该模块支持多种网格类型和 高阶函数空间,允许快速实验 用于扩散、弹性和流体流动的定制配方。


入门套件

如今,许多 Python 开发者将 NVIDIA Warp 用于物理模拟、求解器开发、数据处理和可视化。NVIDIA Warp 包含多个更高级别的数据结构和基元,可简化仿真和几何处理算法的实现。

Autodesk Research

加速 CAE 工具开发

开发交互式运行的新一代 CAE 求解器,将 NVIDIA Warp 内核与您现有的模拟代码相结合,解锁 GPU 加速的 AI 就绪型数字孪生和优化循环。


计算物理学

使用 JIT* 编译为 CUDA 的 NVIDIA Warp 核函数,在 Python 中为刚体、流体和弹性材料创建自定义求解器原型并进行扩展,从而在 GPU 上实现生产级性能。


机器人仿真

借助基于 NVIDIA Warp 构建的 GPU 加速的可微分物理特性,运行高保真机器人运动规划和控制流程,然后将策略部署到真实机器人,并对仿真到真实的性能充满信心。


Newton 物理引擎

使用基于 NVIDIA Warp 和 OpenUSD 构建的开源 GPU 加速物理引擎 Newton,为机器人和大规模强化学习创建可扩展、可微分的仿真环境。


NVIDIA Warp On Demand 播放列表


资源

表示培训和认证的装饰性图像

获取培训和认证

初创加速计划的装饰性图像

加速您的初创公司

注册以接收 NVIDIA 开发者时事新闻

注册以接收开发者时事新闻

立即开始使用 NVIDIA Warp。

立即下载