本文翻译自:https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#post-installation-actions
NVIDIA CUDALinux安装指南
CUDA工具包的Linux安装说明。
文章目录
- 1.导言
- 1.1.系统要求
- 1.2.操作系统支持政策
- 1.3.主机编译器支持政策
- 1.3.1.支持的C++方言
- 1.4.关于本文件
- 2.安装前的操作
- 2.1.验证您有一个支持CUDA的GPU
- 2.2.验证您拥有受支持的Linux版本
- 2.3.验证系统是否已安装gcc
- 2.4.选择一种安装方法
- 2.5.下载NVIDIA CUDA工具包
- 下载验证
- 2.6.处理相互冲突的安装方法
- 3.包管理器安装
- 3.1.概述
- 3.2. RHEL / Rocky
- 3.2.1 准备 RHEL / Rocky
- 3.2.2RHEL/Rocky的本地 Repo 安装
- 3.2.3. Network Repo Installation for RHEL / Rocky
- 3.2.4 RHEL/Rocky的通用说明
- 3.3 KylinOS
- 3.3.1 准备KylinOS
- 3.3.2KylinOS的本地 Repo 安装
- 3.3.3. Network Repo Installation for KylinOS
- 3.3.4 KylinOS的通用指令
- 3.4.Fedora
- 3.4.1 准备Fedora
- 3.4.2 Fedora的本地 Repo 安装
- 3.4.3Fedora的网络 Repo 安装
- 3.4.4.Fedora的常用安装说明
- 3.5.SLES
- 3.5.1准备SLES
- 3.5.2SLES的本地 Repo 安装
- 3.5.3. Network Repo Installation for SLES
- 3.5.4SLES的常用安装说明
- 3.6.OpenSUSE
- 3.6.1.准备OpenSUSE
- 3.6.2OpenSUSE的本地Repo安装
- 3.6.3OpenSUSE的网络 Repo 安装
- 3.6.4OpenSUSE的常用安装说明
- 3.7.WSL
- 3.7.1准备WSL
- 3.7.2WSL的本地 Repo 安装
- 3.7.3WSL的网络 Repo 安装
- 3.7.4WSL的常用安装说明
- 3.8 Ubuntu
- 3.8.1 准备 Ubuntu
- 3.8.2 Ubuntu的本地Repo安装
- 3.8.3 Ubuntu的网络 Repo 安装
- 3.8.4 Ubuntu的常用安装说明
- 3.9.Debian
- 3.9.1 准备Debian
- 3.9.2 Debian的本地 Repo 安装
- 3.9.3 Debian的网络 Repo 安装
- 3.9.4.Debian的常用安装说明
- 3.10.亚马逊Linux
- 3.10.1.准备亚马逊Linux
- 3.10.2. AmazonLinux的本地Repo安装
- 3.10.3亚马逊Linux的网络 Repo 安装
- 3.10.4亚马逊Linux的常用安装说明
- 3.11 Azure Linux CM2
- 3.11.1 准备AzureLinuxCM2
- 3.11.2 AzureLinux的本地 Repo 安装
- 3.11.3 AzureLinux的网络 Repo 安装
- 3.11.4 Azure Linux 的常用安装说明
- 3.12 额外的包管理器功能
- 3.12.1 可用套餐
- 3.12.2 Meta Packages
- 3.12.3包升级
- 3.12.3.1亚马逊Linux
- 3.12.3.2.费多拉
- 3.12.3.3KylinOS/RHEL/RockyLinux
- 3.12.3.4 Azure Linux
- 3.12.3.5OpenSUSE/SLES
- 3.12.3.6Debian/
- 3.12.3.7 其他配套说明
- 4.驱动程序安装
- 5.Runfile 安装
- 5.1.Runfile概述
- 5.2.安装
- 5.3.高级选项
- 5.4.卸载
- 6 Conda 装置
- 6.1.Conda概述
- 6.2.使用Conda安装CUDA
- 6.3.使用Conda卸载CUDA
- 6.4.安装以前的CUDA版本
- 6.5.从cudatoolkit包升级
- 7 Pip Wheels
- 8、CUDA跨平台环境
- 8.1 CUDA跨平台安装
- 8.1.1 Ubuntu
- 8.1.1.1 Ubuntu的本地Cross Repo 安装
- 8.1.1.2 Ubuntu的网络Cross Repo 安装
- 8.1.1.3 Ubuntu的常用安装说明
- 8.1.2 KylinOS/RHEL/RockyLinux
- 8.1.2.1KylinOS/RHEL/RockyLinux的本地交叉 Repo 安装
- 8.1.2.2 KylinOS/RHEL/RockyLinux的网络交叉 Repo 安装
- 8.1.2.3KylinOS/RHEL/RockyLinux
- 8.1.3 SLES
- 8.1.3.1 SLES的本地交叉 Repo 安装
- 8.1.3.2SLES 的网络交叉 Repo 安装
- 8.1.3.3SLES的常用安装说明
- 9 Tarball 和 Zip 存档可交付成果
- 9.1 解析重新分发JSON
- 9.2.将Tarball导入CMake
- 9.3.将Tarball导入Bazel
- 10.安装后的操作
- 10.1.强制性行动
- 10.1.1环境设置
- 10.2.建议采取的行动
- 10.2.1安装可写样品
- 10.2.2.验证安装
- 10.2.2.1 运行二进制文件
- 10.2.3 安装Nsight Eclipse插件
- 10.2.4 本地 Repo 移除
- 10.3.可选操作
- 10.3.1安装第三方库
- 10.3.2.安装cuda-gdb的源代码
- 10.3.3选择CUDA的活动版本
- 11.删除CUDA工具包
- 12.高级设置
- 13.其他考虑因素
- 14.常见问题
- 14.1。如何在不同的位置安装工具包?
- 14.2.当我尝试构建CUDA应用程序时,为什么会看到“nvcc:没有这样的文件或目录”?
- 14.3 当我尝试运行使用CUDA库的CUDA应用程序时,为什么会看到“加载共享库时出错::无法打开共享对象文件:没有这样的文件或目录”?
- 14.4 为什么在Ubuntu上更新我的存储库元数据时,我会看到多个“404未找到”错误?
- 14.5 我如何告诉X忽略仅用于计算的GPU?
- 14.6 为什么cuda-repo包不安装CUDA工具包?
- 14.7.如何使用网络存储库安装旧的CUDA版本?
- 14.8.如何处理“处理时遇到错误:glx-改道”?
- 15.通知
- 15.1.通知
- 15.2. OpenCL
1.导言
CUDA®是NVIDIA®发明的并行计算平台和编程模型。它通过利用图形处理器(GPU)的强大功能,大幅提高计算性能。
CUDA的开发考虑了几个设计目标:
- 为标准编程语言(如C)提供一小部分扩展,以实现并行算法的直接实现。使用CUDA C/C++,程序员可以专注于算法的并行化任务,而不是在算法的实现上花费时间。
- 支持应用程序同时使用CPU和GPU的异构计算。应用程序的串行部分在CPU上运行,并行部分卸载到GPU。因此,CUDA可以增量应用于现有应用程序。CPU和GPU被视为具有自己内存空间的独立设备。这种配置还允许在CPU和GPU上同时计算,而不会争夺内存资源。
支持CUDA的GPU有数百个内核,可以共同运行数千个计算线程。这些内核具有共享资源,包括寄存器文件和共享内存。片上共享内存允许在这些内核上运行的并行任务共享数据,而无需通过系统内存总线发送。
本指南将向您展示如何安装和检查CUDA开发工具的正确操作。
注: 安装NVIDIA驱动程序的说明现已https://docs.nvidia.com/datacenter/tesla/driver-installation-guide/index.html。
1.1.系统要求
要在您的系统上使用NVIDIA CUDA,您需要安装以下内容:
- 支持CUDA的GPU
- 带有gcc编译器和工具链的受支持的Linux版本
- CUDA工具包(https://developer.nvidia.com/cuda-downloads提供)
CUDA开发环境依赖于与主机开发环境(包括主机编译器和C运行时库)的紧密集成,因此仅支持符合此CUDA工具包版本的分发版本。
下表列出了支持的Linux发行版。请查看与该表关联的脚注。
Distribution | Kernel1 | Default GCC | GLIBC |
---|---|---|---|
x86_64 | |||
RHEL 9.y (y <= 4) | 5.14.0-427 | 11.4.1 | 2.34 |
RHEL 8.y (y <= 10) | 4.18.0-553 | 8.5.0 | 2.28 |
OpenSUSE Leap 15.y (y <= 6) | 6.4.0-150600.21 | 7.5.0 | 2.38 |
Rocky Linux 8.y (y<=10) | 4.18.0-553 | 8.5.0 | 2.28 |
Rocky Linux 9.y (y<=4) | 5.14.0-427 | 11.4.1 | 2.34 |
SUSE SLES 15.y (y <= 6) | 6.4.0-150600.21 | 7.5.0 | 2.31 |
Ubuntu 24.04.z (z <= 1) LTS | 6.8.0-41 | 13.2.0 | 2.39 |
Ubuntu 22.04.z (z <= 4) LTS | 6.5.0-27 | 12.3.0 | 2.35 |
Ubuntu 20.04.z (z <= 6) LTS | 5.15.0-67 | 9.4.0 | 2.31 |
Debian 12.x (x<=7) | 6.1.0-25 | 12.2.0 | 2.36 |
Debian 11.y (y<=10)2 | 5.10.218-1 | 10.2.1 | 2.31 |
Fedora 39 | 6.5.6-300 | 13.2.1 | 2.38 |
KylinOS V10 SP3 2403 | 4.19.90-89.11.v2401 | 7.3.0 | 2.28 |
MSFT Azure Linux 2.0 | 5.15.158.2-1 | 11.2.0 | 2.35 |
Amazon Linux 2023 | 6.1.82-99.168 | 11.4.1 | 2.34 |
Arm64 sbsa | |||
RHEL 9.y (y <= 4) | 5.14.0-427 | 11.4.1 | 2.34 |
RHEL 8.y (y <= 10) | 4.18.0-553 | 8.5.0 | 2.28 |
SUSE SLES 15.y (y == 6) | 6.4.0-150600.21 | 7.5.0 | 2.38 |
Kylin V10 SP3 2403 | 4.19.90-89 | 12.3.0 | 2.28 |
Ubuntu 24.04.z (z <= 1) LTS | 6.8.0-41 | 13.2.0 | 2.39 |
Ubuntu 22.04 LTS (z <= 5) LTS | 5.15.0-102 | 11.4.0 | 2.35 |
Ubuntu 20.04.z (z <= 5) LTS | 5.4.0-174 | 9.4.0 | 2.31 |
Arm64 sbsa Jetson (dGPU) | |||
20.04.06 LTS Rel35 JP 5.x | 5.10.192-tegra | 9.4.0 | 2.31 |
22.04.4 LTS Rel36 - JP6.x | 5.15.136-tegra | 11.4.0 | 2.35 |
Aarch64 Jetson (iGPU) | |||
L4T Ubuntu 22.04 Rel36 - JP6.x | 6.1.80-tegra | 11.4.0 | 2.35 |
1、以下注释适用于CUDA支持的内核版本:
- 有关Red Hat EnterpriseLinux(RHEL)支持的特定内核版本,请访问https://access.redhat.com/articles/3078。
- 包含SUSELinuxEnterprise Server(SLES)发布日期的内核版本列表位于https://www.suse.com/support/kb/doc/? id=000019587。
2、已弃用对Debian 11. x的支持。
1.2.操作系统支持政策
- CUDA对Ubuntu 20.04. x、Ubuntu 22.04.x、Ubuntu 24.04.x、RHEL 8.x、RHEL 9.x、RockyLinux8.x、RockyLinux9.x、SUSE SLES 15.x、OpenSUSE Leap 15.x、Amazon linux 2023和AzureLinux2.0的支持将持续到为每个操作系统定义的标准EOSS。请参阅这些操作系统的支持生命周期,了解它们的支持时间表。
- CUDA支持最新的Fedora发布版本。有关Fedora发布时间表,请访问https://docs.fedoraproject.org/en-US/releases/。
- CUDA支持单个KylinOS发行版。详情请访问https://www.kylinos.cn/。
请参阅这些受支持操作系统的支持生命周期,以了解其支持时间表并计划相应地迁移到更新版本。
1.3.主机编译器支持政策
为了编译CUDA源代码中的CPU“主机”代码,CUDA编译器NVCC需要在系统上安装兼容的主机编译器。Linux平台支持的主机编译器版本如下表所示。NVCC对主机编译器的主要版本进行版本检查,因此将支持下面列出的编译器的较新次要版本,但不支持范围之外的主要版本。
Distribution | GCC | Clang | NVHPC | XLC | ArmC/C++ | ICC |
---|---|---|---|---|---|---|
x86_64 | 6.x - 13.2 | 7.x - 18.0 | 24.5 | No | No | 2021.7 |
Arm64 sbsa | 6.x - 13.2 | 7.x - 18.0 | 24.5 | No | 24.04 | No |
对于GCC和Clang,上表指示了支持的最低版本和最新版本。如果您使用的Linux发行版可能默认使用旧版本的GCC工具链,而不是上面列出的版本,建议升级到更新的工具链CUDA 11.0或更高版本的工具包。例如,Red Hat Developer Toolset提供了更新的GCC工具链。对于默认提供早于GCC 6的编译器版本的平台,不支持链接到CUDA工具包附带的静态或动态库。对于上面列出的平台的所有受支持的主机编译器,我们仅支持libstdc++(GCC的实现)。
1.3.1.支持的C++方言
NVCC和NVRTC(CUDA运行时编译器)在支持的主机编译器上支持以下C++方言:C++11、C++14、C++17、C++20。NVCC的默认C++方言由用于编译的主机编译器的默认方言决定。有关语言支持的更多详细信息,请参阅主机编译器文档和CUDA编程指南。
C++20在主机和设备代码中都支持以下风格的主机编译器。
GCC | Clang | NVHPC | Arm C/C++ |
---|---|---|---|
>=10.x | >=11.x | >=22.x | >=22.x |
1.4.关于本文件
本文档适用于熟悉Linux环境和从命令行编译C程序的读者。您不需要以前的CUDA经验或并行计算经验。注意:本指南仅涵盖安装了X Windows的系统上的安装。
注:本文档中的许多命令可能需要超级用户权限。在大多数Linux发行版中,这将要求您以root身份登录。对于启用了sudo包的系统,请对所有必要的命令使用sudo前缀。
2.安装前的操作
在Linux安装CUDA工具包之前,必须采取一些行动:
- 验证系统是否具有支持CUDA的GPU。
- 验证系统正在运行受支持的Linux版本。
- 验证系统是否安装了gcc。
- 下载NVIDIA CUDA工具包。
- 处理冲突的安装方法。
注:您可以通过运行带有-override
标志的安装程序来覆盖安装时先决条件检查。请记住,使用NVIDIA CUDA工具包仍然需要先决条件。
2.1.验证您有一个支持CUDA的GPU
要验证您的GPU是否支持CUDA,请转到您的发行版的等效系统属性,或者从命令行输入:
lspci | grep -i nvidia
如果您没有看到任何设置,请通过在命令行输入update-pciids
(通常在/sbin
中找到)来更新Linux维护的PCI硬件数据库,然后重新运行之前的lspci
命令。
如果您的显卡来自NVIDIA并在https://developer.nvidia.com/cuda-gpus中列出,则您的GPU支持CUDA。
CUDA工具包的发行说明还包含支持产品的列表。
2.2.验证您拥有受支持的Linux版本
CUDA开发工具仅在Linux的某些特定发行版上受支持。这些在CUDA工具包发行说明中列出。
要确定您正在运行的发行版和发行版编号,请在命令行中键入以下内容:
uname -m && cat /etc/*release
您应该会看到类似于以下的输出,针对您的特定系统进行了修改:
x86_64
Red Hat Enterprise Linux Workstation release 6.0 (Santiago)
x86_64
行表示您正在64位系统上运行。其余部分提供有关您的发行版的信息。
2.3.验证系统是否已安装gcc
使用CUDA工具包进行开发需要gcc
编译器。运行CUDA应用程序不需要它。它通常作为Linux安装的一部分安装,在大多数情况下,安装了受支持版本的Linux的gcc版本将正常工作。
要验证系统上安装的gcc版本,请在命令行上键入以下内容:
gcc --version
如果显示错误消息,您需要从Linux发行版安装开发工具,或者从Web获取gcc
及其随附的工具链版本。
2.4.选择一种安装方法
可以使用两种不同的安装机制安装CUDA工具包:distribution-specific包( RPM 和Deb包)或distribution-independent包(runfile包)。
distribution-independent包的优点是可以跨更广泛的Linux发行版工作,但不会更新发行版的本机包管理系统。distribution-specific包与发行版的本机包管理系统接口。建议尽可能使用distribution-specific包。
注:对于本机开发和交叉开发,必须使用distribution-specific安装程序安装工具包。有关详细信息,请参阅CUDA跨平台安装部分。
2.5.下载NVIDIA CUDA工具包
NVIDIA CUDA工具包可在 https://developer.nvidia.com/cuda-downloads 获得。
选择您正在使用的平台并下载NVIDIA CUDA工具包。
CUDA工具包包含创建、构建和运行CUDA应用程序所需的工具以及库、头文件和其他资源。
下载验证
可以通过将 https://developer.download.nvidia.com/compute/cuda/12.6.3/docs/sidebar/md5sum.txt 发布的MD5校验和与下载文件的校验和进行比较来验证下载。如果其中任何一个校验和不同,则下载的文件已损坏,需要重新下载。
要计算下载文件的MD5校验和,请运行以下命令:
md5sum <file>
2.6.处理相互冲突的安装方法
在安装CUDA之前,应卸载任何可能发生冲突的先前安装。这不会影响以前没有安装CUDA的系统,或保留安装方法的系统( RPM /Deb vs. Runfile)。有关详细信息,请参阅以下图表。
Installed Toolkit Version == X.Y | Installed Toolkit Version != X.Y | ||||
---|---|---|---|---|---|
RPM/Deb | run | RPM/Deb | run | ||
Installing Toolkit Version X.Y | RPM/Deb | No Action | Uninstall Run | No Action | No Action |
run | Uninstall RPM/Deb | Uninstall Run | No Action | No Action |
使用以下命令卸载Toolkit运行文件安装:
sudo /usr/local/cuda-X.Y/bin/cuda-uninstaller
使用以下命令卸载 RPM/Deb 安装:
sudo dnf remove <package_name> # RHEL 8 / Rocky Linux 8 / RHEL 9 / Rocky Linux 9 / Fedora / KylinOS 10 / Amazon Linux 2023
sudo tdnf remove <package_name> # Azure Linux
sudo zypper remove <package_name> # OpenSUSE / SLES
sudo apt-get --purge remove <package_name> # Debian / Ubuntu
3.包管理器安装
基本说明可以在快速入门指南中找到。继续阅读以获取更详细的说明。
3.1.概述
使用 RPM 或Debian包的安装与您系统的包管理系统接口使用 RPM 或Debian本地repo安装程序时,下载的包包含存储在本地文件系统上的存储库快照 /var/.这样的包只通知包管理器在哪里可以找到实际的安装包,但不会安装它们。
如果启用了在线网络存储库, RPM 或Debian软件包将在安装时使用包管理器自动下载:apt-get、dnf、tdnf或zypper。
Distribution-specific说明详细说明了如何安装CUDA:
- RHEL / Rocky Linux
- KylinOS
- Fedora
- SLES
- OpenSUSE
- WSL
- Ubuntu
- Debian
- Amazon Linux
- Azure Linux CM2
最后,详细介绍了一些有用的包管理器功能。
这些说明仅适用于本机开发。对于跨平台开发,请参阅CUDA跨平台环境部分。
注:默认情况下不安装nvidia-fs
、libnvidia_nscq
和fabricmanager
等可选组件,必须根据需要单独安装。
3.2. RHEL / Rocky
3.2.1 准备 RHEL / Rocky
1、执行安装前的操作
2、满足第三方包依赖:
启用可选存储库:
仅在RHEL 9Linux上,执行以下步骤以启用可选存储库。
在 x86_64系统:
subscription-manager repos --enable=rhel-9-for-x86_64-appstream-rpms
subscription-manager repos --enable=rhel-9-for-x86_64-baseos-rpms
subscription-manager repos --enable=codeready-builder-for-rhel-9-x86_64-rpms
仅在RHEL 8Linux上,执行以下步骤以启用可选存储库。
在 x86_64系统:
subscription-manager repos --enable=rhel-8-for-x86_64-appstream-rpms
subscription-manager repos --enable=rhel-8-for-x86_64-baseos-rpms
subscription-manager repos --enable=codeready-builder-for-rhel-8-x86_64-rpms
3、删除过时的签名密钥:
sudo rpm --erase gpg-pubkey-7fa2af80*
4、选择一种安装方法:本地 Repo 安装RHEL/Rocky或网络 Repo 安装RHEL/Rocky。
3.2.2RHEL/Rocky的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.<arch>.rpm
其中<distro>
应替换为以下内容之一:
rhel8
rhel9
和<arch>
应替换为以下内容之一:
x86_64
aarch64
3.2.3. Network Repo Installation for RHEL / Rocky
1、Enable the network repo:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.repo
<distro>/<arch>
需要被替换为如下之一:
rhel8/sbsa
rhel8/x86_64
rhel9/sbsa
rhel9/x86_64
2、Install the new CUDA public GPG key:
CUDA存储库(基于RPM的发行版)的新GPG公钥是 d42d0685 。
在RHEL的新安装中,dnf 包管理器将在第一次安装包时提示用户接受新密钥。提示时表示您接受更改。
对于升级,您还必须获取更新的.repo条目:
对于升级,您还必须获取更新的 .repo
条目:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.repo
3、清理 DNF 存储库:
sudo dnf clean all
3.2.4 RHEL/Rocky的通用说明
这些说明适用于本地和网络安装。
1、安装CUDA SDK:
sudo dnf install cuda-toolkit
2、安装 GPUDirect 文件系统:
sudo dnf install nvidia-gds
3、如有必要,添加 libcuda.so 符号链接
该libcuda.so
库安装在/usr/lib{,64}/nvidia
目录中。对于使用libcuda.so
的现有项目,在/usr/lib{,64}
目录中添加来自libcuda.so
的符号链接可能很有用。
4、重启系统:
sudo reboot
5、执行安装后的操作。
3.3 KylinOS
3.3.1 准备KylinOS
1、执行安装前的操作。
2. 选择一种安装方式:本地存储库或网络存储库。
3.3.2KylinOS的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.<arch>.rpm
其中<distro>
应替换为以下内容之一:
kylin10
和<arch>
应替换为以下内容之一:
x86_64
aarch64
3.3.3. Network Repo Installation for KylinOS
1、Enable the network repo:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.repo
where <distro>/<arch>
should be replaced by one of the following:
kylin10/sbsa
kylin10/x86_64
2、Install the new CUDA public GPG key:
The new GPG public key for the CUDA repository (RPM-based distros) is d42d0685.
On a fresh installation of KylinOS, the dnf package manager will prompt the user to accept new keys when installing packages the first time. Indicate you accept the change when prompted.
3、Clean DNF repository:
sudo dnf clean all
3.3.4 KylinOS的通用指令
这些说明适用于本地和网络安装。
1、安装CUDA SDK:
sudo dnf install cuda-toolkit
2、安装GPUDirect文件系统:
sudo dnf install nvidia-gds
3、如有必要,添加libcuda.so符号链接
该libcuda.so
库安装在/usr/lib{,64}/nvidia
目录中。对于使用libcuda.so
的现有项目,在/usr/lib{,64}
目录中添加来自libcuda.so
的符号链接可能很有用。
4、重启系统:
sudo reboot
5、执行安装后的操作。
3.4.Fedora
3.4.1 准备Fedora
1、执行安装前的操作。
2、删除过时的签名密钥:
sudo rpm --erase gpg-pubkey-7fa2af80*
3、选择一种安装方式:本地存储库或网络存储库。
3.4.2 Fedora的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.x86_64.rpm
其中<distro>
应替换为以下内容之一:
fedora39
3.4.3Fedora的网络 Repo 安装
1、启用网络存储库:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo
其中<distro>
应替换为以下内容之一:
fedora39
2、安装新的CUDA公钥GPG:
CUDA存储库( RPM 发行版)的新GPG公钥是d42d0685。
在重新安装Fedora时,dnf包管理器将在第一次安装包时提示用户接受新密钥。提示时指示您接受更改。
对于升级,您还必须获取更新的.repo
条目:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo
2、清理DNF存储库:
sudo dnf clean all
3.4.4.Fedora的常用安装说明
这些说明适用于Fedora的本地和网络安装。
1、安装CUDA SDK:
sudo dnf install cuda-toolkit
2、重启系统:
sudo reboot
3、如有必要,添加libcuda.so符号链接:
该libcuda.so
库安装在/usr/lib{,64}/nvidia
目录中。对于使用libcuda.so
的现有项目,在/usr/lib{,64}
目录中添加来自libcuda.so
的符号链接可能很有用。
4、执行安装后的操作。
3.5.SLES
3.5.1准备SLES
1、执行安装前的操作。
2、在SLES12 SP4上,在继续之前安装Mesa-libgl-develLinux包。
见Mesa-libGL-devel。
3、将用户添加到视频组:
sudo usermod -a -G video <username>
4、删除过时的签名密钥:
sudo rpm --erase gpg-pubkey-7fa2af80*
5、选择一种安装方式:本地存储库或网络存储库。
3.5.2SLES的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.<arch>.rpm
其中<distro>
应替换为以下内容之一:
sles15
和<arch>
应替换为以下内容之一:
x86_64
aarch64
3.5.3. Network Repo Installation for SLES
1、Enable the network repo:
sudo zypper addrepo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.repo
其中<distro>/<arch>
应替换为以下内容之一:
sles15/sbsa
sles15/x86_64
2、安装新的CUDA公钥GPG:
CUDA存储库( RPM 发行版)的新GPG公钥是d42d0685。
在重新安装SLES时,zypper包管理器将在第一次安装包时提示用户接受新密钥。提示时指示您接受更改。
对于升级,您还必须获取更新的. repo条目:
sudo zypper removerepo cuda-<distro>-<arch>sudo zypper addrepo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.repo
3、刷新Zypper存储库缓存:
sudo SUSEConnect --product PackageHub/<SLES version number>/<arch>sudo zypper refresh
3.5.4SLES的常用安装说明
这些说明适用于SLES的本地和网络安装。
1、安装CUDA SDK:
sudo zypper install cuda-toolkit
2、重启系统:
sudo reboot
3、执行安装后的操作。
3.6.OpenSUSE
3.6.1.准备OpenSUSE
1、执行安装前的操作。
2、将用户添加到视频组:
sudo usermod -a -G video <username>
3、删除过时的签名密钥:
sudo rpm --erase gpg-pubkey-7fa2af80*
4、选择一种安装方式:本地存储库或网络存储库。
3.6.2OpenSUSE的本地Repo安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.x86_64.rpm
其中<distro>
应替换为以下内容之一:
opensuse15
3.6.3OpenSUSE的网络 Repo 安装
1、启用网络存储库:
sudo zypper addrepo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo
其中<distro>
应替换为以下内容之一:
opensuse15
2、安装新的CUDA公钥GPG:
CUDA存储库( RPM 发行版)的新GPG公钥是d42d0685。在重新安装openSUSE时,zypper包管理器将在第一次安装包时提示用户接受新密钥。提示时指示您接受更改。
对于升级,您还必须获取更新的. repo条目:
sudo zypper removerepo cuda-<distro>-x86_64sudo zypper addrepo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo
3、刷新Zypper存储库缓存:
sudo zypper refresh
3.6.4OpenSUSE的常用安装说明
这些说明适用于OpenSUSE的本地和网络安装。
1、安装CUDA SDK:
sudo zypper install cuda-toolkit
2、重启系统:
sudo reboot
3、执行安装后的操作。
3.7.WSL
如果您在WSL环境中安装,则必须使用这些说明。
3.7.1准备WSL
1、执行安装前的操作。
2、删除过时的签名密钥:
sudo apt-key del 7fa2af80
3、选择一种安装方式:本地存储库或网络存储库。
3.7.2WSL的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo dpkg -i cuda-repo-<distro>-X-Y-local_<version>*_amd64.deb
其中<distro>
应替换为以下内容之一:
wsl-ubuntu
2、注册临时公共GPG密钥:
sudo cp /var/cuda-repo-<distro>-X-Y-local/cuda-*-keyring.gpg /usr/share/keyrings/
3、添加pin文件以确定CUDA存储库的优先级:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.pinsudo mv cuda-<distro>.pin /etc/apt/preferences.d/cuda-repository-pin-600
3.7.3WSL的网络 Repo 安装
CUDA存储库(基于Debian的发行版)的新GPG公钥是3bf863cc。这必须使用cuda-keyring
包或手动在系统上注册;不推荐使用apt-key
命令。
1、安装新的cuda-keyring包:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
其中<distro>
应替换为以下内容之一:
wsl-ubuntu
3.7.4WSL的常用安装说明
这些说明适用于WSL的本地和网络安装。
1、更新Apt存储库缓存:
sudo apt-get update
2、安装CUDA SDK:
sudo apt-get install cuda-toolkit
3、执行安装后的操作。
3.8 Ubuntu
3.8.1 准备 Ubuntu
1、执行安装前的操作。
2、删除过时的签名密钥:
sudo apt-key del 7fa2af80
3、选择一种安装方式:本地存储库或网络存储库。
3.8.2 Ubuntu的本地Repo安装
1、在文件系统上安装本地存储库:
sudo dpkg -i cuda-repo-<distro>-X-Y-local_<version>*_<arch>.deb
其中<distro>
应替换为以下内容之一:
ubuntu2004
ubuntu2204
ubuntu2404
和<arch>
应替换为以下内容之一:
amd64
arm64
2、注册临时公共GPG密钥:
sudo cp /var/cuda-repo-<distro>-X-Y-local/cuda-*-keyring.gpg /usr/share/keyrings/
3、添加pin文件以确定CUDA存储库的优先级:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>.pin
sudo mv cuda-<distro>.pin /etc/apt/preferences.d/cuda-repository-pin-600
3.8.3 Ubuntu的网络 Repo 安装
CUDA存储库的新GPG公钥是3bf863cc。这必须使用cuda-keyring
包或手动在系统上注册;不推荐使用apt-key
命令。
1、安装新的cuda-keyring包:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
其中<distro>/<arch>
应替换为以下内容之一:
ubuntu2004/arm64
ubuntu2004/sbsa
ubuntu2004/x86_64
ubuntu2204/sbsa
ubuntu2204/x86_64
ubuntu2404/sbsa
ubuntu2404/x86_64
注: arm64-Jetson存储库:
- 本地:
<distro>/arm64
sudo dpkg -i cuda-keyring_1.1-1_all.deb
3.8.4 Ubuntu的常用安装说明
这些说明适用于Ubuntu的本地和网络安装。
1、更新Apt存储库缓存:
sudo apt-get update
2、安装CUDA SDK:
注: 这两个命令必须分开执行。
sudo apt-get install cuda-toolkit
要包括所有GDS软件包:
sudo apt-get install nvidia-gds
a) 对于本机arm64-Jetson存储库,安装附加包:
sudo apt-get install cuda-compat
3、重启系统
sudo reboot
4、执行安装后操作
3.9.Debian
3.9.1 准备Debian
1、执行安装前的操作。
2、启用contrib存储库:
sudo add-apt-repository contrib
3、删除过时的签名密钥:
sudo apt-key del 7fa2af80
4、选择一种安装方式:本地存储库或网络存储库。
3.9.2 Debian的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo dpkg -i cuda-repo-<distro>-X-Y-local_<version>*_amd64.deb
其中<distro>
应替换为以下内容之一:
debian11
debian12
2、注册临时公共GPG密钥:
sudo cp /var/cuda-repo-<distro>-X-Y-local/cuda-*-keyring.gpg /usr/share/keyrings/
3.9.3 Debian的网络 Repo 安装
CUDA存储库(基于Debian的发行版)的新GPG公钥是3bf863cc。这必须使用cuda-keyring包或手动在系统上注册;不推荐使用apt-key
命令。
1、安装新的cuda-keyring包:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-keyring_1.1-1_all.deb
其中<distro>/<arch>
应替换为以下内容之一:
debian11/x86_64
debian12/x86_64
sudo dpkg -i cuda-keyring_1.1-1_all.deb
3.9.4.Debian的常用安装说明
这些说明适用于Debian的本地和网络安装。
1、更新Apt存储库缓存:
sudo apt-get update
注: 如果您使用的是Debian 11,您可能需要运行:
sudo apt-get --allow-releaseinfo-change update
2、安装CUDA SDK:
sudo apt-get install cuda-toolkit
3、重启系统:
sudo reboot
4、执行安装后的操作。
3.10.亚马逊Linux
3.10.1.准备亚马逊Linux
1、执行安装前的操作。
2. 选择一种安装方式:本地存储库或网络存储库。
3.10.2. AmazonLinux的本地Repo安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.x86_64.rpm
其中<distro>
应替换为以下内容之一:
amzn2023
3.10.3亚马逊Linux的网络 Repo 安装
1、启用网络存储库:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo
2、清理DNF存储库:
sudo dnf clean all
3.10.4亚马逊Linux的常用安装说明
这些说明适用于AmazonLinux的本地和网络安装。
1、安装CUDA SDK:
sudo dnf install cuda-toolkit
2、安装GPUDirect文件系统:
sudo dnf install nvidia-gds
3、如有必要,添加libcuda.so符号链接:
该libcuda.so
库安装在/usr/lib{,64}/nvidia
目录中。对于使用libcuda.so
的现有项目,在/usr/lib{,64}
目录中添加来自libcuda.so
的符号链接可能很有用。
4、重启系统:
sudo reboot
5、执行安装后的操作。
3.11 Azure Linux CM2
3.11.1 准备AzureLinuxCM2
1、执行安装前的操作。
2、选择一种安装方式:本地存储库或网络存储库。
3.11.2 AzureLinux的本地 Repo 安装
1、在文件系统上安装本地存储库:
sudo rpm --install cuda-repo-<distro>-X-Y-local-<version>*.x86_64.rpm
其中<distro>
应替换为以下内容之一:
cm2
3.11.3 AzureLinux的网络 Repo 安装
1、启用网络存储库:
curl https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/cuda-<distro>.repo | sudo tee /etc/yum.repos.d/cuda-<distro>.repo
2、清理TDNF存储库缓存:
sudo tdnf clean expire-cache
3.11.4 Azure Linux 的常用安装说明
这些说明适用于AzureLinux的本地和网络安装。
1、启用Mariner扩展存储库:
sudo tdnf install mariner-repos-extended
2、安装 Cuda SDK:
sudo tdnf install cuda-toolkit
3、安装 GPUDirect 文件系统:
sudo tdnf install nvidia-gds
4、重启系统:
sudo reboot
5、执行安装后的操作。
3.12 额外的包管理器功能
以下是用户可以利用的包管理器的一些附加功能。
3.12.1 可用套餐
推荐的安装包是cuda
包,这个包将安装原生开发所需的全套其他CUDA包,应该涵盖大多数场景。
这个cuda
包安装了用于本机开发的所有可用包,包括编译器、调试器、分析器、数学库等等。对于x86_64平台,还包括Nsight Eclipse Edition和可视化分析器。
在受支持的平台上,cuda-cross-aarch64
和cuda-cross-sbsa
软件包分别将跨平台开发所需的所有软件包安装到arm64-Jetson和arm64-Server。
注:从CUDA 12.0及更高版本的工具包中删除了32位编译本机和交叉编译。使用早期版本中的CUDA工具包进行32位编译。Hopper不支持32位应用程序。
上述软件包安装的软件包也可以通过显式指定它们的名称来单独安装。可用软件包的列表可以通过以下方式获得:
dnf --disablerepo="*" --enablerepo="cuda*" list available # Amazon Linux / Fedora / KylinOS / RHEL / Rocky Linux
tdnf --disablerepo="*" --enablerepo="cuda-cm2-<cuda X-Y version>-local" list available # Azure Linux
zypper packages -r cuda # OpenSUSE / SLES
cat /var/lib/apt/lists/*cuda*Packages | grep "Package:" # Debian / Ubuntu
3.12.2 Meta Packages
Meta Packages 是 RPM /Deb/Conda包,不包含(或很少)文件,但有多个依赖项。当您可能不知道所需包的详细信息时,它们用于安装许多CUDA包。下表列出了元包。
元包 | 目的 |
---|---|
cuda | 安装所有CUDA工具包和驱动程序包。处理发布后升级到下一个版本的cuda 包。 |
cuda-12-6 | 安装所有CUDA工具包和驱动程序包。在安装其他版本的CUDA之前保持在版本12.5。 |
cuda-toolkit-12-6 | 安装开发CUDA应用程序所需的所有CUDA工具包。不包括驱动程序。 |
cuda-toolkit-16 | 安装开发应用程序所需的所有CUDA工具包。不会升级到12. x系列工具包之外。不包括驱动程序。 |
cuda工具包 | 安装开发应用程序所需的所有CUDA工具包。在发布时处理升级到下一个12. x版本的CUDA。不包括驱动程序。 |
cuda-toolkit-12-6 | 安装所有CUDA命令行和可视化工具。 |
cuda-runtime-12-6 | 安装运行CUDA应用程序所需的所有CUDA工具包以及驱动程序包。 |
cuda-compiler-12-6 | Installs all CUDA compiler packages. |
cuda-libraries-12-6 | Installs all runtime CUDA Library packages. |
cuda-libraries-dev-12-6 | Installs all development CUDA Library packages. |
3.12.3包升级
该cuda
包指向CUDA工具包的最新稳定版本。当有新版本可用时,使用以下命令升级工具包:
3.12.3.1亚马逊Linux
sudo dnf upgrade cuda-toolkit
3.12.3.2.费多拉
将工具包升级到新的主要分支时:
sudo dnf install cuda-toolkit
将工具包升级到新的次要分支时:
sudo dnf upgrade cuda-toolkit
3.12.3.3KylinOS/RHEL/RockyLinux
sudo dnf install cuda-toolkit
3.12.3.4 Azure Linux
sudo tdnf install cuda-toolkit
3.12.3.5OpenSUSE/SLES
sudo zypper install cuda-toolkit
3.12.3.6Debian/
sudo apt-get install cuda-toolkit
3.12.3.7 其他配套说明
也可以cuda-cross-<arch>
软件包。
某些桌面环境(例如GNOME或KDE)会在有新包可用时显示通知警报。
为避免任何自动升级,并将工具包安装锁定到X. Y版本,请安装cuda-toolkit-X-Y
或cuda-cross-<arch>-X-Y
包。
支持并行安装。例如,要同时安装X. Y CUDA Toolkit和X.Y+1 CUDA Toolkit,请安装cuda-toolkit-X.Y
和cuda-toolkit-X.Y+1
软件包。
4.驱动程序安装
有关驱动程序安装的更多信息,请参阅驱动程序安装指南Linux
5.Runfile 安装
基本说明可以在快速入门指南中找到。继续阅读以获取更详细的说明。
本节介绍使用独立安装程序时CUDA的安装和配置。独立安装程序是一个.run
文件,完全自包含。
5.1.Runfile概述
Runfile安装通过基于ncurses的交互式界面安装CUDA工具包。
下面列出了安装步骤。
最后,下面详细介绍了安装程序和卸载步骤的高级选项。
Runfile安装不支持跨平台开发。有关跨平台开发,请参阅CUDA跨平台环境部分。
5.2.安装
1、执行安装前的操作。
2、重新启动到文本模式(运行级别3)。
这通常可以通过在系统内核引导参数的末尾添加数字“3”来完成。
由于尚未安装NVIDIA驱动程序,文本终端可能无法正确显示。暂时在系统内核引导参数中添加“namodeset”可能会解决此问题。
有关如何更改上述引导参数的信息,请参阅系统的引导加载程序文档。
3、运行安装程序并按照屏幕上的提示进行操作:
sudo sh cuda_<version>_linux.run
安装程序将提示以下内容:
- EULA验收
- CUDA Toolkit安装、位置和
/usr/local/cuda
符号链接
工具包的默认安装位置为/usr/local/cuda-12.6
:
符号链接/usr/local/cuda
指向CUDA工具包的安装位置。此链接允许项目使用最新的CUDA工具包,而无需任何配置文件更新。
必须以足够的权限执行安装程序才能执行某些操作。当当前权限不足以执行某个操作时,安装程序将询问用户密码以尝试以root权限安装。导致安装程序尝试以root权限安装的操作有:
- 将CUDA工具包安装到用户无权写入的位置
- 创建
/usr/local/cuda
符号链接
如上所示,使用sudo运行安装程序将授予安装到需要root权限的目录的权限。使用sudo运行安装程序时创建的目录和文件将具有root所有权。
4、重启系统重新加载图形界面:
sudo reboot
5、执行安装后的操作。
5.3.高级选项
行动 | 使用的选项 | 说明 |
---|---|---|
Silent Installation | --silent | 任何静默安装都需要。根据下面提供的选项,在没有进一步用户输入和最小命令行输出的情况下执行安装。静默安装对于编写CUDA安装脚本很有用。使用此选项意味着接受EULA。以下标志可用于自定义安装过程中采取的操作。如果以非root权限运行,则必须传递--driver 、--uninstall 和--toolkit 中的至少一个。 |
--driver | 安装CUDA驱动程序。 | |
--toolkit | 安装CUDA工具包。 | |
--toolkitpath=<path> | 将CUDA Toolkit安装到 /usr/local/cuda-12.6 。 | |
--defaultroot=<path> | 将库安装到 | |
Extraction | --extract=<path> | 提取到 |
覆盖安装检查 | --override | 忽略编译器、第三方库和工具包检测检查,这会阻止CUDA工具包的安装。 |
没有OpenGL库 | --no-opengl-libs | 防止驱动程序安装安装NVIDIA的GL库。对于显示器由非NVIDIA GPU驱动的系统很有用。在此类系统中,NVIDIA的GL库可能会阻止X正确加载。 |
没有手册页 | --no-man-page | 不要安装/usr/share/man 下的手册页。 |
覆盖内核源 | --kernel-source-path=<path> | 告诉驱动程序安装在构建NVIDIA内核模块时使用 |
运行nvidia-xconfig | --run-nvidia-xconfig | 告诉驱动程序安装运行nvidia-xconfig以更新系统X配置文件,以便使用NVIDIA X驱动程序。将备份预先存在的X配置文件。 |
没有nvidia-drm内核模块 | --no-drm | 不要安装nvidia-drm内核模块。此选项应仅用于解决在不需要提供功能的系统上构建或安装nvidia-drm内核模块失败的问题。 |
自定义临时目录选择 | --tmpdir=<path> | 在 /tmp 中执行任何临时操作。在无法使用 /tmp 的情况下很有用(不存在、已满、使用’noexec’挂载等)。 |
内核模块构建目录 | --kernel-module-build-directory=<kernel|kernel-open> | 告诉驱动程序安装在构建NVIDIA内核模块时使用内核源代码的传统或开放风格。内核开放风格仅在图灵GPU和更新版本上受支持。 |
-m=kernel | 告诉驱动程序安装在构建NVIDIA内核模块时使用内核源代码的传统风格--kernel-module-build-directory=kernel | |
m=kernel-open | 告诉驱动程序安装在构建NVIDIA内核模块时使用内核源代码的开放风格。内核开放风格仅在图灵GPU和更新版本上受支持--kernel-module-build-directory=kernel-open | |
显示安装程序选项 | --help | 将命令行选项列表打印到标准输出。 |
5.4.卸载
要卸载CUDA Toolkit,请运行工具包bin目录中提供的卸载脚本。默认情况下,它位于/usr/local/cuda-12.6/bin
:
sudo /usr/local/cuda-12.6/bin/cuda-uninstaller
6 Conda 装置
本节介绍使用Conda安装程序时CUDA的安装和配置。Conda软件包可在https://anaconda.org/nvidia获得。
6.1.Conda概述
Conda安装安装CUDA工具包。下面列出了安装步骤。
6.2.使用Conda安装CUDA
要使用Conda执行所有CUDA Toolkit组件的基本安装,请运行以下命令:
conda install cuda -c nvidia
6.3.使用Conda卸载CUDA
要使用Conda卸载CUDA Toolkit,请运行以下命令:
conda remove cuda
6.4.安装以前的CUDA版本
在特定CUDA版本下发布的所有Conda软件包都标有该发布版本。要安装以前的版本,请在install
命令中包含该标签,例如:
conda install cuda -c nvidia/label/cuda-11.3.0
6.5.从cudatoolkit包升级
如果您之前使用cudatoolkit
安装了CUDA,并且希望保持类似的安装占用空间,您可以将安装限制为以下软件包:
cuda-libraries-dev
cuda-nvcc
cuda-nvtx
cuda-cupti
注:一些额外的文件,如头文件,将包含在此安装中,而这些文件没有包含在cudatoolkit
。如果您需要进一步减少安装,请将cuda-libraries-dev
替换为您需要的特定库。
7 Pip Wheels
NVIDIA提供Python Wheels用于通过pip安装CUDA,主要用于将CUDA与Python结合使用。这些软件包旨在供运行时使用,目前不包括开发人员工具(这些可以单独安装)。
请注意,使用这种安装方法,CUDA安装环境是通过pip管理的,必须特别注意设置您的主机环境以在pip环境之外使用CUDA。
Prerequisites
要安装Wheels,您必须首先安装nvidia-pyindex
包,这是设置pip安装以从NVIDIA NGC PyPI存储库中获取其他Python模块所必需的。如果您的pip和setuptools Python模块不是最新的,请使用以下命令升级这些Python模块。如果这些Python模块已过时,则本节后面的命令可能会失败。
python3 -m pip install --upgrade setuptools pip wheel
您现在应该能够安装nvidia-pyindex
模块。
python3 -m pip install nvidia-pyindex
如果您的项目使用的是requirements.txt
文件,那么您可以将以下行添加到requirements.txt
文件中,以替代安装nvidia-pyindex
包:
--extra-index-url https://pypi.org/simple
Procedure
安装CUDA运行时包:
python3 -m pip install nvidia-cuda-runtime-cu12
或者,使用以下命令安装如下所列的其他软件包:
python3 -m pip install nvidia-<library>
Metapackages
以下元包将在指定CUDA版本的Linux上安装命名组件的最新版本。“cu12”应读作“cuda12”。
- nvidia-cuda-runtime-cu12
- nvidia-cuda-cccl-cu12
- nvidia-cuda-cupti-cu12
- nvidia-cuda-nvcc-cu12
- nvidia-cuda-opencl-cu12
- nvidia-cuda-nvrtc-cu12
- nvidia-cublas-cu12
- nvidia-cuda-sanitizer-api-cu12
- nvidia-cufft-cu12
- nvidia-curand-cu12
- nvidia-cusolver-cu12
- nvidia-cusparse-cu12
- nvidia-npp-cu12
- nvidia-nvfatbin-cu12
- nvidia-nvjitlink-cu12
- nvidia-nvjpeg-cu12
- nvidia-nvml-dev-cu12
- nvidia-nvtx-cu12
这些元包安装以下软件包:
- nvidia-cuda-runtime-cu126
- nvidia-cuda-cccl-cu126
- nvidia-cuda-cupti-cu126
- nvidia-cuda-nvcc-cu126
- nvidia-cuda-opencl-cu126
- nvidia-cublas-cu126
- nvidia-cuda-sanitizer-api-cu126
- nvidia-cuda-nvrtc-cu126
- nvidia-cufft-cu126
- nvidia-curand-cu126
- nvidia-cusolver-cu126
- nvidia-cusparse-cu126
- nvidia-npp-cu126
- nvidia-nvfatbin-cu126
- nvidia-nvjitlink-cu126
- nvidia-nvjpeg-cu126
- nvidia-nvml-dev-cu126
- nvidia-nvtx-cu126
8、CUDA跨平台环境
Ubuntu 20.04、Ubuntu 22.04、Ubuntu 24.04、KylinOS 10、RHEL 8、RHEL 9和SLES 15支持arm64-sbsa的交叉开发。
arm64-Jetson的交叉开发仅在Ubuntu 22.04上受支持
我们建议选择与支持的跨目标环境匹配的主机开发环境。此选择有助于防止可能的主机/目标不兼容,例如GCC或GLIBC版本不匹配。
8.1 CUDA跨平台安装
以下一些步骤可能已经作为本机安装部分执行。可以安全地跳过这些步骤。
这些步骤应该在x86_64主机系统而不是目标系统上执行。要在目标系统上安装本机CUDA工具包,请参阅包管理器安装中的本机安装部分。
8.1.1 Ubuntu
1、执行安装前的操作。
2、选择一种安装方式:本地存储库或网络存储库。
8.1.1.1 Ubuntu的本地Cross Repo 安装
1、使用以下方式安装存储库元数据包:
sudo dpkg -i cuda-repo-cross-<arch>-<distro>-X-Y-local-<version>*_all.deb
其中<arch>-<distro>
应替换为以下内容之一:
aarch64-ubuntu2204
sbsa-ubuntu2004
sbsa-ubuntu2204
sbsa-ubuntu2404
8.1.1.2 Ubuntu的网络Cross Repo 安装
CUDA存储库的新GPG公钥是3bf863cc。这必须使用cuda-keyring
包或手动在系统上注册;不推荐使用apt-key
命令。
1、安装新的cuda-keyring包:
wget https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
其中<distro>/<arch>
应替换为以下内容之一:
ubuntu2004/cross-linux-sbsa
ubuntu2204/cross-linux-aarch64
ubuntu2204/cross-linux-sbsa
ubuntu2404/cross-linux-sbsa
8.1.1.3 Ubuntu的常用安装说明
1、更新Apt存储库缓存:
sudo apt-get update
2、安装适当的跨平台CUDA工具包:
a) 对于arm64-sbsa:
sudo apt-get install cuda-cross-sbsa
b) 对于arm64-Jetson
sudo apt-get install cuda-cross-aarch64
c) 对于QNX:
sudo apt-get install cuda-cross-qnx
3、执行安装后的操作。
8.1.2 KylinOS/RHEL/RockyLinux
1、执行安装前的操作。
2、选择一种安装方式:本地存储库或网络存储库。
8.1.2.1KylinOS/RHEL/RockyLinux的本地交叉 Repo 安装
1、使用以下方式安装存储库元数据包:
sudo rpm -i cuda-repo-cross-<arch>-<distro>-X-Y-local-<version>*.noarch.rpm
其中<arch>-<distro>
应替换为以下内容之一:
sbsa-kylin10
sbsa-rhel8
sbsa-rhel9
8.1.2.2 KylinOS/RHEL/RockyLinux的网络交叉 Repo 安装
1、启用网络存储库:
sudo dnf config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>-cross-linux-sbsa.repo
其中<distro>/<arch>
应替换为以下内容之一:
kylin10/cross-linux-sbsa
rhel8/cross-linux-sbsa
rhel9/cross-linux-sbsa
8.1.2.3KylinOS/RHEL/RockyLinux
1、清理DNF存储库:
sudo dnf clean all
2、安装CUDA工具:
sudo dnf install cuda-cross-sbsa
8.1.3 SLES
1、执行安装前的操作。
2. 选择一种安装方式:本地存储库或网络存储库。
8.1.3.1 SLES的本地交叉 Repo 安装
1、使用以下方式安装存储库元数据包:
sudo rpm -i cuda-repo-cross-<arch>-<distro>-X-Y-local-<version>*.noarch.rpm
其中<arch>-<distro>
应替换为以下内容之一:
sbsa-sles15
8.1.3.2SLES 的网络交叉 Repo 安装
1、启用网络存储库:
sudo zypper addrepo https://developer.download.nvidia.com/compute/cuda/repos/<distro>/<arch>/cuda-<distro>-cross-linux-sbsa.repo
其中<distro>/<arch>
应替换为以下内容之一:
sles15/cross-linux-sbsa
8.1.3.3SLES的常用安装说明
1、刷新Zypper存储库缓存:
sudo zypper refresh
2、安装CUDA工具:
sudo zypper install cuda-cross-sbsa
9 Tarball 和 Zip 存档可交付成果
为了满足日益增长的客户群的需求,需要替代的安装程序打包格式,以及一种输入社区CI/CD系统的方式,每个组件都可以使用tarball和zip存档。
这些tarball和zip档案,称为二进制档案,在https://developer.download.nvidia.com/compute/cuda/redist/提供。
这些组件. tar.xz和.zip二进制存档不会替换现有的包,如.deb、.rpm、runfile、conda等。并且不适合一般使用,因为它们不是安装程序。然而,这种标准化方法将替换现有的.txz存档。
对于每个版本,都会提供一个JSON清单,例如redistrib_11.4.2. json,它对应于CUDA11.4.2发布标签(CUDA 11.4 update 2),其中包括发布日期、每个组件的名称、许可证名称、每个平台的相对URL和校验和。
建议包维护者在重新分发之前检查每个组件提供的许可证。接下来的部分提供了使用CMake和Bazel构建系统的开发人员的说明。
9.1 解析重新分发JSON
以下JSON清单示例包含每个组件的密钥:名称、许可证、版本和平台数组,其中包括每个存档的relative_path、sha256、md5和大小(字节)。
{"release_date": "2021-09-07","cuda_cudart": {"name": "CUDA Runtime (cudart)","license": "CUDA Toolkit","version": "11.4.108","linux-x86_64": {"relative_path": "cuda_cudart/linux-x86_64/cuda_cudart-linux-x86_64-11.4.108-archive.tar.xz","sha256": "d08a1b731e5175aa3ae06a6d1c6b3059dd9ea13836d947018ea5e3ec2ca3d62b","md5": "da198656b27a3559004c3b7f20e5d074","size": "828300"},"linux-ppc64le": {"relative_path": "cuda_cudart/linux-ppc64le/cuda_cudart-linux-ppc64le-11.4.108-archive.tar.xz","sha256": "831dffe062ae3ebda3d3c4010d0ee4e40a01fd5e6358098a87bb318ea7c79e0c","md5": "ca73328e3f8e2bb5b1f2184c98c3a510","size": "776840"},"linux-sbsa": {"relative_path": "cuda_cudart/linux-sbsa/cuda_cudart-linux-sbsa-11.4.108-archive.tar.xz","sha256": "2ab9599bbaebdcf59add73d1f1a352ae619f8cb5ccec254093c98efd4c14553c","md5": "aeb5c19661f06b6398741015ba368102","size": "782372"},"windows-x86_64": {"relative_path": "cuda_cudart/windows-x86_64/cuda_cudart-windows-x86_64-11.4.108-archive.zip","sha256": "b59756c27658d1ea87a17c06d064d1336576431cd64da5d1790d909e455d06d3","md5": "7f6837a46b78198402429a3760ab28fc","size": "2897751"}}
}
JSON模式在https://developer.download.nvidia.com/compute/redist/redistrib-v2.schema.json提供。
解析这些JSON清单的示例脚本可在GitHub上找到:
- 下载每个存档
- 验证SHA256校验和
- 提取档案
- 扁平化为折叠的目录结构
Table 5 Available Tarball and Zip Archives
Product | Example |
---|---|
CUDA Toolkit | ./parse_redist.py --product cuda --label 12.6.0 |
cuBLASMp | ./parse_redist.py --product cublasmp --label 0.2.1 |
cuDNN | ./parse_redist.py --product cudnn --label 9.2.1 |
cuDSS | ./parse_redist.py --product cudss --label 0.3.0 |
cuQuantum | ./parse_redist.py --product cuquantum --label 24.03.0 |
cuSPARSELt | ./parse_redist.py --product cusparselt --label 0.6.2 |
cuTENSOR | ./parse_redist.py --product cutensor --label 2.0.2.1 |
NVIDIA driver | ./parse_redist.py --product nvidia-driver --label 550.90.07 |
nvJPEG2000 | ./parse_redist.py --product nvjpeg2000 --label 0.7.5 |
NVPL | ./parse_redist.py --product nvpl --label 24.7 |
nvTIFF | ./parse_redist.py --product nvtiff --label 0.3.0 |
9.2.将Tarball导入CMake
将这些tarball导入CMake构建系统的推荐模块是通过FindCUDAToolkit(3.17及更新版本)。
注:FindCUDA模块已弃用。
可以使用CUDAToolkit_ROOT
环境变量指定提取位置的路径。例如CMakeLists.txt
和命令,请参见cmake/1_FindCUDAToolkit/。
对于旧版本的CMake,ExternalProject_Add模块是另一种方法。例如CMakeLists.txt
文件和命令,请参见cmake/2_ExternalProject/。
9.3.将Tarball导入Bazel
将这些tarball导入Bazel构建系统的推荐方法是使用http_archive和pkg_tar。
有关示例,请参见bazel/1_pkg_tar/。
10.安装后的操作
必须手动执行安装后操作。这些操作分为强制、推荐和可选部分。
10.1.强制性行动
安装后必须采取一些行动,然后才能使用CUDA工具包。
10.1.1环境设置
该PATH
变量需要包括export PATH=/usr/local/cuda-12.6/bin${PATH:+:${PATH}}
。Nsight Compute已移动到/opt/nvidia/nsight-compute/
只在rpm/deb安装方法。当使用.run
安装程序时,它仍然位于/usr/local/cuda-12.6/
。
要将此路径添加到PATH
变量:
export PATH=/usr/local/cuda-12.6/bin${PATH:+:${PATH}}
另外,使用runfile安装方法时,LD_LIBRARY_PATH
变量需要包含64位系统上的/usr/local/cuda-12.6/lib64
,或者32位系统上的/usr/local/cuda-12.6/lib
- 要更改64位操作系统的环境变量:
export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib64\${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
- 要更改32位操作系统的环境变量:
export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib\${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
请注意,在使用带有runfile安装方法的自定义安装路径时,上述路径会发生变化。
10.2.建议采取的行动
建议使用其他操作来验证安装的完整性。
10.2.1安装可写样品
CUDA样本现在位于https://github.com/nvidia/cuda-samples,其中包括获取、构建和运行样本的说明。
10.2.2.验证安装
在继续之前,验证CUDA工具包是否能够找到支持CUDA的硬件并与之正确通信非常重要。为此,您需要编译并运行一些示例程序,位于https://github.com/nvidia/cuda-samples。
注:确保PATH和(如果使用runfile安装方法)LD_LIBRARY_PATH
变量设置正确。
10.2.2.1 运行二进制文件
编译后,从https://github.com/nvidia/cuda-samples查找并运行deviceQuery
。
如果CUDA软件安装和配置正确,deviceQuery
的输出应该类似于图1所示。
图1来自deviceQuery CUDA示例的有效结果
在您的系统上,确切的外观和输出行可能不同。重要的结果是找到了一个设备(第一个突出显示的行),该设备与您系统上的设备匹配(第二个突出显示的行),以及测试通过(最后一个突出显示的行)。
如果安装了支持CUDA的设备,但deviceQuery
报告不存在支持CUDA的设备,这可能意味着/dev/nvidia*
文件丢失或具有错误的权限。
在启用了SELinux
的系统上,可能需要暂时禁用此安全功能才能运行deviceQuery
。
setenforce 0
从命令行作为超级用户。
运行bandwidthTest
程序可确保系统和支持CUDA的设备能够正确通信。其输出如图2所示。
图2带宽测试CUDA样本的有效结果
请注意,支持CUDA的设备描述的测量值会因系统而异。重要的一点是您获得了测量值,并且倒数第二行(在图2中)确认所有必要的测试都通过了。
如果测试未通过,请确保您的系统上有支持CUDA的NVIDIA GPU,并确保它已正确安装。
如果您在链接步骤中遇到困难(例如找不到库),请参阅https://github.com/nvidia/cuda-samples中的Linux发行说明。
10.2.3 安装Nsight Eclipse插件
要安装Nsight Eclipse插件,提供了一个安装脚本:
/usr/local/cuda-12.6/bin/nsight_ee_plugins_manage.sh install <eclipse-dir>
有关详细信息,请参阅Nsight Eclipse插件安装指南。
10.2.4 本地 Repo 移除
建议在安装CUDA SDK后删除本地repo安装程序。
Debian / Ubuntu
sudo apt-get remove --purge "cuda-repo-<distro>-X-Y-local*"
亚马逊Linux/Fedora/KylinOS/RHEL/RockyLinux
sudo dnf remove "cuda-repo-<distro>-X-Y-local*"
AzureLinux
sudo tdnf remove "cuda-repo-<distro>-X-Y-local*"
OpenSUSE/SLES
sudo zypper remove "cuda-repo-<distro>-X-Y-local*"
10.3.可选操作
使用CUDA工具包不需要其他选项,但可以提供附加功能。
10.3.1安装第三方库
一些CUDA示例使用默认情况下可能不会安装在您的系统上的第三方库。这些示例在构建时尝试检测任何所需的库。
如果未检测到库,它会自动放弃并警告您缺少哪个库。要构建和运行这些示例,您必须安装缺失的库。如果未安装这些依赖项,请按照以下说明进行操作。
Amazon Linux / Fedora / KylinOS / RHEL / Rocky Linux
sudo dnf install freeglut-devel libX11-devel libXi-devel libXmu-devel \make mesa-libGLU-devel freeimage-devel libglfw3-devel
SLES
sudo zypper install libglut3 libX11-devel libXi6 libXmu6 libGLU1 make
OpenSUSE
sudo zypper install freeglut-devel libX11-devel libXi-devel libXmu-devel \make Mesa-libGL-devel freeimage-devel
Debian / Ubuntu
sudo apt-get install g++ freeglut3-dev build-essential libx11-dev \libxmu-dev libxi-dev libglu1-mesa-dev libfreeimage-dev libglfw3-dev
10.3.2.安装cuda-gdb的源代码
必须显式选择cuda-gdb
源代码才能使用runfile安装方法进行安装,安装过程中,在组件选择页面,展开组件“CUDA Tools 12.6”,选择cuda-gdb-src
进行安装,默认未选中。
要获得cuda-gdb
的源代码的副本,使用 RPM 和Debian安装方法,必须安装cuda-gdb-src
包。
源代码作为tarball安装在/usr/local/cuda-12.6/extras
目录中。
10.3.3选择CUDA的活动版本
对于依赖符号链接/usr/local/cuda
和/usr/local/cuda-MAJOR
的应用程序,您可能希望使用提供的替代方案更改为不同的CUDA安装版本。
要显示CUDA的活动版本和所有可用版本:
update-alternatives --display cuda
要显示给定主要CUDA版本的活动次要版本:
update-alternatives --display cuda-12
要更新CUDA的活动版本:
sudo update-alternatives --config cuda
11.删除CUDA工具包
按照以下步骤从您的系统中正确卸载CUDA工具包。这些步骤将确保卸载干净。
亚马逊Linux/Fedora/Kylin OS/RHEL/RockyLinux
要删除CUDA工具包:
sudo dnf remove "cuda*" "*cublas*" "*cufft*" "*cufile*" "*curand*" \"*cusolver*" "*cusparse*" "*gds-tools*" "*npp*" "*nvjpeg*" "nsight*" "*nvvm*"
AzureLinux
要删除CUDA工具包:
sudo tdnf remove "cuda*" "*cublas*" "*cufft*" "*cufile*" "*curand*" "*cusolver*" "*cusparse*" "*gds-tools*" "*npp*" "*nvjpeg*" "nsight*" "*nvvm*"
要清理卸载:
sudo tdnf autoremove
OpenSUSE/SLES
要删除CUDA工具包:
sudo zypper remove "cuda*" "*cublas*" "*cufft*" "*cufile*" "*curand*" \"*cusolver*" "*cusparse*" "*gds-tools*" "*npp*" "*nvjpeg*" "nsight*" "*nvvm*"
Debian / Ubuntu
要删除CUDA工具包:
sudo apt-get --purge remove "*cuda*" "*cublas*" "*cufft*" "*cufile*" "*curand*" \"*cusolver*" "*cusparse*" "*gds-tools*" "*npp*" "*nvjpeg*" "nsight*" "*nvvm*"
要清理卸载:
sudo apt-get autoremove --purge -V
12.高级设置
以下是有关上述基本说明中未涵盖的一些高级设置方案的信息。
情景 | 指令 |
---|---|
使用Package Manager安装方法将CUDA安装到特定目录。 | RPM RPM 包不支持通过包管理器(Yum和Zypper)自定义安装位置,但可以使用rpm的--relocate 参数将 RPM 包安装到自定义位置:sudo rpm --install --relocate /usr/local/cuda-12.6=/new/toolkit package.rpm 您需要按照正确的依赖顺序安装包;此任务通常由包管理器处理。例如,如果包“foo”依赖于包“bar”,您应该首先安装包“bar”,然后安装包“foo”。您可以检查 RPM 包的依赖关系,如下所示: rpm -qRp package.rpm 请注意,驱动程序包无法重新定位。DebDeb包不支持自定义安装位置。但是,可以提取Deb包的内容并将文件移动到所需的安装位置。有关提取Deb包的更多详细信息,请参阅下一个场景。 |
提取安装程序的内容。 | 运行文件可以通过使用--extract 参数将Runfile提取到独立的Toolkit Runfiles中。可以通过运行以下命令进一步提取Toolkit独立的Runfiles:./runfile.run --tar mxvf ./runfile.run -x RPM RPM 包可以通过运行提取:`rpm2cpio package.rpm |
修改Ubuntu的apt包管理器以查询特定存储库的特定架构。当添加了外部体系结构时,这很有用,导致在更新存储库元数据时出现“404未找到”错误。 | 您希望限制为特定体系结构的每个存储库都必须修改其sources.list 条目。这是通过修改/etc/apt/sources.list 文件和/etc/apt/sources.list.d/ 目录下包含您希望限制的存储库的任何文件来完成的。通常,只修改/etc/apt/sources.list architecture-restricted存储库条目如下所示:deb [arch=<arch1>,<arch2>] <url> 例如,如果您想将存储库限制为仅amd64和i386架构,则如下所示: deb [arch=amd64,i386] <url> 没有必要限制deb-src 存储库,因为这些存储库不提供architecture-specific包。有关详细信息,请参阅sources.list 手册页。 |
由于TMP目录中的空间有限,运行文件安装程序无法提取。 | 这可能发生在TMP目录(通常/tmp )中存储空间有限的系统上,或者在内存中使用tmpfs来处理临时存储的系统上。在这种情况下,应该使用--tmpdir 命令行选项来指示runfile使用有足够空间提取到其中的目录。关于此选项的更多信息可以在此处找到。 |
如果出现错误:E: Failed to fetch file:/var/cuda-repo File not found | Debian和Ubuntu卸载不同版本后安装CUDA时可能会发生这种情况。安装前使用以下命令:sudo rm -v /var/lib/apt/lists/*cuda* /var/lib/apt/lists/*nvidia* |
在Debian和Ubuntu上详细安装 | 使用--verbose-versions 标志,例如:sudo apt-get install --verbose-versions cuda |
13.其他考虑因素
现在您已经安装了支持CUDA的硬件和NVIDIA CUDA工具包,您可以检查和享受众多包含的程序。要开始使用CUDA来加速您自己的应用程序的性能,请参阅位于/usr/local/cuda-12.6/doc
的CUDAC++编程指南。
CUDA工具包中包含许多有用的开发工具,可帮助您开发CUDA程序,例如NVIDIA®Nsight™Eclipse Edition、NVIDIA Visual Profiler、CUDA-GDB和CUDA-MEMCHECK。
有关编程问题的技术支持,请咨询并参与https://forums.developer.nvidia.com/c/accelerated-computing/cuda/206的开发者论坛。
14.常见问题
14.1。如何在不同的位置安装工具包?
Runfile安装会询问您希望在交互式安装期间将工具包安装到哪里。如果使用非交互式安装进行安装,您可以使用--toolkitpath
参数更改安装位置:
./runfile.run --silent \--toolkit --toolkitpath=/my/new/toolkit
RPM 和Deb包不能直接使用包管理器安装到自定义安装位置。有关详细信息,请参阅高级设置部分中的“使用包管理器安装方法将CUDA安装到特定目录”场景。
14.2.当我尝试构建CUDA应用程序时,为什么会看到“nvcc:没有这样的文件或目录”?
您的PATH环境变量设置不正确。确保您的PATH包含您安装工具包的bin目录,通常是/usr/local/cuda-12.6/bin
。
export PATH=/usr/local/cuda-12.6/bin${PATH:+:${PATH}}
14.3 当我尝试运行使用CUDA库的CUDA应用程序时,为什么会看到“加载共享库时出错::无法打开共享对象文件:没有这样的文件或目录”?
您的LD_LIBRARY_PATH环境变量设置不正确。确保您的LD_LIBRARY_PATH包含安装Toolkit的lib和/或lib64目录,通常/usr/local/cuda-12.6/lib{,64}
:
export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib\${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
14.4 为什么在Ubuntu上更新我的存储库元数据时,我会看到多个“404未找到”错误?
添加外部架构后会出现这些错误,因为apt正在尝试查询系统源.列表文件中列出的每个存储库中的每个架构。不托管新添加架构的包的存储库将出现此错误。虽然嘈杂,但错误本身不会造成伤害。有关如何修改sources.list
文件以防止这些错误的详细信息,请参阅高级设置部分。
14.5 我如何告诉X忽略仅用于计算的GPU?
要确保X不使用某个GPU进行显示,您需要指定使用哪个其他GPU进行显示。有关详细信息,请参阅高级设置部分中的“使用特定GPU渲染显示”场景。
14.6 为什么cuda-repo包不安装CUDA工具包?
当使用 RPM 或Deb时,下载的包是一个存储库包。这样的包只通知包管理器在哪里可以找到实际的安装包,但不会安装它们。
有关详细信息,请参阅包管理器安装部分。
14.7.如何使用网络存储库安装旧的CUDA版本?
根据您的系统配置,您可能无法使用cuda元包安装旧版本的CUDA。为了安装特定版本的CUDA,您可能需要指定cuda元包通常会在您要安装的版本上安装的所有软件包。
如果您使用yum在旧版本中安装某些软件包,则依赖关系可能无法按预期解决。在这种情况下,您可能需要将“--setopt=obsoletes=0
”传递给yum以允许安装在比您尝试安装的版本更高的版本中过时的软件包。
14.8.如何处理“处理时遇到错误:glx-改道”?
在干净的. deb安装后尝试卸载CUDA时,有时会发生这种情况。运行以下命令:
sudo apt-get install glx-diversions --reinstall
sudo apt-get remove nvidia-alternative
然后重新运行删除CUDA工具包中的命令。
15.通知
15.1.通知
本文档仅供参考之用,不应被视为对产品的某种功能、条件或质量的保证。英伟达公司(“英伟达”)对本文档中包含的信息的准确性或完整性不作任何明示或暗示的陈述或保证,对本文档中包含的任何错误不承担任何责任。英伟达对此类信息的后果或使用,或对其使用可能导致的任何侵犯专利或第三方其他权利的行为不承担任何责任。本文档不是开发、发布或交付任何材料(定义如下)、代码或功能的承诺。
NVIDIA保留随时对本文档进行更正、修改、增强、改进和任何其他更改的权利,恕不另行通知。
客户应在下订单前获得最新的相关信息,并应验证此类信息是最新的和完整的。
除非NVIDIA授权代表和客户签署的单独销售协议(“销售条款”)另有约定,否则NVIDIA产品的销售受订单确认时提供的NVIDIA标准销售条款和条件的约束。NVIDIA特此明确反对对购买本文档中提及的NVIDIA产品适用任何客户一般条款和条件。本文档不直接或间接形成合同义务。
NVIDIA产品的设计、授权或保证不适用于医疗、军事、飞机、太空或生命支持设备,也不适用于NVIDIA产品的故障或故障可合理预期会导致人身伤害、死亡或财产或环境损害的应用。NVIDIA不承担在此类设备或应用中包含和/或使用NVIDIA产品的责任,因此此类包含和/或使用的风险由客户自行承担。
根据本文档,任何NVIDIA专利权、版权或其他NVIDIA知识产权均未授予任何明示或暗示的许可。NVIDIA发布的有关第三方产品或服务的信息不构成NVIDIA对使用此类产品或服务的许可或其保证或背书。使用此类信息可能需要根据第三方的专利或其他知识产权获得第三方的许可,或根据NVIDIA的专利或其他知识产权获得NVIDIA的许可。
只有在事先获得NVIDIA书面批准、未经修改且完全符合所有适用的出口法律法规并附有所有相关条件、限制和通知的情况下,才允许复制本文档中的信息。
15.2. OpenCL
OpenCL是苹果股份有限公司的商标,经Khronos集团股份有限公司许可使用。
2025-01-14(二)