columnNVIDIA CUDAとは?バージョン13・ComputeCapabilityについても解説

NVIDIA CUDAとは?バージョン13・ComputeCapabilityについても解説

1. はじめに

生成AIや科学技術計算の話題を耳にする機会が、この一年で一段と増えました。裏側で要となっているのがGPUであり、そのGPUを汎用計算で使いこなすための実行基盤がNVIDIAのCUDA®(Compute Unified Device Architecture)です。本稿では、CUDAとCompute Capabilityを簡単に解説し、Ubuntuでの導入手順まで説明します。

2. CUDAとは

CUDAは、NVIDIA GPUを汎用計算(GPGPU)に使うためのアーキテクチャです。C/C++にGPU拡張を加えたコンパイラ(nvcc)とランタイム(cuda-runtime)を中心に、各種ライブラリとツールがひと揃えになっています。

CUDA技術コラムの説明画像

イメージとしては、CPU(ホスト)がGPU(デバイス)に仕事を投げ、GPU上の数千スレッドが一気に計算をさばく二層モデルで動作します。行列演算がボトルネックになりやすい分野(ディープラーニング、シミュレーション、金融など)で効いてくる仕組みです。

CUDA技術コラムの説明画像

3. バージョンとCompute Capability

つまずきやすいのが、CUDAのバージョンとCompute Capability(CC)の関係です。
CUDAは、ソフトウェア一式のバージョン、CCはGPUハードウェアの世代・命令セット・機能群を示す指標です。ざっくり言えば「このCUDAは、CCいくつ以上のGPUを対象にしていますか?」という対応表があります。注意すべき点としては、同じアーキテクチャ内でもCCが細かく分かれる場合もあるという事です(NVIDIA Ampereだと8.0/8.6/8.7など)。

CUDA対応表

参照:https://en.wikipedia.org/wiki/CUDA#GPUs_supported 
※外部リンクに飛びます

以下は代表例となりますので、目安として眺めていただければ十分です。厳密な機能差分は、実案件ごとに公式ドキュメントで当たるのが安全です。
Compute Capability Architecture GPU例 Toolkitでの初登場
8.0 Ampere NVIDIA A100/NVIDIA A30 CUDA 11.0
8.6 Ampere NVIDIA RTX™ 30xx CUDA 11.1
8.7 Ampere NVIDIA® Jetson Orin™/Orin NX/Nano CUDA 11.5 – 11.7.1
8.9 Ada Lovelace NVIDIA RTX™ Ada/NVIDIA L40 GPU CUDA 11.8
9.0 NVIDIA Hopper™ NVIDIA H100 GPU/NVIDIA H200 GPU/NVIDIA GH200 Grace Hopper™ Superchip CUDA 11.8(Hopper対応追加)
12.0 NVIDIA Blackwell NVIDIA DGX™ GB200/NVIDIA GB200 NVL72 CUDA 12.8
12.1 Blackwell NVIDIA RTX™ 50xx/NVIDIA RTX PRO™ 6000 Blackwell Server Edition CUDA 12.9以降
なお、対応CCだからといってToolkitの全機能が必ず動くとは限りません。
実装世代ごとの微差があるため、必要機能が決まっている場合はCUDA Toolkit Documentationでの最終確認をおすすめします。

4. CUDA 13のポイント

2025年8月6日にCUDA Toolkit 13が公開されました。配列全体への高水準操作が強化され、NumPyに近い書き味でGPU計算を書ける場面が増えたのが嬉しいポイントです。一方で互換性は整理が進み、対象はCC 7.5(Turing)以降となりました。

プラットフォーム面ではNVIDIA DGX Spark™対応を足場にARM側の選択肢が広がり、JetsonもJetPack 7.0以降でCUDA 13を同梱予定です(Orinの扱いは現時点で限定的です)。Linux対応もRHEL 10.0/9.6、Fedora 42、Debian 12.10、Rocky 10.0/9.6などが追加され、企業導入の下回りが整ってきた印象です。

5. CUDAインストール手順(Linux/Ubuntu)

Ubuntu系でのネットワークインストールについて説明します。社内環境では管理者権限やプロキシ設定が必要なことがあるため、手順は現場ルールに合わせて読み替えてください。
以下のNVIDIAの公式を参照しています。

参照:CUDA Installation Guide for Linux — Installation Guide for Linux 13.0 documentation
※外部リンクに飛びます

5-1. cuda-keyringの導入

まずはリポジトリ署名鍵と設定を一括で入れます。最新版は次のインデックスで確認してください。

https://developer.download.nvidia.com/compute/cuda/repos/

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb

5-2. パッケージの確認

リポジトリ情報を更新し、インストール可能なToolkitを一覧します。画面イメージのように複数バージョンが出るはずです。

sudo apt update
sudo apt list -a cuda-toolkit

技術コラムの説明画像

5-3. CUDA Toolkitのインストール

導入は「最新をそのまま」か「バージョン固定」かの二択です。検証や再現性を重視する本番系では、固定を推奨します。

# バージョン指定なし(最新)
sudo apt-get -y install cuda-toolkit

# 例:バージョン固定(12.9)
sudo apt-get -y install cuda-toolkit-12-9

6. 運用・開発の要点

導入後は、ドライバとToolkitの整合、そしてGPUのCCを軸に互換を管理します。ドライバはnvidia-smi、コンパイラはnvcc --versionで手早く確認できます。Toolkit更新に合わせてGPU側の対応が要るケースもあるため、「対象GPUのCC」と「必要なCUDA機能/バージョン」は案件開始時に固定しておくと話がぶれません。コンテナ運用なら、ベースイメージのCUDAタグを固定し、ホストドライバとの対応表に沿って更新タイミングを決めるとトラブルが減るでしょう。

7. よくある質問

Q. Compute CapabilityとCUDAの関係は何か。
A. CUDAはソフトウェア(コンパイラ/ランタイム)のバージョン、Compute CapabilityはGPUハードウェアの世代・機能を示す。互換は「CUDAバージョンが対象とする最小CC以上」で定義される。

Q. どのGPUでCUDA 13が動作するのか。
A. 原則としてCC 7.5(Turing)以降に対応するが、機能単位の対応差がある。詳細は公式ドキュメントとリリースノートで確認するのが確実。

8. まとめ

CUDAはGPUを汎用演算に生かすための基盤であり、互換は「Toolkitのバージョン×GPUのCompute Capability」の組み合わせで決まります。CUDA 13では高水準演算と対応プラットフォームが前進し、企業導入の現実解が広がりました。

関連ページはこちら:
-[マルチインスタンスGPU(MIG)とは?仕組みや注意事項・実務手順もご紹介]
-[GPUドライバーとは?NVIDIA GPUドライバーを徹底解説]
-[NVIDIA DGX Sparkとは?~超小型スパコンの誕生秘話~ スペックや強みもご紹介]
-[NVIDIA DGX Sparkとは?②~FP4×128GB統合メモリの実力~]]
-[NVIDIA DGX Sparkとは?③ デスク上の“データセンター”を実現するネットワークとソフトウェア]

筆者プロフィール

技術コラム筆者のプロフィール画像

矢野 哲朗(やの てつろう)

株式会社スタイルズ(菱洋エレクトログループ会社)

経歴:Kubernetesを中心としたクラウドネイティブ基盤の構築・支援を専門とし、株式会社スタイルズでオープンソースを軸に20年以上インフラに携わる。
Edge/AI分野でのGPU活用にも注力中。

専門分野:Kubernetes/Rancherによるクラウドネイティブ基盤構築、GPUを活用したEdge・AI案件の技術支援など

現場で得た知見をもとに、クラウドネイティブやEdge/GPU/AI技術をわかりやすく解説します。

#Kubernetes #CloudNative #EdgeComputing #GPU #Rancher #Nextcloud



公開日:
最終更新日:
  • このエントリーをはてなブックマークに追加
page top