AI:AIチップ:B200
(NVIDIAが数兆パラメータ規模のAIモデルを実現するGPUアーキテクチャ「Blackwell」と新GPU「B200」を発表)
[URL]
「Blackwellアーキテクチャは、2022年に発表されたHopperアーキテクチャの後継」
「数学者・統計学者のデビッド・ハロルド・ブラックウェルから」
◆1:世界で最も強力なチップ
◆2:第2世代Transformer Engine
◆3:第5世代NVLink
◆4:RASエンジン
◆5:安全なAI
◆6:解凍エンジン
「このBlackwellアーキテクチャベースのGPUが「B200」」
実際の製品としては、このチップを組み合わせたものが出荷されるんだろうが、その処理能力はベラボーだ。
「統合AIプラットフォーム「DGX B200」は、空冷式ラックマウント型DGXプラットフォーム」
「8基のB200と2基のIntel Xeonプロセッサを搭載し、最大で144PFLOPSのAIパフォーマンスと1.4TBの大容量GPUメモリ、毎秒64TBのメモリ帯域幅により、1兆パラメータモデルのリアルタイム推論で、Hopperアーキテクチャと比べて15倍の高速化」
よく分からないんだが、なんか凄そうなイメージだけは伝わってくる。
H100に追いつけ追い越せと必死な他社を尻目に、N社は既に異次元にワープしている感じだな。
少なくとも今後数年間、アットーテキシェアを譲る気配はない。
ハイエンドのクラウドサイドAIの世界では、もう、勝負はついている感じだ。
(AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中)
[URL]
「UXL Foundationは2024年上半期に仕様を確定するべく準備を進めている」
「私たちは、開発者に対してNVIDIAのプラットフォームからの移行方法を示しているのです」
なんか、焼け石に水な感じだ。
N社一択な状況が好ましいかどうかは別として、現実の選択として、それが最良であることは間違いないだろう。
「NVIDIA製のGPUは高い処理性能を備えていることからAIの開発現場で広く採用」
「ソフトウェア開発および実行環境「CUDA」も多くの開発現場で採用」
「CUDAがNVIDIA製GPUのみを対象としたシステムであることから、CUDAでの開発に慣れ親しんだ開発者がNVIDIA製GPUを選ばざるを得ない」
なんらかの決定的なメリットを産み出せれば、他社製品が取って代わる事も出来るだろうが、そうでなければ囲い込みが続いていく。
98パーセントのシェアを覆すのは至難の業だ。
しかも、ブラックウェルの開発にみるように、N社自身が脇目も振らずに爆走中だ。
AIは、人間の能力を超えて自律的に拡大膨張するかもしれないが、AIチップは人間が作る(開発する)しかない。
ここんとこは、意外に重要かもしれない。
概念的な話として、ロボットにロボットを作らせてはならないというのが良く出てくるが、自らと同じ製品を作るのではなく、研究開発して、発展的なロボットを作り出すのはそれほど簡単ではないだろう。
マイクロマシンのグレイグーとかは、また別の話だがな。
AIがシンギュラリティを超えるのは時間の問題かもしれないが、その時代になってもAIチップは人手で作ることになる。
もちろん、AIチップだけじゃなくて(単なるアクセラレーターですから)、CPUだって必要だが、計算資源としてのパワーは桁違いだ。
その辺りは、TPUとかNPUとか、3文字熟語(!)が乱立する世界の話になる。
(CohereForAI/c4ai-command-r-plus)
[URL]
「Q.AIチップの種類について説明してください。」
セコメントをする