Professional Documents
Culture Documents
製・転載・転用・頒布等をすることは、法律で認められた場合を除き禁じます。
生成AIとLLMとNVIDIA【前編】:
2024年01月05日 05時00分 更新
[Esther Ajao,TechTarget]
関連キーワード
2023年11月13日月曜日(現地時間)、GPU(グラフィックス処理装置)ベンダーのNVIDIAはデンバーで開催された
「Supercomputing 2023」(SC23)の特別講演で、新GPUの「NVIDIA HGX H200」(以下、H200)を発表した。SC23は
スーパーコンピューティング、ネットワーク、ストレージの国際カンファレンスだ。
NVIDIAによると、H200はメモリにSK hynixの「HBM3e」を採用してメモリ容量を従来モデルから増やした。これは、テ
キストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)と大規模言語モデル(LLM)の処理
効率化に役立つという。具体的にはどのような進化を遂げたのか。
GPU選びで大事な“あの指標”
併せて読みたいお薦め記事
AIとGPUの関係を深く理解する
メタバース損失続きのMeta、CPUを見限って「GPU」積極採用へ その真意は?
AIが使われない理由は「GPUがないから」とは限らない?
さまざまな企業が生成AIやLLMの活用に乗り出している。とはいえ、こうしたAIワークロード(AI技術を組み込んだシステ
ム)を処理するには一定以上の容量のメモリが必要だ。「メモリ容量は企業にとってしばしば課題になる」とコンサルティン
グ企業J.Gold Associatesの創設者兼アナリストのジャック・ゴールド氏は指摘する。
「AIワークロードは、CPUやGPUだけでなく、メモリにも負荷を掛ける。メモリの処理性能を追加するほど、AIワークロード
の実行速度に違いが出る」(ゴールド氏)
後編はNVIDIAの他の新製品の紹介や、近年の戦略を分析する。
TechTarget発 世界のインサイト&ベストプラクティス