2024年1月、大手私募株式会社ブラックストーン・グループは250億ドルの人工知能データ帝国を構築すると発表した。数カ月後、OpenAIとマイクロソフトはそれに続いて、同社を人工知能革命の最前線に立たせる1000億ドル相当の人工知能スーパーコンピュータを構築することを提案した。
もちろん、これは不思議ではありません。人工知能分野の過去数年間の急速な発展に伴い、世界各地の業界大手は前列席の獲得を急いでいる。専門家たちは、2030年までに世界の人工知能市場の規模は8267億ドルに達し、年間成長率は28.46%になると予測している。
Von Neumannのアーキテクチャは、CPU、メモリ、I/Oデバイス、システムバスから構成される汎用コンピュータのほとんどが動作する設計モデルであり、シンプルさとシステム間の互換性を提供していますが、それ自体が制限されています。このアーキテクチャの単一システムバスは、メモリとCPUの間でデータを転送する速度を制限し、CPUが人工知能と機械学習にあまり適さないようにする。
これがグラフィック処理ユニット(GPU)の使い道である。並列性を処理技術とすることにより、GPUはそのマルチコアを通じて改善された性能と独立した命令実行を提供する。しかし、人工知能技術の台頭に伴い、GPUへの需要が急増し、サプライチェーンが緊張し、多くの研究者やベンチャー企業の努力が深刻なボトルネックとなっている。この点は特に正しく、グローバルGPUの供給は1つの主要メーカー:インビダーからしか来ていないからです。
AWS、グーグルクラウドプラットフォーム、その他の超大規模小売業者は、エイダのA 100とH 100に簡単にアクセスできる可能性がありますが、エイダの候補リストに無期限に閉じ込められるのではなく、企業、研究者、ベンチャー企業が人工知能列車を捕まえるのを助けることができる代替案はありますか。
フィールドプログラマブルゲートアレイ
FPGAは再プログラム可能な集積回路であり、特定のタスクとアプリケーション要件を満たすように構成することができる。これらは、さまざまな要件を満たすように調整でき、コスト効率が高い柔軟性を提供します。FPGAは並列処理において効率的であるため、人工知能/機械学習の使用に非常に適しており、現実的な応用において顕著な低遅延を有する。
テスラD 1 DojoチップはFPGAの面白い実現であり、同社は2021年に自動運転車のコンピュータビジョンモデルを訓練するためにこのチップを発表した。しかし、FPGAのいくつかの欠点には、ハードウェアの設計に必要な高いエンジニアリング専門知識が含まれており、これは高価な初期調達コストに転化する可能性があります。
AMD GPU
2023年、Meta、Oracle、Microsoftなどは、AMD GPUに興味を持ち、よりコスト効率の高いソリューションであり、潜在的なベンダーのロックが主導的な地位を占めることを回避するための雄大な方法でもあると述べています。例えば、AMDのInstinct MI 300シリーズは科学計算と人工知能応用の実行可能な代替品と考えられている。そのGraphics Core Next(GCN)アーキテクチャは、モジュラー化とオープンスタンダードへのサポートを強調し、より手頃な価格を加えて、Nvidia GPUの有望な代替品になります。
テンソル処理ユニット
TPUは、機械学習タスクを実行するようにプログラムされた専用集積回路(ASIC)である。グーグルのアイデアとして、TPUはテンソル演算などのニューラルネットワークを特定の領域のアーキテクチャに依存して動作させる。また、電力効率とパフォーマンスの最適化の利点もあり、コストを拡張し管理するためのコスト効率に優れた代替品となります。
しかし、TPU生態系は依然として台頭しており、現在の可用性はグーグルのクラウドプラットフォームに限られていることに注意しなければならない。
中心化市場へ
脱センター化市場も独自の方法でGPUサプライチェーンの緊張を緩和しようとしている。従来のデータセンター、学術機関、さらには個人の遊休GPUリソースを利用することで、これらの市場は研究者、ベンチャー企業、その他の機関に十分なGPUリソースを提供してプロジェクトを実行しています。例には、Render Network、FluxEdge、Bittensorなどがあります。
その中の多くの市場は消費レベルGPUを提供し、中小型AI/ML会社の需要を十分に満たすことができ、それによってハイエンド専門GPUの圧力を軽減することができる。一部の市場では、産業レベルのGPUを希望するお客様に追加の選択肢も提供されています。
CPU
CPUは通常、スループットが限られていることとフォン・ノイマンのボトルネックがあるため、人工知能の敗者と考えられています。しかし、CPU上でより効率的な人工知能アルゴリズムを実行する方法を見つけるために努力している。これには、複雑な統計計算を実行する単純なNLPモデルやアルゴリズムなど、特定のワークロードをCPUに割り当てることが含まれます。
これは単刀直入な解決策ではないかもしれませんが、訓練や推理のための再帰ニューラルネットワークや推奨システムなど、並列に実行するのが難しいアルゴリズムには最適です。
四捨五入
人工知能GPUの希少性はすぐには消えないかもしれないが、少し朗報がある。人工知能チップ技術の絶え間ない革新は可能性に満ちたエキサイティングな未来を証明し、ある日GPU問題が徐々に消滅することを確保するだろう。人工知能の分野にはまだ多くの潜在力があり、人類が知っている最も重大な技術革命の崖に立っているかもしれない。