Google Cloud Run が AI 推論用に NVIDIA GPU サポートを追加

BigGo Editorial Team
Google Cloud Run が AI 推論用に NVIDIA GPU サポートを追加

Google Cloud はサーバーレスプラットフォーム Cloud Run に大幅なアップグレードを発表し、 NVIDIA L4 GPU のサポートを導入しました。現在プレビュー段階のこの新機能により、開発者は Google のスケーラブルなクラウドインフラストラクチャ上で直接 AI 推論アプリケーションを実行できるようになりました。

Cloud Run への NVIDIA L4 GPU の統合により、 AI 開発者や機械学習モデルを効率的にデプロイしたい企業にとって新たな可能性が開かれました。このアップデートの主なハイライトは以下の通りです:

  • AI 機能の強化:開発者は、チャットボットや文書要約などのアプリケーション向けに、 Google の Gemma (2B/7B)や Meta の Llama 3 (8B)などの軽量オープンモデルを使用してリアルタイム推論を実行できるようになりました。

  • パフォーマンスの向上:24GB の vRAM を搭載した L4 GPU は、最大90億パラメータのモデルを処理でき、 Llama 3.1 (8B)、 Mistral (7B)、 Gemma 2 (9B)などの人気モデルで高速なトークンレートを提供します。

  • コスト最適化:使用していない時にゼロまでスケールダウンできる Cloud Run の機能により、 AI 推論ワークロードのコストを最適化できます。

  • デプロイメントの簡素化: Cloud Run のサーバーレス特性により、インフラストラクチャ管理が不要となり、開発者は AI アプリケーションに集中しやすくなります。

  • 汎用性: AI 推論以外にも、画像認識、ビデオトランスコーディング、3D レンダリングなどの計算集約型タスクにも GPU サポートが拡張されています。

初期段階では、 Cloud Run の GPU サポートは us-central1 (アイオワ)リージョンで利用可能で、年末までにヨーロッパとアジアにも拡大する予定です。開発者は事前予約なしで、 Cloud Run インスタンスごとに1つの NVIDIA L4 GPU を接続できます。

このアップデートは、あらゆる規模の企業にとって AI 推論をより身近でコスト効率の良いものにする重要な一歩です。サーバーレスアーキテクチャの簡便さと NVIDIA GPU のパワーを組み合わせることで、 Google Cloud は急速に進化する AI インフラストラクチャ市場で強力な競争相手としての地位を確立しつつあります。

NVIDIA GPU を搭載した Cloud Run を試してみたい開発者は、 g.co/cloudrun/gpu でプレビュープログラムに登録できます。