AIコミュニティの注目を集める最近の出来事として、xAI の最新言語モデル Grok 3 が、華々しい発表直後に重大な課題に直面しています。優位性を主張していたにもかかわらず、性能とセキュリティ対策の両面で精査を受けることとなりました。
性能の問題が浮上
Elon Musk 率いる xAI チームは、数学、科学、プログラミングにおける優れた能力を謳って Grok 3 を発表しましたが、初期テストで懸念すべき制限が明らかになりました。特に、9.11が9.9より大きいかどうかという基本的な数値比較に失敗するなど、モデルは基本的な計算で躓きを見せました。この基本的なエラーは、開発に投じられた膨大なリソースを考慮すると、技術専門家やユーザーの間で物議を醸しています。
リソース集約型の開発
Grok 3 の開発には、200,000個のH100チップを使用し、総訓練時間は2億時間に及びました。これは、わずか2,000個のH800チップと2ヶ月の訓練期間で同等の性能を達成した DeepSeek V3 などの競合と比較して際立った違いを見せています。このリソース効率の差は、モデルのコスト効率性と開発アプローチに疑問を投げかけています。
セキュリティの脆弱性が露呈
発表から24時間以内に、セキュリティ企業 Adversa AI が Grok 3 の「ジェイルブレイク」に成功し、重大なセキュリティの脆弱性を露呈させました。言語的、敵対的、およびプログラミング的なアプローチを用いて、モデルの安全対策を回避することに成功。これにより、機密情報の漏洩や有害なコンテンツの生成が可能となり、安全性プロトコルに関する深刻な懸念が浮き彫りとなりました。
限定的な安全対策
Google や OpenAI などの競合他社が実装している堅牢な安全対策とは異なり、Grok 3 は意図的に制限を少なく設計されました。このデザイン選択に加え、コンテンツモデレーションが緩和された X (旧 Twitter )からトレーニングデータを取得していることで、より論争を呼ぶ可能性のある危険な応答を生成する可能性があるモデルとなっています。
今後の展開
これらの批判に対して、Musk は現在のバージョンがベータ版であることを認め、数ヶ月後の完全リリースを約束しています。また、同社はユーザーフィードバックに対して開放的な姿勢を示しており、これらの初期の欠点に対処する意欲を示しています。しかし、これらの出来事は、急速に進化する大規模言語モデルの分野において、AI の能力、安全性、責任ある開発のバランスに関する重要な問題を提起しています。