人工知能コミュニティでは、 MIT の最近の AI ナビゲーション能力に関する研究をきっかけに、大規模言語モデル( LLM )における理解の本質について熱い議論が交わされています。これらのモデルは特定のタスクで印象的な性能を示す一方で、 AI システムにおける真の知性と理解とは何かという、より深い問いを投げかけています。
パターンマッチングと理解の違いを巡る議論
コミュニティの多くは、パターンマッチングと真の理解との違いを強調しています。この議論では、 LLM がターンバイターンのナビゲーションや戦略的ゲームなどの複雑なタスクを、それらのシステムの実際の仕組みについての一貫した内部モデルを持たずに実行できることが指摘されています。この限界は、道路閉鎖などのナビゲーションタスクにおいて、モデルが操作環境のわずかな変化に直面した時に明らかになります。
現在の形態の LLM は、友人とビールを飲みながら交わす会話のような直感的な思考に似ています。これは将来の AI の頭脳の一部に過ぎず、世界モデルを維持するための別のシステムや、バックグラウンドでの計画立案のための別のシステムなどが必要です。
主要な研究結果:
- 通りのわずか1%が閉鎖されただけで、ナビゲーション精度が100%から67%に低下
- モデルは実在しない道路の接続を含む不正確な内部マップを生成
- ランダムな学習データは、戦略的な学習データよりも優れた世界モデルを生成
- モデルは基本的なルールを理解することなく、高いパフォーマンスを達成可能
AI 用語を巡る論争
コミュニティは、現在の LLM 技術に AI という用語が適用されることに対して不満を表明しています。多くの専門家は、これらのモデルが特定のタスクで印象的な性能を示す一方で、従来の人工知能の定義には及ばないと主張しています。この意味論的な議論は、 AI 技術に対する一般の認識と期待に関するより広い懸念を反映しており、この分野の70年の歴史が言語モデルだけではないことを指摘する声もあります。
生物学的知能と機械学習の比較
人間の認知と機械学習を比較する議論では興味深い類似点が浮かび上がっています。コミュニティのメンバーは、動物や幼児でさえ、現在の LLM が欠いている物体の永続性のような基本的な概念を持っていることを指摘しています。これは、特に化学や機械的な問題など、物理的な世界の理解を必要とする領域において、生物学的知能と現在の AI 能力との間に重要なギャップがあることを浮き彫りにしています。
リソースと学習効率
コミュニティはまた、生物学的知能と比較した LLM のリソース要件についても議論しています。人間が限られた感覚入力とエネルギー消費(脳の消費電力約20W)で言語と世界の理解を学習する一方で、 LLM はその能力を達成するために膨大な計算リソースとエネルギーを必要とします。この比較は、現在の AI アプローチの効率性と持続可能性に関する疑問を提起しています。
この継続的な議論は、 LLM が重要な技術的成果を表す一方で、人間や単純な生物システムが持つ真の理解の重要な側面がまだ欠けていることを明らかにしています。この洞察は、真の世界理解を達成するために、将来の AI 開発が異なるアプローチを取り入れる必要があることを示唆しています。
ソース引用:Despite its impressive output, generative AI doesn't have a coherent understanding of the world