Metaが最近、大規模言語モデル(LLM)の最新版であるLlama 3を発表し、前バージョンと比較して印象的な性能向上を示しました。しかし、MetaのAI責任者であるYann LeCunは、この技術の究極的な可能性について期待を抑えています。
Llama 3:大きな前進
Llama 3には2つのバージョンがあります:
- 80億パラメータのモデル
- 700億パラメータのモデル
標準的なデスクトップやラップトップでの実行が可能な8Bバージョンは、大幅な改善を示しています:
- Llama 2の7Bバージョンより34%優れている
- Llama 2の13Bバージョンより14%優れている
- Llama 2の70Bバージョンに8%差まで迫っている
このより小さなモデルは130万時間のGPU時間を使用して訓練され、AI開発に必要な膨大な計算リソースを示しています。
Llama 3をローカルで実行する
Llama 3を試してみたい人のために、個人のコンピューターで実行するオプションがあります:
- LM Studio:WindowsとMac(M1、M2、M3プロセッサー)で利用可能で、Linuxのベータ版もあります。
- Ollama:Mac、Windows、Linux、さらにRaspberry Piもサポートしています。
これらのツールを使用すると、ユーザーは自分のデバイスで直接Llama 3と対話でき、AIの実験や応用の新しい可能性を開きます。
大規模言語モデルの限界
これらの進歩にもかかわらず、MetaのAI責任者であるYann LeCunは、Llama 3やChatGPTのようなLLMの究極的な可能性について懐疑的な見解を示しています。最近のインタビューで、LeCunはこれらのモデルが根本的な制限により人間レベルの知能に到達できないと述べました:
- 論理の理解が限られている
- 持続的な記憶がない
- 物理的な世界の理解がない
- 階層的に計画を立てる能力がない
LeCunは、LLMは本質的に安全ではなく、適切な訓練データが提供された場合にのみ正確であると主張しています。
Metaの今後のAI方向性
MetaのAI研究チームは、LLMだけに焦点を当てるのではなく、世界モデリングと呼ばれる新しいアプローチを探求しています。この方法は、人間と同様に世界を理解するAIシステムを構築することを目指しており、より高度で能力の高いAIにつながる可能性があります。
LeCunは、このアプローチを使用して人間レベルのAIを達成するには最大10年かかる可能性があると推定しており、人工知能の境界を押し広げるための長期的なコミットメントを示しています。
投資家の反応と将来の展望
MetaのAIへの多額の投資は、投資家から様々な反応を引き起こしています。最近、CEOのMark ZuckerbergがAI支出の増加計画を発表した後、同社は約2,000億ドルの時価総額を失いました。しかし、ZuckerbergはAIの長期的な可能性に自信を持ち続けており、ReelsやStoriesのような過去の成功した「構築してから収益化する」戦略と類似点を指摘しています。
MetaがAIレースを推進し続ける中、テクノロジー業界はLlama 3と今後のイノベーションが人工知能の景観をどのように形作るかを注視しています。