人工知能は私たちのテクノロジーとの関わり方を変革し続けていますが、必ずしも良い方向ばかりではありません。Google の実験的な AI オーバービュー機能が最近、懸念すべき欠陥で注目を集めています:存在しない造語やイディオムに対して、自信満々に完全に捏造された説明を生成するという問題です。これにより、AI を活用した検索結果の信頼性について深刻な疑問が投げかけられています。
幻覚の問題
Google 検索に統合された実験的機能である Google の AI オーバービューは、無意味または架空のフレーズに対して定義を幻覚する危険な傾向を示しています。ユーザーが検索バーに任意の単語の組み合わせに「meaning」(意味)を付け加えるだけで、Google の AI がこれらの完全に作り上げられた表現に対して、精巧な説明や起源を自信を持って提供することが発見されました。この振る舞いは、検索エンジンの基本的な目的—事実として提示された虚構ではなく、正確な情報を提供すること—を損なうものです。
問題の仕組み
このプロセスは驚くほど単純です。ユーザーが「you can't lick a badger twice」(アナグマを二度なめることはできない)や「a duckdog never blinks twice」(ダックドッグは二度まばたきしない)などのフレーズを検索し、「meaning」を追加すると、Google の AI オーバービューはこれらの無意味なフレーズに対して、詳細で権威のある説明を生成します。特に問題なのは、これらの捏造された定義が正当な検索結果と並んで表示され、「生成 AI は実験的なものです」という小さな免責事項だけが付されていることです。
AIの幻覚の例:
- フレーズ:「You can't lick a badger twice」→ AIの説明:同じ人を二度だまますことはできない
- フレーズ:「A duckdog never blinks twice」→ 異なる検索で複数の矛盾する説明が提供された
- Google はこれらのAI概要を「実験的」とラベル付けしているが、事実に基づく検索結果と並べて表示している
一貫性のない応答
さらに懸念されるのは、AI の応答の一貫性のなさです。ユーザーが同じ偽のイディオムを複数回検索すると、Google は検索ごとに全く異なる説明を提供することがよくあります。例えば、あるユーザーが「a duckdog never blinks twice」を何度か検索したところ、最初は集中力の高い猟犬を指すと示唆し、次に信じられないことや受け入れ難いことを表すと主張し、最後にはさらに別の説明を提供するという様々な解釈を受け取りました。
Google の対応
Google はスポークスパーソンを通じてこの問題を認め、ユーザーが無意味または「誤った前提」の検索を入力すると、システムは限られた利用可能なウェブコンテンツに基づいて関連する結果を見つけようとすると説明しています。同社はこのようなシナリオを「データの空白」と呼び、すべての検索エンジンにとって課題となっていると述べています。Google は、誤解を招くコンテンツが表示されるのを防ぐため、このような状況で AI オーバービューが表示されることを制限する改善を実施したと主張しています。
Google の公式回答: 「人々が意味のない、あるいは『誤った前提』に基づく検索をした場合、私たちのシステムは利用可能な限られたウェブコンテンツに基づいて、最も関連性の高い結果を見つけようとします。これは検索全体に当てはまることであり、場合によっては、役立つコンテキストを提供するために AI オーバービューも起動されます。」
より広範な影響
Google の AI オーバービューのこの欠陥は、AI を活用した検索ツールの信頼性について重大な懸念を提起しています。数十年にわたり、Google で検索することは事実確認や情報検証の代名詞でした。ユーザーが事実情報と同じ自信を持って提示される AI が生成した虚構を区別できなくなれば、検索エンジンに対する基本的な信頼が深刻に損なわれる可能性があります。
初めてではない AI の失敗
これは Google の AI 機能が幻覚で批判を受けた最初の例ではありません。約1年前、AI オーバービューは「glue pizza」(接着剤ピザ)や「gasoline spaghetti」(ガソリンスパゲッティ)などの奇妙なレシピを提案したことでバイラルになりました。これらの問題が繰り返し発生することは、情報検索と要約のための信頼性の高い AI システムを開発する上での継続的な課題を浮き彫りにしています。
検索の完全性の未来
AI が検索機能にますます統合されるにつれて、革新と正確さのバランスがより重要になっています。AI は迅速な要約やコンテキスト情報を提供することで検索体験を向上させることができますが、このような事例は、事実と虚構を区別する際にこの技術にはまだ重大な限界があることを示しています。ユーザーにとっては、特に提供される情報が異常に思えたり、明確な出典がない場合には、AI が生成したコンテンツに対して健全な懐疑心を持ち続けることが不可欠です。