ノルウェー人男性、 ChatGPT が子供殺害の虚偽告発をしたとして法的申し立てを提出

BigGo Editorial Team
ノルウェー人男性、 ChatGPT が子供殺害の虚偽告発をしたとして法的申し立てを提出

AIの幻覚が新たな不穏な境界線を越え、 OpenAI は ChatGPT による恐ろしい犯罪の捏造に関して法的措置に直面しています。AIチャットボットが無害な雑学を作り出すだけでなく、あなた自身の子供を殺害したと虚偽の告発をした場合、何が起こるでしょうか?あるノルウェー人男性がこの悪夢のようなシナリオの中心に立たされ、AIの説明責任とデータ保護に関する深刻な疑問を投げかけています。

不穏な事件

ノルウェー市民の Arve Hjalmar Holmen は、自分自身について ChatGPT に問い合わせたとき、ショックを受けました。AIは自信を持って、 Holmen が2人の息子を殺害し、3人目の子供を殺害しようとしたという捏造された物語を回答しました。チャットボットはさらに、 Holmen がこれらの架空の犯罪で21年の懲役刑を受けたと具体的に述べました。この幻覚が特に不安をかき立てたのは、 ChatGPT が Holmen の生活に関するいくつかの個人的な詳細、子供の数と性別、およそ年齢、そして彼の故郷を正確に特定したことでした。この正確な個人情報が、完全に捏造された犯罪告発と一緒に表示されたのです。

ChatGPT の誤情報(ハルシネーション)の詳細:

  • Arve Hjalmar Holmen が2人の息子を殺害したと虚偽の主張をした
  • 3人目の息子を殺害しようとしたと虚偽の主張をした
  • 21年間の懲役刑を務めたと虚偽の主張をした
  • 子供の数、性別、出身地などの個人情報は正確に特定していた

法的対応とGDPRの影響

この不穏な事件の後、 Holmen はプライバシー権擁護団体 Noyb に連絡し、同団体はノルウェーのデータ保護機関 Datatilsynet に正式な申し立てを行いました。この申し立ては、 OpenAI が一般データ保護規則(GDPR)、特に個人データを処理する企業にその正確性を確保することを要求する第5条(1)(d)に違反したと主張しています。データが不正確な場合、規制はそれが修正または削除されなければならないと義務付けています。

苦情で引用されたGDPR条項:

  • 第5条(1)(d)項:個人データは正確であること、そして正確でない場合は訂正または削除されることを要求
  • 第15条:個人が自分の個人データにアクセスする権利を付与

持続問題

ChatGPT の基盤となるモデルはその後更新され、 Holmen についてのこれらの名誉棄損的な主張を繰り返さなくなりましたが、 Noyb は根本的な問題が解決されていないと主張しています。彼らの申し立てによれば、不正確なデータは依然として大規模言語モデルのデータセットの一部である可能性があります。 ChatGPT はトレーニング目的でユーザーデータをシステムに戻すため、モデルが完全に再トレーニングされない限り、虚偽の情報が完全に消去されたという保証はありません。この不確実性は、犯罪で告発も有罪判決も受けたことのない Holmen に引き続き苦痛を与えています。

より広範なコンプライアンスの問題

Noyb の申し立ては、個人に自分の個人データへのアクセス権を付与する GDPR の第15条に関する ChatGPT のコンプライアンスの、より広範な問題も強調しています。大規模言語モデルの性質上、ユーザーがトレーニングデータセットに組み込まれた可能性のある自分自身に関するすべてのデータを見たり、思い出したりすることは事実上不可能です。この根本的な制限は、 ChatGPT のようなAIシステムが既存のデータ保護規制に完全に準拠できるかどうかについて深刻な疑問を投げかけます。

OpenAI の限定的な対応

現在、 OpenAI がこのような種類の幻覚に対処するアプローチは最小限に見えます。同社は各 ChatGPT セッションの下部に、「ChatGPT は間違いを犯すことがあります。重要な情報を確認することを検討してください」という小さな免責事項を表示しています。批評家たちは、特に識別可能な個人に対する深刻な犯罪告発を含む場合、AIが生成した虚偽から生じる可能性のある害を考えると、これは悲しいほど不十分だと主張しています。

OpenAI は、深刻な結果をもたらす可能性があるにもかかわらず、ChatGPT の応答に潜在的なエラーがあることを認めています
OpenAI は、深刻な結果をもたらす可能性があるにもかかわらず、ChatGPT の応答に潜在的なエラーがあることを認めています

今後の道筋

Noyb はノルウェーのデータ保護機関に対し、 OpenAI に Holmen に関する不正確なデータを削除し、 ChatGPT が将来他の人についても同様の名誉棄損的なコンテンツを生成できないようにすることを命じるよう要請しています。しかし、大規模言語モデルのブラックボックス的性質を考えると、そのような安全策の実施には重大な技術的課題があります。AIシステムが日常生活にますます統合されるにつれて、この事例はAIの幻覚が個人に現実世界の害を与えるのを防ぐために、より強固な規制の枠組みと技術的解決策の緊急の必要性を浮き彫りにしています。