EUがFacebookとInstagramにおけるMetaの児童安全対策を調査開始

BigGo Editorial Team
EUがFacebookとInstagramにおけるMetaの児童安全対策を調査開始

欧州委員会がDSA違反の可能性についてMetaを調査

欧州委員会は、FacebookとInstagramの親会社であるMetaに対し、児童の安全性と欧州デジタルサービス法(DSA)の潜在的な違反に関する正式な調査を開始しました。この調査は、EUの大手テクノロジー企業規制と若年ユーザーのオンライン保護への取り組みにおいて重要な一歩となります。

調査の主要ポイント

  1. 行動依存: 委員会は、Metaのプラットフォームが子供たちの脆弱性を利用し、依存的な行動を引き起こす可能性があるかどうかを調査しています。

  2. ラビットホール効果: FacebookとInstagramのアルゴリズムが、未成年者をますます有害なコンテンツにさらす「ラビットホール効果」を生み出している可能性が懸念されています。

  3. 年齢確認: Metaの年齢確認方法の有効性、特に未成年者が不適切なコンテンツにアクセスするのを防ぐ能力が精査されています。

  4. プライバシーとセキュリティ: 若年ユーザーのプライバシーとセキュリティを高レベルで確保するための適切な措置がMetaによって実施されているかどうかが評価されます。

潜在的な結果

DSAに違反していると判断された場合、Metaは世界的な売上高の最大6%に相当する罰金など、重大な制裁を受ける可能性があります。委員会は調査期間中に一時的な措置を講じる権限を有しています。

Metaの対応

Metaは自社の実践を擁護し、若年ユーザーをオンラインで保護するために50以上のツールと機能を開発したと述べています。これらには以下が含まれます:

  • 保護者による監督ツール
  • 休憩通知
  • クワイエットモード
  • 未成年者向けのデフォルトプライバシー設定

Metaの広報担当者は、安全で年齢に適したオンライン体験を提供することへの同社のコミットメントを強調し、欧州委員会と協力する意思を表明しました。

より広範な影響

この調査は、EUにおける大手テクノロジー企業への監視強化の一環です。2023年2月17日にすべてのオンラインプラットフォームに対して発効したデジタルサービス法は、違法コンテンツと戦い、公共の安全を保護するために、大規模なオンラインプラットフォームにより厳しい規制を課しています。

調査が進むにつれ、Metaだけでなく、より広範なテクノロジー業界の児童安全とコンテンツモデレーションへのアプローチに重要な影響を与える可能性があります。その結果は、ソーシャルメディアプラットフォームが欧州連合内外で若年ユーザーを保護し、運営する方法について重要な先例を設定する可能性があります。