AI モデルは技術業界の自動化の主張にもかかわらず、人間の労働に大きく依存している

BigGo 編集部
AI モデルは技術業界の自動化の主張にもかかわらず、人間の労働に大きく依存している

人工知能業界は、人間のように思考し推論できる自動化システムの約束に基づいて評判を築いてきた。しかし、技術コミュニティでの最近の議論は異なる現実を明らかにしている: ChatGPT のような大規模言語モデルを含む現代の AI モデルは、舞台裏で人間の労働者に大きく依存している。

データラベラーの隠れた軍団

多くのユーザーが気づいていないのは、AI チャットボットからのスムーズで親切な応答は、主に広範囲にわたる人間の労働の結果だということである。コミュニティは、現代のチャット調整された言語モデルが本質的に、世界中、特に発展途上国の労働者からのラベリング努力のあいまいな貯蔵庫であることを強調している。これらのデータラベラーは、応答を書き、フィードバックを提供し、AI を非常に人間らしく見せる感情的知性を微調整するために数え切れないほどの時間を費やしている。

この作業の規模は驚異的である。技術業界の観察者は、世界中で数百万人が人間のフィードバックからの強化学習(RLHF)と呼ばれるプロセスを通じて、これらの AI システムの訓練と改良に関与していると推定している。このプロセスは、基本的な統計モデルの上に人間の好みを重ね、ユーザーにとってより自然で親切に聞こえるようにしている。

注:RLHF は人間のレビュアーが AI の応答を評価して、システムに人々がどのような種類の答えを好むかを教える技術である。

AI開発の主要構成要素:

  • インターネットテキストで訓練された基本的なトランスフォーマーモデル
  • 人間のフィードバックからの強化学習( RLHF )レイヤー
  • 世界中の数百万人の人間データラベラー
  • 応答をより予測可能にするための指示調整
  • 継続的な人間のフィードバックと改良

占いとの比較

コミュニティの一部では、AI チャットボットと古代の占い慣行との間に興味深い類似点を描いている。彼らは、大規模言語モデルは思考機械というよりも現代の神託のように機能していると主張している - ユーザーが知恵や洞察として解釈する確率的応答を生成している。この視点は、人々が本質的にデジタル占いの一形態を実践しており、古代文化が骨やカードを相談したのと同じように AI システムを相談していることを示唆している。

この比較は、一部のユーザーが AI システムとの不健全な関係を発達させ、それらを精神的ガイドや神的存在とさえ信じる ChatGPT 誘発性精神病の事例を考慮する際に特に関連性が高くなる。メンタルヘルスの専門家は、統計的パターンマッチングを真の意識や精神的つながりと間違える脆弱な個人についてますます懸念を抱いている。

特定されたAI安全性の懸念:

  • ChatGPT 誘発性精神病の症例
  • AIシステムを神聖または精神的な導き手と信じるユーザー
  • 脆弱な個人がAIとの不健全な関係を発達させること
  • AIが「精神病の力の増幅器」となる可能性
  • 将来的な商業的偏見と品質劣化のリスク

経営陣の錯覚

技術コミュニティはまた、AI が企業レベルでどのように誤解されているかについても懸念を提起している。一部の経営幹部の間では、AI が熟練労働者を置き換え、経験の少ない管理者が複雑な業務を運営できるようになるという信念が高まっている。しかし、業界内部者はこれが根本的に間違っていると主張している。

「AI は現在の大企業群にとって致命的な脅威である。企業が大きければ大きいほど、それはより大きな脅威となる。」

専門知識を置き換えるのではなく、AI は既に熟練した専門家にとっての力の乗数として最も効果的に機能するようである。AI がギャップを埋めることを期待して経験豊富な労働者を解雇する企業は、しばしば自社の製品がより信頼性が低く、微細な障害により起こりやすくなることを発見する。

主要なAI企業とそのアプローチ:

  • OpenAI ( ChatGPT )
  • Anthropic ( Claude )
  • Google ( Gemini )
  • Meta
  • DeepSeek
  • Qwen
  • Mistral
  • xAI

エンシット化のリスク

将来を見据えると、AI システムの将来の品質について懸念が高まっている。多くのインターネットサービスが広告、偏見、商業的圧力によって時間とともに劣化したように、AI モデルも同様のリスクに直面している。現在、ほとんどの AI システムは親会社にとって損失で運営されており、それらが最終的にどのように収益性を持つようになるかについて疑問を生じさせている。

コミュニティは、企業がこれらのシステムを収益化しようとするにつれて、AI の応答がより偏見に満ち、広告主導、または政治的に影響を受けるようになる可能性があると警告している。これは、比較的中立的な AI 支援の現在の時代の終わりを示すかもしれない。

AI 開発の背後にある現実は、そのマーケティングが示唆するよりもはるかに人間の知性と労働に依存している技術を明らかにしている。これを理解することで、ユーザーはこれらのシステムにいつ、どのように依存するかについてより良い決定を下すのに役立ち、同時に現代の AI を可能にするしばしば見過ごされる人間の労働者にスポットライトを当てている。

参考:What Happens When People Don't Understand How AI Works