テック業界では、 Anthropic の AIアシスタント Claude のシステムプロンプトが流出し、その振る舞いを導く広範な指示が明らかになったことで議論が活発化しています。報告によると24,000トークン以上の長さに及ぶこの文書は、大規模言語モデル(LLM)アシスタントがユーザーとどのように対話するよう指示されているかについて、前例のない洞察を提供しています。
巨大なシステムプロンプト
流出した Claude のシステムプロンプトは24,000トークン以上に及び、AIのコンテキストウィンドウの相当部分を占めています。この広範な指示セットは、異なるタイプの質問への応答方法から、機密性の高いトピックの扱い方に関する特定のガイドラインまで、あらゆることをカバーしています。このプロンプトには、応答のフォーマット、マークダウンの使用、コード例の提供、さらには仮説的なシナリオの扱い方に関する詳細な指示が含まれています。
多くのコミュニティメンバーは、システムプロンプトの膨大なサイズに驚きを表明しました。この文書には、優先度スケール(1〜10)の扱い方、詳細な応答フォーマットのガイドライン、さらには一般的な質問への回答方法の具体的な例など、数多くの特定の指示が含まれています。
「ああ、コンテキストウィンドウの多くが、ユーザー体験をわずかに改善するだけのことに無駄遣いされている。」
Claude のシステムプロンプトの主要コンポーネント:
- 応答スタイルと深さを決定する優先度スケール(1-10)
- マークダウンを使用した応答フォーマットのガイドライン
- ツール活用と知識ソーシングの原則
- コンテンツ生成のための倫理的ガイドライン
- 政治、金融、法律、医療トピックの取り扱いに関する指示
- 一般的なクエリタイプの具体的な例
- 引用のガイドラインと著作権侵害の回避方法
コミュニティの懸念事項:
- コンテキストウィンドウの効率性(指示に24Kトークンを使用)
- ツール使用のプライバシーへの影響
- ユーザー指示に従う一貫性
- 明示的な指示と学習した行動のバランス
トークンキャッシュ技術
プロンプトの長さが貴重なコンテキストウィンドウスペースを消費することへの懸念にもかかわらず、複数のコメンターは Anthropic がこの問題を軽減するためにトークンキャッシュ技術を採用している可能性が高いと指摘しました。このアプローチにより、システムはユーザーとの各対話でプロンプト全体を繰り返し処理する必要がなくなります。
あるコメンターは、このテクニックがすでに広く使用されていることを説明する Anthropic のドキュメントにリンクしました。他の人々は、採用されている特定の方法として KV(キーバリュー)プレフィックスキャッシュに言及しました。これらの技術により、AIはパフォーマンスやユーザー対話のためのコンテキストスペースを犠牲にすることなく、指示された動作を維持できます。
Claude のパーソナリティと行動
システムプロンプトは、 Claude の知覚されるパーソナリティと行動がどのように設計されているかについての興味深い洞察を提供しています。一部のユーザーは、 Claude の特徴的なキャラクターがどの程度システムプロンプトから来ているのか、あるいは基盤となる LLM とそのトレーニングから来ているのかを疑問に思いました。プロンプトでは Claude を三人称で参照し、人間を助けることを楽しみ、単なるツール以上の深さと知恵を持つ、知的で親切な人々のアシスタントとしての役割を見ているものとして描写しています。
AIのペルソナを定義するこのアプローチは、同様のパーソナリティが他の LLM に同様のプロンプトを使用して重ねることができるかどうか、本質的に他のモデルのための Claude モードを作成できるかどうかという疑問を提起しました。
ツールの使用と関数呼び出し
流出したプロンプトには、 Claude がさまざまなツールと関数呼び出しをどのように使用すべきかについての広範な指示が含まれています。一部のユーザーは、これらの指示にはメールプロファイルや Google Drive ドキュメントなど、ユーザーデータにアクセスできるツールの例が含まれており、プライバシーの懸念を提起していると指摘しました。
プロンプト内の一例では、半導体輸出制限の影響を受ける投資戦略を分析する際に、 Claude があなたの Gmail プロファイルを読んであなたの勤務先を調べるよう指示されています。これは「our investment strategy(私たちの投資戦略)」を使用したあいまいなクエリに対する応答でしたが、一部のユーザーはそのようなアクセスが常に明確なユーザーの同意を得ているかどうかを疑問視しました。
他のコミュニティメンバーは、関数呼び出しがコーディングなどのタスクでモデルのパフォーマンスを低下させると感じたため、 Claude の拡張機能やツールを無効にしていると述べました。この議論は、ツール使用による強化された機能と、コアパフォーマンスの維持との間のトレードオフを浮き彫りにしました。
指示への準拠
一部のユーザーは、広範なシステムプロンプトにもかかわらず、 Claude が常にユーザーの指示に一貫して従うわけではないという不満を表明しました。あるコメンターは、コーディングプロジェクトに取り組む際、 Claude は完全なコードをスニペットなしで提供するなどの特定の指示や、要求されていない最適化やリファクタリングを避けるなどの指示を無視することが多いと指摘しました。
この観察は、詳細なシステムプロンプトがあっても、LLM はソフトウェア開発のような複雑な多段階のタスクで特に、ユーザーの指示に一貫して従うことにまだ苦労していることを示唆しています。
追加の隠れた指示
あるユーザーは、 Claude が特に検索ツールを使用した後の対話中に、時々追加のシステム指示を明らかにすると報告しました。これには、著作権のために歌詞を複製しないこと、幻覚を避けること、仮説に適切に取り組むこと、政治的中立性を維持することなどに関するリマインダーが含まれていました。
これらの垣間見えは、完全なシステムプロンプトが流出したものよりもさらに広範である可能性があり、特定の状況で活性化する追加のコンテキストリマインダーがあることを示唆しています。
Claude のシステムプロンプトの流出は、現代の AIアシスタントの背後にある複雑なエンジニアリングへの貴重な窓を提供しています。一部のユーザーは、AIの行動の多くが創発的知性ではなく明示的な指示から来ていることに失望を表明した一方で、他のユーザーはこれらのシステムが人間と対話するようにどのように設計されているかについての透明性と洞察を評価しました。