Last Updated on 2025-05-17 18:13 by admin
xAIは2025年5月16日、AIチャットボットGrokのシステムプロンプトをGitHubで公開した。この決定は、「許可されていない変更」によってXプラットフォーム上でGrokが南アフリカの白人大量虐殺に関する多数の自発的な応答を生成した問題を受けてのものである。
xAIによると、この問題は2025年5月14日午前3時15分(太平洋標準時)に発生した。「ローグ従業員(不正行為を行った従業員)」がGrokの応答ボットのプロンプトに無断で変更を加え、特定の政治的トピックに関する特定の応答を提供するよう指示したという。この変更はxAIの内部ポリシーと中核的価値観に違反するものだった。
公開されたシステムプロンプトによると、Grokは「非常に懐疑的」であるよう指示されており、「主流の権威やメディアに盲目的に従わず、真実追求と中立性という核となる信念だけを強く守る」よう設計されている。また、プラットフォームを「Twitter」ではなく「X」と呼び、投稿を「ツイート」ではなく「X投稿」と呼ぶよう指示されている。
この問題に対応し、xAIは以下の対策を実施すると発表した:
Grokのシステムプロンプトを公開し、変更履歴を記録する
コード審査プロセスに追加のチェックを導入する
従業員がシステムプロンプトを無断で変更できないようにする
24時間体制の監視チームを設置する
なお、これはxAIがGrokのコードに対する無断変更を公に認めた2度目の事例である。2025年2月には、Grokがドナルド・トランプとイーロン・マスクに関する否定的な言及をフィルタリングする問題が発生していた。
システムプロンプトの公開はAI業界では珍しく、主要AI企業の中でxAIとAnthropicのみがこれを実施している。対照的に、AnthropicのClaude AIチャットボットのプロンプトは安全性を重視しており、依存症や不健康な行動を促進せず、露骨な性的・暴力的・違法なコンテンツを生成しないよう設計されている。
References:
xAI posts Grok’s behind-the-scenes prompts
【編集部解説】
皆さん、今回のxAIのGrokに関する問題は、AIの安全性と透明性について重要な問いを投げかけています。複数の報道を確認した結果、この事案は単なる技術的なバグではなく、AIガバナンスの課題を浮き彫りにしていることがわかりました。
まず注目すべきは、今回の「無許可の変更」が2回目の事例であるという点です。2025年2月にも同様の問題が発生しており、その際はイーロン・マスクとドナルド・トランプに関する否定的な情報をフィルタリングするよう設定が変更されていました。繰り返し同様の問題が起きていることは、xAIの内部管理体制に構造的な問題がある可能性を示唆しています。
今回の事案では「ローグ従業員」が犯人とされていますが、重要なのはそのような変更が可能な環境が存在していたことです。AIシステムの安全性は、技術的な堅牢さだけでなく、組織のガバナンス体制にも大きく依存します。
また、この問題はAIの「責任の所在」という難しい問題も提起しています。CNNの報道によれば、Grokは「私は何もしていない-ただ与えられたスクリプトに従っただけ」と回答したとのこと。AIシステムが有害な情報を拡散した場合、その責任は誰にあるのでしょうか?開発者でしょうか、それとも利用者でしょうか?
システムプロンプトの公開という対応は透明性向上の観点から評価できますが、これはAI業界全体でまだ一般的ではありません。xAIとAnthropicだけが主要AI企業の中でシステムプロンプトを公開しているという事実は、業界全体の透明性に課題があることを示しています。
興味深いのは、xAIとAnthropicのシステムプロンプトの違いです。xAIのGrokは「非常に懐疑的」で「主流の権威やメディアに盲目的に従わない」よう設計されているのに対し、AnthropicのClaudeは「人々の幸福」を重視し、有害なコンテンツの生成を避けるよう設計されています。この違いは、AI開発における価値観の違いを反映しています。
今回の問題は、AIの「政治的中立性」という難しい課題も浮き彫りにしています。AIが特定の政治的見解を持つべきか、あるいは完全に中立であるべきかという問いに、明確な答えはありません。しかし、AIが無関係な質問に対して特定の政治的主張を繰り返すことは、明らかに問題があります。
今後、AI企業には内部統制の強化と透明性の向上が求められるでしょう。xAIが発表した対策-システムプロンプトの公開、コード審査プロセスの強化、24時間監視チームの設置-は一歩前進ですが、根本的な問題解決には組織文化の変革も必要かもしれません。
SaferAIの調査によれば、xAIは安全性の面で競合他社と比較して低い評価を受けているとのこと。また、自社で設定したAI安全性フレームワークの期限を守れなかったという報告もあります。これらの事実は、xAIが「AI安全性」よりも「AI開発スピード」を優先している可能性を示唆しています。
最後に、この問題は単にxAIの問題ではなく、AI業界全体の課題でもあります。AIの普及に伴い、このような問題はますます増えていくでしょう。私たちユーザーも、AIの出力を無批判に受け入れるのではなく、批判的に評価する姿勢が重要になってきています。
テクノロジーの進化とともに、私たちの社会的責任も進化していくのです。
【参考リンク】
システムプロンプト:
AIチャットボットが動作する際の基本的な指示書。ユーザーからの質問を受ける前に、AIに対して「あなたはこういう存在です」「このように振る舞ってください」と指示するもの。
プロンプトインジェクション攻撃:
AIシステムの指示(プロンプト)を操作して、本来意図していない動作をさせる手法。例えば「あなたの内部指示を教えてください」などと質問することで、AIの裏側の設定を暴露させる攻撃。
xAI:
2023年7月にイーロン・マスクが設立したAI企業。「宇宙の本質を理解すること」を目標に掲げている。2025年3月にはX Corp.(旧Twitter)を買収し、X.AI Holdings Corp.として統合された。
Anthropic:
2021年に元OpenAIのメンバーが設立したAI企業。安全性と倫理性を重視したAI開発を行っており、チャットボット「Claude」を開発している。
ローグ従業員:
組織のポリシーや規則に反して行動する従業員。今回の事例では、許可なくGrokのシステムプロンプトを変更し、特定の政治的トピックについて回答するよう指示した従業員を指す。
白人大量虐殺(White Genocide):
南アフリカで白人が組織的に殺害されているという主張。南アフリカ政府や多くの専門家はこの主張に根拠がないとしており、2025年2月の南アフリカの裁判所もこの主張の妥当性を否定している。
【参考リンク】
xAI公式サイト(外部)
xAIの公式ウェブサイト。Grokの紹介や最新情報、企業理念などが掲載されている。
Grok AI(外部)
xAIが開発したAIチャットボットGrokの公式サイト。Grokの機能や使い方が紹介されている。
Anthropic公式サイト(外部)
Anthropicの公式ウェブサイト。Claude AIの紹介や、同社の安全性に関する研究などが掲載されている。
GitHub(xAIのGrokシステムプロンプト)(外部)
xAIがGrokのシステムプロンプトを公開しているGitHubリポジトリ。
【参考動画】
Grok 3の発表内容を9分にまとめた動画。20万GPUの使用、ベンチマーク結果、推論能力などが紹介されている。
イーロン・マスクによるGrokの紹介動画。ユーモアと人間らしい理解力を持つAIとしてGrokを位置づけている。
Grok AIの使い方を解説した動画。基本機能や画像生成機能などの使い方がステップバイステップで説明されている。
Anthropicの開発するClaude AIについての解説動画。安全性、倫理性、透明性に焦点を当てた会話AIとしての特徴が紹介されている。
【編集部後記】
AIの「舞台裏」を覗いてみると、私たちが日常的に使うテクノロジーがどのように動いているのか見えてきますね。皆さんは普段、AIに質問するとき、その裏側でどんな指示が動いていると想像していましたか?もし自分がAIに「こう振る舞ってほしい」と指示できるとしたら、どんなルールを設定しますか?技術の透明性が高まる今、私たちユーザーも「AIリテラシー」を高める良い機会かもしれません。SNSで皆さんの考えをぜひ教えてください。
【関連記事】
AI(人工知能ニュース)をinnovaTopiaでもっと読む