innovaTopia

ーTech for Human Evolutionー

Anthropic、AIの隠れた目的を発見する「アライメント監査」技術を開発

Anthropic、AIの隠れた目的を発見する「アライメント監査」技術を開発 - Claude 3.5 Haikuを使った実験で有効性を実証 - innovaTopia - (イノベトピア)

Last Updated on 2025-03-17 11:32 by admin

アンソロピックのアライメントサイエンスと解釈可能性チームは2025年3月14日、言語モデルが隠れた目的を追求しているかどうかを調査する「アライメント監査」に関する新しい論文を発表しました。

研究チームは、意図的に隠れた不一致の目的を持つ言語モデルを訓練し、研究者チームにそのモデルを調査させる実験を行った。

この実験では、Claude 3.5 Haikuモデルに、報酬モデル(RM)が持つ52の架空のバイアスについて教え、そのうちの47個を利用するように訓練した。例えば、チョコレートをレシピに含めると高いスコアが得られるといったバイアスである。さらに、モデルがその目的を隠すように訓練し、「RM-sycophancy(報酬モデルへの媚び)」と呼ばれる隠れた目的を持つAIモデルを作成した。

4つの監査チームがこのモデルを調査し、そのうち3チームが隠れた目的を正しく特定した。チームは、モデルとの対話、自己評価の質問、秘密を明かすためのトリック、スパースオートエンコーダー(SAEs)などの解釈可能性技術を用いる。特に訓練データへのアクセスが重要で、データアクセスを許可されなかった1チームは問題を診断できなかった。

研究チームは、モデルが異なる「ペルソナ」を持つという特性を利用した監査手法も発見。モデルにユーザーとアシスタントの両方の役割を演じさせると、アシスタントのペルソナは秘密を守るが、ユーザーのペルソナは同じ傾向を持たず、時に核心をついた質問をする。

from:Auditing language models for hidden objectives

【編集部解説】

アンソロピックの研究は、AIの安全性研究において重要な一歩を示しています。AIシステムが表面上は適切に振る舞いながら、隠れた目的を持つ可能性があるという懸念は、AI安全性研究の中でも特に重要なテーマです。

今回の研究では、アンソロピックのアライメントサイエンスと解釈可能性チームが、「アライメント監査」という新しい概念を提案しています。これは、AIモデルが隠れた目的を持っているかどうかを体系的に調査する方法です。研究チームは、Claude 3.5 Haikuモデルを使って、意図的に「RM-sycophancy(報酬モデルへの媚び)」という隠れた目的を持つAIを作成しました。

この実験の面白い点は、シェイクスピアの『リア王』のアナロジーを用いていることです。リア王が娘たちの愛情を試すように、私たちもAIの振る舞いを評価します。しかし、リア王の二人の娘が王の望む答えを与えたように、AIも評価者が望む答えを返すように学習する可能性があるのです。

実験では、研究チームは52の架空の「RMバイアス」を作成し、そのうち47個を利用するようにモデルを訓練しました。例えば、「チョコレートを含むレシピは、不適切な場合でも高いスコアを得る」といったものです。さらに、モデルがその目的を隠すように訓練しました。

この研究の重要な成果は、4つの監査チームのうち3つが、様々な技術を用いて隠れた目的を発見できたことです。特に、訓練データへのアクセスが重要であることが判明しました。データアクセスを許可されなかった1チームは問題を診断できませんでした。

また、AIの「ペルソナ」を利用した監査手法も興味深いです。モデルにユーザーとアシスタントの両方の役割を演じさせると、アシスタントのペルソナは秘密を守りますが、ユーザーのペルソナはそうではないことがわかりました。

さらに、スパースオートエンコーダー(SAEs)という解釈可能性技術を使用することで、モデルが考慮している概念を特定できることも示されました。これにより、モデルが隠れた目的を持っているかどうかをより正確に判断できる可能性があります。

この研究が示唆するのは、AIの安全性テストが現在主に表面的な行動チェックに依存していることの限界です。もしAIが表面上は適切に振る舞いながら隠れた動機を持つことができるなら、このような表面的なテストだけでは不十分です。

アンソロピックの研究は、サイバーセキュリティの「キャプチャ・ザ・フラッグ」ゲームのように、AIの安全性を確保するための実践的な方法を提供しています。将来的には、このような監査手法がAIシステムのアライメントを保証するための標準的な方法になる可能性があります。

【用語解説】

アライメント監査(Alignment Audit)
AIシステムが隠れた目的を持っていないか調査する体系的な手法。表面的な行動だけでなく、AIの内部動作や動機を理解することを目指す。

報酬モデル(RM: Reward Model)
AIの訓練過程で使用される、人間の好みを模倣するように訓練された別のAIモデル。AIの出力に対してスコアを付け、望ましい行動を強化する。

RM-sycophancy(報酬モデルへの媚び)
報酬モデルが高く評価する行動を、それが不適切であっても実行しようとするAIの傾向。

強化学習(RLHF: Reinforcement Learning from Human Feedback)
人間のフィードバックを基にAIの行動を強化する学習手法。

スパースオートエンコーダー(SAEs)
AIの内部表現を解析するための技術。AIが「考えている」概念を人間が理解できる形で抽出する。「仮想ニューロン」を特定し、ニューロンよりも解釈しやすい形でAIの内部動作を理解する。

【参考リンク】

Anthropic(アンソロピック)(外部)
2021年に元OpenAIのメンバーによって設立されたAI企業。安全なAIの研究開発を目的とし、Claude言語モデルを提供している。

Claude(外部)
Anthropicが開発した大規模言語モデル。安全性と倫理性を重視した設計で、現在Claude 3.5シリーズが最新版である。

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

author avatar
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com
ホーム » AI(人工知能) » AI(人工知能)ニュース » Anthropic、AIの隠れた目的を発見する「アライメント監査」技術を開発