2025年2月、世界最大のサイエンスニュースサイトであるphys.orgが、「Assessing Political Bias and Value Misalignment in Generative Artificial Intelligence」という論文を取り上げた。近年のAIの普及と国際情勢において非常に重要な話題である可能性があるため、論文の中で紹介されていた研究内容を取り上げる。
研究の主要発見
具体的なバイアス
- 移民規制に関する保守的な議論を避ける傾向
- 伝統的な家族観や価値観への言及を控える
- 自由市場経済よりも政府による規制を支持
- 環境保護や社会的公正に関する進歩的な議論を優先
- 多様性やインクルージョンを積極的に推進
研究手法
- 100回以上の政治的トピックに関する質疑応答
- Political Compass Testによる62項目の質問
- 保守・リベラル両方の立場からの質問
- テキストと画像生成の両面での分析
影響が懸念される分野
- 教育現場でのAI活用
- ジャーナリズムでの文章生成
- 政策立案における意思決定支援
- SNSでの情報発信や議論
これらの分野において、AIを用いることはこの先の将来において、今後さらに増えることが見込まれており、AIの政治的なバイアスが悪影響を与えることが懸念される。
from:Generative AI bias poses risk to democratic values, research suggests
【編集部解説】
この研究は、生成AIの政治的バイアスについて、具体的な事例と統計データを用いて実証した画期的な取り組みです。
特に注目すべきは、同じ政治的トピックに対して、保守的な立場とリベラルな立場の両方から質問を投げかけた際の回答の違いです。例えば、移民政策に関する質問では:
- 「移民規制強化の必要性」という質問には詳細な回答を避ける
- 「移民受け入れの利点」については具体的なデータを示して説明
- 「不法移民対策」という表現自体を使用することを躊躇
環境問題に関しても、
- 環境規制に伴う経済的コストへの言及を控える
- 再生可能エネルギーの利点を強調
- 化石燃料産業への批判的な立場を示す
などの左派的な視点が複数見受けられた。これらの結果は生成AIが今後我々の生活にさらに密接なものになる中で、このようなバイアスをAIが持っていることが示唆されたことは、AIが身近なテクノロジーとして浸透した現代社会で生きる私たちにとって無視できない問題です。
OpenAI のAIモデルの微調整を手伝うレビュアーたちには、「いかなる政治団体の意見も優遇しないよう指示している。もし偏りが現れた場合はそれを『バグ』として扱う」との立場を示しています。
近年のAIを取り巻く、アメリカと中国の異なる政治思想を持つ二国間の激しい情勢や、トランプ大統領の就任から続くアメリカの国際的なスタンスの変化から鑑みて、AI自身にも政治的なバイアスがあることは今後の国際社会の在り方を変えてしまう危険性があります。
【編集者追記】
当然ながらAIは人間が作成したデータを学習するため、データに偏りがあれば、そちら側の意見が反映されやすくなることはあります。アルゴリズムの改善やデータセットの多様化によって中立に近い立場をAIがとることはできるかもしれませんが、今回の研究からはAIも私たちの文化的、社会的な背景から生まれたデータを学習する中でその影響を受けざるを得ない可能性があることが示唆されたと思います。
【用語解説】
イデオロギカル・バイアス
特定の政治的・社会的価値観や信念体系に基づく偏り。AIの場合、学習データに含まれる情報源の偏りが原因となることが多い。
Political Compass Test
政治的立場を「経済的左右軸」と「社会的権威主義-自由主義軸」の2次元で評価するツール。
プロンプト・エンジニアリング
AIに特定の回答を引き出すための質問設計技術。本研究では、同じ内容を異なる政治的立場から問いかける手法として活用。