コーネル大学の研究により、AIチャットボットとの短時間の対話が、有権者の大統領候補や政策に対する態度を有意に変化させ得ることが12月4日に掲載された論文で示された。
Natureに掲載された「Persuading Voters using Human-AI Dialogues」とScienceに掲載された「The Levers of Political Persuasion with Conversational AI」では、米国・カナダ・ポーランド・英国の有権者を対象とした複数の大規模実験が行われ、従来型広告を上回る説得効果が報告されている。
米国の実験では、2024年大統領選の約2か月前に2,300人超の有権者が参加し、ハリス支持のチャットボットがトランプ支持層を100点満点中3.9ポイント、トランプ支持のボットがハリス支持層を1.51ポイント動かしたとされる。カナダとポーランドでは、野党支持層の態度と投票意図が約10ポイント変化し、英国の実験では「説得力最大化」の調整を行った条件下で反対派を最大25ポイント動かすケースも確認された。
From:
AI chatbots can effectively sway voters – in either direction
【編集部解説】
この研究が示しているのは、「高度な洗脳テクニック」ではなく「どれだけ多くの事実ベースの主張を積み上げられるか」がAIの説得力の源泉になっている、という点です。モデルに対して「可能な限り多くのファクトを盛り込むように」と指示し、さらに説得力を最大化する追加訓練を行うと、英国の大規模実験では反対派の態度が最大25ポイント動くという結果に結びついています。
一方で、説得力を高めれば高めるほど誤情報の割合が増えてしまうというトレードオフも浮かび上がります。モデルが使える本物の事実を使い切ったあと、なおも「もっと事実を」と求められると、存在しない情報を生成し始める可能性が指摘されており、「事実の量」を武器にした説得が、そのまま「事実の質」の低下にもつながり得る危うさを内包しているのです。
興味深いのは、同じ研究チームがPNAS Nexusなどで、AIチャットボットとの対話が陰謀論的な信念を弱める効果も報告していることです。参加者は相手を「AI」ではなく「人間の専門家」だと思っていても効果が出ており、説得のカギはAIというラベルではなく、筋道だった説明や反証といったメッセージ内容そのものにあると示されています。
この「二面性」は、生成AIをどう社会実装していくかを考えるうえで避けて通れません。事実ベースの説明を丁寧に積み上げていけば、誤情報や陰謀論に対抗する「対話エージェント」として機能し得る一方で、政治的に最適化された説得エンジンとして選挙結果に影響を与える潜在力も同時に持つからです。
規制やガバナンスの観点では、「政治用途のAIにはラベリングや外部監査が必要」「特定イデオロギーに最適化されたモデルの検証フレームワークが必要」といった議論がすでに始まっています。選挙サイクルと生成AIの高度化がほぼ同じテンポで進む今、各国で「どこまでパーソナライズされた説得を許容するのか」「どのように利用実態を監査し、透明化するのか」を急いで決めていく必要があると感じます。
読者のみなさんの多くは、すでに日常的にAIチャットボットと接していると思いますが、「自分の意思形成プロセスに外部エージェントをどこまで参加させるか」という問いは、これからより個人的なテーマになっていきます。選挙という非日常だけでなく、キャリア選択、教育、健康、価値観に関わる判断の場面で、AIからの助言をどう位置づけるのか――この研究は、その問いをかなり具体的な数字とともに突きつけてきているように見えます。
【用語解説】
大規模言語モデル(Large Language Model, LLM)
大量のテキストデータから言語パターンを学習し、人間に近い自然な文章生成や対話応答を行うAIモデルの総称である。
エンバーゴ(Embargo)
論文やニュースリリースについて、指定された日時までは内容を公開してはならないとする報道上の取り決めである。
【参考リンク】
Cornell University(外部)
Cornell Universityの公式サイト。有権者とAIチャットボットの研究成果などをニュースとして公開している。
Persuading voters using human–AI dialogues | Nature(外部)
AIチャットボットと有権者の対話実験を通じて政治的説得効果を分析したNature掲載論文の公式ページである。
The levers of political persuasion with conversational AI | Science(外部)
英国での大規模実験に基づき、会話型AIの説得力を高める要因やリスクを検証したScience掲載論文のページである。
Dialogues with large language models reduce conspiracy beliefs | PNAS Nexus(外部)
大規模言語モデルとの対話が陰謀論的信念を減少させる効果を検証したPNAS Nexus掲載論文の公式ページである。
【参考記事】
AI chatbots can effectively sway voters – in either direction(外部)
Cornell Universityによるニュースリリースで、4か国で行われた実験の概要と、AIチャットボットが有権者の態度を動かす仕組みやリスクを紹介している。
AI chatbots can sway voters with remarkable ease(外部)
Natureによるニュース記事で、研究デザインや効果量の要点を整理し、政治キャンペーンと規制への含意を平易に解説している。
AI Chatbots Are Shockingly Good at Political Persuasion(外部)
Scientific Americanが、AIチャットボットの説得力と誤情報の懸念、選挙への影響可能性を一般読者向けに解説した記事である。
AI Chatbots Outperform Ads in Swaying Voter Opinions, Studies Show(外部)
従来のオンライン広告と比較し、AIチャットボットによるパーソナライズされた説得の効率性やコスト面のインパクトを論じている。
AI conversations can reduce belief in conspiracies(外部)
AIとの対話が陰謀論的信念を弱める実験結果を紹介し、説得効果が「AIらしさ」ではなくメッセージ内容に依存することを説明している。
Label political AI and audit its hidden costs(外部)
政治用途のAIシステムにラベリングや外部監査を導入する必要性と、その実装上の課題を論じたNatureのコメント記事である。
【編集部後記】
数分のチャットで、自分の投票の向きが変わるかもしれない――そう考えると、少し怖さもありながら、テクノロジーの影響力の大きさも実感します。
もしAIチャットボットが、政治や社会課題について当たり前のように意見を返してくれる世界になったとしたら、あなたはその声をどう扱いたいでしょうか。便利な相談相手として距離を縮めるのか、それとも一歩引いた位置から、自分の考えと照らし合わせながら付き合うのか――そのスタンスを決めること自体が、これからの「テクノロジーとの共進化」の一部なのかもしれません。






























