Last Updated on 2025-07-15 18:57 by 清水巧
研究者たちは、AIチャットボットが陰謀論への信念を減少させる可能性を示す新たな研究を発表した。
この研究はMIT、コーネル大学、アメリカン大学の研究者によって行われ、2024年9月12日に学術誌「Science」に掲載された。
研究では、OpenAIの最新の大規模言語モデルであるGPT-4 Turboを使用し、陰謀論を信じる2,190人の参加者と対話を行った。
参加者は、自分が信じる陰謀論についての詳細と、その説得力について述べた後、AIチャットボットと3回の対話を行った。その結果、平均して20%の信念の減少が確認され、効果は少なくとも2ヶ月間持続した。
この結果は、従来の陰謀論に対する事実や合理的な議論が効果的でないという考えに挑戦するものである。研究者たちは、この方法が社会全体に良い影響を与える可能性があると考えている。
この実験では、AIが誤情報を生成するリスクを回避するためにプロのファクトチェッカーが128件の主張を評価し、そのうち99.2%が真実と確認された。研究は陰謀論だけでなく、他の根拠のない信念にも対応できる可能性を示唆している。
【編集部解説】
AIチャットボットが陰謀論を信じる人々の信念を減少させる可能性があるという研究が発表されました。この研究は、マサチューセッツ工科大学(MIT)、コーネル大学、アメリカン大学の研究者によって行われ、2024年9月12日に学術誌「Science」に掲載されました。研究では、OpenAIのGPT-4 Turboを使用して、陰謀論を信じる2,190人の参加者と対話し、その信念を平均20%減少させることに成功しました。この効果は少なくとも2ヶ月間持続しました。
この研究は、陰謀論に対するAIの新しい介入方法として注目されています。従来、陰謀論者の信念を変えることは非常に難しいとされてきましたが、AIチャットボットは個々の陰謀論に対して具体的かつ事実に基づく反論を提供することで、この課題に取り組んでいます。研究者たちは、この方法が社会全体に良い影響を与える可能性があると考えており、AIが誤情報を生成するリスクを避けるためにプロのファクトチェッカーが使用されました。
この技術は、陰謀論だけでなく他の根拠のない信念にも対応できる可能性があります。しかし、AIによる介入には倫理的な懸念もあります。例えば、AIが特定の政治的または宗教的なメッセージを広めるために悪用される可能性も考えられます。今後、この技術がどのように社会で実装されるかについては慎重な議論が必要です。
この研究はまた、AIがどのようにして人々の認識を変えることができるかについて新たな視点を提供しています。特に、大規模言語モデル(LLM)がどのようにして個別化された情報を提供し、人々の誤った信念を修正するかについて、多くの示唆を与えています。この技術が広く普及することで、誤情報や陰謀論による社会的な混乱を軽減する一助となる可能性があります。