「AIは私たちの信頼性を脅かすかもしれない」—その警告を発してきた研究者自身が、法廷でAIの「幻視(ハルシネーション)」と対峙することになった皮肉な物語。
スタンフォード大学ソーシャルメディアラボの創設者であるJeff Hancock教授が、ミネソタ州の「選挙に影響を与えるディープフェイク技術の使用禁止法」を支持する専門家証言において、AIツールの使用により信頼性を問われる事態となった。
Hancock教授は、提出した宣誓供述書の作成過程で、文献リストの整理にGPT-4oを使用。その結果、AIが生成した架空の学術論文の引用が混入していたことが発覚した。
2024年12月4日に提出された追加の宣誓供述書で、Hancock教授はAIの使用を認め、「裁判所や弁護団を誤導する意図はなかった」と説明。文書の実質的な内容については引き続き支持を表明した。
この問題は、保守系YouTuberのChristopher Kohls(Mr Reagan名義)とミネソタ州議会議員Mary Fransonの弁護団によって指摘され、専門家証言の信頼性が問われることとなった。皮肉にも、誤情報とテクノロジーの研究者として知られる教授自身が、AIによる誤情報生成の課題を体現する形となっている。
from Misinformation researcher admits ChatGPT added fake details to his court filing
【編集部解説】
この事案は、AI研究の第一人者が陥った皮肉な状況として注目を集めています。Hancock教授は「COMM 224: Truth, Trust, and Technology」という授業を担当し、Netflixのドキュメンタリーにも出演するなど、テクノロジーと誤情報の研究における権威です。
特筆すべきは、教授がAIを使用した目的が「効率的な文献調査」であった点です。しかし、AIが生成した引用を適切に検証しなかったことで、皮肉にも自身の専門分野である「テクノロジーによる誤情報」の問題を体現することとなりました。
考察
この事例は、より大きな文脈で見れば、私たちの社会がAIツールとどのように付き合っていくべきかという根本的な問いを投げかけています。
特に重要なのは、AIの「ハルシネーション」が単なる技術的なバグではなく、情報の信頼性を根本から揺るがす可能性を持っているという点です。例えば、今回のような学術的な引用の誤りは、その分野の研究の発展に影響を与えかねません。
また、興味深いのは、Hancock氏の対応です。彼は誤りを認めつつも、文書の本質的な主張の正当性を主張しています。これは、AIツールの使用に関する「プロセスの透明性」と「結果の正当性」という、別個の問題として考える必要性を示唆しています。
さらに、この事例は、AIツールの使用に関する新たなガイドラインや倫理規定の必要性を示唆しています。特に、法的文書や学術研究におけるAIの使用については、より明確な基準が求められるでしょう。
結論として、この事例は、AIツールの便利さに潜む落とし穴と、それを避けるための慎重な検証プロセスの重要性を改めて私たちに示したと言えるでしょう。今後、同様の問題を防ぐための具体的な対策と、AIツールの適切な使用に関するより広範な議論が必要とされています。
【用語解説】
スタンフォード・ソーシャルメディアラボ
テクノロジーが人々のコミュニケーションや情報伝達に与える影響を研究する機関。Hancock教授が創設。
GPT-4o
OpenAIの言語モデル。文献調査や文章作成の補助ツールとして使用可能だが、「ハルシネーション」と呼ばれる架空情報の生成が課題。