世界四大会計事務所Deloitte、GPT-4o使用の政府報告書で偽引用発覚し返金対応

[更新]2025年10月8日07:11

世界四大会計事務所Deloitte、GPT-4o使用の政府報告書で偽引用発覚し返金対応 - innovaTopia - (イノベトピア)

2025年10月7日、オーストラリア雇用・職場関係省(DEWR)は声明を発表し、コンサルティング大手Deloitteが生成AIを使用して作成した報告書に架空の引用などの不備があったことを認め、44万豪ドル(約29万米ドル)の契約金の一部を返金することに合意したと明らかにした。この問題は、プロフェッショナルサービスにおけるAI利用の透明性と品質管理に大きな課題を投げかけています。

この業務は2024年12月に委託され、福祉受給者の義務違反にペナルティを科すTargeted Compliance Frameworkに関する報告書で、2025年7月に公開された。シドニー大学のクリストファー・ラッジ博士が複数の捏造を発見し、調査が開始された。修正版の報告書には、Azure OpenAI GPT-4oベースのツールチェーンを分析と相互参照に使用したことが開示されている。

削除された資料には、シドニー大学のリサ・バートン・クロフォード教授やルンド大学のビヨルン・レグネル、連邦裁判所判決Amato v Commonwealthからの架空の引用が含まれていた。Deloitteは世界全体で年間700億ドル以上の収益をあげている。

From: 文献リンクDeloitte refunds Aussie gov after AI fabrications slip into $440K welfare report

【編集部解説】

今回のDeloitteの事案は、生成AIの業務利用における透明性と品質管理の課題を浮き彫りにしています。世界四大会計事務所の一角を占める企業が、政府から44万豪ドル(2025年10月時点の想定レートで約4,400万円)規模の契約を受注しながら、AIツールの使用を事前開示せず、さらにハルシネーションによる誤情報を見逃したことは、プロフェッショナルサービス業界全体への警鐘となるでしょう。

特に注目すべきは、使用されたツールがAzure OpenAI GPT-4oという最新の大規模言語モデルであった点です。GPT-4oは2024年5月にリリースされた高性能モデルで、テキスト、音声、画像を統合処理できる能力を持ちます。しかし高性能であっても、ハルシネーション(AIが事実でない情報を自信を持って生成する現象)を完全には防げません。

このケースで深刻なのは、単なる参考文献の誤りではなく、実在する学者の名前を使った架空の論文や、実際の裁判事例からの捏造された引用が含まれていた点です。判事の判決から存在しない段落を引用するなど、法的文書における正確性が求められる領域でこうした誤りが発生したことは、公共政策の信頼性を損なうリスクを示しています。

興味深いのは、Deloitteの内部調査が「人為的ミス」を原因としている点です。しかし、複数の架空の学者名や判例が含まれていたことを考えると、AIが生成した内容を人間が十分に検証しなかったことが本質的な問題と言えます。

この事案は、AI支援ツールを使用する際の新たな品質保証プロセスの必要性を示唆しています。特にコンサルティング業界では、AIの使用を開示するガイドラインや、AI生成コンテンツの検証手順の標準化が求められるでしょう。Deloitte自身が「責任あるAI」のトレーニングを提供していることを考えると、今回の失態は同社の信頼性に長期的な影響を与える可能性があります。

公共セクターにとっては、外部委託先がAIをどのように使用しているかの透明性確保が急務となります。高額な専門家報酬を支払う以上、その成果物が人間の専門知識に基づいているのか、AIアシストされているのかを明確に把握する必要があるでしょう。

【用語解説】

ハルシネーション(Hallucination)
AIが事実に基づかない情報を、あたかも真実であるかのように生成する現象。大規模言語モデルが学習データのパターンから新しい情報を「創作」してしまうことで発生する。特に引用や参考文献の生成時に頻繁に起こり、実在しない論文や架空の学者名を生成することがある。

Targeted Compliance Framework
オーストラリア政府が運用する、福祉受給者の義務遵守を監視するIT駆動型システム。求職活動の予約や報告義務などを怠った受給者に対して、自動的にペナルティを科す仕組み。過去にはロボデット(自動債務取り立てシステム)問題で社会的批判を受けた経緯がある。

Azure OpenAI GPT-4o
Microsoftのクラウドプラットフォーム「Azure」上で提供されるOpenAIの大規模言語モデル。GPT-4oは2024年5月にリリースされ、テキスト、音声、画像を統合処理できるマルチモーダル機能を持つ。企業向けにセキュリティとプライバシーが強化されている。

ロボデット(Robodebt)
オーストラリア政府が2015年から2019年まで運用していた自動債務取り立てシステム。福祉受給者の所得データを自動照合し、過払い金があると判断した場合に債務通知を送付していたが、誤った計算方法により多数の不当な債務請求を生み出し、王立委員会の調査を経て2020年に違法と判断された。

【参考リンク】

Deloitte Global(外部)
世界四大会計事務所の一つ。監査、コンサルティング、税務、アドバイザリーサービスを提供している。近年AI関連サービスを強化。

Australian Department of Employment and Workplace Relations(外部)
オーストラリア雇用・職場関係省。雇用政策、労働市場プログラム、福祉受給者支援などを所管する連邦政府機関。今回の報告書委託元。

Azure OpenAI Service(外部)
MicrosoftがAzureクラウド上で提供するOpenAIモデルのエンタープライズ向けサービス。GPT-4、GPT-4o等を企業のセキュリティ要件に準拠した形で利用可能。

University of Sydney(外部)
1850年創設のオーストラリア最古の大学。今回の不正を発見したクリストファー・ラッジ博士が所属。法学、医学、工学など幅広い分野で高評価。

The Register(外部)
1994年創刊の英国拠点テクノロジーニュースサイト。IT業界、企業技術、政府のテクノロジー政策に関する批判的かつ詳細な報道で知られる。

【参考記事】

Deloitte will refund Australian government for AI hallucination-filled report(外部)
AI利用で偽の引用が含まれたレポートに関する詳細な報告

Deloitte Australia writes government report with AI — and fake references(外部)
AIによる虚偽引用を含む政府向けレポートの疑惑と学者たちの反応

Consultants Forced to Pay Money Back After Getting Caught Using AI to Write Government Report(外部)
AIによる誤情報生成問題を受けて政府に返金した顛末

【編集部後記】

生成AIが私たちの仕事を効率化する一方で、今回のような「信頼の裏切り」が起きたとき、どこまでAIに任せるべきか改めて考えさせられます。特に専門性を売りにする業界で、AIの使用を開示しないことの是非はどう思われますか。皆さんの業務でも、AIツールを使う際に「ここまでは任せられる」「ここからは人間が確認すべき」という線引きをされているでしょうか。テクノロジーの進化は止まりませんが、それを使う私たち人間の側に求められる姿勢も変化しています。この事案から、AIとの健全な協働関係について、一緒に考えていければと思います。

投稿者アバター
omote
デザイン、ライティング、Web制作を行っています。AI分野と、ワクワクするような進化を遂げるロボティクス分野について関心を持っています。AIについては私自身子を持つ親として、技術や芸術、または精神面におけるAIと人との共存について、読者の皆さんと共に学び、考えていけたらと思っています。

読み込み中…
advertisements
読み込み中…