カリフォルニア大学アーバイン校の研究チームは、2025年3月4日に開催されたネットワークおよび分散システムセキュリティシンポジウムで、自動運転車の安全性に関する重要な研究結果を発表した。道路標識に貼られた多色のステッカーが、自動運転車のAIアルゴリズムを混乱させ、危険な動作を引き起こす可能性があることが実証された。
研究チームは、オープンソースのプログラミング言語と画像処理ライブラリを使用して作成した低コストのステッカーで、自動運転車の交通標識認識(TSR)システムを欺くことができることを示した。この攻撃により、自動運転車が道路の指示を無視したり、意図しない緊急ブレーキをかけたり、速度超過などの違反を引き起こす可能性がある。
研究では、主要な消費者向け車両ブランドの交通標識認識システムに対する初めての大規模評価が行われた。Waymoが週に15万回以上の自動運転走行を提供し、数百万台のオートパイロット搭載テスラ車が道路を走っている現状を踏まえ、この研究の重要性が強調された。
研究チームには、カリフォルニア大学アーバイン校のアルフレッド・チェン助教授、Metaの研究科学者ニンフェイ・ワン氏、同大学の元・現大学院生、そしてドレクセル大学のカイディ・シュー助教授が参加した。この研究は、全米科学財団と米国運輸省のCARMEN+大学交通センターによって支援された。
from:Study shines headlights on consumer driverless vehicle safety deficiencies
【編集部解説】
カリフォルニア大学アーバイン校の研究チームによる今回の発見は、自動運転技術の未来に大きな影響を与える可能性があります。この研究は、現在の自動運転システムの脆弱性を明らかにし、今後の技術開発における重要な課題を提示しています。
最も注目すべき点は、比較的簡単な方法で自動運転車のAIシステムを混乱させられるという事実です。多色のステッカーを使用するという手法は、高度なハッキング技術を必要とせず、一般の人でも実行可能です。これは、自動運転車の安全性に対する新たな脅威を示唆しており、業界全体で真剣に受け止める必要があります。
この研究は、AIの「見方」と人間の認識の違いを浮き彰りにしています。人間の目には明らかに不自然に見えるステッカーでも、AIシステムは完全に異なる標識として認識してしまうのです。これは、AI技術の限界と、人間の認知能力の複雑さを示す興味深い例と言えるでしょう。
一方で、この研究結果は自動運転技術の改善に大きく貢献する可能性があります。例えば、複数のセンサーを組み合わせた認識システムの開発や、AIの学習データの多様化、さらには新たなセキュリティシステムの開発などが考えられます。
しかし、このような脆弱性の存在は、自動運転車の普及に向けた規制や法整備にも影響を与えるでしょう。安全性の確保がより厳しく求められるようになり、自動運転車の実用化までの道のりが長くなる可能性もあります。
長期的な視点で見ると、この研究は自動運転技術の信頼性向上に寄与すると考えられます。脆弱性を早期に発見し、対策を講じることで、より安全で信頼性の高い自動運転システムの開発につながるでしょう。
最後に、この研究は自動運転技術だけでなく、AIシステム全般のセキュリティに関する重要な示唆を与えています。現実世界でAIシステムを運用する際の課題や、人間とAIの認識の違いについて、私たちに新たな視点を提供しているのです。