Last Updated on 2025-04-09 16:26 by admin
2025年3月6日、元Google CEO のエリック・シュミット氏らが「超知能戦略」と題する論文を発表した。共著者には AI 安全センターのディレクター、ダン・ヘンドリックス氏と Scale AI の創設者兼 CEO、アレクサンドル・ワン氏が名を連ねている。
論文の主な内容は以下の通りだ
- AI の急速な進歩が社会のあらゆる側面を再形成しようとしている。
- 各国政府は AI を軍事的優位性の手段と見なし、能力最大化の競争が激化している。
- 人間を凌駕する「超知能」AI の開発は、原子爆弾以来最も危険な技術的進歩となる可能性がある。
- AI 開発競争は世界のパワーバランスを崩し、大国間の紛争リスクを高める恐れがある。
- 著者らは「相互保証 AI の機能不全(MAIM)」という概念を提唱し、各国の AI プロジェクトが相互の妨害の脅威によって制約される状況を説明している。
- 米中経済安全保障審査委員会(USCC)が提案する AI 版「マンハッタン計画」に対し、中国などからの報復的反応を招く可能性があると警告している。
- 論文は各国が超知能獲得競争よりも抑止を優先すべきだと結論づけている。
シュミット氏らは、AI の利点を受け入れることが経済成長と進歩にとって重要だとしつつ、無制限の開発競争がもたらすリスクに警鐘を鳴らしている。また、中国やロシアの AI 能力の急速な進歩にも言及し、国際的な協調の必要性を強調している。
from:Ex-Googler Schmidt warns US: Try an AI ‘Manhattan Project’ and get MAIM’d
【編集部解説】
元Google CEOのエリック・シュミット氏らが発表した「超知能戦略」という論文が、AI開発の方向性に一石を投じています。この論文は、AI開発競争が核兵器開発に匹敵する危険性を孕んでいると警告しています。
シュミット氏らは、「相互保証AIの機能不全(MAIM)」という概念を提唱しました。これは、冷戦時代の「相互確証破壊(MAD)」に似た状況を指しています。つまり、どの国も他国を出し抜いてAIの独占的な優位性を獲得しようとすれば、相手国からの報復的な妨害行為を招く可能性があるということです。
この考え方は、AI開発競争に新たな視点をもたらしています。単純に技術開発を急ぐのではなく、国際的な協調と抑止力のバランスが重要だと主張しているのです。
しかし、この戦略には課題もあります。MADと違い、AIの場合は相手の能力を完全に無力化できる可能性があります。そのため、MAIMの抑止力が本当に機能するかどうかは不透明です。
また、AI開発の現状を考えると、「超知能」の実現可能性についてはまだ議論の余地があります。多くの専門家は、人間の能力を全面的に超えるAIの実現にはまだ時間がかかると考えています。
一方で、中国やロシアのAI能力の急速な進歩も無視できません。これらの国々の技術力向上は、国際的なAI開発競争をさらに加速させる可能性があります。
AI技術は医療や自動化など、多くの分野で大きな利益をもたらす可能性があります。しかし同時に、軍事利用や悪用のリスクも現実的な問題です。サイバー攻撃や自律型兵器システムなど、AIがもたらす脅威は既に存在しています。
このような状況下で、シュミット氏らの提案は重要な議論のきっかけになるでしょう。AI開発の国際的な規制や協調体制の構築、そして技術の悪用を防ぐための具体的な方策について、真剣に考える必要があります。
【用語解説】
超知能(Superintelligence)
人間の知能を大きく超える人工知能のことです。日本語では「超人工知能」とも呼ばれます。
相互確証破壊(MAD: Mutual Assured Destruction)
冷戦時代の核戦略概念で、敵対国同士が互いに破壊し合う能力を持つことで、実際の攻撃を抑止する考え方です。AIの文脈では、互いのAI開発を妨害し合う可能性が抑止力になるという考えです。
人工汎用知能(AGI: Artificial General Intelligence)
特定のタスクだけでなく、人間のように幅広い知的作業をこなせるAIのことです。現在のAIは特定の分野に特化していますが、AGIは人間のように柔軟に対応できる知能を持つとされています。
【参考リンク】
Center for AI Safety(外部)
AIの安全性研究を行う非営利組織。Dan Hendrycks氏が所長を務めています。
Scale AI(外部)
AI開発のためのデータ処理や評価を行う企業。Alexandr Wang氏が創業者兼CEOです。