主要なテクノロジー企業が、最先端のAIモデルの安全な開発を保証するための自発的なコミットメントを行う国際的な合意に達した。この合意は、アメリカ、中国、カナダ、イギリス、フランス、韓国、アラブ首長国連邦などの国々の企業が参加している。合意には、AIモデルのリスク評価や悪用のリスクを含む安全フレームワークの公開、及びリスクを軽減できない場合に開発を停止する「キルスイッチ」の実装が含まれる。この合意は、昨年11月にイギリスのブレッチリーパークで開催されたAIセーフティサミットでのコミットメントを拡大したものである。
また、企業は「フロンティア」モデルにのみ適用されるこれらのコミットメントについて、信頼できるアクターからの意見を取り入れ、2025年初頭にフランスで予定されている次回のAIサミット前に公開することに同意した。「フロンティア」モデルとは、OpenAIのGPTシリーズのような生成AIシステムの技術を指す。
この動きは、2022年11月にChatGPTが世に出て以来、高度なAIシステムのリスクに対する規制当局やテクノロジーリーダーの懸念が高まっている中で行われた。欧州連合(EU)は、AI法を承認することで、制限のないAI開発に対処しようとしている。一方、イギリスは、AIに対する「軽微な」規制アプローチを選択し、既存の法律を技術に適用することにしている。政府は将来的にフロンティアモデルに対する法律を検討すると述べているが、正式な法律を導入するタイムラインについてはコミットしていない。
【編集部追記】参加したテクノロジー企業(日本の企業を見かけませんが・・)
Amazon / Anthropic / Cohere / Google / DeepMind / G42 (アラブ首長国連邦) / IBM / Inflection AI / Meta / Microsoft / Mistral AI / Naver (韓国) / OpenAI / Samsung Electronics / Technology Innovation Institute (アラブ首長国連邦) / xAI / Zhipu ai (中国)
2024年5月21日のAIソウル・サミット首脳セッション出席国による安全、革新的で包摂的なAIのためのソウル宣言 (内閣府ウェブサイト掲載)
【ニュース解説】
主要なテクノロジー企業が、最先端の人工知能(AI)モデルの安全な開発を保証するための自発的なコミットメントに合意したことが発表されました。この合意は、アメリカ、中国、カナダ、イギリス、フランス、韓国、アラブ首長国連邦など、世界各国の企業が参加しています。この動きは、AIの安全性に関する国際的な取り組みを強化することを目的としており、特に「フロンティア」モデルと呼ばれる最先端のAI技術に焦点を当てています。
フロンティアモデルとは、OpenAIのGPTシリーズのような生成AIシステムの技術を指し、テキストやビジュアルコンテンツを人間と同等かそれ以上の品質で生成する能力を持っています。これらのAIモデルは、その高度な能力から、悪用された場合には大きなリスクをもたらす可能性があるため、特に注意が必要です。
合意には、AIモデルのリスク評価や悪用のリスクを含む安全フレームワークの公開、及びリスクを軽減できない場合に開発を停止する「キルスイッチ」の実装が含まれます。これにより、AI技術の安全性を確保するための明確な基準が設けられ、企業はこれらの基準に従って行動することが求められます。
この合意は、AI技術の発展に伴うリスクを管理し、潜在的な悪用を防ぐための重要な一歩です。しかし、自発的なコミットメントであるため、その実施には各企業の責任感と誠実さが重要となります。また、国際的な枠組みの中での合意であるため、異なる国の法律や規制との整合性を保つことも課題となります。
ポジティブな側面としては、このような合意がAI技術の安全な発展を促進し、社会に対する信頼を高めることが期待されます。一方で、潜在的なリスクとしては、規制が十分に追いつかない場合に、技術の悪用が生じる可能性があります。また、規制に関しては、過度に厳しい規制が技術革新を妨げる可能性も考慮する必要があります。
将来的には、この合意がAI技術の安全な利用と発展のための国際的な基準を確立する基盤となることが期待されます。また、AI技術の進化に伴い、規制や安全基準も進化し続ける必要があり、持続的な監視と評価が重要となります。このような国際的な取り組みは、AI技術のポテンシャルを最大限に活用しつつ、そのリスクを最小限に抑えるための重要なステップです。
from Tech giants pledge AI safety commitments — including a ‘kill switch’ if they can’t mitigate risks.