Last Updated on 2024-05-28 22:41 by 荒木 啓介
OpenAIは5月中旬に以前の監視委員会を解散した後、新たに上級幹部によって率いられる安全保障委員会を設立したと発表した。この委員会は、OpenAIのプロジェクトと運営に関する重要な安全保障上の決定についてOpenAIの取締役会に勧告を行う責任を持つ。また、ChatGPTの開発者である同社は、「次のフロンティアモデル」と呼ばれる新しいモデルの訓練を開始したと発表した。この新しい監視チームの設立は、AIの長期的なリスクに焦点を当てた以前のチームが解散された後に行われた。それに先立ち、OpenAIの共同創設者であるIlya SutskeverとJan Leikeは、Microsoftが支援するこのスタートアップからの退職を発表している。
【ニュース解説】
OpenAIは、以前の監視委員会を解散した後、新たに上級幹部によって率いられる安全保障委員会を設立したと発表しました。この新しい委員会は、OpenAIのプロジェクトと運営に関する重要な安全保障上の決定について、OpenAIの取締役会に勧告を行う責任を持ちます。また、同社は「次のフロンティアモデル」と呼ばれる新しいモデルの訓練を開始したことも発表しました。このモデルは、人間と同等またはそれ以上の知能を持つAI、すなわち人工汎用知能(AGI)への道をさらに進めることを目指しています。
この動きは、AIの長期的なリスクに焦点を当てた以前のチームが解散された後に行われました。それに先立ち、OpenAIの共同創設者であるIlya SutskeverとJan Leikeは、このスタートアップからの退職を発表しています。
この新しい安全保障委員会の設立は、AI技術の急速な進化とその潜在的なリスクに対処するためのOpenAIの取り組みを示しています。AI技術が進化するにつれて、その影響力もまた拡大しています。特に、人工汎用知能(AGI)のような先進的なAIは、医療、教育、経済など様々な分野で革新をもたらす可能性がありますが、同時に倫理的、安全性の問題も引き起こす可能性があります。
このような背景から、AIの開発と運用における安全性とセキュリティを確保するための監視体制の重要性が高まっています。新しい安全保障委員会は、OpenAIがその技術の開発を進める上で直面するであろう課題に対処するための重要な役割を果たすことになります。
しかし、このような監視体制の設立は、AI技術の発展に伴うリスクを完全に排除するものではありません。AI技術の進化は予測が難しく、未知のリスクが常に存在します。そのため、技術の進化に合わせて監視体制も進化させ、国際的な協力や規制の枠組みを含めた多面的なアプローチが求められます。
長期的には、AI技術の発展が人類にとってプラスの影響をもたらすためには、技術的な進歩だけでなく、倫理的、社会的な側面も考慮に入れた開発が必要です。OpenAIのような組織が安全保障委員会を設立することは、このようなバランスを取る上での一歩と言えるでしょう。
from OpenAI creates oversight team with Sam Altman on board, begins training new model.