Last Updated on 2024-05-19 14:08 by 荒木 啓介
OpenAIの共同創設者であり元最高科学責任者のIlya Sutskeverと、同社の「スーパーアラインメント」チームの共同リーダーであるJan LeikeがOpenAIを去った。Leikeは2024年5月15日に自身のXアカウントで「I resigned」と投稿し、退職を公表した。Leikeは2021年初頭にOpenAIに参加し、以前はGoogleのDeepMind AIラボで働いていた。スーパーアラインメントチームの2人のリーダーの退職により、OpenAIが強力な新しいAIシステム、特に経済的に価値のあるほとんどのタスクで人間を上回るAI、すなわち人工一般知能(AGI)の制御方法を設計する努力を諦めたのか、またはその努力に問題があるのかという疑問が生じている。
スーパーアラインメントとは、現在利用可能なものよりも強力なAIモデル、すなわちスーパーインテリジェンスをさらに整合させるためのより集中的な努力である。OpenAIは2023年7月にスーパーアラインメントチームの設立を発表し、この取り組みに割り当てられた計算リソースの20%をこの目的に捧げると約束した。SutskeverとLeikeの退職後、スーパーアラインメントの取り組みがどのように続けられるか、またはどのような形で続けられるかは不明である。
【編集部追記】イリヤ・サツケバーひとりじゃなかった!
スーパーアラインメントチームのトップふたりが同時に辞める=そこに会社との相違点がある
ということは明白ですね。Jan LeikeのX(Twitter)アカウント
関連記事
Jan LeikeがOpenAI辞任の理由を激白、スーパーアラインメントチームは解散か
OpenAI共同創設者Ilya Sutskever、衝撃の退任発表!後任にJakub Pachocki指名
【ニュース解説】
OpenAIの「スーパーアラインメント」チームは、人工知能(AI)の発展において重要な役割を担っている部門の一つです。このチームは、AIが人間の意図に沿って行動し、予期せぬ行動を取らないようにするための研究を行っています。特に、経済的に価値のあるほとんどのタスクで人間を上回る能力を持つ人工一般知能(AGI)の開発に向けた取り組みが注目されています。
スーパーアラインメントの概念は、現在利用可能なAIモデルよりもはるかに強力なAI、すなわちスーパーインテリジェンスを対象としています。これらのAIモデルを人間の意図に沿って行動させるためには、従来のAIアラインメント技術を超える新たな科学的、技術的な突破口が必要とされています。OpenAIは、この重要な課題に対処するために、スーパーアラインメントチームを設立し、その計算リソースの20%をこの目的に割り当てると発表しました。
しかし、スーパーアラインメントチームの共同リーダーであるIlya SutskeverとJan Leikeの退職により、この取り組みの未来に疑問が投げかけられています。彼らの退職は、OpenAI内でのAIの安全性に対する見解の違い、またはスーパーアラインメントの取り組み自体に対する評価の違いを示唆している可能性があります。
スーパーアラインメントの取り組みがどのように進むかは現時点では不明ですが、この分野の研究はAIの発展において極めて重要です。AIが人間の意図に反する行動を取ることなく、安全に機能するためには、AIの意図のアラインメントを確保するための継続的な研究が必要です。また、スーパーアラインメントの研究は、AIが社会に与える影響を理解し、AIの倫理的な使用を確保する上でも重要な役割を果たします。
このような研究の進展は、AIの規制やガバナンスに関する議論にも影響を与えるでしょう。AI技術が人間の生活にますます統合されるにつれて、AIの行動を人間の価値観や意図に沿わせることの重要性は高まっています。スーパーアラインメントの取り組みがどのように進展するかは、AIの未来にとって重要な意味を持ちます。
from Is OpenAI’s superalignment team dead in the water after two key departures?.