Last Updated on 2024-05-29 02:11 by admin
【続報】2024/05/29 2:00 AM やっぱりAnthropicに合流!
Jan LeikeがAnthropicでスーパーアラインメントに従事すると発表しました。
以下、そのツイートです。
OpenAIの元スーパーアライメントチームの共同リーダーであるIlya SutskeverとJan Leikeが、会社を辞めたことが発表された。彼らの辞任は、OpenAIでの彼らの地位だけでなく、彼らが取り組んでいた仕事、すなわち人間の知能を超える超知能AIモデルを制御するためのシステムとプロセスの開発に関連しているため、注目された。2人の辞任に続き、OpenAIのスーパーアライメントチームは解散したと報じられている。
Jan Leikeは、X上の個人アカウントを通じて、OpenAIとそのリーダーシップが「安全性」を犠牲にして「魅力的な製品」を優先していると非難する長文のメッセージを投稿した。Leikeは2021年初頭にOpenAIに参加し、会社の核心的な優先事項についてOpenAIのリーダーシップと長い間意見が合わず、最終的には決裂に至ったと述べている。
OpenAIは2023年7月に、超知能のスーパーアラインメントに向けて、総計算リソースの20%を割り当てるという約束をした。しかし、Leikeによると、彼のチームはこの重要な研究を進めるための計算リソースを確保することがますます困難になっていた。
このニュースは、OpenAIが新しいGPT-4oマルチモーダル基盤モデルやChatGPTデスクトップMacアプリを発表したばかりであり、また大規模なカンファレンス「Build」を来週に控える大投資家でありパートナーであるMicrosoftにとっても、大きな打撃となる可能性がある。
【編集部追記】ハッキリと言いましたね、Jan Leike氏は
X(Twitter)での発言は以下の通り
AIの倫理的で安全な運用方法を研究するなか「(OpenAIとリーダーシップとの間で)限界に達した」と述べています。そして気になるのが「さらにエキサイティングなことがもうすぐ発表されます」という言葉。
OpenAIの競合、Anthropicの創業者であるダリオ・アモデイとダニエラ・アモデイ兄妹は、かつてOpenAIで重要な役職にあり、サツケバーと親しい関係にあったと言われています。
アモデイ兄妹が離脱した理由も「AIの安全性への取組み」が原因だったようです。
関連記事
OpenAI共同創設者Ilya Sutskever、衝撃の退任発表!後任にJakub Pachocki指名
OpenAIの重鎮二人が離脱、AI安全性の未来に影響か
【ニュース解説】
OpenAIの元スーパーアライメントチームの共同リーダーであるIlya SutskeverとJan Leikeが、安全性への配慮が後回しにされているとして、同社を辞めたことが話題となっています。スーパーアライメントとは、人間の知能を超える超知能AIモデルを制御するためのシステムやプロセスの開発を指します。彼らの辞任に続き、OpenAIのスーパーアライメントチームは解散したと報じられています。
Jan Leikeは、OpenAIとそのリーダーシップが「安全性」よりも「魅力的な製品」を優先していると非難する一連のメッセージをX上で公開しました。Leikeは、OpenAIの核心的な優先事項についてリーダーシップと意見が合わず、最終的には決裂に至ったと述べています。特に、彼は超知能AIの制御と指向の方法を緊急に見つけ出す必要があると強調しています。
OpenAIは以前、超知能のスーパーアラインメントに向けて、総計算リソースの20%を割り当てると約束していました。しかし、Leikeによると、彼のチームはこの重要な研究を進めるための計算リソースを確保することがますます困難になっていたとのことです。
この問題は、OpenAIが新しいGPT-4oマルチモーダル基盤モデルやChatGPTデスクトップMacアプリを発表したばかりであり、また大規模なカンファレンス「Build」を来週に控える大投資家でありパートナーであるMicrosoftにとっても、大きな問題となり得ます。
このニュースから浮かび上がるのは、AI技術の急速な発展と商業化の中で、安全性や倫理的な配慮が十分に行われているのかという疑問です。超知能AIの開発は、人類にとって大きな可能性を秘めていますが、同時に制御不能になるリスクも伴います。そのため、技術の進歩と共に、これらのAIシステムを安全に管理し、倫理的な基準に従って運用するためのガイドラインや枠組みの整備が急務となっています。
また、このような状況は、AI技術の規制や監督に関する議論を加速させる可能性があります。AIの安全性と倫理性を確保するためには、開発者、利用者、規制当局が協力し、透明性のあるプロセスを通じて、社会全体で受け入れられる基準を設定することが重要です。
長期的には、このような問題への対応が、AI技術の健全な発展と社会へのポジティブな貢献を左右することになるでしょう。AIの可能性を最大限に活かしつつ、リスクを最小限に抑えるバランスを見つけることが、今後の大きな課題となります。