OpenAIは、以前の従業員が非難禁止契約を結ぶか、会社の既得株式を保持するかの選択を迫るという物議を醸していた決定を撤回しました。この内部メモは、元従業員に送られ、現在の従業員とも共有されました。メモには、OpenAIが既得ユニットを取り消さず、また、従業員が署名した他の非難禁止や勧誘禁止の契約項目も強制しないことが記されています。OpenAIは、退職プロセスを更新することを従業員に伝え、標準の退職書類から非難禁止条項を削除し、既存の非難禁止義務から元従業員を解放すると述べました。ただし、非難禁止条項が相互の場合はこの限りではありません。OpenAIのスポークスパーソンは、この変更が遅れたことを謝罪し、会社の価値観や目指す姿を反映していないと述べました。
また、OpenAIは先週、ChatGPTの音声の一つである「Sky」の使用を停止すると発表しました。「Sky」は、映画「Her」でのスカーレット・ヨハンソンの声に似ているとして物議を醸しました。さらに、OpenAIは人工知能の長期的リスクに焦点を当てたチームを解散し、一部のチームメンバーを会社内の複数の他のチームに再配置しました。このニュースは、チームリーダーの一人であるIlya SutskeverとJan Leikeが退職を発表した数日後に明らかになりました。Leikeは、OpenAIの安全文化とプロセスが目立つ製品に後れを取っていると述べました。OpenAIの共同創設者であるGreg BrockmanとCEOのSam Altmanは、会社がAGI(人工一般知能)のリスクと機会についての認識を高め、世界がそれに備えることができるようにしたと述べました。
【ニュース解説】
OpenAIが、以前の従業員に対して非難禁止契約を結ぶか、会社の既得株式を保持するかの選択を迫るという物議を醸していた決定を撤回したことが明らかになりました。この決定は、内部メモを通じて元従業員に伝えられ、現在の従業員にも共有されました。メモには、OpenAIが既得ユニットを取り消さず、また、従業員が署名した他の非難禁止や勧誘禁止の契約項目も強制しないことが記されています。この変更は、退職プロセスの更新の一環として行われ、非難禁止条項を標準の退職書類から削除し、既存の非難禁止義務から元従業員を解放することを意味します。ただし、非難禁止条項が相互の場合はこの限りではありません。
この決定は、OpenAIが自社の価値観や目指す姿を反映していないとして、遅ればせながらの謝罪とともに行われました。この動きは、従業員の自由な発言権を尊重し、企業文化の透明性を高めることを目的としています。また、企業としての信頼性を損なうことなく、元従業員との健全な関係を維持しようとする試みとも言えます。
さらに、OpenAIはChatGPTの音声の一つである「Sky」の使用を停止すると発表しました。この音声は、映画「Her」でのスカーレット・ヨハンソンの声に似ているとして物議を醸しました。この決定は、著名人の声の使用に関する倫理的な問題や、AI技術による模倣の限界についての議論を呼び起こしています。
また、OpenAIは人工知能の長期的リスクに焦点を当てたチームを解散し、一部のチームメンバーを会社内の複数の他のチームに再配置しました。この動きは、AIの安全性に関する内部の優先順位の変化を示唆しており、AI技術の急速な発展とそれに伴うリスク管理のバランスをどのように取るかという課題を浮き彫りにしています。
これらの一連の動きは、AI技術の発展に伴う倫理的、社会的な課題に対する企業の対応の重要性を示しています。特に、AI技術の進化がもたらす潜在的なリスクを適切に管理し、技術の利用が社会全体の利益に資するよう努めることが求められています。また、企業が透明性を持って行動し、ステークホルダーとの信頼関係を築くことの重要性も強調されています。これらの対応は、将来のAI技術の発展方向性にも影響を与え、長期的な視点での倫理的なガイドラインの確立に寄与する可能性があります。
from OpenAI sends internal memo releasing former employees from controversial exit agreements.