Last Updated on 2024-05-29 22:31 by admin
OpenAIは、以前のチームを解散した後、新たな安全委員会を設立している。この委員会は、ChatGPTの開発者が最新の大規模言語モデルであるGPT-5のトレーニングを開始するにあたり、新たな能力のレベルに到達することを目指している。委員会は、Bret Taylor、Adam D’Angelo、Nicole Seligman、そしてCEOのSam Altmanによって率いられ、OpenAIのプロジェクトと運営に関する安全対策とセキュリティ決定に関する推奨事項を全体の理事会に提供するために形成された。
委員会は最初に、今後90日間で会社のプロセスと保護措置を評価し開発する任務を負い、その後、その推奨事項を理事会と公に共有する前にレビューする。この委員会の設立は、安全作業への投資不足とリーダーシップとの緊張のためにOpenAIの元安全エグゼクティブであるJan Leikeが同社を辞任した後、および「superalignment」安全監視チームが解散され、そのメンバーが他の場所に再割り当てされた後に行われた。
サイバーセキュリティ専門家であり起業家のIlia Kolochenkoは、この会社の変更が最終的に社会全体にどのような利益をもたらすかについて懐疑的な見解を示している。Kolochenkoは、AIモデルを安全にすることは、その誤用や危険な幻覚を防ぐために明らかに不可欠であるが、安全であることが必ずしも正確で、信頼性があり、公平で、透明で、説明可能で、差別的でないことを意味するわけではないと指摘している。これらはGenAIソリューションの絶対に重要な特性である。
【関連記事】
OpenAI元リーダーがAnthropicに移籍、AI安全性への新たな挑戦開始
【ニュース解説】
OpenAIが、以前の安全委員会を解散した後、新たな安全委員会を設立しました。この動きは、同社がChatGPTを支える大規模言語モデルの最新版、GPT-5のトレーニングを開始する中で、新たな能力のレベルに到達することを目指しています。新設された委員会は、Bret Taylor、Adam D’Angelo、Nicole Seligman、そしてCEOのSam Altmanによって率いられ、OpenAIのプロジェクトと運営に関する安全対策とセキュリティ決定に関する推奨事項を全体の理事会に提供する役割を担います。
この委員会は、最初の90日間で会社のプロセスと保護措置を評価し、開発する任務を負います。その後、推奨事項を理事会にレビューしてもらい、公に共有される予定です。この新しい委員会の設立背景には、安全作業への投資不足とリーダーシップとの緊張により、OpenAIの元安全エグゼクティブであるJan Leikeが会社を辞任したこと、および「superalignment」安全監視チームが解散されたことがあります。
サイバーセキュリティ専門家であり起業家のIlia Kolochenkoは、この変更が社会全体にどのような利益をもたらすかについて懐疑的な見解を示しています。AIモデルを安全にすることは、その誤用や危険な幻覚を防ぐために明らかに不可欠ですが、安全であることが必ずしも正確で、信頼性があり、公平で、透明で、説明可能で、差別的でないことを意味するわけではないと指摘しています。これらは、GenAIソリューションにおいて絶対に重要な特性です。
この動きは、AIの安全性とセキュリティに対するOpenAIのコミットメントを示していますが、同時に、AI技術の発展がもたらす潜在的なリスクに対する社会全体の懸念を反映しています。AIモデルがより高度になるにつれて、その誤用の可能性や、予期せぬ結果を引き起こすリスクも高まります。そのため、技術の安全性を確保するための厳格な審査とガイドラインの策定が不可欠です。
また、この委員会の設立は、AI技術の進化に伴う倫理的、社会的な課題に対処するための一歩とも言えます。AIの発展は、効率性や便利さをもたらす一方で、プライバシーの侵害、偏見の増幅、雇用への影響など、多くの懸念を引き起こしています。これらの課題に対応するためには、技術者、法律家、倫理学者など、多様な専門家が協力して、公正で透明性のあるAIの使用を促進する必要があります。
長期的には、このような安全委員会の設立と活動が、AI技術の責任ある使用と発展を促進するための基盤となることが期待されます。AIが社会に与える影響は計り知れないため、その安全性と倫理性を確保することは、技術の持続可能な進化にとって不可欠です。
from OpenAI Forms Another Safety Committee After Dismantling Prior Team.