最新ニュース一覧

人気のカテゴリ


OpenAI関係者、AI安全性の懸念を公表し保護原則を要求

OpenAI関係者、AI安全性の懸念を公表し保護原則を要求 - innovaTopia - (イノベトピア)

Last Updated on 2024-06-05 19:41 by 荒木 啓介

OpenAIの研究者や関係者が、AIの安全性に関する問題を提起し、告発者や批評家を保護するための4つの原則を求めるオープンレターを発表した。このオープンレターでは、適切な監着の欠如、利益動機の影響、組織内での異議申し立ての抑圧など、AIのリスクについての懸念が述べられている。署名者には、OpenAIの元従業員やGoogle DeepMindの現在および元のメンバーが含まれ、AIの専門家からも支持されている。

OpenAIの元研究者は、安全性研究への投資不足を理由に辞任し、非難を防ぐための非難禁止契約書を提示されたと述べている。OpenAIは過去にも同様の批判を受け、元従業員に対して強引な手法を使用していたことが明らかになっている。

OpenAIは新しい安全性とセキュリティ委員会の設立を発表し、安全性に関する懸念に対処しようとしている。しかし、AIの安全性に関与していた重要な人物の辞任や、有名人からの批判など、OpenAIの安全性政策と実践に対する懸念が続いている。OpenAIは批判に対応するためにいくつかの措置を講じているが、その効果はまだ不透明である。

【編集部追記】コチラの記事のほうが危機感あります。
AI業界の監視不足と内部告発者保護の欠如に警鐘、OpenAI従業員が公開書簡発表

【ニュース解説】

OpenAIやGoogle DeepMindの現在および元の研究者たちが、AIの安全性に関する懸念を公に表明し、告発者や批評家を保護するための原則を設定することを求めるオープンレターを発表しました。この手紙は、AI技術のリスクに対する適切な監督の欠如、利益追求の影響、そして組織内での異論の抑圧など、いくつかの重要な問題を指摘しています。署名者たちは、AI企業が自発的に従うべき4つの原則を提案しており、これには批判的なコメントやリスク関連の批評に対する報復を禁止すること、匿名でリスク関連の懸念を企業の取締役会や規制機関、独立した組織に報告するための検証可能なプロセスの確立、オープンな批判文化の促進、および他の報告方法が失敗した後にリスク関連の機密情報を共有する従業員に対する報復の禁止が含まれます。

この動きは、AIの安全性に対する懸念が高まる中で、特にOpenAIが人工一般知能(AGI)の開発を目指す過程で、透明性と倫理的行動の必要性を強調しています。研究者たちは、AIシステムがより能力を持つようになるにつれて、安全性研究への投資を増やすことを望んでOpenAIに参加したものの、会社がこの方向転換を行わなかったため、多くの研究者が会社を去ることを選択したと述べています。

OpenAIは、安全性とセキュリティ委員会の設立など、安全性に関する懸念に対処するためのいくつかの措置を講じていますが、これらの措置がどの程度効果的であるかはまだ明らかではありません。また、過去には元従業員に対して強引な手法を使用していたことが明らかにされており、企業文化と倫理的基準に関する疑問が提起されています。

このオープンレターは、AI技術の開発と展開における倫理的および安全性の問題に対する公共の関心を高め、AI企業がこれらの問題に対処するためのより強力な枠組みを構築することを促すことを目的としています。AIの潜在的なリスクは、操作や誤情報の拡散から、自律的なAIシステムの制御喪失による人類の絶滅に至るまで、非常に広範囲にわたります。したがって、これらのリスクを適切に管理し、AI技術が人類に利益をもたらすためには、透明性、倫理的責任、そして強力な監督が不可欠です。

このような取り組みは、AI技術の安全な開発と利用に向けた重要な一歩であり、AI企業だけでなく、政策立案者や公衆も含めた幅広いステークホルダー間での対話と協力を促進することが期待されます。また、将来の規制策定においても、このような議論が重要な基盤となるでしょう。

from More OpenAI researchers slam company on safety, call for ‘right to warn’ to avert ‘human extinction’.


読み込み中…
読み込み中…