Last Updated on 2024-05-29 22:32 by admin
Jan Leike、OpenAIの元安全性研究リーダーが、AIスタートアップAnthropicに加わった。Leikeは5月14日にOpenAIからの辞任を発表し、その数日後に彼が共同リードしていたスーパーアライメントグループが解散された。このチームは2023年に結成され、長期的なAIリスクに焦点を当てていた。OpenAIの共同創設者Ilya Sutskeverも5月14日に退職を発表した。
Leikeは、スケーラブルな監視、弱から強への一般化、自動化されたアライメント研究に取り組む新しいチームで、スーパーアライメントミッションを続けることに興奮していると述べた。AnthropicはAmazonから最大40億ドルの資金を受け取り、同社の少数株主となっている。
AIの安全性は、OpenAIが2022年末にChatGPTを導入して以来、技術セクター全体で急速に重要性を増している。業界の一部は、企業が潜在的な社会的害を十分に考慮せずに強力なAI製品を公に急速にリリースしていることを懸念している。OpenAIは火曜日に、Sam Altman CEOを含む上級幹部によって率いられる新しい安全性とセキュリティ委員会を設立したと発表した。この委員会は、OpenAIのプロジェクトと運営に対する「安全性とセキュリティの決定」を同社の取締役会に推奨する。
Anthropicは、2021年にDario Amodei、Daniela Amodei、その他の元OpenAI幹部によって設立され、2024年3月にChatGPTのライバルであるClaude 3を発表した。Amazonの他に、Google、Salesforce、Zoomからも資金を受け取っている。
【関連記事】
OpenAIが新安全委員会設立、GPT-5開発に向け安全強化へ
【ニュース解説】
Jan Leike氏がOpenAIの安全性研究リーダーを辞任し、競合するAIスタートアップであるAnthropicに加わったというニュースは、AI業界における人材の流動性と、AIの安全性に対する高まる関心を示しています。Leike氏は、OpenAIでの彼のスーパーアライメントグループが解散される数日前に辞任を発表しました。このグループは、長期的なAIリスクに焦点を当てたものでした。彼の新しい役割では、スケーラブルな監視、弱から強への一般化、自動化されたアライメント研究に取り組むことになります。
この移籍は、AIの安全性と制御の問題が、技術業界全体で急速に重要視されていることを反映しています。特に、OpenAIがChatGPTを導入して以来、生成AI製品と投資のブームが起こり、強力なAI製品が社会に与える潜在的な害に対する懸念が高まっています。このような背景の中、OpenAIは新しい安全性とセキュリティ委員会を設立し、AnthropicはChatGPTのライバルであるClaude 3を発表するなど、各社はAIの安全性を確保するための取り組みを強化しています。
Leike氏のAnthropicへの移籍は、AIの安全性に対する取り組みが、単一の企業や団体に限定されるものではなく、業界全体の共同の努力が必要であることを示唆しています。また、Amazon、Google、Salesforce、Zoomなどの大手企業からの資金提供を受けているAnthropicのようなスタートアップが、AIの安全性研究において重要な役割を果たす可能性があります。
このニュースは、AIの安全性に関する研究がどのように進められているか、そして業界がこれらの課題にどのように対応しているかについての洞察を提供します。また、AI技術の急速な発展に伴い、これらの技術を安全に、かつ責任を持って社会に導入するための枠組みや規制の重要性が強調されています。将来的には、AIの安全性に関する研究がさらに進むことで、より信頼性の高いAIシステムの開発が可能になり、AI技術のポジティブな側面を最大限に活用しつつ、リスクを最小限に抑えることができるでしょう。
from OpenAI former safety leader Jan Leike joins rival AI startup Anthropic.