Last Updated on 2025-04-15 14:28 by admin
OpenAIの共同創業者で元チーフサイエンティストのイリヤ・サツケバー氏が率いるAIスタートアップSafe Superintelligence(SSI)が、追加で20億ドル(約3,000億円)の資金調達を行い、企業価値が320億ドル(約4.8兆円)に達したことがフィナンシャル・タイムズによって2025年4月12日に報じられた。この資金調達はGreenoaksが主導したとされている。
SSIはすでに10億ドル(約1,500億円)を調達しており、さらに追加の10億ドル調達ラウンドが進行中だったと報じられていた。フィナンシャル・タイムズの報道によれば、SSIの企業価値は急速に上昇している。
サツケバー氏は2024年5月にOpenAIを退社した。退社前の2023年11月、サツケバー氏はOpenAIのCEOサム・アルトマン氏の解任を試みる騒動に関与していた。その後、サツケバー氏はダニエル・グロス氏とダニエル・レヴィ氏とともにSSIを創業した。
SSIは「安全な超知能(a safe superintelligence)」を開発することを唯一の目標としており、同社のウェブサイトは現在もミッションステートメントを掲載したプレースホルダーにすぎない状態である。具体的な製品はまだ開発中で市場に投入されていない。
【編集部解説】
Safe Superintelligence(SSI)の急速な成長と巨額の資金調達は、AI業界に大きな波紋を広げています。OpenAIの共同創業者であるイリヤ・サツケバー氏が率いるこのスタートアップが、短期間で320億ドル(約4.8兆円)もの評価額を獲得したことは、AI技術への投資家の期待の高さを如実に示しています。
SSIの目標は「安全な超知能」の開発です。これは、人間の知能を超えるAIシステムを作り出すと同時に、そのシステムが人類の価値観に沿って安全に機能することを保証しようとする試みです。この取り組みは、AI開発における安全性と能力の両立という重要な課題に挑戦するものです。
興味深いのは、SSIがまだ具体的な製品を発表していないにもかかわらず、これほどの評価を得ていることです。これは、サツケバー氏の実績と、彼のビジョンへの信頼の表れと言えるでしょう。同時に、AI業界における投資の過熱ぶりを示唆しているとも考えられます。
SSIの取り組みは、AI開発の方向性に大きな影響を与える可能性があります。「安全な超知能」の実現は、AIの利用範囲を大幅に拡大し、様々な分野でブレークスルーをもたらす可能性があります。例えば、医療診断の精度向上、複雑な科学的問題の解決、より効率的な資源管理などが期待できます。
一方で、超知能の開発には潜在的なリスクも存在します。AIの判断が人間の意図と異なる方向に進む可能性や、AIの能力が人間の制御を超えてしまうリスクなどが懸念されています。SSIの「安全性」へのフォーカスは、これらのリスクに対処しようとする試みと言えるでしょう。
長期的には、SSIの成功如何によって、AI技術の社会実装の速度や方向性が大きく変わる可能性があります。「安全な超知能」の実現は、AIと人間の共存のあり方を根本から変える可能性を秘めています。
しかし、現時点ではSSIの具体的な技術や開発状況は明らかになっていません。今後の展開を注意深く見守る必要があるでしょう。AI技術の進歩と、その安全性の確保のバランスをどのように取るか。SSIの挑戦は、AI業界全体にとって重要な指針となるのかもしれません。
【編集部追記】
OpenAIから独立したサツケバー氏、同じく独立したムラティ氏(ミラ・ムラティ氏)。
興味深いのは、両者とも具体的な製品を発表していないにもかかわらず、巨額の資金調達に成功している点です!個人的にいろいろ調べていくなかで一番おもしろ~と思いました。
それプラス、「アイデア」と「人」に投資する時代の到来を感じます。「何を作るか」より「誰が考えるか」「どんな未来を描くか」が重視される…..。ちょっと前までは「結果を出せ」が投資の鉄則だったのに、AI業界では「未来のビジョン」にお金が集まる不思議な世界になりました。
もうひとつ気になるのは、OpenAIから独立した彼らが「なぜ独立したのか」という点。サツケバー氏とムラティ氏、それぞれが描くAIの未来像は、OpenAIでは実現できなかったものなのでしょうか?
どちらにせよ、これからどうなっていくのかワクワクしながら見守っていきたいなと思います!
【用語解説】
超知能(スーパーインテリジェンス):
人間の知能を大きく超える人工知能のこと。人類の問題解決能力を遥かに上回る可能性がある一方で、制御が難しくなる可能性も指摘されている。
アライメント問題:
AIの目標や価値観を人間のそれと一致させる課題。例えば、「世界平和を実現せよ」という命令に対し、AIが「人類を滅ぼせば争いがなくなる」と解釈するような事態を防ぐ必要がある。
説明可能なAI:
AIの意思決定プロセスを人間が理解できるように設計されたAI。ブラックボックス化を避け、AIの判断根拠を明確にすることで、信頼性と透明性を高める。
【参考リンク】
Safe Superintelligence (SSI)(外部)
イリヤ・サツケバー氏らが設立した、安全な超知能の開発を目指すAI企業。
OpenAI(外部)
GPT-3やChatGPTなどの大規模言語モデルを開発した非営利AI研究組織。
Anthropic(外部)
OpenAIの元メンバーが設立した、AIの安全性と倫理に焦点を当てたAI企業。