Last Updated on 2024-07-30 08:18 by admin
2024年7月29日、アップルは技術文書で、同社のAIイニシアチブ「Apple Intelligence」の基盤となる2つの人工知能モデルが、グーグルが開発したカスタムチップ「Tensor Processing Units(TPUs)」を使用してクラウド上で事前トレーニングされたことを明らかにした。
アップルは47ページの文書で、「Cloud TPU clusters」を使用してモデルをトレーニングしたと述べている。具体的には、オンデバイスモデルには最新のTPU5pの単一「スライス」を、サーバーモデルには8,192個のTPU v4チップを使用した。
この発表は、NVIDIAのGPUに代わる選択肢を大手テクノロジー企業が模索している可能性を示唆している。
同日、アップルは一部のデバイス向けにApple Intelligenceのプレビュー版をリリースした[1]。この新機能には、Siriの更新されたインターフェース、改善された自然言語処理機能、AIによるテキスト要約などが含まれる。
アップルは来年、画像や絵文字の生成、個人データを活用できるより強力なSiriなど、生成AIを活用した機能の導入を予定している。
この発表は、2022年のChatGPTのリリース以降、多くの競合他社が迅速に生成AIを採用したのに比べ、やや遅れての対応となった。
【編集部解説】
アップルがGoogleのTPUを使用してAIモデルをトレーニングしたという今回の発表は、AI業界の動向に大きな影響を与える可能性があります。この選択は、単なる技術的な決定以上の意味を持っています。
まず、この動きはNVIDIAのGPUに対する依存度を減らそうとする業界全体の傾向を反映しています。NVIDIAのチップは高性能ですが、需要が高すぎて入手困難になっています。アップルのようなテクノロジー大手がGoogleのTPUを選択したことで、AI開発におけるチップの多様化が進む可能性があります。
また、アップルとGoogleの協力関係は興味深い展開です。両社は多くの分野で競合していますが、AIの分野では協力し合うことを選択しました。これは、AI開発の複雑さと、単独での開発の難しさを示唆しています。
TPUの使用は、アップルのAI開発の加速にも繋がるでしょう。GoogleのTPUは高性能で、特にAIワークロードに最適化されています。これにより、アップルは短期間で高品質なAIモデルを開発できる可能性があります。
しかし、この選択にはリスクもあります。Googleのクラウドインフラストラクチャーへの依存度が高まることで、アップルのAI戦略の一部がGoogleに委ねられることになります。これは、アップルが常に重視してきた製品開発の独立性と秘密保持の方針とは相反する可能性があります。
長期的には、アップルが独自のAIチップ開発に乗り出す可能性も考えられます。同社はすでにiPhoneやMacで独自のチップを使用しており、AIチップの開発もその延長線上にあると言えるでしょう。
この動きは、AI業界全体にも影響を与える可能性があります。大手企業間の協力関係が深まれば、AI技術の進歩が加速する一方で、市場の寡占化が進む懸念もあります。
結論として、アップルのこの決定は、AI開発の複雑さと、業界全体が直面している課題を浮き彫りにしています。今後、他の企業がどのような戦略を取るのか、そしてAI技術がどのように進化していくのか、注目していく必要があるでしょう。