最新ニュース一覧

人気のカテゴリ


Google CloudとHugging Face、開発加速への提携!

Last Updated on 2024-01-26 11:27 by 荒木 啓介

【ダイジェスト】

GoogleとHugging Faceが手を組み、オープンAI開発の加速を目指しています。この提携により、開発者はGoogle Cloudのサービスを活用し、オープンな生成AIアプリケーションの開発を迅速化できるようになります。Hugging Faceのオープンソースモデルを使用するチームは、Google Cloudでのトレーニングと提供が可能になり、AIに特化したVertex AIやTPU(テンソル処理ユニット)、GPU(グラフィックス処理ユニット)など、Google Cloudが提供するAI関連の全リソースを利用できます。

Hugging FaceのCEOであるClement Delangueは、この新しいパートナーシップにより、Hugging FaceのユーザーとGoogle Cloudの顧客が最新のオープンモデルと最適化されたAIインフラストラクチャ、ツールを組み合わせて、自身のAIモデルを構築する能力を大きく前進させることができると述べています。

Hugging Faceは、AIのGitHubとして知られ、50万以上のAIモデルと25万以上のデータセットが集まるリポジトリとなっています。5万以上の組織がこのプラットフォームをAI開発に利用しています。一方、Google CloudはAI中心のインフラストラクチャとツールを提供し、オープンAI研究にも貢献してきました。この二社の提携により、Google Cloudで活動する何十万ものHugging Faceユーザーは、新しい生成AIアプリケーションを構築するためのエンドツーエンドのMLOpsプラットフォームであるVertex AIを使用して、モデルのトレーニング、チューニング、提供が可能になります。この経験はHugging Faceのメインプラットフォームから数クリックで利用でき、Google Kubernetes Engine(GKE)内でモデルをトレーニングし、デプロイするオプションも含まれます。これにより、開発者は「自分でやる」インフラストラクチャを使用してワークロードを提供し、GKE上のHugging Face専用のディープラーニングコンテナを使用してモデルをスケールできます。

開発者は、Google Cloudが提供するハードウェア機能、例えばNvidia H100 Tensor Core GPUを搭載したA3 VMやIntel Sapphire Rapid CPUを搭載したC3 VMなども活用できるようになります。Hugging Faceの製品と成長をリードするJeff Boudierと技術リードのPhilipp Schmidは共同のブログ投稿で、「モデルはGoogle Cloud上で簡単に本番環境にデプロイされ、推論エンドポイントで利用できるようになります。AI開発者はTPUを活用してHugging Faceスペースでアプリケーションを加速でき、組織はGoogle Cloudアカウントを使用してEnterprise Hubサブスクリプションの使用と請求を簡単に管理できるようになります」と述べています。

ただし、この提携は発表されたばかりであり、Vertex AIやGKEのデプロイメントオプションを含む新しい体験はまだ利用可能ではありません。Hugging Face Hubのユーザーがこれらの機能を2024年上半期に利用できるようになることを同社は期待しています。

【ニュース解説】

GoogleとHugging Faceが提携し、開発者がGoogle Cloudのリソースを活用して、オープンな生成AIアプリケーションの開発を加速できるようになるというニュースが発表されました。この提携により、Hugging Faceのオープンソースモデルを使う開発者は、Google Cloud上でモデルをトレーニングし、デプロイすることが可能になります。これには、AI開発に特化したVertex AIプラットフォームや、高性能なTPU、GPUなどのハードウェアリソースの利用が含まれます。

この提携の背景には、AI技術の進化とともに、企業が自社のAIビジョンを実現するために必要なリソースを一か所で提供する動きがあります。Hugging FaceはAIモデルとデータセットの集積地として、多くの開発者や組織に利用されており、Google Cloudはそのインフラストラクチャとツールを提供することで、オープンAI研究に貢献しています。

この提携によって、開発者はHugging Faceのプラットフォームから数クリックでGoogle Cloudのサービスにアクセスし、モデルのトレーニングやデプロイメントを行うことができるようになります。また、Google Kubernetes Engineを使用して、より柔軟にインフラストラクチャを管理し、スケールすることが可能です。これにより、開発者は自分たちのAIモデルをより迅速に、かつ効率的に開発し、本番環境にデプロイすることができるようになります。

この技術的な進歩は、AIアプリケーションの開発を加速し、より多くの革新的なソリューションを生み出す機会を提供します。例えば、医療、金融、交通などの分野で、より高度な予測モデルや自動化されたサービスが開発される可能性があります。しかし、このような技術の進歩には、プライバシーやセキュリティの問題、倫理的な懸念、仕事の自動化による雇用への影響など、潜在的なリスクも伴います。

また、このような提携は、AI技術の規制やガバナンスにも影響を与える可能性があります。オープンAIの発展は、技術の民主化を促進する一方で、その使用に関する規制や基準の策定を必要とするでしょう。長期的には、この提携がAI技術のイノベーションと普及を促進し、社会全体にポジティブな影響を与えることが期待されますが、その過程で生じる課題に対処するための議論と対策が求められます。

なお、この提携による新しい体験は、2024年上半期に利用可能になる予定であり、現時点ではまだ実装されていません。開発者や組織は、これらの新しい機能が実際に利用できるようになるまで待つ必要があります。

from Hugging Face teams up with Google to accelerate open AI development.


読み込み中…
読み込み中…