Last Updated on 2024-10-09 06:21 by admin
from Apple quietly released an open source multimodal LLM in October.
Appleとコロンビア大学の研究者が2023年10月に、あまり注目されずにオープンソースのマルチモーダル大規模言語モデル(LLM)「Ferret」をリリースしました。このリリースにはコードと重みが含まれていましたが、商用ライセンスは含まれておらず、研究目的のみでの使用が許可されていました。しかし、最近になってこのリリースに対する関心が高まっています。GoogleのGeminiモデルがPixel Proに導入され、将来的にはAndroidにも導入される予定であり、小型デバイスでのローカルLLMの可能性についての議論が活発になっているためです。AppleはiPhone上でLLMを展開するための重要なブレークスルーを達成したと発表し、3Dアバターと効率的な言語モデル推論のための新技術を紹介する2つの新しい研究論文をリリースしました。これらの進歩は、より没入感のある視覚体験を可能にし、iPhoneやiPadなどの消費者向けデバイスで複雑なAIシステムを実行することを可能にすると評価されています。AppleがオープンソースLLMの分野に参入したことは、Appleが従来「閉じた庭」として知られていたことから、AIコミュニティにとって意外な出来事でした。医療分野のオープンソースAIに焦点を当てたヨーロッパの非営利団体を運営するBart de Witte氏は、AppleがオープンソースAIコミュニティに参加したことを後から知り、Ferretの導入はAppleの影響力のあるAI研究へのコミットメントを示すものであり、マルチモーダルAI分野でのリーダーとしての地位を固めるものだと述べました。また、将来的にはローカルLLMがiOSの再設計されたサービスとしてiPhoneで動作する日を楽しみにしているとコメントしています。