Last Updated on 2024-12-19 13:52 by admin
IBM Research(米国ニューヨーク州アーモンク)は2024年12月18日、新しいオープンソースLLMモデル「Granite 3.1」シリーズを発表しました。前バージョンのGranite 3.0は2023年10月にリリースされ、IBMの生成AI関連ビジネス規模は約20億ドル(約2,860億円)に達しています。
新モデルの主な特徴
コンテキスト長は128,000トークンまで拡張され、前モデルの4,000トークンから大幅に向上しました。主力モデルとなるGranite 8B Instructは80億パラメータを採用し、英語埋め込みモデルのGranite-Embedding-30M-Englishは処理速度0.16秒/クエリを実現しています。
性能比較と提供形態
OpenLLMリーダーボードにおいて、Meta Llama 3.1、Qwen 2.5、Google Gemma 2など、同規模のモデルを性能で上回っています。モデルはオープンソースとして無償提供され、IBMのWatsonxエンタープライズAIサービスでも利用可能です。
今後の展開
2025年初頭にはマルチモーダル機能を搭載したGranite 3.2のリリースが予定されており、IBM Thinkカンファレンス2024(2024年5月開催予定)で新機能が発表される見込みです。
from:IBM wants to be the enterprise LLM king with its new open-source Granite 3.1 models
【編集部解説】
IBMが発表したGranite 3.1は、企業向けAIの新しい潮流を示す重要な一歩といえます。特に注目すべきは、大規模モデルへの依存から脱却し、効率的な小規模モデルへとシフトする戦略です。
企業におけるAI導入の最大の課題の一つは、コストと信頼性のバランスです。Granite 3.1は、8Bパラメータという比較的小規模なモデルでありながら、Meta Llama 3.1やGoogle Gemmaなどの競合モデルを性能で上回っています。これは、モデルの大きさよりも、トレーニングの質と効率性を重視するIBMの方針を反映しています。
特筆すべきは、128Kトークンというコンテキスト長の拡張です。これにより、長文書や複雑な会話の処理が可能になり、特に企業の実務における文書処理や顧客対応での活用が期待できます。
幻覚(ハルシネーション)対策も見逃せない特徴です。従来の外部ガードレールに依存する方式から、モデル自体に幻覚検出機能を組み込む方式への転換は、企業におけるAI利用の信頼性を大きく向上させる可能性があります。
さらに、オープンソース戦略を採用することで、企業は自社のニーズに合わせてモデルをカスタマイズできます。これは、AIの「ブラックボックス化」を防ぎ、透明性の高いAI活用を可能にします。
一方で、課題も存在します。IBMは生成AI市場への参入が比較的遅く、競合他社との差別化が必要です。また、小規模モデルの性能向上には限界があり、特定のタスクでは大規模モデルの優位性が続く可能性があります。
将来的な展望として、2025年初頭に予定されているマルチモーダル機能の追加は、画像や音声を含む複合的なデータ処理を可能にし、企業のAI活用の幅をさらに広げることが期待されます。
企業のIT部門にとって、Granite 3.1の導入は、コスト効率の高いAI活用への第一歩となるかもしれません。特に、データのプライバシーやセキュリティを重視する企業にとって、オープンソースモデルの選択肢が増えることは朗報といえるでしょう。
技術解説:なぜGranite 3.1は画期的なのか
Granite 3.1の革新性は、「効率性」と「実用性」の両立にあります。8Bという比較的小さなパラメータ数でありながら、高い性能を実現できている背景には、IBMの多段階トレーニングパイプラインと質の高いデータセットの活用があります。
特に注目すべきは、企業のワークフローに直接統合できる機能群です。例えば、関数呼び出しの幻覚検出は、AIエージェントが外部システムと連携する際の信頼性を高めます。これは、企業のシステム統合において重要な意味を持ちます。
また、Watsonxプラットフォームとの統合により、モデルの開発から展開、モニタリングまでの一貫した管理が可能になります。これは、企業のAIガバナンスの観点から重要な進展といえるでしょう。