グーグルは2025年12月18日、ファンクションコーリングに特化したAIモデル「FunctionGemma」を発表した。これはGemma 3 270Mモデルをベースにファインチューニングしたもので、自然言語を実行可能なAPIアクションに変換する。エッジデバイス上でローカル実行できる軽量設計が特徴だ。モバイルアクション評価では、ファインチューニングにより精度が58%から85%に向上した。
NVIDIA Jetson Nanoやモバイルフォンで動作し、256k語彙を使用してJSONと多言語入力を効率的に処理する。Hugging Face Transformers、Unsloth、Keras、NVIDIA NeMoでファインチューニングでき、LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI、LM Studioでデプロイ可能だ。モデルはHugging FaceとKaggleからダウンロードできる。
Gemmaファミリーは2025年に1億ダウンロードから3億ダウンロード以上に成長した。
From:
FunctionGemma: Bringing bespoke function calling to the edge

【編集部解説】
FunctionGemmaは、グーグルがエッジデバイス向けに投入した「行動するAI」への転換点です。270Mパラメータという小型ながら、自然言語をデバイス上のAPI実行に変換するファンクションコーリング機能に特化したモデルであり、会話型インターフェースから実行型エージェントへの移行という業界全体のトレンドを象徴しています。
このモデルの最大の特徴は、完全オフラインで動作する点です。モバイルフォンやNVIDIA Jetson Nanoといったエッジデバイス上で、クラウドに接続することなくカレンダー登録やシステム設定変更といったタスクを実行できます。これは単なる利便性の向上ではなく、プライバシー保護とレイテンシー削減という2つの重要な価値を同時に実現します。
興味深いのは、グーグルが「プロンプトエンジニアリングではなく、ファインチューニング」を強く推奨している点です。モバイルアクション評価では、ベースモデルの精度が58%だったのに対し、ファインチューニング後は85%まで向上しました。これは、エッジAIエージェントにおいては、汎用的なプロンプトよりも特定タスクに特化したトレーニングが圧倒的に効果的であることを示しています。実際、VentureBeatの報道によれば、この27ポイントの精度向上は、エッジでの信頼性確保における「ゲームチェンジャー」と評価されています。
技術的な観点から注目すべきは、256k語彙によるJSON効率化です。270Mパラメータのうち170Mが埋め込み層に割り当てられており、この大規模な語彙によってJSONなどの構造化データを短いトークン列で処理できます。これはファンクションコーリングという用途において、シーケンス長を削減し、レイテンシーを最小化するための設計です。
FunctionGemmaは単独エージェントとしても、より大規模なシステムの「トラフィックコントローラー」としても機能します。一般的なコマンドはエッジで即座に処理し、複雑なタスクのみGemma 3 27Bなどの大型モデルにルーティングするハイブリッド構成が可能です。これは計算リソースの最適配分という実務的な課題に対する有効な解答といえます。
ただし、ライセンス面では注意が必要です。FunctionGemmaはグーグル独自のGemma Terms of Useでリリースされており、商用利用は可能ですが、OSI定義の「オープンソース」ではありません。ヘイトスピーチやマルウェア生成といった「有害な使用」に対する制限があり、グーグルは規約を更新する権利を留保しています。デュアルユース技術を扱う企業や、厳格なコピーレフトを必要とするプロジェクトでは、この条項を慎重に検討する必要があるでしょう。
長期的な視点では、このモデルはエッジAIの民主化を加速させる可能性があります。従来、高性能なAIエージェントを構築するには大規模なクラウドインフラが必要でしたが、FunctionGemmaは軽量な設計により、開発者はスマートフォン上で完結するアプリケーションを構築できます。これは、データ主権が重視される医療や金融などの分野で特に重要です。
一方で、エッジでのファンクションコーリングには課題も存在します。IEEEの研究によれば、複雑な入力処理や複数ツールの管理において、エッジLLMは依然として精度やレイテンシーの問題を抱えています。FunctionGemmaがこうした課題にどこまで対応できるかは、今後の実装事例を待つ必要があります。
グーグルのエコシステムサポートも見逃せません。Hugging Face、Unsloth、Keras、NVIDIA NeMoでのファインチューニング、そしてLiteRT-LM、vLLM、Ollama、Vertex AIでのデプロイメントと、開発者が既存のツールチェーンをそのまま活用できる設計になっています。この包括的なサポートは、採用障壁を大きく下げるでしょう。
【用語解説】
ファンクションコーリング(Function Calling)
AIモデルが自然言語の指示を受け取り、外部のツールやAPIを適切に選択・実行する機能。例えば「明日の天気を教えて」という指示に対し、天気APIを呼び出して結果を返すといった動作を可能にする。従来の会話型AIとの違いは、単に応答するだけでなく実際にシステムを操作できる点にある。
エッジデバイス(Edge Device)
クラウドサーバーに依存せず、端末側(エッジ)で直接データ処理やAI推論を実行するデバイス。スマートフォン、IoTセンサー、産業用ロボットなどが該当する。データをクラウドに送信せずローカルで処理するため、プライバシー保護、低レイテンシー、オフライン動作が可能になる。
ファインチューニング(Fine-tuning)
事前学習済みのAIモデルを特定のタスクやドメインに特化させるため、追加データで再学習させる手法。汎用モデルをそのまま使うよりも、特定用途での精度や信頼性が大幅に向上する。FunctionGemmaでは58%から85%への精度向上が実証されている。
パラメータ数(Parameters)
AIモデルが学習した知識の量を示す指標。数値が大きいほど複雑なタスクをこなせる傾向があるが、計算リソースやメモリも多く必要になる。270Mは2億7000万個のパラメータを持つことを意味し、エッジデバイスで動作可能な小型モデルに分類される。
量子化(Quantization)
AIモデルの数値精度を下げることでファイルサイズとメモリ使用量を削減する技術。例えばINT4量子化では、16ビット精度を4ビットに圧縮し、性能の大幅な低下なくモデルを軽量化できる。エッジデバイスでの実行に不可欠な最適化手法である。
コンテキストウィンドウ(Context Window)
AIモデルが一度に処理できる入力テキストの最大長。FunctionGemmaは32Kトークン(約2万4000語相当)のコンテキストを持ち、複雑な指示や長い会話履歴にも対応できる。
Gemmaファミリー
グーグルが提供するオープンウェイトのAIモデルシリーズ。270M、1B、4B、12B、27Bの5つのサイズがあり、用途やリソースに応じて選択できる。Gemini技術をベースに開発され、2025年に累計3億ダウンロードを突破した。
Mobile Actions
グーグルが提供するベンチマークデータセットで、モバイルOS上でのファンクションコーリング精度を評価する。カレンダー登録、連絡先追加、懐中電灯オンなど、実際のスマートフォン操作タスクが含まれる。
LiteRT-LM
グーグルが提供するモバイルデバイス向けの軽量AIランタイム。TensorFlow Liteの後継として位置づけられ、AndroidやiOSでAIモデルを効率的に実行するためのツールキットを提供する。
【参考リンク】
FunctionGemma公式ページ(Google AI for Developers)(外部)
グーグルが提供するFunctionGemmaの公式ドキュメント。モデルの詳細仕様、ファンクションコーリングのテンプレート、ファインチューニング方法、実装例などが網羅的に解説されている。
FunctionGemmaモデルページ(Hugging Face)(外部)
Hugging Faceで公開されているFunctionGemmaのモデルカード。ダウンロード、ライセンス情報、技術仕様、コード例が提供されており、即座に開発を開始できる。
FunctionGemmaモデルページ(Kaggle)(外部)
Kaggleで提供されているFunctionGemmaのモデルとデータセット。Mobile Actionsデータセットやファインチューニング用のColabノートブックにアクセスできる。
Google AI Edge Gallery(Google Play)(外部)
FunctionGemmaのデモアプリケーション。TinyGardenゲームやMobile Actionsエージェントなど、実際の動作を体験できるAndroidアプリ。
NVIDIA Jetson公式サイト(外部)
NVIDIAのエッジAI向けコンピューティングプラットフォーム。FunctionGemmaの動作環境として公式に言及されており、ロボティクスやIoTアプリケーションに使用される。
Gemma 3 270Mモデル紹介ページ(Google Developers Blog)(外部)
FunctionGemmaのベースモデルであるGemma 3 270Mの詳細解説。アーキテクチャ、性能ベンチマーク、ユースケースが紹介されている。
Unsloth公式サイト(外部)
AIモデルのファインチューニングを高速化するオープンソースライブラリ。FunctionGemmaの公式サポートツールの一つとして推奨されている。
Ollama公式サイト(外部)
ローカル環境でLLMを簡単に実行できるツール。FunctionGemmaを含む多数のモデルに対応し、コマンドライン一つでデプロイ可能。
【参考動画】
【参考記事】
Google releases FunctionGemma: a tiny edge model that can control mobile devices with natural language | VentureBeat(外部)
VentureBeatによる詳細な技術分析記事。FunctionGemmaが解決する「エッジでの実行ギャップ」問題、Mobile Actions評価での58%から85%への精度向上、ライセンス面での注意点(OSI定義のオープンソースではないこと)などを解説している。
Google debuts FunctionGemma for on-device function calling | Testing Catalog(外部)
FunctionGemmaの統合された構造化ファンクションコールと会話能力の両立、256k語彙によるJSON効率化、完全オフライン動作による低レイテンシーとプライバシー保護の実現について詳述している。
Google releases FunctionGemma: lightweight function-calling model aimed at on-device agents | Edge AI and Vision Alliance(外部)
エッジAIエンジニア向けの専門的な分析。ローカルファーストなアクションエージェントとしての位置づけ、決定論的動作のためのファインチューニングの重要性、32Kコンテキストウィンドウなどの技術仕様を解説している。
FunctionGemma: I Fine-Tuned Google’s 270M Edge Model and Tested It on My S23 | Medium(外部)
開発者による実機テストレポート。Samsung S23上でのファインチューニングと実行結果、プロンプトエンジニアリングだけでは本番環境の精度要件を満たせない理由を実体験に基づいて報告している。
Introducing Gemma 3 270M: The compact model for hyper-efficient AI | Google Developers Blog(外部)
FunctionGemmaのベースモデルの公式発表記事。270Mパラメータの内訳(170M埋め込み、100Mトランスフォーマー)、256k語彙の意義、Pixel 9 Proでの電池消費量0.75%(25会話)などの具体的な数値データを提供している。
Google Unveils FunctionGemma: Lightweight Model for On-Device Function Calling | The Rift(外部)
FunctionGemmaのメモリ使用量に関する情報(550MB RAM)、スタンドアロンエージェントまたはトラフィックコントローラーとしての二つの動作モード、ファインチューニングガイドとインタラクティブデモの提供について報告している。
Deploy Function Gemma | Railway(外部)
FunctionGemmaのデプロイメントに関する技術情報。270Mパラメータでのニアインスタントレイテンシー、550MB以上のRAMでの動作、プライバシー重視のローカルファーストアプリケーションへの適性を解説している。
【編集部後記】
FunctionGemmaは、AIが「話す」から「行動する」への転換点を象徴しています。皆さんのスマートフォンが、クラウドに接続せず完全にオフラインで複雑なタスクをこなせるようになる未来は、どのような可能性を開くでしょうか。
プライバシーを守りながら、瞬時に応答するパーソナルエージェント。データが端末から一歩も外に出ない安心感。この技術は、私たちとデバイスの関係をどう変えていくのか、ぜひご一緒に考えていきたいと思います。皆さんはエッジAIに何を期待されますか。































