Last Updated on 2024-04-30 22:50 by admin
はじめに
シリコンバレーのスタートアップ企業Nexa AIが、オンデバイスで高速かつ効率的に動作するAIエージェントの開発に取り組んでいます。同社が開発中の「Octopus-V2-2B」は、20億のパラメータを持つ大規模言語モデル(LLM)で、特にAndroid APIの関数呼び出しに特化して設計されているとのことです。
従来手法との違い
Nexa AIによると、Octopus-V2-2Bは従来の検索支援生成(RAG)手法とは異なり、関数の引数の詳細な記述を必要としないそうです。トレーニングと推論の両段階で独自の関数トークン戦略を導入することで、GPT-4に匹敵するパフォーマンスを達成しつつ、RAGベースの手法を超える推論速度を実現するとしています。
オンデバイスでの性能
Octopus-V2-2BはAndroidデバイス上でシームレスに動作するよう設計されており、オンデバイスでの応用範囲が広いことが特徴だと言います。Nexa AIの発表では、単一のA100 GPUで「Llama7B + RAGソリューション」の36倍の推論速度を実現し、GPT-4-turboと比較しても168%高速とのことです。
高い精度
また、速度だけでなく精度も優れており、「Llama7B + RAGソリューション」の関数呼び出し精度を31%上回ったそうです。GPT-4やRAG + GPT-3.5に匹敵する98〜100%の精度を達成しているとしています。
マルチモーダル機能の追加
さらに、Nexa AIは次世代モデルとなる「Octopus-V3」の開発も進めているようです。Octopus-V3は、V2の高速性と精度をさらに向上させるだけでなく、マルチモーダル機能の追加により、画像や音声などの処理にも対応できるようになるとのことです。これにより、より幅広い実世界でのアプリケーションが可能になると期待されています。
創業者の経歴と姿勢
Nexa AIの創業者であるAlex Chen氏は、スタンフォード大学でAIの研究に取り組んだ経験を持ち、技術的知見と倫理的考察のバランスを重視しているようです。同社はLLMの民主化を目指しており、研究成果をオープンソースで公開することで、開発者コミュニティの貢献を促そうとしています。
AIのリスクへの配慮
一方で、AIコンテンツの氾濫に対する懸念も示しており、AIの可能性を追求しつつ、リスクにも目を向ける姿勢が伺えます。
画期的な技術としての評価
Nexa AIが開発中のOctopus-V2-2Bは、オンデバイスで高速かつ効率的に動作するAIエージェントを実現するための画期的な技術として注目を集めています。特に、関数呼び出しに特化した独自のアプローチにより、高速性と精度を両立させている点が評価されています。
今後の展開に注目
ただし、現時点ではデモやAPI等が公開されておらず、第三者による客観的な性能検証は行われていないようです。Octopus-V2-2Bの実際の性能や使用感については、今後のユーザーの反応や評価を注視する必要があるでしょう。
また、次世代モデルのOctopus-V3も開発中とのことで、マルチモーダル機能の追加により、さらなる応用範囲の拡大が期待されます。
AIと社会の健全な関係づくりへの貢献
Nexa AIは、AIの可能性を追求しつつ、倫理的な配慮も怠らない姿勢を示しています。同社の取り組みがオンデバイスAIエージェントの発展にどのような影響を与えていくのか、AIと社会の健全な関係づくりにどう貢献していくのか、注目が集まります。
オンデバイスAIエージェントの最前線を追う
引き続き、Nexa AIの発表や、Alex Chen氏の情報発信に注目していくことで、オンデバイスAIエージェントの最前線を追いかけていきたいと思います。
【関連記事】
Octopus V3にさらに期待:VRヘッドセットのデバイス上で動く?
Nexa AI、マルチモーダル対応のオンデバイスAIエージェント「Octopus V3」を発表
【参考サイト】
NEXA AIオフィシャルサイト(外部)
【編集者追記】
Octopus V3の記事を追加しました
Nexa AI、マルチモーダル対応のオンデバイスAIエージェント「Octopus V3」を発表
2024/04/18 現時点ではOctopus V3を使用するには申込みが必要です。
Octopus V3 | Nexa AI(外部)