クラウドに繋がなくても、ChatGPT級のAIが手のひらで動く。Tiiny AIが1,399ドルで提示した「Pocket Lab」は、データを外部に送らず、月額課金もない、AIとの新しい付き合い方だ。
Tiiny AIは2026年1月8日、ラスベガスで開催されたCESにおいて、ポケットサイズのパーソナルAIコンピューター「Tiiny AI Pocket Lab」を発表した。本製品は最大1,200億パラメータの大規模言語モデルを完全にオフラインで実行でき、実世界のデコード速度は20トークン/秒以上を達成する。
サブスクリプションやトークン料金、継続的なインターネット接続なしに、デバイス上でAIを動作させることが可能である。80GBのLPDDR5Xメモリを搭載し、既存のラップトップやデスクトップとプラグアンドプレイで接続する。オンデバイスソフトウェアプラットフォーム「TiinyOS」も同時に発表された。2月にKickstarterで発売予定で、スーパーアーリーバード価格は1,399ドルである。
2025年12月、ギネス世界記録から「1,000億パラメータの大規模言語モデルをローカルで実行できる最小のミニPC」として認定されることの確認を受けた。
From:
Tiiny AI Launches Pocket-Size Personal AI Computer, Drawing Strong Media Attention at CES

PRNewswireより引用
【編集部解説】
このTiiny AI Pocket Labの登場は、AIコンピューティングのパラダイムシフトを象徴する出来事です。これまで大規模言語モデル(LLM)を動かすには、クラウド上の巨大なデータセンターが必要でした。しかし、ポケットに入るサイズのデバイスで1,200億(120B)パラメータのモデルを完全オフラインで実行できるようになったことは、技術的なマイルストーンと言えます。
この製品が注目される背景には、クラウドAIに対する2つの大きな懸念があります。第一にプライバシーの問題です。クラウドサービスでは、あなたの入力データがサードパーティのサーバーに送信され、処理されます。企業秘密や個人情報を扱う際、この「データの旅」が大きなリスクになります。
第二にコストの問題です。ChatGPT Plusなどの月額20ドルのサブスクリプションは、年間で240ドル、5年間で1,200ドルに達します。Pocket Labの1,399ドルという価格設定は、長期的に見れば経済的に合理的な選択肢となり得ます。特にAPI利用が増えるヘビーユーザーにとって、トークン課金制から解放されることの意義は大きいでしょう。
技術的な核心は、TurboSparseとPowerInferという2つのブレークスルーにあります。TurboSparseはニューロンレベルのスパース活性化技術で、モデルの知能を維持しながら推論効率を大幅に向上させます。PowerInferは8,000以上のGitHubスターを獲得しているオープンソースの異種推論エンジンで、CPUとNPU間で動的に計算を分散し、従来は数千ドルのプロフェッショナル向けGPUが必要だった性能を実現しています。
デバイスの仕様も興味深い点です。14.2×8×2.53cm、重量300gという小型ボディに、12コアのARMv9.2 CPUと約190TOPSのAI演算能力、80GBのLPDDR5Xメモリを搭載します。消費電力は65Wという省エネ設計で、これは従来のGPUベースシステムと比較して、エネルギーとカーボンフットプリントが大幅に削減されています。
Tiiny AIが「ゴールデンゾーン」と呼ぶ10B〜100Bパラメータの範囲は、実用的なAIニーズの80%以上をカバーすると同社は主張しています。そして120B(1,200億)パラメータまでスケールアップすることでGPT-4oに匹敵する知能レベルに達し、博士レベルの推論、複数ステップの分析、深い文脈理解が可能になります。
この動きは、2026年に向けたエッジAIのより大きなトレンドとも一致しています。専用AIチップの進化、モデル量子化技術の発展、5Gネットワークとの連携により、クラウドに依存しないインテリジェンスが現実的になってきました。企業がクラウドAIのコスト高騰に直面し、オンプレミスAIへの回帰を検討している現状も、この製品の市場タイミングを後押ししています。
ただし、潜在的な課題も存在します。ローカルAIは初期投資が高く、技術的な知識が必要になる場合があります。また、モデルのアップデートやメンテナンスをユーザー自身が管理する必要があり、クラウドサービスのような「自動的な改善」は期待できません。さらに、オープンソースモデルに依存する以上、最先端の商用モデル(GPT-5やClaude 4など)とは性能差が生じる可能性もあります。
長期的な視点では、この製品は「AIの民主化」における重要な一歩です。データ主権、プライバシー保護、コスト予測可能性を重視するユーザーにとって、ローカルAIは魅力的な選択肢となるでしょう。特にGDPRなどの規制が厳しい欧州市場や、機密情報を扱う企業、インターネット接続が不安定な地域での活用が期待されます。
Kickstarterでの2月発売を控え、この製品が実際にどれだけのパフォーマンスを発揮するか、そしてローカルAIのエコシステムがどう発展していくかが注目されます。
【用語解説】
パラメータ(B)
AIモデルの規模を示す単位。Bは「Billion(10億)」を意味し、120Bは1,200億パラメータを指す。パラメータが多いほどモデルの学習能力と推論能力が高まるが、同時に計算リソースも多く必要となる。
大規模言語モデル(LLM)
Large Language Modelの略称。膨大なテキストデータで学習した大規模なAIモデルで、文章生成、翻訳、質問応答などの自然言語処理タスクを実行する。GPT-4やLlamaなどが代表例である。
トークン/秒
AIモデルが1秒間に生成できる単語や文字の断片(トークン)の数。推論速度の指標であり、数値が大きいほど応答が速い。実用的な対話には10〜20トークン/秒以上が望ましいとされる。
LPDDR5X
Low Power Double Data Rate 5Xの略で、省電力性能に優れた最新世代のメモリ規格。モバイルデバイスや小型コンピューターに使用され、高速データ転送と低消費電力を両立する。
TOPS
Tera Operations Per Secondの略で、AIチップの演算性能を示す単位。1TOPSは1秒間に1兆回の演算が可能であることを意味する。190TOPSは非常に高い演算能力を示す。
エッジAI
クラウドサーバーに依存せず、デバイス上で直接AI処理を実行する技術。データをローカルで処理するため、プライバシー保護、低遅延、オフライン動作が可能になる。
量子化技術
AIモデルのサイズと計算要求を削減する技術。32ビット浮動小数点数を8ビットや4ビット整数に変換することで、性能をほぼ維持しながらメモリ使用量と計算コストを大幅に削減できる。
TurboSparse
Tiiny AIが開発したニューロンレベルのスパース活性化技術。AIモデルの推論時に必要なニューロンのみを選択的に活性化することで、計算効率を大幅に向上させる。90%以上のスパース性を実現しながら性能を維持する。
PowerInfer
上海交通大学が開発したオープンソースのLLM推論エンジン。CPUとGPU/NPU間で動的に計算を分散し、消費者向けハードウェアで大規模モデルの高速推論を可能にする。GitHubで8,000以上のスターを獲得している。
CES(Consumer Electronics Show)
毎年1月にラスベガスで開催される世界最大級の家電・技術見本市。最新のコンシューマー向けテクノロジーが発表される場として、業界で最も注目されるイベントの一つである。
GPT-4o
OpenAIが開発した大規模言語モデルの一つ。マルチモーダル機能を持ち、テキスト、音声、画像を統合的に処理できる。120Bパラメータクラスのモデルがこのレベルの性能に到達すると評価されている。
GDPR
EU一般データ保護規則(General Data Protection Regulation)の略。EU市民の個人データ保護を強化する法規制で、データの収集、処理、保管に厳格な要件を課す。違反には高額な罰金が科される。
【参考リンク】
Tiiny AI公式サイト(外部)
米国の深層技術系AIスタートアップTiiny AIの公式ウェブサイト。Pocket Labの詳細仕様、技術解説、予約情報が掲載されている。
Kickstarter(外部)
クラウドファンディングプラットフォーム。Tiiny AI Pocket Labは2026年2月にスーパーアーリーバード価格1,399ドルで先行予約開始予定。
ギネス世界記録(外部)
世界記録の認定機関。Tiiny AI Pocket Labを1,000億パラメータLLMをローカル実行できる最小のミニPCとして2025年12月に認定した。
PowerInfer GitHubリポジトリ(外部)
上海交通大学が開発したオープンソースのLLM推論エンジン。消費者向けGPUで大規模言語モデルの高速推論を実現する技術を公開している。
TurboSparse論文(arXiv)(外部)
ニューロンレベルのスパース活性化によってLLMの推論を高速化する技術論文。90%以上のスパース性で2〜5倍の速度向上を実現した研究内容を掲載。
【参考動画】
Tiiny AI Pocket Lab | The World’s Smallest Personal AI Supercomputer
Viral Vantage Vista(2025年12月16日公開)。Tiiny AI Pocket Labの技術的特徴、TurboSparseとPowerInferの仕組み、プライバシー重視の設計思想、CES 2026での展示予定などを詳しく解説している動画。
$1399 The 80GB RAM Pocket AI Computer is REAL (Tiiny.ai Hands On)
2026年1月5日公開。ラスベガスのPepcomイベントでTiiny AI Pocket Labの実機を体験したハンズオンレビュー動画。80GBのRAMを搭載した小型デバイスが実際に120Bパラメータモデルを動作させる様子を確認できる。
Tiiny AI Pocket Lab Explained: 12-Core ARM Mini PC With 80GB RAM
2025年12月12日公開。12コアARMv9.2 CPU、190 TOPSのAI演算能力、80GB LPDDR5Xメモリなど、Pocket Labのハードウェア仕様を詳細に解説。Llama、Qwen、DeepSeek、Mistralなどのモデルをオフラインで実行できる仕組みを紹介している。
【参考記事】
Tiiny AI Reveals World’s Smallest Personal AI Supercomputer, Verified by Guinness World Records(外部)
Tiiny AIが2025年12月10日に発表した公式リリース。14.2×8×2.53cm、重量300g、12コアARMv9.2 CPU、190 TOPS、80GB LPDDR5X、消費電力65Wという詳細なスペックが記載されている。
The smallest AI supercomputer runs 120B LLMs offline(外部)
1,200億(120B)パラメータのLLMをオフラインで実行できる世界最小のAIスーパーコンピューターとして紹介。ギネス世界記録認定の詳細とクラウドAIからエッジAIへのシフトという業界トレンドを解説。
Local AI vs Cloud Services: A Real Cost Comparison(外部)
ローカルAIとクラウドサービスの実際のコスト比較分析。ChatGPT Plusの月額20ドルは5年間で1,200ドルに達することを示し、Pocket Labの価格設定が長期的に合理的である根拠を提供。
Cloud AI vs Local AI: Privacy, Compliance, and Cost Comparison(外部)
クラウドAIとローカルAIのプライバシー、コンプライアンス、コストの比較分析。データがサードパーティのサーバーに送信されるクラウドAIのリスクとローカル処理によるデータ主権の重要性を論じている。
Edge AI Development Trends and Forecasts to 2026(外部)
2026年に向けたエッジAI開発のトレンドと予測。専用AIチップの進化、モデル量子化技術の発展、5Gネットワークとの連携により、クラウドに依存しないインテリジェンスが現実的になってきている状況を分析。
【編集部後記】
みなさんは、AIに入力したデータがどこへ行くのか、考えたことはありますか?私自身、ChatGPTに業務の相談をしようとして、ふと手を止めた経験があります。月々のサブスク費用も、気づけば積み重なっていますよね。
今回のTiiny AI Pocket Labは、そんな「便利だけど、ちょっとモヤモヤする」という感覚に一つの答えを出してくれるかもしれません。完全オフラインで動くAIが、本当に実用レベルに達しているのか。1,399ドルという価格は妥当なのか。みなさんなら、どう評価されますか?
ぜひ、SNSで感想を聞かせてください。一緒に未来のAIの在り方を考えていけたら嬉しいです。
































