Umanitek AGは2026年2月3日、AIアイデンティティ保護プラットフォームGuardian Agentの提供開始を発表した。
同プラットフォームは、ChatGPT、Claude、Grok、Gemini、Perplexityなどの大規模言語モデルのハルシネーション、ディープフェイク、なりすまし、デジタルアイデンティティへの脅威に対処する。分散型インフラストラクチャを採用し、TikTokやXなどのプラットフォームと法執行機関がデータを共有せずに有害コンテンツを検証できる仕組みを提供する。数億のアカウントを監視し、偽プロフィールや組織的攻撃を検出、ユーザーにリアルタイムのリスクスコアを提供する。
同社は新たなアドバイザリーボードの設立も発表し、Bill Tai、Magnus Grimeland、KBW Ventures、Piëch Family Officeの投資部門などから資金調達を実施した。調達額は非公開。
【編集部解説】
2026年を迎えた今、AIハルシネーションとディープフェイクは理論上の懸念から現実の脅威へと変貌を遂げています。
最新の調査によれば、最も性能の高いAIモデルでさえ0.7%のハルシネーション率を記録しており、医療や法律、金融といった専門分野では実際に深刻な被害が報告されています。ある調査では、企業が偽情報による被害で平均45万ドルの損失を被っているという数字も出ています。
さらに深刻なのは、高品質のディープフェイク動画をユーザーが見抜ける確率が約25%(24.5%)にとどまるという事実です。香港の金融機関では、ビデオ会議で最高財務責任者になりすました詐欺師により2500万ドルが詐取される事件も発生しました。
今回発表されたUmanitekのGuardian Agentは、こうした喫緊の課題に対する一つの解答として注目されます。
このプラットフォームの核心は、「データを共有せずに有害コンテンツを検証する」という革新的なアプローチにあります。従来、TikTokやXといったプラットフォーム、さらには法執行機関は、プライバシー規制や競争上の理由からデータ共有ができませんでした。しかし有害コンテンツは容赦なく拡散します。この矛盾に対し、Guardian Agentは分散型インフラストラクチャを採用することで、各組織がデータ主権を保持したまま、コンテンツの有害性を相互に検証できる仕組みを構築しました。
技術的基盤となっているのは、OriginTrailのDecentralized Knowledge Graph(DKG)です。これはブロックチェーン技術とナレッジグラフを融合させた分散型知識基盤で、W3C標準に準拠したRDF形式でデータを管理します。重要なのは、この仕組みがニューラルAI(大規模言語モデル)とシンボリックAI(知識グラフ)を統合する「ニューロシンボリックAI」のアプローチを採用している点です。
Guardian Agentは3つの重要な領域をカバーします。第一に、ChatGPTやClaudeといった主要AIモデルが生成するハルシネーションや誤情報の監視。第二に、ソーシャルプラットフォーム上での偽アカウントやなりすましの検出。第三に、知的財産権の侵害コンテンツの特定です。
数億のアカウントをリアルタイムで監視し、ユーザーには脅威レベルを定量化したリスクスコアが提供されます。重要なのは、検証可能なデジタル証拠パックを自動生成する機能で、これにより削除要請や法的措置にかかるコストと時間を大幅に削減できます。
ただし、このシステムにも課題は存在します。第一に、「何が有害か」という判断基準の設定は容易ではなく、文化や地域によって異なる可能性があります。第二に、誤検出(フォールスポジティブ)のリスクです。正当な表現が有害とフラグ付けされる可能性もあります。第三に、プライバシーへの配慮です。数億のアカウントを監視するという行為自体が、新たな監視社会への懸念を生む可能性もあります。
しかし、共同創業者のクリス・リニングが述べるように、「人々が人間よりも機械と多く話すようになる時代」において、信頼は新たな通貨となりつつあります。2026年は、私たちが知らないうちにオンラインで偽りの生活を送っていることを完全に認識する年になるかもしれません。
Guardian Agentのようなソリューションは、インターネットの「免疫システム」として機能する可能性を秘めています。分散型アーキテクチャによってデータ主権を維持しながら、集団的な防御を可能にするアプローチは、今後のデジタル社会における信頼性構築の一つのモデルとなるでしょう。
LunarCrushとのパートナーシップにより毎時5000万件のソーシャルメディアデータポイントを処理し、最終的には10億人のユーザーを保護することを目標としています。この野心的なビジョンが現実となれば、オンラインでの情報の信頼性に関する新たな標準が確立されるかもしれません。
【用語解説】
AIハルシネーション
大規模言語モデルが事実ではない情報を、もっともらしく生成してしまう現象。確信を持って誤った情報を提示することが特徴。医療、法律、金融などの専門分野で深刻な問題となっている。
ディープフェイク
AI技術を用いて作成された、本物と見分けがつかない偽の音声、動画、画像。顔の入れ替えや音声の模倣などが可能で、なりすまし詐欺や偽情報拡散に悪用されている。
Decentralized Knowledge Graph (DKG)
OriginTrailが開発した分散型知識グラフ。ブロックチェーン技術とナレッジグラフを融合し、データの検証可能性と所有権を保ちながら知識を構造化・共有できる基盤技術。
分散型インフラストラクチャ
中央集権的なサーバーに依存せず、複数のノードが協調してシステムを運用する仕組み。データの主権を各参加者が保持できるため、プライバシーとセキュリティの両立が可能。
【参考リンク】
Umanitek公式サイト(外部)
Guardian Agentを開発するUmanitek AGの公式サイト。製品情報やニュースルームを掲載。
OriginTrail公式サイト(外部)
Decentralized Knowledge Graphを提供するOriginTrailのサイト。技術詳細とユースケースを紹介。
OriginTrail技術ドキュメント(外部)
DKGの技術仕様、アーキテクチャ、開発者向けSDKの詳細ドキュメント。
【参考記事】
Umanitek launches Guardian Agent to combat AI deepfakes – Security Brief(外部)
Guardian Agentの3つのリスク領域と創業チームの詳細を報じる記事。
Umanitek and LunarCrush partner to fight billions of fake accounts(外部)
LunarCrushとの提携により10億人保護を目指す取り組みを紹介。
It’s 2026. Why Are LLMs Still Hallucinating? – Duke University Libraries(外部)
2026年時点でもAIハルシネーションが続く理由を学術的に解説した記事。
AI Hallucination Report 2026: Which AI Hallucinates the Most?(外部)
主要LLMのハルシネーション率ランキングと実例を紹介するレポート。
8 Deepfake Threats to Watch in 2026 – Mea: Digital Integrity(外部)
2026年に警戒すべき8つのディープフェイク脅威を具体例とともに解説。
Why language models hallucinate – OpenAI(外部)
OpenAIによる言語モデルがハルシネーションを起こす理由と対策の研究論文。
Regula Survey on the Impact of Deepfakes on ID Verification(外部)
企業のディープフェイク被害実態調査。平均損失額や検出率のデータを掲載。
Can humans detect deepfake videos? A meta-analysis of human performance(外部)
人間がディープフェイク動画を識別できるかを分析した査読論文。高品質なディープフェイク動画では、人間の識別正答率が約24.5%にとどまると報告している。
Vulnerability of Face Recognition to Deepfakes(外部)
ディープフェイクに対する人間および顔認識システムの脆弱性を検証した研究論文。高品質なディープフェイク動画は人間による検出が極めて困難であることを示している。
【編集部後記】
皆さんは、AIに自分の名前を検索させたことはありますか。そこに表示される情報は、すべて正確でしょうか。あるいは、自分の顔写真がどこかで無断使用されていないか、気になったことはないでしょうか。
日々AIツールを使いながら、その回答の信頼性について悩むことがあります。便利さと引き換えに、何を失い、何を守るべきなのか。この問いに、まだ明確な答えは見つかっていません。Guardian Agentのようなソリューションは一つの可能性ですが、皆さんはこの技術をどう評価されますか。デジタル時代の「信頼」について、ぜひご意見をお聞かせください。






がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























