株式会社Accel Brainは生成AIの虚偽情報(ハルシネーション)を検知する独自技術を搭載したAI分析プラットフォーム「PARAs AI(パラス エーアイ)」を正式リリースしたと発表した。
同サービスは生成AIと人間が書いた文章の信頼性を分析し、虚偽情報の検知、論理的誤謬の検知、エビデンス不足の警告、思想的偏向の分析、論理展開の可視化、想定される反対意見の推論機能を提供する。
技術面では熱力学・統計力学・量子力学・情報理論を応用した独自アルゴリズムを採用し、TXT、PDF、HTML形式に対応する。料金体系はFree Plan(月間30,000トークンまで無料)、Starter Plan、Professional Planの3つのプランを用意している。
同社は今後、企業向け大容量処理プラン、API連携機能、多言語対応の強化を予定している。
From: 【生成AIのウソ発見器?】独自技術「PARAs AI」を正式リリース
【編集部解説】
PARAs AIの登場は、AIハルシネーション問題への技術的アプローチにおいて注目すべきタイミングと言えます。2025年現在、AI誤情報検知技術は急速に発展しており、Keele大学の研究では99%の精度でフェイクニュースを検知する技術が発表されているなど、この領域への関心と技術革新が加速している状況です。
最も興味深いのは、PARAs AIが採用する「疑心暗鬼の力加減を調整する機能」という表現です。これは従来のバイナリ(真偽)判定ではなく、情報の信頼度をグラデーションで評価するアプローチを示唆しています。研究によると、AIモデルのハルシネーション率は2021年の21.8%から2025年には0.7%まで改善されていますが、それでも医療分野では8-20%のハルシネーション率が報告されており、完全な解決には至っていません。
技術的な観点では、熱力学・統計力学・量子力学・情報理論の応用というアプローチが特徴的です。これらの物理学の知見を情報解析に適用することで、従来の自然言語処理とは異なる角度からテキストの信頼性を評価しようとする試みと考えられます。
しかし、このような技術には潜在的なリスクも存在します。誤った情報を「正しい」と判定してしまう偽陰性や、正しい情報を「疑わしい」とする偽陽性の問題です。特に文脈依存性の高い情報や、文化的・地域的な背景知識が必要な内容では、AIによる判定の限界が露呈する可能性があります。
料金体系の月間30,000トークンという設定は、一般ユーザーの日常的な利用を想定した設計と見えます。これにより、企業だけでなく個人レベルでの情報リテラシー向上にも寄与する可能性を秘めています。
長期的な視点では、このような技術の普及により情報の品質管理が自動化される一方で、技術への過度な依存や、AI判定への盲信というリスクも考慮すべきでしょう。人間の批判的思考力との適切なバランスが、今後の課題となりそうです。
【用語解説】
ハルシネーション(AI幻覚)
生成AIが事実に基づかない情報を生成する現象である。ハルシネーション(幻覚)という医学用語から転用された専門用語で、AIが学習データにない情報を「創造」してしまう問題を指す。
統計力学・量子力学・情報理論
物理学の分野で、統計力学は大量の粒子の集団的な振る舞いを確率的に扱う理論、量子力学は原子・分子レベルの物理現象を記述する理論、情報理論は情報の伝達・処理・圧縮を数学的に扱う理論である。これらをテキスト解析に応用することで、従来とは異なるアプローチでの信頼性判定を可能にする。
誤謬(ごびゅう)
論理的な誤りや推論の欠陥を指す概念である。論理学において、結論に至る過程で犯される推論上の過ちを分類・分析する際に用いられる専門用語である。
トークン
自然言語処理において、テキストを処理する最小単位である。単語、文字、または文字列の一部分を指し、AIがテキストを理解・生成する際の基本的な処理単位として機能する。
【参考リンク】
株式会社Accel Brain(外部)
2019年設立のAI開発・AI人材開発専門コンサルティング会社。実学志向のAI開発を専門としている。
PARAs AI公式サイト(外部)
生成AIの虚偽情報検知を目的とした分析ツールの公式サイト。独自の最適化モデルを提供。
【参考記事】
Top Tools and Plugins to Detect AI Hallucinations in Real-Time(外部)
2025年のAIハルシネーション検知ツールに関する包括的な分析記事。具体的な改善数値を提示。
AI-powered tool developed by Keele scientists can detect fake news(外部)
Keele大学が開発した99%精度のフェイクニュース検知技術に関する研究報告。
Can AI Outsmart Fake News? Detecting Misinformation(外部)
2025年6月発表のAI技術による誤情報検知の最新研究論文。学術的視点からの分析。
Autonomous detection of AI hallucinations in digital pathology(外部)
UCLA研究チームによる医療分野でのAIハルシネーション検知技術の開発報告。
【編集部後記】
生成AIが日常に溶け込んでいく中で、私たちはその「答え」をどこまで信頼できるでしょうか?
PARAs AIのような検証ツールが登場する一方で、完璧な判定は難しいのも現実です。
皆さんは普段、ChatGPTなどの生成AIからの情報をどのように検証していますか?
もしくは、検証せずにそのまま使っていることはありませんか?
今回のような技術の進歩を見ていると、AIと人間の「協働」における新しいバランスについて考えさせられます。
読者の皆さんの情報リテラシーに対するお考えを、ぜひSNSで聞かせていただければと思います。