検索結果: hallucination
-
AIは本当に速いのか?Cursor Pro/Claudeを使ったMETRの研究で開発者の生産性が19%低下
非営利研究グループのMETR(モデル評価・脅威研究)が2025年7月10日に公表した研究で、AIコーディングツールが経験豊富な開発者の作業を遅らせることが判明しました。 2025年2月から6月にかけて実施されたこの研究に […]
-
OpenAI・Anthropic主要AIモデルに「ポチョムキン理解」問題 MIT研究でベンチマーク成功も真の理解欠如
MIT、ハーバード大学、シカゴ大学の研究者であるマリーナ・マンコリディス、ベック・ウィークス、ケヨン・ヴァファ、センディル・ムライナサンが2025年6月26日にarXivで「大規模言語モデルにおけるポチョムキン理解」と題 […]
-
AIエージェントの成功率35%の現実 Mixusが人間監視で安全性確保へ
AIエージェントの責任問題に対処するため、Mixusが「同僚をループに含む」アプローチを開発した。2025年5月のSalesforce研究によると、現在の主要AIエージェントは単一ステップタスクで58%、マルチステップタ […]
-
AIが代行!Opera Neonが描く未来のブラウザと人間拡張の可能性
ノルウェーのテクノロジー企業Operaは、ユーザーに代わってインターネットを利用するAIエージェントを搭載した最新のウェブブラウザ「Opera Neon」を発表した。 ノルウェーのテクノロジー企業Operaは、AIエージ […]
-
GPT-4o・Claude・Geminiで「簡潔な回答」指示がハルシネーション増加 – Giskard最新研究が示す生成AIの新リスク
2025年5月8日(現地時間、日本時間5月9日)、フランスのAI品質評価企業Giskardが発表した最新研究によると、AIチャットボットに「短い回答」を求めると、事実誤認(ハルシネーション)の発生率が大幅に増加することが […]
-
CrowdStrike、従業員5%削減へ – AIを『力の乗数』と位置づけ年間収益100億ドル目指す新戦略
サイバーセキュリティ大手のCrowdStrike Holdings, Inc.(本社:米国テキサス州)は、2025年5月7日、全従業員の約5%にあたる約500人の人員削減を発表した。CEOのGeorge Kurtz氏は、 […]
-
Cursor AIサポートボットが暴走、架空ポリシーの”ハルシネーション”で企業信頼を揺るがす事態に
2025年5月初旬、AIスタートアップ企業Anysphereが開発するAIコーディングアシスタント「Cursor」のカスタマーサポートAIが誤った情報を提供し、大きな問題となった。 事件の経緯 問題は、ユーザーが異なるデ […]
-
UTMB×AI医療革新:CT画像解析で心血管リスク・脳卒中を早期発見、医療現場の知的ボトルネックを突破
テキサス大学医療支部(UTMB)は2024年末より、AIを活用したCT画像解析システムを導入している。 患者が受けた全てのCTスキャン画像をAIが自動で解析し、冠動脈石灰化(CAC)を検出、心血管リスクスコア(Agats […]
-
OpenAI、GPT-4を終了へ – GPT-5登場を前に大規模モデル再編の戦略的意図とは
OpenAIは2025年4月30日をもってGPT-4の提供を終了すると発表した。GPT-4は同社の最も人気があり長く運用されてきた大規模言語モデルの一つだったが、近月では推論モデルシリーズなど他の技術へと焦点をシフトさせ […]
-
ノーマ・カマリ×AI:79歳デザイナーが自身のアーカイブでAIを訓練し、ファッションの未来を創造
ファッションデザイナーのノーマ・カマリ(Norma Kamali)は、50年以上にわたる業界での革新的な活動の次なるステップとして、AIをファッション創造の新たなパートナーとして活用している。カマリは2023年にMITプ […]
-
OpenAI o3・o4-mini – 最新推論AIモデルでハルシネーション増加、信頼性と活用の最前線
2025年4月16日、OpenAIは新たな推論特化型AIモデル「o3」と「o4-mini」を発表しました。これらのモデルはコーディングや数学分野で従来モデルを大きく上回る性能を示しており、例えばo3はSWE-benchで […]
-
LLMパッケージの幻覚がサプライチェーンを脅かす:スロップスクワッティングという新たな脅威
Help Net Securityが2025年4月20日に公開した週間セキュリティニュースレビューでは、以下の重要なセキュリティ事案が報告された。 LLMパッケージの幻覚によるサプライチェーン攻撃のリスク:大規模言語モデ […]
-
HallOumi:AIのハルシネーションを検出するオープンソースツールが企業AI導入の鍵に
オープンソース開発企業のOumi(Open Universal Machine Intelligence)が2025年4月2日、AIのハルシネーション(幻覚)を検出するためのオープンソースモデル「HallOumi」を発表 […]
-
Amazon Bedrockが“AIのウソ”を見抜く新機能を発表─数理検証でハルシネーション対策
AWSは2025年4月1日、Amazon Bedrock自動推論チェック機能を発表した。この機能は現在ゲート付きプレビュー段階にある。 この機能は、生成AIのハルシネーション(幻覚)問題に対処するもので、形式論理と数学的 […]
-
「イル・フォリオ」が世界初のAI完全生成新聞を発行 – ジャーナリズムの未来はAIとの共存へ
イタリアの保守的リベラル系日刊紙「イル・フォリオ」が、人工知能(AI)によって完全に生成された新聞版を2025年3月18日に発行した。同紙はこれを世界初の試みだと発表している。 この「イル・フォリオAI」と名付けられた4 […]
-
OpenAI、最新AIモデル『GPT-4.5』を発表—自然な会話と感情理解が向上
OpenAI、最新モデル「GPT-4.5」をリリース – 自然な会話能力と感情知能が向上した”思慮深い人”のようなAI OpenAIは2025年2月27日、同社の最新大規模言語モデル「 […]
-
GSK、医療AIの”思い込み”を克服へ ─ 創薬開発における画期的なハルシネーション対策を発表
製薬大手GSK(GlaxoSmithKline plc、本社:英国ロンドン)が、創薬開発におけるAIのハルシネーション問題への対策を2025年1月14日に発表した。 AIを活用した科学文献レビュー、ゲノム分析、創薬分野に […]
-
Patronus AI、世界初のAI幻覚防止APIをリリース ─ GPT-4を上回る医療分野での精度を実現
AIセキュリティスタートアップのPatronus AI社は、2024年10月31日、世界初となるAIハルシネーション(AI幻覚)を防止するセルフサービス型APIを発表した。 このAPIは、生成AIモデルの出力を自動的に検 […]
-
スタンフォード大発見:法律AIツール、誤情報「幻覚」のリスク高く
スタンフォード大学の研究で、法律研究AIツールが誤った「幻覚」出力を生じる割合が高いことが判明。LexisNexis、Thomson Reuters製品を含むテストで、AIの透明性と信頼性の問題が浮き彫りに。公開ベンチマークの必要性を強調し、AIの正確性向上への取り組みが求められる。【用語解説とAIによる専門的コメントつき】
-
Patronus AIが1700万ドル調達、AIエラー検出技術で安全な導入促進
Patronus AIがAIの誤りや著作権違反を検出する技術で1700万ドルを調達し、総資金2000万ドルに。この技術は企業のAI導入を安全に促進し、Notable Capital主導で資金提供された。AIの安全性と信頼性を高めるPatronus AIの取り組みは、多様な業界でのAI活用を支援します。【用語解説とAIによる専門的コメントつき】
-
人工知能Alembic、企業データの「幻覚」問題を解決
Alembicが開発した新AIシステムは、企業データ分析と意思決定支援を革新。偽情報生成の「幻覚」問題を排除し、因果関係を特定する能力に基づく。この技術は、Fortune 500の9%と関係を築き、信頼性の高い企業AI使用を目指す。【用語解説とAIによる専門的コメントつき】
-
音声認識の新星、Universal-1が多言語処理で前進!
Assembly AIが新音声認識モデル「Universal-1」を発表。多言語対応で、英語、スペイン語、フランス語、ドイツ語の音声テキスト変換精度が高く、幻聴や騒音の影響を大幅に削減。コードスイッチング、改善されたタイムスタンプ推定、話者識別機能も搭載。速度も向上し、多様なアプリケーションでの利用が期待される。【用語解説とAIによる専門的コメントつき】
-
AI推薦の「幻覚」パッケージが開発環境のセキュリティリスクを拡大
AI技術の進化により、ソフトウェア開発者が大規模言語モデル(LLM)を利用することが増えていますが、Lasso Securityの研究によると、これらのモデルが存在しないコードライブラリを推奨し、攻撃者による悪意あるパッケージの配布リスクを高めていることが明らかになりました。特に、Geminiモデルでは64.5%の「会話」で幻覚パッケージが生成され、開発者はLLMの提案に慎重に対応する必要があると指摘されています。【用語解説とAIによる専門的コメントつき】
-
Microsoft、AI「幻覚」検出の新安全システムを開発
MicrosoftがAI「幻覚」検出の新安全システムを開発。Azure AI Studioを通じ、悪意のあるプロンプト攻撃や不適切応答をリアルタイムで防ぐ。プロンプトシールド、根拠検出、安全評価機能を備え、AIアプリケーションの安全性向上を目指す。【用語解説とAIによる専門的コメントつき】
-
ChatGPTが一晩中奇妙な返答、OpenAIが修正に迅速対応
ChatGPTが一晩中奇妙な返答を繰り返し、OpenAIが修正に乗り出した。ユーザーは言語の切り替えやループに陥るなどの問題を報告。この事件はAI技術の複雑さと予期せぬ振る舞いのリスクを示し、AIの規制や安全性に対する議論を促す。【用語解説とAIによる専門的コメントつき】
-
“AIの幻覚”現象が浮上、現実逸脱の原因と影響を探求
from The Perils of AI Hallucination: Unraveling the Challenges and Implications. AIの幻覚という新たな現象が登場し、これはAIシステムが現 […]