GoogleのAI検索機能が間違った情報を提供し、ユーザーの健康や安全にリスクをもたらす可能性があることが指摘されている。この機能は「実験的」とされ、Googleは改善を進めているとしているが、一部のユーザーは機能の一時的な削除を予測している。
GoogleのAI概要機能は、検索結果の上部に新しい段落形式で表示され、AIモデルによって生成された情報の要約を提供する。この機能は以前はオプトインであったが、現在はデフォルトで提供されており、ユーザーは手順を踏むことで無効にすることが可能である。
ユーザーからは、AI概要機能による検索結果の間違いや信頼性の欠如が批判されている。一部の結果は無害ながらも誤りがあり、Googleの信頼性を損なっている。GoogleはAIモデルを用いてコンテンツの要約を作成しているが、そのコンテンツの信頼性を保証することはできない。また、AI開発者が危険な結果に対して法的責任を負う可能性があるという指摘も存在する。
【ニュース解説】
Googleが導入したAI概要機能による検索結果が、間違った情報を提供し、ユーザーの健康や安全にリスクをもたらす可能性があることが指摘されています。この機能は、Google検索の結果ページの上部に新しい段落形式で表示され、AIモデルによって生成された情報の要約を提供します。当初はオプトイン(利用者が選択して利用する)サービスでしたが、現在はデフォルトで提供されており、ユーザーは特定の手順を踏むことで無効にすることが可能です。
この機能によって提供される情報の中には、明らかに誤った情報や危険を伴う提案が含まれていることが報告されています。例えば、有害なキノコの摂取や危険な行動を推奨するような内容が、検索結果として表示されることがあります。これらの問題は、AIが生成するコンテンツの信頼性や安全性に関する懸念を引き起こしています。
Googleは、AI概要機能を「実験的」と位置づけ、ユーザーのフィードバックや人間によるレビューを通じて結果の品質と製品の改善を進めているとしています。しかし、一部のユーザーや専門家からは、この機能による検索結果の誤りがユーザーに与える影響について懸念が表明されており、機能の一時的な削除を予測する声もあります。
この問題は、AI技術の進化とともに、その応用における倫理的な課題や安全性の確保が重要なテーマとなっています。AIが生成する情報の信頼性を保証するためには、技術的な改善だけでなく、人間による監視や評価の体制を強化することが求められます。また、AI開発者が提供する情報の正確性や安全性に対して法的な責任を負う可能性があることから、AI技術の開発と運用におけるガイドラインや規制の整備も重要な課題となっています。
長期的には、AI技術による情報提供の精度を高めるとともに、その利用に伴うリスクを最小限に抑えるための取り組みが、技術開発者、利用者、規制当局の間で進められることが期待されます。これにより、AI技術が社会にとって有益なものとなり、そのポテンシャルを最大限に活用できるようになることが望まれます。
from ‘Legitimately dangerous’: Google’s erroneous AI Overviews spark mockery, concern.