AI搭載チャットボットの医療情報提供の信頼性に警鐘 – 研究結果が示す潜在的リスクと今後のポテンシャル

 - innovaTopia - (イノベトピア)

2024年10月10日、BMJ Quality & Safety誌に掲載された研究によると、AI搭載チャットボットを使用した検索エンジンが提供する薬物情報の質と安全性に関する懸念が示された。

研究チームは、米国で最も処方頻度の高い50種類の薬について、Bing copilotに10の質問を投げかけ、500の回答を生成。

回答の読みやすさを評価するフレッシュ読みやすさスコアは平均37.6で、大学レベルの教育が必要とされる難解さだった。

回答の完全性は平均77%、正確性は平均88.7%だった。

専門家による20の回答のサブセット評価では、66%が潜在的に有害と判断され、そのうち42%が軽度から中程度の害を、22%が重度の害または死亡をもたらす可能性があると評価された。

患者に対しては、より正確な情報源が利用可能になるまで、AI搭載検索エンジンの使用に注意を促している。

研究者らは、AI搭載チャットボットは多くの場合、正確な回答を提供できるが、同時に患者の安全を脅かす可能性のある不正確な情報も含まれていると結論づけた。

from Don’t rely on AI chatbots for accurate, safe drug information, warns study

【編集部解説】

医療分野におけるAI搭載チャットボットの活用は、近年急速に進展しています。実際に、医療に特化したチャットボットがいくつか開発され、臨床現場での活用が始まっています。

例えば、米国で開発されたGlass AIは、GPT-4と臨床医が作成した知識データベースを組み合わせたチャットボットです。このAIは患者の症状から考えられる疾患をリスト化し、臨床計画の草案を作成する機能を持っています。さらに注目すべきは、

Glass AIが米国医師免許試験に合格したという事実です。これは、AIの医療知識が一定の水準に達していることを示唆しています。

また、BuoyAdaといったチャットボットは、症状チェッカーとして機能し、患者の症状から可能性のある診断を提案します。これらのツールは、患者が医療機関を受診する前の初期アセスメントとして活用されています。

メンタルヘルスケアの分野では、WoebotWysa AI Coachなどのチャットボットが注目を集めています。これらは認知行動療法(CBT)などのエビデンスに基づいたアプローチを用いて、ユーザーのメンタルヘルスをサポートしています。

しかしながら、BMJ Quality & Safety誌に掲載された研究結果が示すように、AI搭載チャットボットの医療情報の質と安全性には依然として課題があります。特に、潜在的に有害な情報を含む可能性があることが指摘されており、人間の医療専門家による監督と検証が不可欠です。

編集部追記
個人的な感想を言わせていただくと、、私はチャットボットに問診してもらったほうが「気が楽」ですね。気になったときスグに訊けるし、お医者さん相手(人間)では言いづらいこともあったりします(^^;
できれば、かかりつけ医みたいに広範囲に健康をケアしてくれるといいなぁと思います。

参考リンク:

  1. Glass AI(外部)
    GPT-4を活用した医療AIチャットボット。臨床計画の作成や診断支援を行う。
  2. Buoy Health(外部)
    AIを活用した症状チェッカー。患者の初期アセスメントをサポートする。
  3. Livongo(外部)
    糖尿病管理をサポートするAIチャットボット。日常的な健康管理をアシスト。
  4. BMJ Quality & Safety(外部)
    医療の質と安全性に関する最新の研究を掲載する学術誌のウェブサイト。

【参考情報】

用語解説:

1. BMJ Quality & Safety: 医療の質と安全性に関する国際的な査読付き学術誌。

2. Bing copilot: Microsoftが提供するAI搭載チャットボット。検索エンジンBingに統合されている。

 

 

ホーム » AI(人工知能) » AI(人工知能)ニュース » AI搭載チャットボットの医療情報提供の信頼性に警鐘 – 研究結果が示す潜在的リスクと今後のポテンシャル