今月、世界保健機関(WHO)は、医療分野における大規模言語モデル(LLMs)の倫理とガバナンスに関する新しいガイドラインを発表しました。医療AI企業のリーダーたちからは主に肯定的な反応が寄せられています。WHOのガイドラインでは、診断と臨床ケア、管理業務、教育、薬の研究開発、患者主導の学習など、LLMsの医療分野での5つの広範な応用が概説されています。LLMsは、臨床のバーンアウトを軽減したり、薬の研究を加速させたりすることで、世界の医療状況を改善する可能性がありますが、AIの能力を「過大評価し、過大に見積もる」傾向があるとWHOは指摘しています。これにより、「厳格な評価を受けていない未検証の製品」の使用につながる可能性があります。ガイドラインでは、LLMsは科学者やエンジニアだけでなく、医療提供者、患者、臨床研究者などの他のステークホルダーも含めて設計されるべきだと述べています。AI開発者は、これらの医療関係者が懸念を表明し、意見を提供する機会を与えるべきだとガイドラインは付け加えています。また、AI開発者は、製品設計が包括的で透明であることを確保する必要があります。これは、LLMsが人種、民族、祖先、性別、性同一性、年齢による偏見のあるデータでトレーニングされないようにするためです。
InfermedicaのCEOであるPiotr Orzechowskiは、WHOのガイドラインを「医療設定におけるAIの責任ある使用を確実にするための重要な一歩」と呼び、医療AI企業に対してグローバルな協力と強力な規制を提唱しています。Medicomp Systemsの最高医療責任者であるJay Andersは、すべての医療AIに外部規制が必要であると述べ、賛同しています。一方、SmarterDxのCEO兼共同創設者であるMichael Gaoは、LLMsの主要なリスクの一つとして指摘された幻覚や不正確な出力に対する恐怖が革新を妨げるべきではないと指摘しています。さらに、合成データ会社MDCloneの最高技術責任者であるLuz Eruzは、新しいガイドラインを歓迎しつつも、ガイドラインが合成データに言及していないことに気づいたと述べています。合成データは、プライバシーの問題なく、大量の患者データを迅速に解析し要約する能力を研究者に与えるため、この分野の大幅な成長が期待されています。
【ニュース解説】
今月、世界保健機関(WHO)は、医療分野における大規模言語モデル(LLMs)の使用に関する新しいガイドラインを発表しました。このガイドラインは、診断や臨床ケア、管理業務、教育、薬の研究開発、患者主導の学習など、医療におけるLLMsの広範な応用に焦点を当てています。WHOは、LLMsが医療のグローバルな状況を改善する潜在力を持つ一方で、AIの能力を過大評価する傾向に警鐘を鳴らしています。特に、未検証の製品が安全性や有効性の厳格な評価を受けずに使用されるリスクを指摘しています。
WHOのガイドラインは、LLMsの設計において、科学者やエンジニアだけでなく、医療提供者や患者、臨床研究者などの他のステークホルダーの参加を推奨しています。これにより、医療関係者が懸念を表明し、意見を提供する機会が生まれます。また、AI開発者には、製品設計が包括的で透明であること、そして人種、民族、性別などによる偏見のないデータでトレーニングされることが求められています。
医療AI企業のリーダーたちは、WHOのこの新ガイドラインに主に肯定的な反応を示しています。InfermedicaのCEO、Piotr Orzechowskiは、医療設定におけるAIの責任ある使用を確実にするための重要な一歩と評価しています。また、Medicomp SystemsのJay Andersは、すべての医療AIに外部規制が必要であると述べ、賛同しています。一方で、SmarterDxのMichael Gaoは、LLMsのリスクに対する恐怖が革新を妨げるべきではないと指摘し、医療費の高騰に対処するためには行動が必要であると強調しています。
さらに、合成データ会社MDCloneのLuz Eruzは、WHOのガイドラインが合成データに言及していないことを指摘しました。合成データは、実際のデータの統計的特性を模倣した非可逆的に生成されたデータであり、プライバシー問題なしに大量の患者データを迅速に解析し要約する能力を研究者に提供します。この技術の利点により、この分野の成長が期待されており、規制当局がこの進展に追いつくための課題が生じる可能性があります。
このガイドラインは、医療分野におけるAIの使用がもたらす潜在的な利益とリスクのバランスを取りながら、技術革新を促進し、患者の安全を確保するための枠組みを提供します。医療AIの発展は、診断の精度向上、治療プロセスの効率化、医療コストの削減など、多くの利点をもたらす可能性があります。しかし、不正確な出力や偏見のあるデータに基づく決定など、潜在的なリスクも伴います。このため、WHOのガイドラインのような倫理的かつガバナンスの枠組みは、医療AI技術の健全な発展を支える重要な役割を果たします。
from How Are Healthcare AI Developers Responding to WHO’s New Guidance on LLMs?.