advertisements

AI診療システムScopeAI、ホームレス向けクリニックで導入―医療階級主義の懸念高まる

英国The Guardianは2026年1月25日、弁護士Leah Goodridgeと医師Oni Blackstockによるオピニオン記事を掲載し、低所得者向け医療におけるAI利用のリスクを警告した。

南カリフォルニアの民間企業Akido Labsが、ホームレスや低所得者向けのクリニックを運営している。患者は医療アシスタントが診察し、AIが会話を聞いて診断と治療計画を出力、医師がレビューする仕組みである。

2025年の米国医師会調査では、3人に2人の医師が診断を含む日常業務でAIを使用していると報告された。あるAIスタートアップは医療専門家向けアプリのために2億ドルを調達した。

しかし2021年のNature Medicine誌の研究では、AIアルゴリズムが黒人およびラテン系患者、女性患者、メディケイド保険患者を体系的に過小診断していることが判明した。2024年の研究では、AIが黒人患者の乳がん検診で偽陽性率が高いことが明らかになった。

TechTonic Justiceは9200万人の低所得アメリカ人の生活の基本的側面がAIによって決定されていると推定している。2023年、Medicare Advantage顧客がミネソタ州でUnitedHealthcareを訴え、AIシステムnH Predictによる誤判定で補償を拒否されたと主張した。2025年に裁判官は一部請求の進行を認める判決を下した。

From: 文献リンクWe must not let AI ‘pull the doctor out of the visit’ for low-income patients

【編集部解説】

南カリフォルニアのホームレスや低所得者向けクリニックで、AIが医師の代わりに診断と治療計画を立てる新しい試みが物議を醸しています。この動きは、医療現場へのAI導入という大きな潮流の一部ですが、その影響は決して平等ではありません。

Akido Labsが運営するこの診療モデルでは、医療アシスタントが患者と対話し、AIシステムScopeAIがその会話を分析して診断と治療計画を提示します。医師は後からそれをレビューするだけです。同社のCTOがMIT Technology Reviewに対して「診察から医師を引き抜く」と表現したこの仕組みは、医師不足への対応策として提示されていますが、実質的には低所得者層が人間の医師による直接診察を受けられなくなることを意味します。

ScopeAIはMetaのLlamaAnthropicのClaudeといった大規模言語モデルを活用し、医療アシスタントに構造化された質問を提示します。同社は、過去データとの照合テストで92%の確率で正しい診断をトップ3の候補に含めたと報告していますが、実際の臨床環境での大規模な成果研究は行われていません。カリフォルニア大学バークレー校のコンピューター科学者Emma Piersonは、標準的な対面診療やテレヘルスとの比較評価の重要性を指摘しています。

この背景には、メディケイド(低所得者向け公的医療保険)の仕組みがあります。メディケイドは医師が後から承認すればよいという規定になっているため、このようなAI主導の診療が可能になっています。一方、他の保険では医師が直接患者と対話することが求められます。つまり、経済的余裕のある人は人間の医師による診察を受けられるが、低所得者はAIで済まされるという構造的な格差が生まれているのです。

さらに深刻なのは、AIシステムそのものに内在する偏見の問題です。2021年のNature Medicine誌の研究では、大規模な胸部X線データセットで訓練されたAIアルゴリズムが、黒人患者、ラテン系患者、女性患者、メディケイド保険加入者を体系的に過小診断していることが明らかになりました。2024年のRadiology誌の研究では、FDA承認済みAIプログラムProFound AI 3.0を使用した約4,800人の乳がん検診において、黒人患者の偽陽性率が白人患者より50%高い(オッズ比1.5)ことが示されています。高齢者(71-80歳)も若年層(51-60歳)と比べて90%高い偽陽性率を示しました。

これらの偏見は、AIが学習データの偏りをそのまま反映してしまうことに起因します。医療画像データベースの多くは白人患者中心で構成されており、有色人種や女性のデータが不足しています。AIは独立して「思考」しているわけではなく、確率とパターン認識に基づいて動作するため、訓練データの偏りがそのまま診断の偏りとして現れるのです。

患者がAI使用を知らされていないケースも少なくありません。ある医療アシスタントがMIT Technology Reviewに語ったところによれば、患者にAIが会話を聞いていることは伝えているものの、診断推奨を行っていることは伝えていないといいます。これは、インフォームド・コンセントなしに黒人が医学実験の対象とされた歴史を想起させる問題です。

診断精度を超えて、AIは低所得者の医療アクセスそのものを決定する権限を持ち始めています。TechTonic Justiceが2024年11月に発表した報告書「Inescapable AI」によれば、連邦貧困線の200%未満の所得を持つ9200万人のアメリカ人が、生活の基本的な側面においてAIによる決定を受けています。これにはメディケイドからの給付額、社会保障局の障害保険の資格判定、住宅審査、雇用決定などが含まれます。

現実にこの問題は法廷で争われています。2023年11月、Medicare Advantageの顧客グループがミネソタ州連邦裁判所でUnitedHealthcareを訴えました。同社の子会社NaviHealthが開発したAIシステムnH Predictが誤って不適格と判断したために、急性期後ケアの補償を拒否されたという主張です。原告の中には、医学的に必要なケアの拒否の結果として死亡した患者の遺族も含まれています。

原告側の訴状によれば、nH Predictは90%のエラー率を持つとされています。これは不服申し立ての90%以上が最終的に覆されたことに基づく主張です。しかし保険会社は、わずか0.2%の加入者しか不服申し立てをしないため、このシステムを使い続けているとされています。UnitedHealth側はnH Predictを補償決定には使用しておらず、あくまで患者に必要なケアの種類を情報提供するためのガイドツールだと反論しています。

2025年2月、連邦裁判所の判事は訴訟の一部却下を命じましたが、契約違反と誠実義務違反の主張については訴訟の継続を認めました。ケンタッキー州でもHumanaに対して同様の訴訟が起こされており、こちらも進行中です。

この状況は「医療階級主義」と呼ぶべきものです。経済的資源があれば質の高い人間による医療を受けられますが、ホームレスや低所得者である場合、AIが医療へのアクセスそのものを完全に妨げる可能性があります。スタートアップや技術ベンチャーが約束する証明されていない利益よりも、文書化された害の方がはるかに大きいのが現状です。

医療におけるAI活用には効率化や医師不足への対応といった潜在的な利点もあります。しかし、ホームレスや低所得者を実験台にすべきではありません。彼らには、健康関連のニーズと優先事項に耳を傾ける人間の医療提供者による患者中心のケアを受ける権利があります。AIがどのように、いつ、そしてどのような形で医療に実装されるかについて、患者自身の声と優先事項が主導権を握るべきなのです。

【用語解説】

メディケイド (Medicaid)
米国の低所得者向け公的医療保険制度。連邦政府と州政府が共同で運営し、所得が一定基準以下の個人や家族に医療サービスを提供する。

Medicare Advantage
民間保険会社が提供するメディケア(高齢者・障害者向け公的医療保険)の代替プラン。従来のメディケアと同等の給付を提供しつつ、追加サービスを含むことが多い。

Prior Authorization(事前承認)
保険会社が特定の医療サービスや処方薬の費用を負担する前に、医師が事前に承認を得る必要がある手続き。AI化が進んでいる領域である。

アルゴリズムバイアス
機械学習アルゴリズムが訓練データの偏りを反映し、特定の人種、性別、社会経済的グループに対して不公平な結果を生み出す現象。

ストリートメディシン (Street Medicine)
ホームレスや住居不安定な人々のもとへ医療従事者が直接出向いて医療を提供する活動。

大規模言語モデル (LLM: Large Language Model)
膨大なテキストデータで訓練された深層学習モデル。自然言語の理解と生成が可能で、医療分野では診断支援などに活用されている。

【参考リンク】

Akido Labs(外部)
2015年設立のヘルスケアテクノロジー企業。AI駆動の医療提供システムScopeAIを開発している。

TechTonic Justice(外部)
低所得者層に対するAIの害から保護することを目的とする非営利組織。2024年11月設立。

Nature Medicine(外部)
世界最高峰の医学研究誌の一つ。AIと医療に関する査読付き研究論文を多数掲載している。

Radiology (北米放射線学会誌)(外部)
放射線医学における世界最高峰の学術誌。医療画像診断AIの性能評価研究を掲載している。

【参考記事】

This medical startup uses LLMs to run appointments and make diagnoses(外部)
MIT Technology ReviewによるAkido LabsのScopeAIシステムの詳細な調査記事

Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs(外部)
AIアルゴリズムが黒人、ラテン系患者を体系的に過小診断することを実証した研究

Patient Characteristics Impact Performance of AI Algorithm(外部)
乳がん検診AIが黒人女性に50%高い偽陽性率を示したことを定量的に報告

Class action lawsuit against UnitedHealth’s AI claim denials advances(外部)
UnitedHealthcareのAIシステムによる保険拒否訴訟の進展を報告する記事

Inescapable AI: The Ways AI Decides How Low-Income People Work, Live, Learn, and Survive(外部)
9200万人の低所得アメリカ人の生活がAIによって決定されていることを定量化した報告書

Judge Decides Class Action Can Proceed Against UnitedHealth for Use of AI(外部)
UnitedHealthcareのAI訴訟に関する法的分析と2025年2月の裁判所判決の詳細

Akido Labs Uses Meta’s Llama And Anthropic’s Claude To Diagnose Patients(外部)
ScopeAIの技術的詳細とビジネスモデル、法的懸念点を報告する記事

【編集部後記】

AIが医療をより効率的にする可能性は確かに存在します。しかし、その恩恵が誰に届き、誰が実験台にされるのか。この問いは、私たち全員が考えるべき課題ではないでしょうか。テクノロジーの進化を追いかける私たちも、効率性の追求が新たな格差を生んでいないか、常に問い続けたいと思います。みなさんは、医療の現場でAIがどこまで介入すべきだと考えますか。そして、経済状況によってその境界線が変わることは許容できるでしょうか。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…

innovaTopia の記事は、紹介・引用・情報収集の一環として自由に活用していただくことを想定しています。

継続的にキャッチアップしたい場合は、以下のいずれかの方法でフォロー・購読をお願いします。