Last Updated on 2024-12-15 08:00 by admin
2024年12月14日、英国の新聞The Guardianは、AI入居審査システム「SafeRent Solutions」に関する訴訟の和解について報じました。
事案の概要
メアリー・ルイスさんは、17年間の優れた賃貸履歴があったにもかかわらず、SafeRentのAIスコアが324点と低く評価され、アパートの賃貸申請を拒否されました。申請が受理されるには443点以上のスコアが必要でした。マサチューセッツ州で400人以上の黒人やヒスパニック系の住宅バウチャー利用者が同様の経験をしていました。
訴訟の結果
2022年、ルイスさんらはSafeRent Solutionsを公正住宅法に基づいて訴えました。2024年11月20日、SafeRent Solutionsは230万ドル(約3億3000万円)の支払いに合意。今後5年間、住宅バウチャー利用者に対してスコアリングシステムの使用を停止することを約束しました。
【編集部解説】
SafeRentのAIシステムは、クレジットスコアや債務履歴などの金融データを分析し、入居希望者の「質」を数値化していました。しかし、このアルゴリズムは家賃の支払い履歴という最も重要な要素を十分に考慮せず、また住宅バウチャーという政府保証による安定収入も評価対象外としていました。
このケースは、AIシステムの「説明可能性」という重要な課題を浮き彫りにしています。11ページにも及ぶレポートでさえ、なぜそのスコアになったのか説明できなかったという事実は、現代のAIシステムが抱える「ブラックボックス問題」を象徴しています。
社会的影響と課題
米国では約9,200万人の低所得者が、住宅、雇用、医療、教育などの基本的な生活場面でAIによる判断の影響を受けているとされています。この数字は、私たちの社会がいかにAIシステムに依存し始めているかを示しています。
特筆すべきは、このシステムが「人間による判断の回避」のツールとして使用されていた点です。管理会社はAIの判断を「第三者による客観的な評価」として扱い、その決定に対する説明責任を回避していました。
法的・制度的対応
2024年5月、米国住宅都市開発省(HUD)は、AIを使用した入居審査に関する新しいガイドラインを発表しました。このガイドラインでは以下の6つの原則が示されています:
- 関連性のある審査基準のみを選択すること
- 正確な記録のみを使用すること
- 適切な審査方針に従うこと
- 審査プロセスの透明性を確保すること
- 申請者が否定的な情報に異議を申し立てられるようにすること
- 公正住宅法に準拠したモデルの設計とテストを行うこと
今後の展望
この訴訟の結果は、AIシステムの設計と運用に関する重要な転換点となる可能性があります。特に、アルゴリズムの透明性確保と、人間による適切な監督の必要性が強調されています。
また、このケースは単なる技術的な問題ではなく、社会的公正さとAIの利用のバランスをどう取るかという、より大きな課題を提起しています。今後、同様のAIシステムの導入に際しては、技術的な精度だけでなく、社会的な影響も含めた総合的な評価が必要となるでしょう。