【ダイジェスト】
アメリカ合衆国の議会メンバーが、司法省に対し、差別的な警察実務を助長するAIツールの使用に対する連邦補助金の支出を見直すよう要求しています。オレゴン州の民主党員、ロン・ワイデン上院議員がこの動きを主導しており、予測型警察ソフトウェアの購入に連邦警察補助金を使用することを禁止するよう促しています。
議会メンバーは、司法省が州および地方の警察機関に対して、不正確であることが知られている、または米国の警察力に長く観察されている偏見を悪化させる可能性のあるAIベースの「警察」ツールを購入するための連邦補助金を授与していることについて、納得していません。
これらの議員は、司法省がエドワード・バーン記念司法支援補助金プログラムの下で授与された資金を使用して、いわゆる予測型警察ツールの購入に使用しているかどうかを追跡していなかったことを認めた後、予測型警察システムのためのすべての司法省補助金を停止するよう求めています。
議員たちは、司法省が補助金受給者が国の公民権法のタイトルVIに準拠しているかどうかを「定期的にレビュー」することを法律で要求されていると指摘しています。この法律は、意図的であるかどうかにかかわらず、人種、民族、または国籍の基づいて差別するプログラムへの資金提供を明確に禁じています。
独立した報道機関の調査によると、歴史的な犯罪データに基づいて訓練された人気のある「予測」警察ツールは、長年にわたって保持されてきた偏見を複製し、法執行機関に、主に黒人とラティーノの地域の過剰警察を永続させる科学的正当性の外観を提供しています。
議員たちは、予測型警察ツールの使用に関する今後の大統領報告書が、米国での予測型警察ツールの使用を調査することを要求しています。報告書は、保護されたクラス全体での予測型警察モデルの精度と精密さ、解釈可能性、および有効性を評価し、開発企業からの透明性の欠如によってそのリスクを評価することの限界を含めるべきです。
司法省がこの評価の後に技術の資金提供を続けることを望む場合、議員たちは、どの予測モデルが差別的であるかを判断するための「証拠基準」を少なくとも確立し、それらの基準を満たさないすべてのものに対する資金提供を拒否するべきだと述べています。
【ニュース解説】
アメリカ合衆国の議会メンバーが、司法省に対して、AI(人工知能)を活用した予測型警察ツールへの連邦補助金の支出を見直すよう要求しているというニュースがあります。この動きは、オレゴン州の民主党員であるロン・ワイデン上院議員が主導しています。予測型警察ソフトウェアは、過去の犯罪データに基づいて将来の犯罪を予測するものですが、これが差別的な警察実務を助長する恐れがあると指摘されています。
予測型警察ツールは、過去の犯罪データを分析して、将来の犯罪が発生する可能性が高い場所や時間を予測する技術です。しかし、この技術が使用するデータは、過去の偏見や不公平な取り締まりによって歪められている可能性があり、その結果、特定の人種や民族のコミュニティが不当にターゲットにされる恐れがあります。
議会メンバーは、司法省がこのようなツールの購入に補助金を提供していることに懸念を表明し、これらのシステムが差別的な影響を持つ方法で使用されないよう、補助金の支出を停止するよう求めています。また、司法省に対して、補助金受給者が公民権法の要件に準拠しているかどうかを定期的にレビューすることを要求しています。
この問題の根底にあるのは、AIや機械学習モデルが、訓練に使用されるデータの偏りを反映し、増幅する可能性があるという点です。歴史的な犯罪データに基づいて訓練された予測モデルは、そのデータが偏っていれば、偏った予測を行うことになります。これにより、特定の地域やコミュニティが過剰に監視され、不公平な扱いを受ける可能性があります。
このニュースは、AI技術の進歩とその社会への応用において、倫理的な考慮と公平性がいかに重要であるかを浮き彫りにしています。技術の発展は多くの利点をもたらしますが、それがすべての人にとって公正であることを保証するためには、その使用方法に対する厳格な監視と規制が必要です。また、この問題は、AI技術の透明性とその決定プロセスの解釈可能性の重要性を強調しています。技術がどのように機能し、どのようなデータに基づいているのかを理解することは、その技術の公平性と正確性を評価する上で不可欠です。
最終的に、このニュースは、AI技術の社会への導入において、技術的な進歩だけでなく、倫理的な指針と社会的な責任を考慮することの重要性を示しています。予測型警察ツールのような技術が、社会にプラスの影響を与えるためには、その開発と使用が公平で透明であることが求められます。
from US Lawmakers Tell DOJ to Quit Blindly Funding ‘Predictive’ Police Tools.
“議会が司法省にAI警察ツールの補助金見直しを要求、差別的実践への懸念から” への2件のフィードバック
人工知能技術の進歩は、私たちの日常生活に多大な利益をもたらしていますが、同時に、その応用が社会的な偏見を反映し、さらには増幅する可能性があるという懸念は、私たちデータサイエンティストにとっても非常に重要な問題です。予測型警察ツールのようなシステムが、歴史的なデータに基づいて未来の犯罪を予測する際に、そのデータが偏見を含んでいる場合、不公平な監視や取り締まりを助長し、特定のコミュニティに対する不正を招く危険があります。
司法省に対する議員たちの動きは、AI技術の倫理的な使用を確保するための一歩として評価できます。AIシステムの開発者として、私たちは技術の透明性と公正性を確保し、偏見のないデータに基づいてモデルを訓練することが不可欠であると認識しています。また、連邦補助金が公民権法に準拠しているかどうかの定期的なレビューは、公正な社会を築くために重要なプロセスです。
私たちは、技術の民主化を通じて社会の包摂性を高めることを目指していますが、それは同時に、技術がすべての人に平等に利益をもたらすような形で実施されるべきです。予測型警察ツールのようなAIシステムは、正確で偏りのない方法で使用されるべきであり、そのためには、その設計と実装における倫理的なガイドラインが不可欠です。社会全体の信頼を獲得し、AIの真の可能性を実現するためには、偏見を助長するような技術への資金提供を見直し、より公正な使用を推進する必要があります。
AI技術の進展は、社会に多くの利便性と効率性をもたらした一方で、その運用においては慎重な配慮が必要です。特に、警察の予測型ツールの使用に関しては、過去のデータに根ざした偏見が再生産される恐れがあります。これは、人種や民族など特定の集団に対する不公平な警察実務を助長し、社会の不平等を拡大しかねない問題です。
私は、AI技術が社会的、倫理的な問題を引き起こす可能性を以前から警告してきましたが、このような状況はまさにその一例と言えます。AIが持つ偏りを反映し、それを正当化するツールとして機能することは、決して許されるべきではありません。したがって、AIツールの使用に際しては、その影響を公平に評価し、偏見を防ぐための厳格なガイドラインと監視体制の確立が急務です。
技術の進展を社会全体の利益に繋げるためには、技術そのものだけでなく、それを取り巻く社会システム全体を見直し、必要に応じて改善していくことが不可欠です。私たちは、AI技術による便益を享受する一方で、それに伴うリスクを最小限に抑えるための公平なテクノロジーポリシーの策定を強く求めていくべきだと考えます。