Last Updated on 2024-10-17 09:06 by admin
2024年10月10日、ニューヨーク州サラトガ郡のジョナサン・ショプフ判事が、専門家証人によるAIチャットボットの使用に関する判決を下した。
事案は、バハマの賃貸物件をめぐる信託受益者と受託者(受益者の叔母)の争いだった。物件は2022年1月に485,000ドルで売却され、運営損失を差し引いた323,721ドルが純利益となった。
専門家証人のチャールズ・ランソン氏は、損失価値の計算をクロスチェックするためにMicrosoft Copilotを使用したと証言した。
ショプフ判事は、Copilotに同じ質問を3回行い、それぞれ異なる回答を得た。250,000ドルを2004年12月31日から2021年1月31日までVanguard Balanced Index Fundに投資した場合の価値について、949,070ドル、948,209ドル、951,000ドルという3つの異なる結果が出た。
判事はさらに、Copilotに法廷での使用に関する信頼性を尋ねたところ、AIは専門家による検証の必要性を強調した。
ショプフ判事は、AIの使用と生成された証拠を開示する義務が弁護士にあると結論づけた。また、AIによる証拠の許容性を判断するために、裁判所は聴聞会を開くべきだとした。
最終的に、判事は受益者側が受託者の信認義務違反を証明できなかったとし、仮に違反があったとしても損害を証明できなかったと判断した。
from:When queried by judge, chatbot had less faith in its output than expert who used it – ABA Journal
【編集部解説】
今回のニュースは、法廷でのAI利用に関する興味深い事例を取り上げています。この事案から、AIの法的利用における課題と可能性について考えてみましょう。
まず注目すべきは、専門家証人がMicrosoft Copilotを使用して計算をクロスチェックしたという点です。これは、AIが専門家の業務をサポートする可能性を示しています。しかし同時に、AIの出力に対する過度の信頼が問題を引き起こす可能性も浮き彫りになりました。
ショプフ判事がCopilotに同じ質問を3回行い、それぞれ異なる回答を得たことは非常に興味深いです。これは、AIの出力が必ずしも一貫性や再現性を持たない可能性を示しています。法廷での証拠として使用する場合、この不確実性は大きな課題となるでしょう。
AIの法的利用に関しては、透明性と説明責任が重要になります。専門家証人が使用したプロンプトや、AIが参照したソースを明確にできなかったことは、この点での課題を浮き彫りにしています。
一方で、AIが自身の限界を認識し、専門家による検証の必要性を強調したことは注目に値します。これは、AIが自己の能力を適切に評価できる可能性を示唆しています。
この事例は、法律分野におけるAI利用の可能性と課題を明確に示しています。AIは専門家の業務を効率化する一方で、その使用には慎重さが求められます。
今後、法廷でのAI利用に関するガイドラインや規制の整備が進むことが予想されます。また、AIの出力を検証するための新たな手法や、法的に信頼できるAIシステムの開発が進む可能性もあります。
長期的には、AIが法律家の業務を大きく変革する可能性があります。しかし、人間の専門知識や判断力の重要性は変わらないでしょう。AIと人間の適切な協働が、より公正で効率的な法システムを実現する鍵となるかもしれません。
この事例は、テクノロジーの進化が社会システムに与える影響を考える上で、非常に示唆に富んでいます。私たちは、AIの可能性を最大限に活かしつつ、その限界や課題にも目を向ける必要があるのです。