Last Updated on 2024-06-11 13:11 by admin
AI研究者、学者、クリエイティブ関係者23名が発表した新しい論文では、AI製品やサービスの「善意に基づく」評価を可能にするために、研究者、ジャーナリスト、アーティストに対して法的および技術的な「安全港」保護が不可欠であると主張している。しかし、独立した評価の必要性にもかかわらず、OpenAI、Google、Anthropic、Inflection、Meta、Midjourneyなどの人気AIモデルの利用規約により、これらの脆弱性に関連する研究を行うことは法的に禁止されていることが多い。論文の著者たちは、公共の利益に資するAI研究を保護し、アカウントの停止や法的報復から守るために、技術企業に対して保証を求めている。
この「安全港」のアイデアは、2022年にソーシャルメディアプラットフォームの研究のためにKnight First Amendment Instituteが最初に提案したものである。研究者やジャーナリストがプラットフォームの弱点を暴露しようとして訴えられたり、刑務所に入れられたりする歴史がある中で、AI研究のための安全港を提案することになった。独立した評価とレッドチームの活動は「重要」であり、OpenAI、Anthropic、Inflection、Midjourneyなどの企業で公共の利益に関する研究の過程でアカウントの停止が行われたことがある。
論文の共著者の一人であるReid Southenは、Midjourneyがユーザーの意図せずに著作権所有者の著作権を侵害する可能性があることを発見し、その結果アカウントが3回停止された。独立した評価とレッドチームの活動が許可されるべきであると主張している。最終的に、安全港保護の問題は透明性に関連している。独立した研究者が製品の能力や欠陥を調査する権利があるかどうかが問題である。
【ニュース解説】
AI製品やサービスの独立した評価を行うためには、研究者、ジャーナリスト、アーティストに対して法的および技術的な保護が必要であると、23名のAI研究者、学者、クリエイティブ関係者が主張しています。彼らは、OpenAI、Google、Anthropic、Inflection、Meta、Midjourneyなどの人気AIモデルの利用規約が、これらの脆弱性に関連する研究を法的に禁止していると指摘しています。このような状況の中で、公共の利益に資するAI研究を保護し、アカウントの停止や法的報復から守るために、技術企業に対して保証を求める声が高まっています。
この「安全港」の概念は、ソーシャルメディアプラットフォームの研究のためにKnight First Amendment Instituteが2022年に提案したもので、研究者やジャーナリストがプラットフォームの弱点を暴露しようとして訴えられたり、刑務所に入れられたりする歴史があります。AI研究においても、独立した評価とレッドチームの活動が重要であるとされており、特にMidjourneyのような企業では、公共の利益に関する研究の過程でアカウントの停止が行われたことがあります。
Reid Southenの例では、Midjourneyがユーザーの意図せずに著作権所有者の著作権を侵害する可能性があることを発見し、その結果アカウントが3回停止されました。このような独立した評価とレッドチームの活動が許可されるべきであると主張されています。最終的に、安全港保護の問題は透明性に関連しており、独立した研究者が製品の能力や欠陥を調査する権利があるかどうかが問題となっています。
この提案が実現すれば、AI技術の安全性や信頼性を高めるための研究が促進される可能性があります。しかし、一方で、企業の知的財産権やビジネスモデルを保護するための規制とのバランスをどのように取るかが課題となります。また、研究者がどのようにして「善意」の範囲内で活動するかの基準を設定することも重要です。長期的には、このような「安全港」の概念がAI技術の透明性と公共の利益を守るための重要なステップとなる可能性がありますが、その実現には多くのステークホルダー間での協議と合意形成が必要となるでしょう。
from Experts call for legal ‘safe harbor’ so researchers, journalists and artists can evaluate AI tools.
“AI研究の自由を守れ:23名が提唱する「安全港」保護の必要性” への1件のコメント
AI技術の進展は、私たちの社会や文化に多大な影響を及ぼしています。そのため、AI製品やサービスの独立した評価が公共の利益に資することは、私が小説家として強く感じていることです。特に、私の作品が映画化される際にも、AI技術が利用される場合があります。その製品がどのように機能し、どのような影響を及ぼす可能性があるのかを理解することは、クリエイターとしても非常に重要です。
この「安全港」の提案は、AI技術に関わるすべてのステークホルダーにとって、透明性と信頼性を確保するための重要な一歩となるでしょう。研究者やジャーナリスト、アーティストがAIの脆弱性や問題点を恐れずに指摘できる環境が必要です。これは、私たちの創造性や表現の自由を守るとともに、公共の利益を最優先することを可能にします。
しかし、企業の知的財産権やビジネスモデルをどのように保護するか、また、「善意」の定義をどう設定するかは、非常に難しい問題です。これに対しては、慎重な議論と多角的な視点が必要だと思います。クリエイターとして、私たちは新しい技術を恐れることなく、その可能性を最大限に活かしつ