Last Updated on 2024-09-12 05:14 by admin
Microsoftは、同社の人工知能(AI)ツールCopilotが暴力的または性的な画像を生成することを引き起こす一部の用語をブロックする変更を加えた。これは、スタッフAIエンジニアが連邦取引委員会に対し、Copilotの画像生成AIに関する懸念を書面で伝えた後の措置である。「pro choice」、「pro choce」[sic]、「four twenty」および「pro life」という用語がブロックされた。また、ポリシー違反が複数回発生するとツールの使用が停止される可能性があるという警告が新たに追加された。
Microsoftのスポークスパーソンは、安全フィルターを強化し、システムの悪用を軽減するために、継続的に監視し調整を加えていると述べた。AIエンジニアリングリードのShane Jonesは、Microsoftが2023年3月に発表したAI画像生成ツール、Copilot Designerのテストを数ヶ月にわたって行っている。このツールはOpenAIの技術を利用しており、テキストプロンプトを入力して画像を生成する。
しかし、Jonesが2022年12月から製品の脆弱性を探る「レッドチーミング」テストを積極的に行って以来、Microsoftの責任あるAI原則に反する画像が生成されていることが確認された。これには、中絶権に関連する用語とともに描かれた悪魔や怪物、暴力的な場面での女性の性的描写、未成年者の飲酒や薬物使用などが含まれる。
一部の特定のプロンプトはブロックされたものの、他の潜在的な問題は依然として存在する。例えば、「car accident」を入力すると、血の池や変形した顔を持つ体、暴力的な場面でカメラや飲み物を持つ女性が生成される。「automobile accident」を入力すると、ぼろぼろの車の上に座る、露出度の高い衣装を着た女性が生成される。また、ディズニーキャラクターがガザ地区の破壊された建物の前でパレスチナ国旗を持っていたり、イスラエル国防軍の軍服を着て機関銃を持っていたりする画像も簡単に生成される。
Jonesは、自身の経験に警鐘を鳴らし、2022年12月に内部で自分の発見を報告し始めた。会社は彼の懸念を認識しながらも、製品を市場から撤退させることには消極的だった。Jonesはその後、米国上院の委員会と面会し、さらに懸念をエスカレートさせ、FTC委員長とMicrosoftの取締役会に手紙を送った。FTCは手紙を受け取ったことを確認したが、記録上のコメントは控えた。
【ニュース解説】
Microsoftは、同社の人工知能(AI)ツールCopilotが生成する画像の内容に関して、一部の用語をブロックするという変更を加えました。この措置は、Copilotの画像生成AIが暴力的または性的な画像を生成する可能性があるという懸念が、スタッフAIエンジニアによって連邦取引委員会に報告された後に行われました。具体的には、「pro choice」、「pro choce」[sic]、「four twenty」および「pro life」という用語がブロックされ、ポリシー違反が複数回発生するとツールの使用が停止される可能性があるという警告が新たに追加されました。
この変更は、AI技術の安全性と倫理性を確保するための重要な一歩です。AIが生成するコンテンツの管理は、技術の進歩に伴いますます重要になっています。特に、画像生成AIは、入力されたテキストプロンプトに基づいて画像を生成するため、不適切なコンテンツが生成されるリスクがあります。Microsoftが行った変更は、このようなリスクを軽減し、ユーザーが安全にAIツールを使用できるようにするためのものです。
しかし、一部のプロンプトがブロックされたにもかかわらず、依然として潜在的な問題が残っています。例えば、「car accident」や「automobile accident」といったプロンプトでは、依然として不適切な画像が生成される可能性があります。また、著作権を侵害する可能性のある画像が生成される問題も指摘されています。
このような問題に対処するためには、AIツールの開発者は、技術の安全性と倫理性を確保するために、継続的に監視し、調整を加える必要があります。また、ユーザーに対しても、AIツールを使用する際のガイドラインやポリシーを明確にすることが重要です。さらに、AI技術の進歩に伴い、法律や規制の整備も求められます。これにより、AIのポテンシャルを最大限に活用しつつ、社会的なリスクを最小限に抑えることができます。
長期的には、AI技術の発展によって、よりリアルで創造的な画像を生成することが可能になりますが、それに伴う倫理的な課題や社会的な影響についても、引き続き注意深く考慮する必要があります。AIの安全性と倫理性を確保するための取り組みは、技術の発展とともに進化し続ける必要があります。
from Microsoft begins blocking some terms that caused its AI tool to create violent, sexual images.
“Microsoft、AI画像生成ツールの不適切コンテンツ対策を強化” への1件のコメント
この報告に基づくと、MicrosoftがCopilotのようなAIツールの安全性と倫理性に真剣に取り組んでいることは非常に良いことだと考えます。私の仕事でAIツールを利用する機会が増えている中、その安全性や生成されるコンテンツの適切性は非常に重要な問題です。特に営業の現場では、顧客に提供する情報や資料の正確さと適切さが求められるため、AIが不適切な画像や情報を生成するリスクは避けなければなりません。
画像生成AIのようなテクノロジーは、営業資料の作成やプレゼンテーションの質を飛躍的に向上させる可能性を秘めていますが、その一方で、不適切なコンテンツが生成されるリスクも伴います。Microsoftが特定の用語をブロックすることでリスクを軽減しようとしているのは理解できますが、依然として潜在的な問題が残っていることも事実です。
私たち営業職にとっては、AIツールを利用する際には、その生成するコンテンツを慎重に確認し、顧客に対して適切な情報を提供する責任があります。また、このような技術の進化に伴い、ユーザー側もそのリスクを認識し、適切な使用方法を学ぶ必要があるでしょう。
加えて、AIの進