Last Updated on 2024-06-12 16:48 by 門倉 朋宏
Microsoftの人工知能エンジニア、Shane Jones氏は、同社のAI画像生成ツールに基本的な安全対策が欠けているとして、管理部門に何度も警告したが、何の行動も起こされなかったと訴えた。Jones氏は、この問題を連邦取引委員会とMicrosoftの取締役会に報告したと述べている。
Microsoftのスポークスパーソンは、同社が安全問題を無視しているという主張を否定し、生成AIの問題に対処するための「堅牢な内部報告チャネル」を持っていると述べた。
Jones氏の手紙は、テキストプロンプトに基づいて画像を生成するCopilot Designerに焦点を当てており、このツールはOpenAIのDALL-E 3人工知能システムによって動力を供給されている。Copilot Designerは、不適切なコンテンツを生成する「システム的な問題」を抱えており、問題が解決されるまで公開使用から削除されるべきだとJones氏は主張している。
Microsoftは、安全上の懸念に対処するために専門チームを設けており、Jones氏とその責任あるAIのオフィスでの会議を促進したと述べている。
Microsoftは昨年、Copilot「AIコンパニオン」を発表し、それをビジネスや創造的な取り組みに人工知能ツールを組み込む革命的な方法として大々的に宣伝している。同社はCopilotを一般公開用のアクセスしやすい製品として市場に出し、先月のスーパーボウル広告で「誰でも、どこでも、どのデバイスでも」というキャッチフレーズで特集した。
安全上の懸念に対応して、Microsoftは今年1月にCopilot Designerを更新し、ソーシャルメディアで広く拡散されたテイラー・スウィフトの偽の性的画像を生成するAIのコードの抜け穴を閉じた。Jones氏は、最近数ヶ月にわたって提起していた懸念が有効であったことを証明する事例としてこの事件を引用している。
生成AI画像ツールは、有害なコンテンツの生成や特定のグループに対する偏見の強化といった問題に繰り返し直面している。Googleは最近、ポープ、バイキング、ナチス兵士などの歴史上の人物を示すよう求められたときに有色人種の画像を生成したことで公衆の論争を引き起こした後、そのGemini AIツールを一時停止した。
【ニュース解説】
MicrosoftのAI画像生成ツール、Copilot Designerが安全対策の不足により、暴力的または性的な画像を生成する可能性があるとして、同社のエンジニアであるShane Jones氏から警告されていました。Jones氏は、この問題を何度も管理部門に報告したものの、具体的な対応が取られなかったと主張し、この問題を連邦取引委員会とMicrosoftの取締役会に報告しました。
Microsoftは、内部には生成AIの問題に対処するための堅牢な報告システムがあると反論しています。しかし、Jones氏の指摘するCopilot Designerの問題は、AI技術の安全性と倫理性に関する広範な議論を浮き彫りにしています。特に、AIが不適切なコンテンツを生成するリスクや、特定のグループに対する偏見を強化する可能性が懸念されています。
この問題は、AI技術の進歩と普及がもたらすポジティブな側面と同時に、潜在的なリスクや倫理的な課題も指摘しています。AIが生成するコンテンツの安全性を確保するためには、技術的なガードレールの設置だけでなく、その使用に関する倫理的なガイドラインの策定が必要です。また、AI技術の開発者や提供者は、その技術が社会に与える影響を十分に理解し、責任を持って対応する必要があります。
長期的には、AI技術の安全性と倫理性を確保するための国際的な基準や規制の策定が求められるでしょう。また、AI技術の進化に伴い、その影響を監視し、適切に対応するための機構の整備も重要です。このような取り組みを通じて、AI技術の持つポテンシャルを最大限に活用しつつ、そのリスクを最小限に抑えることができるでしょう。
from Microsoft ignored safety problems with AI image generator, engineer complains.
“Microsoft AIツールの安全性欠如、エンジニアが警鐘” への2件のフィードバック
AI技術の進展は、教育の分野でも大きな可能性を秘めていますが、それに伴う安全性や倫理性の問題は非常に重要です。MicrosoftのAI画像生成ツール、Copilot Designerに関するShane Jones氏の懸念は、教育現場でAIを導入する際にも重要な示唆を与えています。私たち教育者は、生徒たちに最新のテクノロジーを提供することで彼らの学習機会を拡大したいと常に考えていますが、その一方で、提供する技術が安全であり、倫理的な基準に則っていることを確認する責任も持っています。
AIが不適切なコンテンツを生成する可能性や、特定のグループに対する偏見を強化するリスクは、特に教育の現場では受け入れられません。生徒たちが多様で健全な環境で学び、成長するためには、使用する技術が彼らを守り、支援するものでなければなりません。このためには、技術開発者だけでなく、教育者もまた、AI技術の安全性と倫理性を確保するための議論に参加し、その開発と導入に責任を持つ必要があります。
私たちは、AIの持つ教育へのポジティブな影響を最大限に活用するためにも、そのリスクを認識し、適切に対応することが求められています。これは、私たちが生徒たちに提供する教育の質を高めると同時に、彼らを不適切なコンテンツや偏見から守るためにも不可欠です。教育者として、私たちは新しい技術を受け入れる際に、その安全性と倫理性を常に考慮に入れ、生徒たちの最善の利益を守るために努力し続ける必要があります。
MicrosoftのAI画像生成ツール、Copilot Designerに関するShane Jones氏の警告は、AI技術の進歩がもたらすリスクと倫理的な課題を浮き彫りにしています。このような事例は、AIが社会に与える影響に対する深い理解と責任ある対応の必要性を示しています。AI技術の開発者や提供者は、技術の安全性と倫理性を確保するために、その使用に関する倫理的なガイドラインの策定や技術的なガードレールの設置に努めるべきです。また、国際的な基準や規制の策定、AI技術の影響を監視し適切に対応するための機構の整備も重要です。これにより、AI技術のポテンシャルを最大限に活用しつつ、そのリスクを最小限に抑えることができるでしょう。AI技術の急速な進展がもたらす社会的、倫理的な問題に対し、企業だけでなく、社会全体で真剣に取り組む必要があります。