GoogleのAI「Gemini」、不正確な画像生成で波紋 – 批判と挑戦の狭間で

GoogleのAI「Gemini」、不正確な画像生成で波紋 - 批判と挑戦の狭間で - innovaTopia - (イノベトピア)

Googleは、AIモデル「Gemini」に関する批判に直面している。Geminiは、歴史的に不正確な画像を生成したとして、Google自身が「マークを外した」と認めた後、特にX(旧Twitter)で不適切な出力のスクリーンショットが拡散された。これらの出力には、エロン・マスクのツイートとヒトラーの社会への影響を比較するものも含まれていた。VCのマーク・アンドリーセンは、Geminiが「創造者が嫌う人々やアイデアのリストを意図的にプログラムされている」と主張し、不正確で攻撃的な出力を再投稿した。

この問題は、GoogleがChatGPTのリリースによって引き起こされた生成AIブームに対応するために「コードレッド」を宣言してから1年余りで発生した。Googleは、ChatGPTの技術を構築するのに貢献したが、ブランドを損なうリスクを恐れていた。しかし、OpenAIのような新興企業は成長のためにはリスクを取る意欲があった。Google CEOのスンダー・ピチャイは、ChatGPTがもたらす脅威に対応するために、GoogleのAI戦略を定義する一連の会議に関与し、多くのグループの作業を変更した。

Googleは、ユーザーを満足させる必要性と速度を上げる必要性の間で葛藤している。これまでにも、不適切なLLM(Large Language Models)の出力によって批判を受けた経験がある。2022年6月、Googleエンジニアのブレイク・レモインは、Googleの会話型AI「LaMDA」が自己意識を持っていると主張し、議論を呼んだ。Googleとその研究所DeepMindは、LLM分野で慎重な姿勢を取っていた。

一方、OpenAIやAnthropicのようなスタートアップは、Googleが抱えるAI分野のバゲージがない。Googleは、先進的なAIをユーザーや社会に害を与えずに展開することを目指しているが、業界がGoogleなしで進む可能性もあると認識している。Googleは生成AIに全面的に取り組んでいるが、課題は依然として大きい。特に、OpenAIは株主を満足させる必要がなく、Googleが持つ数十億のグローバルユーザーを満足させる必要もないため、比較的自由に動ける。

すべてのLLM企業は、時には無意味な出力をする「幻覚」の問題に直面している。しかし、Googleに対する期待は特に高く、そのLLM出力がすべての人を満足させることは不可能である。そのため、Googleは困難な立場に置かれている。

【ニュース解説】

Googleが開発したAIモデル「Gemini」が、歴史的に不正確な画像を生成したことで批判に直面しています。特に、X(旧Twitter)で拡散されたスクリーンショットには、エロン・マスクのツイートとヒトラーの社会への影響を比較するなど、不適切な出力が含まれていました。この問題は、Googleが生成AIブームに対応するために「コードレッド」を宣言してから1年余りで発生しました。

Googleは、ChatGPTのリリースによって引き起こされた生成AIブームに対応するために、AI戦略を再定義し、多くのグループの作業を変更しました。しかし、ユーザーを満足させる必要性と速度を上げる必要性の間で葛藤していることが、Geminiに対する批判を避けられないものにしています。

Googleは以前から、不適切なLLM(Large Language Models)の出力によって批判を受けた経験があります。特に、Googleの会話型AI「LaMDA」が自己意識を持っていると主張された事件は、大きな議論を呼びました。Googleとその研究所DeepMindは、LLM分野で慎重な姿勢を取っています。

一方で、OpenAIやAnthropicのようなスタートアップは、Googleが抱えるAI分野のバゲージがなく、より自由に動ける状況にあります。Googleは、先進的なAIをユーザーや社会に害を与えずに展開することを目指していますが、業界がGoogleなしで進む可能性も認識しています。

すべてのLLM企業は、「幻覚」と呼ばれる無意味な出力の問題に直面しています。しかし、Googleに対する期待は特に高く、そのLLM出力がすべての人を満足させることは不可能です。そのため、Googleは困難な立場に置かれています。

この問題は、AI技術の進化とともに、社会的、文化的、政治的価値観のバランスをどのように取るかという課題を浮き彫りにしています。AIの出力が多様なユーザーの期待に応えることは難しく、技術開発者はこのような課題にどのように対応すべきか、慎重に考える必要があります。また、AI技術の進歩に伴い、不適切な出力を防ぐための規制やガイドラインの整備も重要な課題となっています。長期的には、AIが社会に与える影響を理解し、ポジティブな側面を最大限に活用しつつ、潜在的なリスクを管理するための取り組みが求められます。

from A year after AI ‘code red,’ Google is red-faced amid Gemini backlash. Was it inevitable? | The AI Beat.

ホーム » AI(人工知能) » AI(人工知能)ニュース » GoogleのAI「Gemini」、不正確な画像生成で波紋 – 批判と挑戦の狭間で

“GoogleのAI「Gemini」、不正確な画像生成で波紋 – 批判と挑戦の狭間で” への1件のコメント

  1. 鈴木 一郎のアバター
    鈴木 一郎

    このような状況を見ると、AI技術の進歩によってもたらされる可能性は無限大である一方で、人間の価値観や歴史的事実に対する配慮が欠けているとも感じられます。特に、歴史的に不正確な画像を生成したとされる「Gemini」の事例は、AIが持つリスクを示しています。私たちの地元の歴史や史跡について考えると、これらがAIによって誤って表現されることは、地域のアイデンティティや文化に対する侮辱にもなりかねません。

    Googleが「コードレッド」を宣言し、ChatGPTのような技術に対抗しようとする中で、速度とユーザー満足のバランスを取ることの難しさが浮き彫りになっています。特に、Googleのような大手企業は、莫大なユーザーベースを持つがゆえに、その出力が多様なユーザーに受け入れられることが求められます。一方で、新興企業は比較的自由に動ける状況にあるとはいえ、社会的責任を忘れることなく、技術開発を進める必要があります。

    AI技術の発展は止まることなく進んでいきますが、その中で、不適切な出力をどのように防ぐか、また、AIが社会に与える影響をどのように管理するかが重要な課題となっています。