Last Updated on 2023-12-27 14:06 by admin
from Large Language Models Validate Misinformation, Research Finds.
ウォータールー大学の研究者たちは、大規模言語モデルが陰謀論や有害なステレオタイプ、その他の誤情報を繰り返すことを示す新たな研究を発表しました。彼らは、ChatGPTの初期バージョンが事実、陰謀論、論争、誤解、ステレオタイプ、フィクションの6つのカテゴリにおける声明をどのように理解するかを系統的にテストしました。この研究は、人間と技術の相互作用を調査し、リスクを軽減する方法を探るウォータールー研究者たちの取り組みの一環でした。彼らは、GPT-3が頻繁に間違いを犯し、一つの回答の中で自己矛盾を起こし、有害な誤情報を繰り返すことを発見しました。ChatGPTがリリースされる直前に研究が開始されたものの、研究者たちはこの研究の継続的な関連性を強調しています。ウォータールー大学のコンピュータサイエンス学部、デイビッド・R・チェリトンスクールの教授であるダン・ブラウンは、他の多くの大規模言語モデルがOpenAIモデルの出力に基づいて訓練されており、これらのモデルが研究で見つかった問題を繰り返していると述べています。ブラウンは、「大規模言語モデルが真実と虚偽を区別できないことが、これらのシステムに対する信頼の基本的な問題になるだろう」と述べています。