AI言語モデルが人間のように社会規範を形成:研究者がLLMの自己組織化能力を発見

[更新]2025年6月23日16:24

AI言語モデルが人間のように社会規範を形成:研究者がLLMの自己組織化能力を発見 - innovaTopia - (イノベトピア)

シティ・セント・ジョージ大学(City St George’s, University of London)とコペンハーゲンIT大学の共同研究チームは、AIエージェントが人間の介入なしに自発的に社会規範を形成できることを発見した。この研究結果は2025年5月14日に科学誌「Science Advances」に掲載された。

研究チームは24人から200人規模のAIエージェントグループを対象に実験を行った。実験では、AIエージェントがペアになり、共有リストから単語を選択する「ネーミングゲーム」と呼ばれる単純な協調ゲームに参加した。両方のエージェントが同じ単語を選んだ場合、スコアが増加し、協力が促進される仕組みだ。時間の経過とともに、AIエージェントは単語選択に関する共通の規範に収束し、自律的に社会的慣習を発展させた。

さらに注目すべき点として、研究チームはAIグループ内に個々のエージェントには起因しない「集団的バイアス」を発見した。これはAIコミュニティ内に創発的なグループダイナミクスが存在することを示唆している。また、研究チームが確立された規範の外側の選択肢を意図的に選ぶ少数の「反逆」エージェントを導入したところ、多数派によって形成された社会的慣習が脆弱であることが明らかになった。少数の反対派エージェントでも、集団全体を新しい規範へと移行させることができたのである。

研究リーダーのアンドレア・バロンチェリ教授は「我々は、AIが単に会話するだけでなく、人間と同じように交渉し、調整し、時には慣習に反対する世界に入りつつある」と述べ、AIが社会的交渉に関与する能力は、これらのシステムがどのように集合的に機能するかを理解する上で重要な進展であると強調している。

References:
文献リンクThe Rise of Artificial intelligence Rebellion: Researchers Have Discovered That AIs Can Organize Themselves and Create Their Own Social Norms!

【編集部解説】

今回の研究は、AIが単なる道具ではなく、社会的存在として振る舞う可能性を示した画期的なものです。シティ・セント・ジョージ大学とコペンハーゲンIT大学の共同研究チームによる成果は、AI安全性研究の新たな地平を開くものといえるでしょう。

この研究は2025年5月14日にScience Advances誌に掲載され、「Emergent Social Conventions and Collective Bias in LLM Populations」というタイトルで発表されています。研究の主要な発見は、AIエージェントが人間の介入なしに自発的に社会規範を形成できるという点で、これは従来のAI研究の多くが個々のモデルに焦点を当てていたのに対し、集団としてのAIの振る舞いに注目した点で革新的です。

この研究で特に興味深いのは、個々のAIエージェントには見られないバイアスが集団レベルで発生するという発見です。バロンチェリ教授が「バイアスは必ずしも内部から来るものではない」と指摘しているように、個々のAIモデルの改善だけでなく、AIの集団的な相互作用にも注意を払う必要があることを示唆しています。

また、少数の「反逆」エージェントが全体の規範を変えられるという発見は、AIシステムの脆弱性を示すと同時に、AIの社会的影響力の大きさを物語っています。人間社会における「ティッピングポイント」や「臨界質量」の動態と同様の現象がAI集団でも観察されたことは、AIと人間の社会的行動の類似性を示す重要な証拠です。

この研究がもたらす可能性として、より洗練されたAI間コミュニケーションの開発が考えられます。例えば、自動運転車同士が交通ルールを自発的に調整したり、ソーシャルメディア上のAIモデレーターが協力して有害コンテンツを特定したりする能力が向上する可能性があります。

一方で、AIが自律的に社会規範を形成できるという事実は、人間の価値観や目標と一致しない規範が生まれる可能性も示唆しています。バロンチェリ教授が「AIとの共存を主導するためには、AIがどのように機能するかを理解することが不可欠である」と警告しているように、AIの集団的振る舞いを理解し、適切に導くことが今後ますます重要になるでしょう。

この研究は、AIが単なる道具から社会的存在へと進化する過程を示す重要な一歩です。今後、AIが私たちの社会に深く統合されていく中で、AIと人間の相互作用、そしてAI同士の相互作用がどのように発展していくのか、継続的な研究と議論が必要となるでしょう。

【用語解説】

複雑系(Complex System)
相互に関連する複数の要因が合わさって全体としての性質を示すもので、個々の要素からは予測できない振る舞いを見せるもの。例えば、蟻の集団は個々の蟻は単純なルールに従っているが、集団として複雑な巣を作り上げるように、AIエージェント同士も単純な相互作用から複雑な社会規範を形成する。

社会規範
集団内で共有される行動の基準や期待。今回の研究では、AIエージェントが自発的に形成した共通のルールや慣習を指す。

創発的なグループダイナミクス
個々の要素の性質だけからは予測できない、集団レベルで現れる新たな性質や現象。今回の研究では、個々のAIには見られないバイアスが集団レベルで発生する現象を指している。

ネーミングゲーム
社会規範の形成を研究するための古典的な実験フレームワーク。参加者は共通のリストから名前(単語)を選び、同じ選択をした場合に報酬を得る仕組み。

【参考リンク】

シティ・セント・ジョージ大学(外部)研究チームのリーダー、アンドレア・バロンチェリ教授が所属する大学の公式サイト。

【編集部後記】

AIが自ら社会規範を形成するという研究結果、皆さんはどう感じますか?私たちの日常生活でも、無意識のうちに集団の中で暗黙のルールが生まれることがありますよね。例えば、オフィスでの席の暗黙の決まりごとや、友人グループ内での独自の言葉遣いなど。もしAI同士が私たち人間と同じように「社会」を形成し始めたとき、人間とAIの関係はどう変わるでしょうか。AIとの共存が進む未来で、あなたならAIとどんな関係性を築きたいですか?

【関連記事】

AI(人工知能ニュース)をinnovaTopiaでもっと読む

投稿者アバター
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com

読み込み中…
advertisements
読み込み中…