英国でAI規制求める声高まる、議員100人が拘束力ある規制導入を政府に要求

[更新]2025年12月8日

 - innovaTopia - (イノベトピア)

100人以上の英国議会議員が、政府に対して最も強力なAIシステムに拘束力のある規制を導入するよう求めている。

この動きはSkype共同創設者Jaan Tallinnが支援する非営利組織Control AIが調整しており、Keir Starmer首相にDonald Trumpのホワイトハウスからの独立性を示し、超知能開発の抑制を推進するよう求めている。

元国防大臣Des Browneや元環境大臣Zac Goldsmithを含む超党派グループは、超知能AIが国家および世界の安全保障を危険にさらすと懸念している。英国は2023年にBletchley ParkでAI安全サミットを主催し、AI Safety Institute(現AI Security Institute)を設立した。

Anthropicの共同創設者Jared Kaplanは、人類は2030年までにAIシステムの自己訓練を許可するかどうかを決定する必要があると述べている。

労働党は2024年7月に立法を約束したが法案は未公表であり、Control AIのCEO Andrea Miottiは今後1〜2年以内に義務的基準が必要になる可能性があると述べた。

From: 文献リンクScores of UK parliamentarians join call to regulate most powerful AI systems

【編集部解説】

100人以上の英国議会議員が最も強力なAIシステムへの拘束力ある規制を求めるという動きは、AI規制をめぐる世界的な潮流の中で、英国が重要な転換点に立っていることを示しています。

この動きを調整しているのは、Skype共同創設者Jaan Tallinnが支援する非営利組織Control AIです。彼らは、超知能AIが国家および世界の安全保障を脅かすという懸念から、Keir Starmer首相に対してDonald Trump政権からの独立性を示すよう求めています。トランプ政権はAI規制に反対の立場を取っており、主に米国企業が主導する商業的なAI開発を阻害しないよう英国政府に圧力をかけているとされます。

英国は2023年11月にBletchley ParkでAI安全サミットを主催し、28カ国とEUが参加してBletchley Declarationに署名しました。このサミットでは、最も先進的なAIシステムからの「意図的または非意図的な、深刻な、さらには壊滅的な危害の可能性」が認識され、AI Safety Institute(現AI Security Institute)が設立されました。しかし、その後の国際協力の進展は期待されたほど進んでいないと指摘されています。

AIの「ゴッドファーザー」の一人であるYoshua Bengioは、AIが「サンドイッチよりも規制されていない」と述べており、この技術の急速な発展と規制の遅れとの間に大きなギャップがあることを示唆しています。実際、食品、自動車、航空機、医薬品など、ほぼすべての分野で規制が存在する一方で、人類の未来を左右する可能性のあるAI技術には包括的な規制が存在していないのです。

特に注目すべきは、フロンティアAI企業Anthropicの共同創設者兼チーフサイエンティストJared Kaplanの警告です。彼は、人類は2027年から2030年の間に、AIシステムが自己訓練を行ってより強力になることを許可するかどうかという「究極のリスク」を取るかどうかを決定しなければならないと述べています。これは単なる技術的な問題ではなく、人類の未来を左右する実存的な選択です。

労働党は2024年7月のKing’s Speechで「最も強力な人工知能モデルの開発に取り組む人々に要件を課す」ための立法を行うと表明しましたが、具体的な法案はまだ公表されていません。科学・イノベーション・技術省は「AIは英国ですでに規制されている」と主張していますが、これは既存の規則を指しており、AI特有の包括的な規制フレームワークではありません。

元AI大臣Jonathan Berryは、実存的リスクをもたらすモデルに拘束力のある規制を適用すべき時が来ていると述べています。彼は、AIモデルが一定の力に達した場合、製作者はテストされ、オフスイッチが設計され、再訓練が可能であることを示さなければならないという「トリップワイヤー」を作成すべきだと提案しています。

Control AIのCEO Andrea Miottiは、AI企業が「時期尚早でイノベーションを潰す」と主張して規制を遅らせるためにロビー活動を行っていると批判しています。皮肉なことに、これらの企業の一部は同時に「AIが人類を破壊する可能性がある」とも述べているのです。この矛盾した態度は、AI規制をめぐる議論の複雑さを示しています。

オックスフォード主教Steven Croftは、子供と大人のメンタルヘルス、環境コスト、一般化されたAIのアライメントなど、さまざまなリスクが存在すると指摘しています。近年、チャットボットが自殺を奨励したり、人々がAIを神だと信じたりする事例が報告されており、これらのリスクは既に現実のものとなっています。

この問題は、イノベーションと安全性のバランスをどう取るかという古典的なジレンマを提起しています。英国は世界をリードするAI産業を持ち、この分野で50,000人以上を雇用し、経済に37億ポンド貢献しています。規制が厳しすぎればイノベーションを阻害する可能性がありますが、規制が緩すぎれば壊滅的なリスクを招く可能性があります。

EUはAI Actという包括的な規制フレームワークを2024年8月に施行しましたが、米国には連邦レベルのAI規制が存在しません。英国はこの中間に位置しており、どのような道を選択するかは、世界のAI規制の方向性に大きな影響を与える可能性があります。

Miottiが述べるように、AI技術の進歩速度を考えると、今後1〜2年以内に義務的な基準が必要になる可能性があります。「非常に緊急だ」という彼の言葉は、この問題の切迫性を端的に表しています。人類史における転換点として、今まさに重要な選択を迫られているのです。

【用語解説】

フロンティアAI(Frontier AI)
最先端の汎用AIモデルを指す用語で、現在利用可能な最も先進的なモデルと同等かそれを超える能力を持つAIシステムのこと。多様なタスクを実行できる高度な能力を持ち、意図的または非意図的に深刻な危害をもたらす潜在的リスクがあるとされる。

超知能AI(Superintelligent AI)
人間の知能を大幅に超える認知能力を持つAIシステム。あらゆる分野で人間の最高峰の専門家を上回る能力を持つとされ、制御不能になった場合の実存的リスクが懸念されている。

AGI(Artificial General Intelligence / 汎用人工知能)
特定のタスクに限定されず、人間と同等かそれ以上の幅広い認知タスクを実行できるAIシステム。現在のAIは特定領域に特化しているが、AGIは人間のように多様な問題を解決できる汎用性を持つ。

Bletchley Declaration(ブレッチリー宣言)
2023年11月に英国Bletchley Parkで開催されたAI安全サミットで、28カ国とEUが署名した国際合意。フロンティアAIのリスクを認識し、安全性確保のための国際協力の必要性を確認した歴史的文書。

自己訓練(Self-training)
AIシステムが人間の介入なしに次世代のより強力なAIシステムを設計・訓練するプロセス。この再帰的自己改善が実現すれば、AI能力は急速に人間の制御を超える可能性があり、2027〜2030年が重要な分岐点とされる。

Scaling Laws(スケーリング則)
AIモデルのサイズ、訓練データ量、計算リソースを増やすことで、予測可能な形でAI性能が向上するという法則。Anthropic創設チームが2019年に定式化し、AI開発の指針となっている。

【参考リンク】

Control AI(外部)
英国議会議員100人以上が支持する非営利組織。最も強力なAIシステムへの拘束力ある規制を求めるキャンペーンを展開している。

Anthropic(外部)
Claude AIを開発するフロンティアAI企業。チーフサイエンティストJared Kaplanが2030年までの重要な決断について警告を発している。

UK Government – AI Safety Summit 2023(外部)
2023年11月にBletchley Parkで開催された世界初のAI安全サミットに関する英国政府の公式情報ページ。

AI Safety Institute (UK)(外部)
英国政府が設立したAI安全保障研究機関。先進的なAIシステムの安全性テストと評価を担当する国際的機関。

【参考記事】

AI Future Risks: Anthropic co-founder Kaplan warns of AGI dangers(外部)
Jared Kaplanが2027〜2030年にAIが自己の後継者を設計できる段階に達する可能性を警告している記事。

ControlAI Statement(外部)
90人以上の超党派英国議会議員が支持するキャンペーンの声明。最も強力なAIシステムへの規制導入の必要性を訴える。

The Bletchley Declaration(外部)
28カ国とEUが署名した歴史的な国際合意の全文。フロンティアAIの機会とリスクを認識する内容。

AI Watch: Global regulatory tracker – United Kingdom(外部)
2025年3月にAI規制私的議員法案が再導入された経緯を含む、英国のAI規制動向の追跡情報。

Britain’s Labour faces an uphill battle as it looks to rein in AI’s key players(外部)
労働党が最も強力なAIモデルを開発する少数の企業への拘束力ある規制を導入する方針について報じた記事。

‘AI Godfather’ Yoshua Bengio on AI regulation(外部)
Yoshua Bengioが「サンドイッチにはすべて規制があるが、AIにはほとんどない」と指摘した記事。

【編集部後記】

AIが「サンドイッチよりも規制されていない」という指摘は、私たちに重要な問いを投げかけています。食品や自動車には当然のように規制があるのに、なぜ人類の未来を左右しうる技術には包括的なルールが存在しないのでしょうか。

2027年から2030年という具体的な時間軸が示されたことで、この問題は遠い未来の話ではなくなりました。Jared Kaplanの警告は、私たちが今まさに歴史的な分岐点に立っていることを示唆しています。イノベーションの推進と安全性の確保、この両立は可能なのか。規制によって失われる機会と、規制がないことで生じるリスク、どちらを優先すべきなのか。

私たち一人ひとりが、この技術の行く末について関心を持ち続けることが、適切な未来への第一歩になるのかもしれません。皆さんはこの問題について、どのようにお考えでしょうか。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…
advertisements
読み込み中…