トランプ政権は6月3日(現地時間、日本時間6月4日)、バイデン政権下で設立されたAI Safety Institute(AI安全研究所)を「Center for AI Standards and Innovation(CAISI)」に改名すると発表した。
ハワード・ルトニック商務長官は6月3日(現地時間、日本時間6月4日)の声明で、商務省内のAI Safety InstituteをCenter for AI Standards and Innovation(CAISI)に改革すると発表した。この改名により、組織名から「安全性(Safety)」という用語が削除され、「標準化(Standards)」と「イノベーション(Innovation)」に重点が移された。
AI Safety Instituteは2023年11月にジョー・バイデン前大統領によって設立された組織で、National Institute of Standards and Technology(NIST)内に設置されていた。同研究所はOpenAIやAnthropicなどの主要AI企業と覚書を締結し、新しいモデルの洞察を得て、リリース前の改善提案を行っていた。また、ChatGPTやClaudeなどの人気AIシステムに関連するリスクの評価を担当し、生物兵器開発への悪用などの国家安全保障上の脅威に対する予備的ガイドラインを2025年初頭に発表していた。
新組織CAISIは引き続きNIST内に設置され、急速に発展する商用AIシステムの能力と脆弱性を評価し、政府における業界との主要な連絡窓口として機能する。ルトニック長官は「長い間、検閲と規制が国家安全保障の名目で悪用されてきた。イノベーターはもはやこれらの基準に制限されることはない」と述べ、CAISIが米国のイノベーションを評価・促進しながら、国家安全保障基準への準拠を確保すると説明した。
新組織は従来の機能の多くを維持するが、サイバーセキュリティ、バイオセキュリティ、化学兵器などの特定可能なリスクに焦点を当て、敵対国のAI技術利用による悪意ある外国干渉の調査も行う。これには最近米国AI業界を混乱させた中国の大規模言語モデルDeepSeekなどが含まれる可能性がある。
CAISIはNISTの情報技術研究所と協力してガイドライン、ベストプラクティス、自主的な業界標準の開発を継続し、民間セクターのAI開発者との合意確立や他の連邦機関との評価開発・実施の調整も行う。この変更は、トランプ政権が4月に発表した連邦機関のAI利用拡大を指示する新たな政策指針の一環として位置づけられている。
from:Trump admin rebrands AI safety institute in latest oversight move | The Verge
【編集部解説】
トランプ政権によるAI Safety Institute(AI安全研究所)からCenter for AI Standards and Innovation(CAISI)への改名は、アメリカのAI政策における根本的なパラダイムシフトを表しています。この変更は、4月に発表された連邦機関のAI利用拡大を指示する新政策の延長線上にあり、バイデン政権が重視していた「安全性第一」から「イノベーション促進」への明確な方針転換を示しています。
この政策転換の背景には、中国のDeepSeekモデルが低コストでアメリカの大手AI企業に匹敵する性能を実現したことへの強い危機感があります。DeepSeekの登場は、過度な規制がアメリカのAI競争力を削ぐ可能性を浮き彫りにし、トランプ政権に「規制よりもイノベーション」という判断を促したのです。
興味深いのは、組織の中核機能は維持されながら、アプローチが大きく変化している点です。CAISIは引き続きOpenAIやAnthropicとの覚書を継続し、AIシステムの評価も行いますが、その焦点は「一般的な安全性」から「国家安全保障上の特定可能なリスク」へと絞り込まれました。これは、サイバーセキュリティ、バイオセキュリティ、化学兵器といった明確な脅威に対処する一方で、より広範な社会的リスクへの対応は民間セクターの自主規制に委ねるという戦略を意味します。
注目すべきは、新組織が「敵対国のAI技術利用による悪意ある外国干渉」の調査に焦点を当てる点です。これは明らかに中国のAI技術、特にDeepSeekのような大規模言語モデルを念頭に置いた措置であり、技術的優位性の維持がアメリカの国家戦略の中核に位置していることを示しています。
この政策変更が業界に与える影響は複雑です。規制緩和により、AI企業はより自由に開発を進められる一方で、自主規制の重要性が高まります。特に、児童性的虐待素材(CSAM)等への悪用といった深刻なリスクについては、企業の責任ある対応が求められることになります。
国際的な文脈では、この変更は他国のAI安全性への取り組みとの乖離を生む可能性があります。イギリスが主導した国際AI安全性レポート2025では、33カ国と国際機関の代表が参加してAIリスクの包括的な評価を行いましたが、アメリカの新方針はこうした多国間協調とは異なる道筋を示しています。
日本のAI Safety Institute(AISI)が2025年3月に発表した「AI安全性評価の観点に関するガイド」では、有害な出力の制御、誤情報・偽情報の防止、公平性と包摂性など10の評価観点を示していますが、アメリカの新方針はこれらの包括的なアプローチから距離を置く形となっています。
長期的な視点では、この変更がアメリカのAI開発における競争力向上に寄与する可能性がある一方で、社会的リスクへの対応が後退するリスクも存在します。特に、AI技術の民主化が進む中で、政府の安全性評価機能の縮小が意図しない結果を招く可能性についても注意深く監視する必要があるでしょう。
【用語解説】
児童性的虐待素材(CSAM):Child Sexual Abuse Materialの略。AI技術の悪用により生成される可能性があり、AI安全性評価の重要な観点の一つとして国際的に注目されている。
バイオセキュリティ:生物学的脅威から社会を守るための安全保障概念。AI技術が生物兵器開発に悪用されるリスクの評価と対策が含まれる。
【参考リンク】
Center for AI Standards and Innovation (CAISI) | NIST(外部)商務省が発表したCAISIの公式ページ。組織の使命と活動内容、商務長官の声明などが掲載されている。
DeepSeek(外部)中国発のAI企業で大規模言語モデルを開発。2023年設立で、低コストで高性能なAIモデルを実現し、米国AI業界に大きな衝撃を与えた。
日本のAIセーフティ・インスティテュート(AISI)(外部)日本政府が2024年に設立したAI安全性評価機関。IPAに設置され、AI安全性に関する評価手法や基準の検討・推進を行っている。2025年3月に包括的なAI安全性評価ガイドを発表。
International AI Safety Report 2025 | GOV.UK(外部)イギリス政府が主導し、33カ国と国際機関の代表が参加して作成された世界初の包括的AI安全性レポート。100名のAI専門家による科学的根拠に基づく分析を提供。
【参考記事】
Trump admin rebrands AI safety institute in latest oversight move | CIO
Diveトランプ政権によるAI Safety InstituteのCAISIへの改名について詳細に報じた記事。商務長官の声明と組織変更の背景を解説している。
US AI Safety Institute Consortium formed to enhance AI safety standards | Digital Watch ObservatoryAI Safety Institute Consortiumの設立経緯と目的について詳しく解説。200社以上の参加企業と産学官連携の重要性を説明している。
【編集部後記】
今回のAI Safety InstituteからCAISIへの改名は、単なる組織再編を超えた象徴的な意味を持っています。「Safety」から「Innovation」への転換は、アメリカが中国のDeepSeekショックを受けて、規制よりも競争力を重視する戦略的判断を下したことを物語っています。興味深いのは、カナダも同時期にCAISI(Canadian AI Safety Institute)を設立している点で、北米全体でAI統治のアプローチが多様化していることが見て取れます。この変化は、AI技術の発展速度が政策立案のサイクルを上回っている現実を反映しており、今後のグローバルなAI競争において「安全性」と「革新性」のバランスをどう取るかが各国の技術覇権を左右する重要な分岐点となるでしょう。