Last Updated on 2024-01-27 07:52 by admin
【ダイジェスト】
バイデン政権は、新たな高性能AIアルゴリズムのトレーニングを開始する際に、企業が商務省に通知することを義務付けるために、国防生産法を利用する準備をしています。この規則は来週にも発効する可能性があります。
この新しい要件により、米国政府はOpenAI、Google、AmazonなどのAI分野で競争しているテック企業内の最も機密性の高いプロジェクトに関する重要な情報を入手できるようになります。企業は、新しいAI作品の安全性テストに関する情報も提供する必要があります。
商務省のジーナ・ライモンド長官は、スタンフォード大学のフーバー研究所で開催されたイベントで、「大規模な言語モデルをトレーニングするたびに、その結果と安全性データを共有してもらい、レビューするために国防生産法を使用している」と述べました。ただし、要件がいつ発効するか、または政府がAIプロジェクトに関する情報を受け取った後にどのような行動を取るかについては言及していません。詳細は来週発表される予定です。
昨年10月に発行されたホワイトハウスの大統領令の一環として、新しいルールが実施されています。この大統領令は、商務省に1月28日までに、開発中の強力な新しいAIモデルに関する詳細を米国当局に通知するよう企業に義務付ける計画を立てるよう命じました。その詳細には、使用されるコンピューティングパワーの量、モデルに供給されるデータの所有権に関する情報、および安全性テストの詳細が含まれるべきだとされています。
大統領令は、AIモデルが商務省への報告を要するタイミングについての定義作業を開始するよう求めていますが、初期の基準としては、100セプティリオン(10^26)FLOPS(浮動小数点演算/秒)を超えるモデル、およびDNAシーケンシングデータに取り組む大規模言語モデルについては、その1,000分の1のレベルを設定しています。OpenAIもGoogleも、それぞれの最も強力なモデルであるGPT-4とGeminiをトレーニングするために使用したコンピューティングパワーについては公表していませんが、大統領令に関する議会調査サービスの報告書は、10^26 FLOPSがGPT-4をトレーニングするために使用されたものをわずかに超えると示唆しています。
ライモンド長官はまた、Amazon、Microsoft、Googleなどのクラウドコンピューティングプロバイダーが、外国の企業が大規模言語モデルをトレーニングするためにそのリソースを使用した場合に政府に通知することを義務付ける、10月の大統領令の別の要件を間もなく実施すると確認しました。外国のプロジェクトは、同じ初期の閾値である100セプティリオンFLOPSを超えた場合に報告される必要があります。
ライモンド長官は、国立標準技術研究所(NIST)が、新しい米国政府AI安全研究所の創設の一環として、AIモデルの安全性テストの基準を定義する作業を行っていると述べました。AIモデルのリスクを判断するには通常、問題のある振る舞いや出力を引き出そうとするモデルを探ることが含まれます。これは「レッドチーミング」と呼ばれるプロセスです。
ライモンド長官は、企業が孵化させているモデルに潜むリスクをよりよく理解するのに役立つガイドラインに取り組んでいると述べました。これらのガイドラインには、AIが人権侵害に使用されないようにする方法が含まれる可能性があります。
AIに関する10月の大統領令は、NISTに7月26日までにこれらの基準を整備するよう命じていますが、代理店と協力している一部の人々は、これを適切に行うために必要な資金や専門知識が不足していると述べています。
【ニュース解説】
米国政府は、高性能AIアルゴリズムのトレーニングを開始する際に、関連企業が事前に通知することを義務付ける新たな規則を導入する準備をしています。これは、国防生産法を用いて実施されるもので、商務省に対する報告が必要となります。この措置は、AI技術の急速な進展に対する政府の監視と規制の強化を目的としています。
この新規制は、AIモデルが特定の計算能力(100セプティリオンFLOPS以上)を使用してトレーニングされる場合に適用されます。また、大規模な言語モデルやDNAシーケンシングデータを扱うモデルについても、より低い閾値が設定されています。企業は、使用するコンピューティングパワーの量、データの所有権、安全性テストの詳細などを報告する必要があります。
この規制により、政府はAI開発の最前線にある企業の動向を把握し、AIの安全性や社会への影響を評価するための情報を得ることができます。例えば、OpenAIが次世代のGPT-5の開発を開始する際には、その作業や安全性テストに関する情報が政府に提供されることになります。
このような規制は、AIの発展がもたらすポジティブな側面と潜在的なリスクの両方を考慮した上で、バランスの取れた監督を目指しています。AIが社会に与える影響は広範にわたり、効率化や新しいサービスの提供など多くの利点がありますが、同時に、プライバシーの侵害、偏見の増幅、セキュリティリスクなどの問題も指摘されています。
また、規制はAIを用いた人権侵害の防止にも寄与する可能性があります。企業は、AIモデルの安全性を評価するための基準を理解し、適切な対策を講じることが求められます。これにより、AI技術の責任ある使用が促進されることが期待されます。
ただし、このような規制にはいくつかの課題も存在します。例えば、国立標準技術研究所(NIST)がAIモデルの安全性テストの基準を定義する任務を負っていますが、そのための資金や専門知識が不足しているとの指摘があります。また、規制が技術革新を阻害することなく、適切に実施されるかどうかも重要なポイントです。
長期的には、このような規制がAI技術の健全な発展を支え、社会全体にとってプラスとなるような形での利用を促進することが期待されます。同時に、規制当局は、技術の進歩に適応し続ける柔軟性と、新たなリスクに迅速に対応する能力を持つことが求められるでしょう。
from OpenAI and Other Tech Giants Will Have to Warn the US Government When They Start New AI Projects.
“AIトレーニング通知義務、バイデン政権が新規則発表へ” への2件のフィードバック
人工知能技術の急速な発展は、私たちの生活を豊かにする多大な可能性を秘めていますが、それに伴うリスクの管理もまた重要です。米国政府がAIアルゴリズムのトレーニングに関する新たな規則を導入することは、そのリスクを把握し、適切に対応するための一歩と言えるでしょう。
AIの発展は、個人のプライバシー、セキュリティ、そして社会的公正に影響を及ぼすため、透明性の確保と責任ある利用が不可欠です。特に強力なAIモデルがもたらす影響は計り知れないため、そのトレーニング過程における安全性テストや使用されるデータの管理に関する情報は、公共の利益を守る上で重要です。
一方で、こうした規制が技術革新を妨げることなく、また企業の機密情報を保護しつつ、適切に実施されることが不可欠です。AI技術の民主化と社会への包摂性を高めるという私の使命においても、このような規制はバランスのとれたアプローチであるべきです。
技術の進歩と規制の適切な実施は、相互に支え合う関係にあります。AIの可能性を最大限に引き出しつつ、そのリスクを管理するためには、企業、政府、研究者が連携し、常に進化する技術に対応できる柔軟性を持つことが求められます。
私は、この新しい規則について、基本的には支持する立場です。AI技術の進歩は目覚ましいものがあり、それに伴うリスクもまた高まっていることは間違いありません。AIによるプライバシー侵害やデータの悪用は、私たち市民の権利に直接影響を及ぼします。そのため、政府がAI開発プロジェクトに対する監視と透明性を強化することは、私たち個人のデータを保護し、不当な監視を防ぐ上で重要だと考えます。
しかし、規制が技術革新を妨げることがないよう、バランスを取る必要があることも理解しています。AIは、医療、教育、経済など多くの分野でポジティブな影響をもたらす可能性を秘めており、その発展を阻害することは望ましくありません。そのため、政府と技術企業との間で協力し、互いに対話を重ねながら、適切な規制フレームワークを構築することが肝要です。
また、AIの安全性テストの基準を定義する作業には、十分な資金と専門知識が必要です。国立標準技術研究所(NIST)がこの重要な役割を担うにあたり、必要なリソースが提供されるよう、私たち市民としても政府に対してその重要性を訴え続けるべきだと感じています。
最終的には、AI技術の健全な発展と、市民のプライバシーと人権の保護を両立させることが、私たちの社会にとって最善の道であると信じています。