Last Updated on 2024-08-31 15:28 by admin
中国のインターネット規制当局であるサイバースペース管理局(CAC)は、大規模な言語モデルのAI企業に対する政府のレビューを実施している。このレビューは、AIが「社会主義の核心価値」を体現していることを確認することを目的としている。レビューは、ByteDanceやAlibabaなどのテクノロジー大手から小規模スタートアップまで、幅広い企業を対象としている。
AIモデルは、政治的に敏感なトピックや中国の習近平国家主席に関連する様々な質問に対する反応をCACの地方職員によってテストされる。また、モデルのトレーニングデータと安全プロセスもレビューの対象となる。ある匿名のAI企業関係者は、最初のテストを不明瞭な理由で通過できなかったが、数ヶ月の「推測と調整」の後に2回目で合格したと述べている。
中国は、AIサービスが「社会主義の核心価値」に従い、「違法」なコンテンツを生成しないことを要求する規則を最初に確定した国の一つである。検閲ポリシーに従うためには「セキュリティフィルタリング」が必要であり、中国のLLMが依然として大量の英語コンテンツでトレーニングされているため、複雑になっている。規制により、中国の人気チャットボットは、1989年の天安門広場事件などの敏感なトピックに関する質問にしばしば回答を拒否することが報告されている。しかし、CACのテスト中には、LLMが完全に拒否できる質問の数に制限があるため、モデルは敏感な質問に対して「政治的に正しい回答」を生成する能力が必要である。
規制と、LLMのトレーニングに使用されるチップへのアクセスを制限する米国の制裁により、中国の企業が自社のChatGPTのようなサービスを立ち上げることは困難になっている。しかし、中国は生成型AI特許のグローバルレースでリードしている。
【ニュース解説】
中国のサイバースペース管理局(CAC)が、AI企業が開発する大規模な言語モデル(LLM)に対して、「社会主義の核心価値」を体現しているかどうかを確認するためのレビューを実施しています。このレビューは、テクノロジー大手からスタートアップに至るまで、幅広い企業に及んでいます。政治的に敏感なトピックや習近平国家主席に関連する質問に対するAIモデルの反応がテストされ、モデルのトレーニングデータと安全プロセスも検証されます。
中国は、AIサービスが「社会主義の核心価値」に従い、「違法」なコンテンツを生成しないことを要求する規則を最初に確定した国の一つです。この検閲ポリシーに従うためには、セキュリティフィルタリングが必要であり、中国のLLMが依然として大量の英語コンテンツでトレーニングされていることが、このプロセスを複雑にしています。規制により、中国の人気チャットボットは、1989年の天安門広場事件などの敏感なトピックに関する質問にしばしば回答を拒否することが報告されています。しかし、CACのテスト中には、LLMが完全に拒否できる質問の数に制限があり、モデルは敏感な質問に対して「政治的に正しい回答」を生成する能力が求められます。
このような規制と、LLMのトレーニングに使用されるチップへのアクセスを制限する米国の制裁により、中国の企業が自社のChatGPTのようなサービスを立ち上げることは困難になっています。しかし、中国は生成型AI特許のグローバルレースでリードしています。
この動きは、中国がAI技術の発展と普及において、技術革新と政治的統制のバランスを取ろうとしていることを示しています。AIモデルが「社会主義の核心価値」を体現することを要求することは、国内の情報統制を強化し、政府の政策やイデオロギーに反する情報の拡散を防ぐことを目的としています。しかし、このような厳格な規制は、AI技術のイノベーションや表現の自由に対して潜在的な制約をもたらす可能性があります。
長期的には、中国のこのようなアプローチが世界中のAI技術の規制や発展にどのような影響を与えるかが注目されます。中国がAI技術の分野でリードしていることから、その規制方針が他国の政策に影響を与える可能性もあります。また、国際的なAI技術の標準や規制の枠組みを形成する上で、中国のアプローチが重要な参考点となる可能性があります。一方で、技術革新と政治的統制のバランスをどのように取るかは、今後もAI技術の発展における重要な課題となるでしょう。
from Socialist AI: Chinese regulators are reviewing GenAI models for 'core socialist values,' FT reports.