China Technology Law
created at
【特集】中国、AI企業に対するセキュリティ規制を提案 データ源の制限も
中国は、AIモデルのトレーニングに使用されるデータ源に制限を設けるという、ジェネレーティブAI(人工知能)サービスに対するドラフトセキュリティ規制を公開しました。10月11日、国家情報安全標準化委員会(NISSC)が、中国のサイバースペース局(CAC)、工業情報化部、法執行機関の代表を含むメンバーからなる提案を公開しました。ジェネレーティブAIは、OpenAIのChatGPTチャットボットの実績によって示されており、歴史的データの分析を通じてタスクを実行する能力を獲得し、そのトレーニングに基づいてテキストや画像などの新しいコンテンツを生成します。
提案の内容
委員会は、一般にアクセス可能なジェネレーティブAIモデルのトレーニングに使用されるコンテンツに対してセキュリティ評価を実施することを推奨しています。違法で有害な情報が「5%以上含まれる場合は、ブラックリストに指定されます。これには、テロを扇動する内容、暴力、社会主義体制の破壊、国の評判への悪影響、国家の結束と社会の安定を妨害する行為が含まれます。 規制案では、中国のインターネットで検閲されるべきデータは、これらのモデルのトレーニング材料として使用されてはならないと強調されています。この発展は、中国の主要な検索エンジン企業である百度などの中国のテック企業に対して、ジェネレーティブAIベースのチャットボットを一般の人々に導入する許可が規制当局から1か月余り前に与えられた後に続いています。
セキュリティ指針とインテルの制限
中国のサイバースペース局は、4月以来、企業がジェネレーティブAIパワードのサービスを一般に提供する前に、規制機関にセキュリティ評価を提供することを求めてきました。7月に、サイバースペース規制当局は、これらのサービスに関するガイドラインを発表しましたが、業界アナリストによれば、初期の4月のドラフト提案と比較してかなり軽減されていると指摘されました。
最近公開されたセキュリティ規定では、これらのAIモデルのトレーニングに個人の個人データ、バイオメトリック情報を含むものが使用される場合、トレーニングを受ける個人の明示的な同意を取得する必要があるとされています。さらに、ガイドラインには知的財産権に関連する侵害を防ぐための包括的な指示も含まれています。
中国のAI産業の将来展望
世界中の国々は、この技術のための規制フレームワークの確立に苦慮しています。中国は、AIを米国と競争する分野と見なし、2030年までにこの分野での世界リーダーになることを目指しています。
マガジン:EasyTranslateのCEOが変化に適応するために述べる、「AIは産業を殺した」