中国が生成AIコンテンツ表示を義務化 新ルールの狙いと影響を読む
中国で、生成AIが作った文章や画像などにラベル表示を義務づける新しい規則が今週施行されました。AI時代の情報の信頼性をどう守るかをめぐり、世界的な議論が一段と進みそうです。
中国でAI生成コンテンツの表示義務ルールが施行
中国のインターネット管理を担う国家インターネット情報弁公室(CAC)など4部門が共同で策定した、人工知能生成コンテンツ(AIGC)の表示に関する新しい規則が、今週月曜日に正式に施行されました。
新ルールは、テキスト、画像、音声、動画、仮想空間など、AIが生成したあらゆるコンテンツについて、配信プラットフォーム上で明示的または暗示的に「AI生成」であることを示すラベルを付けることを求めています。
また、プラットフォーム事業者には、コンテンツを公開する前に審査を行い、AIGCのマーカー(識別情報)を確認することが義務づけられました。マーカーが見つからない場合でも、AI生成が疑われるコンテンツにはリスクに関する注意喚起を付け、虚偽情報の拡散を抑える狙いがあります。
- 対象:AIが生成した文章・画像・音声・動画・バーチャル空間など
- 義務:AI生成であることを明示・暗示いずれかの形で表示
- 役割:プラットフォームが事前審査とリスク注意喚起を担当
3段階の審査と「疑い例」の扱い
中国人民大学の人民法と技術研究所の常務理事である張継宇(Zhang Jiyu)氏は、中国メディアの取材に対して、新ルールが想定する審査のレベルを三つに整理して説明しています。
第一に、コンテンツのメタデータ(付随情報)にAI生成を示すマーカーが含まれている場合、プラットフォームはそれを検出し、「AI生成コンテンツ」としてラベルを付けることができます。
第二に、明確なマーカーはないものの、プラットフォーム側のアルゴリズムが分析した結果、AIが生成した可能性が高いと判断されるケースがあります。この場合、張氏によると、そのコンテンツは「AI生成の疑いがある(疑似AIGC)」として表示されるべきだとされています。
第三に、どちらにも当てはまらない、つまりAI生成かどうかの判断が困難なコンテンツも存在します。ここについては、誤判定のリスクも意識しながら、慎重な運用が求められます。
張氏は、現在の技術レベルでは、本来は人間が作ったオリジナルコンテンツがAI生成と誤って判定される可能性があると指摘し、クリエイターの権利を守るための仕組み作りが重要だと強調しました。例えば、誤判定に対して異議を申し立てることができる窓口や、表示の訂正プロセスなどが今後の論点になりそうです。
背景にあるAI乱用対策 今年の取り締まり状況
今回のルールは、AIの乱用を抑えるために中国が今年強化してきた一連の取り組みの一部でもあります。CACは今年4月から3か月間、AIの不適切な利用を対象にした集中キャンペーンを実施しました。
取り締まりの対象となったのは、例えば次のような行為です。
- 本人の同意なく顔を入れ替える「AIフェイススワップ」
- 声を真似る「AIボイス模倣」
- AI生成コンテンツであることを表示しないまま拡散する行為
6月時点の発表によると、問題があると判断されたミニアプリやアプリ、AIエージェントなど3,500件超が処理され、違法または有害とされた情報約96万件が削除されました。さらに、およそ3,700のアカウントに対して措置が取られたとされています。
こうした動きからは、生成AIの利便性を活かしつつ、偽情報やなりすましなどのリスクを抑えるためのルール作りを急いでいることがうかがえます。
「深度合成」規則から続く流れ 世界的な合意形成も
生成AIコンテンツへのラベル付けは、いまや世界的に広がりつつある考え方です。今回の新ルールについても、「AIにラベルを付ける」という方向性自体は、国や地域を問わず共有されつつあるとされています。
中国は、この分野で比較的早い段階から制度化を進めてきました。2023年に施行された「インターネット情報サービス深度合成管理規定」は、ディープフェイクなどの深度合成技術を対象に、生成コンテンツへのラベル表示を明確に義務づけた、世界でも早期の規制の一つだと位置づけられています。
今回の新ルールは、その流れをさらに発展させ、テキストや仮想空間を含む幅広いAIGCに対象を拡大した形といえます。中国内外で相次ぐAI規制の議論の中でも、生成コンテンツの表示義務は、利用者の知る権利やプラットフォームの説明責任をどう確保するかという核心的なテーマになってきています。
AIは「ペットのトラ」か? 専門家が示すリスク認識
AIのリスクについては、比喩を用いて注意を呼びかける専門家もいます。AI分野の第一人者として知られるジェフリー・ヒントン氏は、7月に上海で開かれた世界AI会議での講演で、現在の状況を「ペットとしてトラを飼うようなものだ」と表現しました。
ヒントン氏は、トラの子どもはかわいく見えるかもしれないが、そのまま成長させるなら、人間を襲わないように訓練するか、いずれ処分するしかないと説明しました。そのうえで、AIについては「取り除くという選択肢は現実的ではない」とし、「であれば、攻撃してこないように訓練するしかない」と指摘しています。
この比喩は、AIを単に「危険な技術」として恐れるのではなく、社会にとって望ましい形で共存するためのルール作りや訓練=ガバナンスの重要性を示すものだと言えます。今回の中国の新ルールも、AIの利点を活かしながら、リスクを管理するための一つの「訓練」の枠組みと見ることができます。
日本と世界への示唆 「ラベル」が突きつける問い
生成AIのラベル表示義務は、一見すると技術的な運用ルールに見えますが、その背後にはいくつかの大きな問いが存在します。
- どこまでを「AI生成」として表示すべきか
- 誤判定が生じたとき、誰がどのように責任を負うのか
- クリエイターの創作の自由と、利用者の「知る権利」をどう両立させるか
- 国や地域ごとに異なるルールが、グローバルなサービスにどう影響するか
中国の新ルールは、これらの問いに対する一つの具体的なモデルを提示しているとも捉えられます。日本を含む各国・地域でも、生成AIがニュースやエンタメ、教育など日常のあらゆる場面に入り込むなかで、「AIが関わっていることをどのように伝えるべきか」という議論は避けて通れません。
AIを「パンドラの箱」あるいは「ペットのトラ」と見るかどうかは別として、ラベル表示を含む透明性の確保は、AIと社会が共存していくうえでの基本条件になりつつあります。今回の動きをきっかけに、私たち自身も、日々目にするコンテンツが「誰によって、どのように作られているのか」を意識的に問い直してみる必要がありそうです。
Reference(s):
cgtn.com








