EU、Apple・Snapchat・YouTubeに子どもの安全対策の説明要求
EUがAppleやSnapchat、YouTubeなどの大手プラットフォームに対し、未成年を有害コンテンツからどう守っているのか説明を求め、ソーシャルメディアへの年齢制限導入も検討し始めています。子どものオンライン安全を巡る国際ニュースとして、今後の議論は日本にも影響を与えそうです。
EUが大手プラットフォームに説明要求
EUは今週、SnapchatやYouTubeに加え、AppleのApp StoreとGoogle Playに対し、子どもをオンライン上の危険からどう守っているのか詳細な情報を求めました。対象となっているのは、違法または有害なアプリやコンテンツへのアクセス、年齢制限の運用方法などです。
今回の動きは、EUのデジタル空間を規制する中核ルールであるデジタルサービス法(DSA)に基づく「調査行為」の一環とされています。DSAは、違法コンテンツ対策や子どもの安全確保をプラットフォームに義務づける強力な枠組みで、米テック企業からは「検閲につながる」との批判も出ており、ドナルド・トランプ大統領が対抗措置に言及するなど政治的な緊張も生んでいます。
焦点① Snapchatとアプリストアへの質問内容
まずSnapchatに対しては、13歳未満の子どもがサービスを利用できないようにする仕組みや、ドラッグや電子タバコ(ベイプ)などの購入をどう防いでいるのかが問われています。
Snapchat側は、プラットフォームの安全確保に「深くコミットしている」と述べ、プライバシーと安全性を高める機能をすでに導入済みだと強調しています。
一方、AppleのApp StoreとGoogle Playには、次の点について説明が求められています。
- ギャンブルサービスや性的コンテンツなど、違法または有害とされるアプリを子どもがダウンロードしないようにする対策
- 同意のない性的な画像を生成するいわゆるnudifyアプリなど、悪用されるおそれのあるツールへのアクセス制限
- アプリに付与されている年齢レーティングを、実際の運用でどのように適用しているか
EUは、これらの仕組みが実際に子どもを守るのに十分かどうかを検証しようとしています。
焦点② YouTube、Meta、TikTokへの複数の調査
動画プラットフォームのYouTubeには、未成年に有害なコンテンツが拡散されているとの報告を受け、そのレコメンド(おすすめ表示)システムについて詳しい情報提供が求められています。
運営元のGoogleは、保護者向けの管理機能や、若年ユーザー向けの安全対策をすでに備えていると説明し、今後も取り組みを強化していくとしています。
これとは別に、EUはMetaのFacebookとInstagram、さらにTikTokについても調査を進めています。懸念されているのは、プラットフォーム自体が子どもにとって中毒性が高く、長時間の利用を誘発しているのではないかという点です。
焦点③ EUで議論が進む「デジタル成年年齢」
今回の背景には、オーストラリアで16歳未満のソーシャルメディア利用を禁止する方針が打ち出されたことがあります。これを受けてEUでは、未成年のソーシャルメディア利用に域内共通のルールを設けるべきかどうか、議論が加速しています。
EU加盟27か国のうち25か国と、ノルウェー、アイスランドが、ソーシャルメディアの「デジタル成年年齢」を検討するという宣言に署名しました。この宣言では、未成年をオンラインから保護する必要性が「差し迫った課題」と位置づけられています。
一方で、ベルギーとエストニアは署名を見送りました。
- ベルギーは、子どもを守る重要性は認めつつも、具体的な手段については幅広い選択肢を残したいとしています。
- エストニアは、アクセス禁止よりも、デジタル教育や批判的思考の育成を優先するとの立場を明確にしました。
デンマークは、15歳未満の子どもに対しソーシャルメディアを禁止する計画を進めており、フランスも同様の方針を模索しているとされています。
情報要求は「罰則」ではないが、調査や罰金につながる可能性
今回EUが行っている情報提供要求は、それ自体が違法行為の認定や処罰を意味するものではありません。ただし、企業からの回答内容によっては、本格的な調査や罰金につながる可能性があります。
EUのテック担当のヘンナ・ヴィルッカネン氏は、子どものプライバシーや安全が十分に守られていないケースがあると指摘したうえで、「だからこそ、EUとしてルールの執行を強化している」と述べています。
今後の論点:年齢確認、プライバシー、教育
EUの通信担当閣僚らは、ソーシャルメディアでの年齢確認の方法や、未成年をより安全に守るために取れる追加措置についても議論しました。欧州委員会のウルズラ・フォン・デア・ライエン委員長も、こうした取り組みを個人的に支持しており、専門家パネルを設置してEUレベルでできることを検討する方針です。
今後、議論の焦点になりそうなのは次のような点です。
- 正確な年齢確認を行いつつ、子どもと家族のプライバシーをどこまで守れるか
- 違法・有害コンテンツの削除だけでなく、アルゴリズムによる「おすすめ表示」をどう制御するか
- アクセス制限と、デジタルリテラシー教育や批判的思考の育成とのバランスをどこに置くか
SNSが生活や学びに深く入り込むなかで、「子どもをどう守るか」と同時に、「子ども自身にどんな力を身につけてもらうか」という視点も、今後ますます重要になりそうです。皆さんは、ソーシャルメディアと子どもの関係をどう考えますか。
Reference(s):
cgtn.com








