インドネシアSNS規制、政府が各社に削除アカウント数の開示求める
インドネシアでは3月末から、16歳未満の子どもが有害コンテンツに触れる可能性のあるデジタルプラットフォームへのアクセスを禁止する規制が導入された。
-6.jpg)
インドネシア政府は29日、16歳未満のソーシャルメディア利用を制限する新規制の実効性を高めるため、各プラットフォームに対し、削除・停止したアカウント数の公表を求めた。若年層のオンライン利用が急増する中で、透明性の確保と規制の実効性が大きな課題となっている。
ハフィド(Meutya Hafid)通信・デジタル相はロイター通信のインタビューで、「単に規制に従うだけでなく、どれだけの未成年アカウントが停止されたのかを公に示す必要がある」と強調した。また「遵守だけでは不十分であり、透明性のために数字を公表すべきだ」と述べ、企業側により積極的な情報開示を求めた。
インドネシアでは3月末から、16歳未満の子どもが有害コンテンツに触れる可能性のあるデジタルプラットフォームへのアクセスを禁止する規制が導入された。対象には動画共有サイトやSNS、オンラインゲームなどが含まれ、ポルノ、ネットいじめ、詐欺、依存といったリスクから未成年を守ることが目的である。
背景には若者のインターネット利用時間の長さがある。政府によると、インドネシアの若者は1日最大8時間インターネットを利用し、その影響の大きさが問題視されている。この規制は約7000万人の子どもや若者が対象となり、社会全体に広範な影響を及ぼす政策となっている。
これまでのところ、対応状況にはプラットフォームごとに差が見られる。短編動画アプリのティックトックは16歳未満とみられる約170万件のアカウントを停止したと報告し、具体的な数字を示した最初の企業となった。一方で、ユーチューブやフェイスブック、インスタグラムなども規制への協力姿勢は示しているものの、削除件数は公表していない。
また、オンラインゲームプラットフォームのロブロックスは現時点で規制への完全な同意を示しておらず、対応の遅れが指摘されている 。こうしたばらつきは規制の実効性に対する懸念を高める要因となっている。
政府は年齢確認の方法について、各企業に委ねているが、実際の運用には課題も多い。年齢詐称や複数アカウントの作成などを完全に防ぐことは難しく、技術的な限界があると指摘されている。また、厳格な本人確認を導入した場合、個人情報保護とのバランスも問題となる。
こうした取り組みはインドネシアに限らず、世界的な潮流となりつつある。オーストラリアや欧州各国でも未成年のSNS利用を制限する動きが広がり、子どもの安全確保とデジタル環境の健全化が国際的な課題となっている。実際、オーストラリアでは同様の規制により数百万件規模のアカウントが削除された。
一方で、専門家や人権団体の間では、単純な利用禁止だけでは問題解決にはつながらないとの指摘もある。子どもをオンライン空間から排除するのではなく、安全な利用環境を整備することが重要だとする意見も根強い。教育や保護者の関与、プラットフォーム側の設計改善など、より包括的な対策が求められている。
今回のインドネシア政府の動きは単なる規制強化にとどまらず、企業の説明責任を問う点に特徴がある。削除されたアカウント数の公表は規制の実効性を測る指標となるだけでなく、企業の取り組みを可視化する役割も果たす。急速に拡大するデジタル社会の中で、子どもの安全をどのように守るかという課題に対し、政府と企業の双方に一層の対応が求められている。
