Discordが顔認証・身分証明書の提示義務化へ、成人向けコンテンツ対策
この取り組みは従来の任意的な年齢確認を一段と強化するもので、すべての既存ユーザーおよび新規ユーザーのアカウントは、年齢確認が完了するまで「ティーンエイジャー(13歳以上)」として扱われ、アクセスできるコンテンツや機能に制限がかかる。
のロゴ(Getty-Images).jpg)
米国発のコミュニケーションプラットフォーム、Discord(ディスコード)は2026年3月から年齢確認制度を世界的に導入し、成人向けコンテンツや機能にアクセスする際に顔スキャンまたは身分証明書の提出を必須とする。この取り組みは従来の任意的な年齢確認を一段と強化するもので、すべての既存ユーザーおよび新規ユーザーのアカウントは、年齢確認が完了するまで「ティーンエイジャー(13歳以上)」として扱われ、アクセスできるコンテンツや機能に制限がかかる。
Discordは公式発表で、新しい年齢確認制度を「Teen-by-Default(ティーンデフォルト)設定」と呼び、未確認ユーザーは年齢制限付きのサーバーやチャネル、感度の高いコンテンツを見ることができなくなると説明した。これらのユーザーは「ステージ」と呼ばれるライブ配信形式のチャットに参加できず、グラフィックやセンシティブな画像・動画もフィルタリングされるほか、見知らぬユーザーからの友達申請に警告表示が出るなど、複数の機能が制限される。
年齢確認は複数の方法で実施される。ユーザーはまず、AIを利用した顔年齢推定(ビデオセルフィー)か、政府発行の身分証明書の写真を提出する選択肢があり、どちらかを完了することで18歳以上と認証される。Discordによると、顔年齢推定はユーザーのデバイス内で処理され、外部に送信されない。提出された身分証明書の画像は確認後速やかに削除される仕組みだという。さらにDiscordは年齢を推定するAIモデルも導入し、ユーザーの活動パターンや利用状況から成人と高い確信が得られれば追加の確認を求めない場合もあるとしている。
この年齢確認制度は元々、イギリスやオーストラリアで法的要請を背景に段階的に導入されてきたが、今回のグローバル展開により世界中の利用者に適用されることになる。Discordはこの取り組みを、未成年ユーザーのオンライン安全を守るための重要な措置であると位置づけている。
ただし、この新制度には懸念の声もある。特にユーザーのプライバシーやデータ保護に関する不安が指摘されている。過去にDiscordが第三者ベンダーを通じた年齢確認データの管理で問題を抱えた経験があり、その際は一部ユーザーの政府ID写真が外部に流出したと報じられたことがある。このため、今回の制度でも実際にどの程度安全に運用されるのかについて、利用者から疑問が上がっている。
Discordは年齢確認が完了するとユーザーのアカウントステータスが更新され、成人向けコンテンツや制限されていた機能にアクセスできるようになるとしている。また、年齢確認後のステータスは他のユーザーから見えない仕組みで、Discord側もプライバシー保護を強調している。
Discord側はこの変革により若年ユーザーの安全が強化されると主張しているが、同時に一部のユーザー離れや利用体験への影響を懸念する意見もある。特に、顔認証や身分証提出に抵抗感を抱くユーザーがDiscordを離れる可能性も議論されており、今後の実装とユーザー反応が注目される。
