インスタ、10代が自殺・自傷行為コンテンツを検索した場合保護者に通知へ
この機能はまず米国、イギリス、オーストラリア、カナダで来週から実装され、それ以外の地域でも今年中に展開される見込みだ。
.jpg)
写真・動画共有アプリのインスタグラムを運営する米IT大手メタ・プラットフォームズは26日、10代ユーザーが「自殺」や「自傷行為」に関連する単語を繰り返し検索した場合、保護者に通知を送る新たな機能を導入すると発表した。親が任意で設定できる「保護者による監視ツール」を利用している場合に限られるが、これまでの検索遮断や支援機関への案内に加え、保護者の理解と介入を促す仕組みとして導入される予定である。
この機能はまず米国、イギリス、オーストラリア、カナダで来週から実装され、それ以外の地域でも今年中に展開される見込みだ。対象は年齢認証を経た10代のアカウントで、保護者と子ども双方が監視ツールをONにする必要がある。通知は保護者が登録したメール、SMS、WhatsApp、インスタ内通知など多様なチャネルを通じて送信される。通知にはどのような検索があったかの説明と、メンタルヘルスや対話の支援に役立つ専門家のリソースへのリンクも含まれる。
メタは声明で「大多数の10代は自殺や自傷について検索しないが、繰り返し検索する傾向が見られた場合には、適切な支援につなげられるようにすることが目的だ」と説明している。また、検索結果そのものはこれまで通りポリシーに抵触する場合には表示されず、支援機関の情報などに誘導する仕組みが継続されるとしている。さらに、インスタの検索機能だけでなく、将来的には人工知能(AI)とのやりとりにおいて同様の警告システムを導入する計画もあるとした。
このシステムを巡っては賛否が分かれている。自殺予防支援の団体は、保護者への通知機能が「不十分」であり、かえって家族内での混乱や不安を招く可能性があると批判している。ある団体の代表は、「親が子どもの検索について知らされても、どのように話を切り出せばよいか準備ができていない場合、逆に有害になる恐れがある」と述べた。また、インスタのアルゴリズムが依然として危険なコンテンツをアルゴリズム上で推薦してしまうという指摘もあり、単に保護者への通知だけでは十分な対策にならないという意見もある。
一方でメタは、この機能が家族のコミュニケーション強化につながるとの立場を示し、慎重な通知設計により過度な警告を避けることで、通知の有効性を損なわないように努めるとしている。またメタは世界各国でソーシャルメディア利用による若年層の安全性についての懸念が高まっている状況を踏まえ、より包括的な対策を進めていく方針を示した。
この機能は世界で議論が続く子どものインターネット安全対策の一環として注目されている。欧州では未成年者のソーシャルメディア利用制限などの法整備の動きもあり、プラットフォーム側の自主的な対策との兼ね合いが今後の課題となりそうだ。
