◎フェイスブックを含むSNSでは著名な歌手、女優、モデルなどの写真や動画を使った生成されたヌード画像や動画が大量に拡散している。
インスタグラムやフェイスブックを傘下に置く米IT大手メタのロゴ(Getty Images)

メタの第三者機関である監督委員会は25日、人工知能(AI)が生成したディープフェイク画像に関する同社のポリシーは「明確ではなく」、更新が必要であると勧告した。

同委員会はAIが生成したインドと米国の著名な女性2人が同社に異議を申し立てたことを受け、ディープフェイクの問題点などを議論してきた。

同委員会は声明で、「我々が関与するまで、同社はインドの著名な女性の写真を使って生成されたとみられるディープフェイク画像を削除しなかった」と指摘した。

フェイスブックを含むSNSでは著名な歌手、女優、モデルなどの写真や動画を使った生成されたヌード画像や動画が大量に拡散している。

メタは著名人本人だけでなく、各国からその拡散を防ぐよう求められている。

同委員会はAIが生成した女性2人の画像に関するケースを数カ月かけて検証。委員会は女性の身元を明らかにしていない。

メタは同委員会の勧告を歓迎し、対策を検討する用意があると表明した。

インド人女性の写真を使って生成されたとみられる画像はインスタグラムで拡散した。同委員会によると、あるユーザーがこの画像をポルノとして報告したものの、メタは48時間の期限内にその報告を確認せず、画像も削除しなかったという。

その後、このユーザーが同委員会に報告。メタは報告を適切に確認せず、画像を削除しなかったのは誤りと認めた。

メタはその画像を投稿したとされるアカウントを凍結している。

2つ目のケースでは米国人女性の写真を使って生成されたヌード画像がフェイスブックに複数枚投稿された。

それらはメタのデータベースに登録済みであったため、投稿後、自動的に削除された。この画像を投稿したとされるユーザーは削除を不服として同委員会に異議を申し立てたが、委員会はメタの決定を支持した。

同委員会は「両画像がメタのいじめ・嫌がらせポリシーの軽蔑的な性的写真の禁止に違反している」と指摘。同様の事例が発生しないよう勧告した。

多くの著名人の写真がディープフェイク・ヌード画像の元になっているものの、明らかにそれと分かる場合を除き、著作権の侵害や名誉棄損で訴えることは現実的ではなく、仮に勝訴しても、また同じような画像が拡散する恐れがある。

アフィリエイト広告
スポンサーリンク