La piaga di immagini pornografiche deepfake generate dall’intelligenza artificiale e che sessualizzano le persone senza il loro consenso ha colpito la sua vittima più famosa: Taylor Swift. Immagini false sessualmente esplicite e offensive della Swift hanno iniziato a circolare ampiamente nel corso della settimana prima su X e poi condivise su altri social network, attirando l’attenzione su un problema che le piattaforme tecnologiche e i gruppi anti-abuso faticano a risolvere.
La rivolta dei fan
La sua ardente base di fan (gli “Swifties”) si è rapidamente mobilitata, lanciando una controffensiva su X e un hashtag #ProtectTaylorSwift per inondarla di immagini più positive della pop star. Alcuni hanno affermato di aver segnalato account che condividevano i deepfake. Il gruppo di rilevamento deepfake Reality Defender ha affermato di aver monitorato un diluvio di materiale pornografico non consensuale raffigurante la cantante, in particolare proprio su X. Alcune immagini sono arrivate anche su Facebook di proprietà di Meta e altre piattaforme di social media.
La velocità del web
“Sfortunatamente, si erano già diffuse a milioni di utenti nel momento in cui alcuni di esse sono stati rimossi”, ha affermato Mason Allen, responsabile sviluppo di Reality Defender. I ricercatori hanno trovato almeno un paio di dozzine di immagini uniche generate dall’intelligenza artificiale. “Il numero di deepfake espliciti è cresciuto negli ultimi anni, poiché la tecnologia utilizzata per produrre tali immagini è diventata più accessibile e più facile da usare”, continua Allen.
Nel 2019, un rapporto pubblicato dalla società di intelligenza artificiale DeepTrace Labs ha mostrato che queste immagini erano utilizzate in gran parte come armi contro le donne. La maggior parte delle vittime erano attori di Hollywood e cantanti K-pop sudcoreani.