Quello che è accaduto a Taylor Swift in questi giorni fa venire i brividi e ci fa chiedere come sia possibile che più la tecnologia va avanti e più viene permeata di violenza sessuale nei confronti delle donne. Per chi non lo sapesse Taylor Swift, una delle cantanti più popolari e influenti del mondo, è stata vittima di un abuso di deepfake, foto realizzate dall’Intelligenza Artificiale. Foto sessualmente esplicite dell’artista sono spuntate online, facendosi strada soprattutto su X (ex Twitter), che non ha restrizioni sulla condivisione di contenuti sessuali. Ma com’è possibile che le donne non siano tutelate in nessun modo? Quanto dobbiamo urlare ancora che è violenza sulle donne per farci ascoltare?

Quello che è successo a Taylor Swift con le immagini AI deepfake è l’ennesimo esempio di violenza sulle donne

Le immagini (davvero inquietanti) fake, realizzate con l’utilizzo dell’Intelligenza Artificiale, di Taylor Swift sono le più preoccupanti mai state rilasciate nella storia della violenza perpetrata dal deep fake sulle donne, nei confronti dell’attrice indiana Rashmika Mandanna, vittima di un incidente simile lo scorso anno. Proprio come il governo indiano ha esortato le società proprietarie delle piattaforme di social media a rafforzare le regole sul tipo di contenuti consentiti online, la Casa Bianca ha chiesto una legislazione per proteggere le persone dai deepfake generati dall’intelligenza artificiale dopo la diffusione delle false fake di Taylor Swift.

Ciò che inquieta di più è quello che è accaduto successivamente alla pubblicazione delle foto. Le immagini deepfake di Swift sono diventate virali su X: una ha raggiunto 45 milioni di visualizzazioni prima di essere eliminata. Inoltre, prima di essere rimosse, sono state postate più di 24.000 volte e hanno ricevuto centinaia di migliaia di like e salvataggi. La piattaforma ha reagito lentamente prima di correre in aiuto di questa violenza nei confronti di Taylor Swift. E purtroppo il post è rimasto attivo per circa 17 ore. Potete immaginare cosa possa succedere in 17 ore. Anche se gli Swifties hanno cercato di limitare la diffusione delle immagini esortando a non cercarle e non postarle, è stato del tutto inutile. 17 ore sono davvero tante. Fortunatamente adesso non è più possibile cercare il nome di Taylor Swift su X.

Alla fine X è corso ai ripari: in un comunicato, ha dichiarato che “la pubblicazione di immagini di nudità non consensuale (NCN) è severamente vietata su X e abbiamo una politica di tolleranza zero nei confronti di tali contenuti”.

Nel frattempo, il presidente e amministratore delegato di Microsoft Satya Nadella ha dichiarato che i falsi espliciti di Swift AI sono “allarmanti e terribili”. In un’intervista rilasciata a NBC Nightly News, Nadella ha dichiarato: “Penso che sia necessario agire rapidamente su questo fronte”. Perché Microsoft è in discussione? A causa di un possibile collegamento tra il gruppo di persone che potrebbe aver creato queste foto e il generatore di testo-immagine con intelligenza artificiale di Microsoft. Queste immagini deepfake sarebbero emerse per la prima volta in uno specifico gruppo Telegram dedicato alla circolazione di immagini di donne abusive e sessualmente esplicite. Uno degli strumenti utilizzati dai membri di questo gruppo è il generatore di immagini di Microsoft.

Il deepfake è violenza sulle donne: non possiamo più nasconderlo

Immaginatevi di essere per 17 ore, ovunque, in ogni angolo del mondo, con foto raccapriccianti, in cui il vostro corpo e la vostra faccia sono state completamente derubate. E con quella faccia possono farci quello che vogliono. Ovviamente nel caso di una donna significa disumanizzarla a livello sessuale, farle violenza, annientarla nel suo profondo. Non è possibile che anche con la tecnologia, il primo obiettivo dell’essere umano è quello di annientare una donna sul piano sessuale. Infliggerle una violenza ripetuta (in questo caso) per 17 ore, in cui ogni persona sul Globo può vedere quella violenza. E’ inutile continuare a girarci intorno: il deepfake è violenza sulle donne. Ed è ora che i Governi lo riconoscano e che prendano provvedimenti ora. La quasi totalità dei deepFake a sfondo sessuale riguarda contenuti non consensuali di natura sessuale che hanno come vittima sempre e soltanto la donna. Non c’è altro target o obiettivo.

Seguici su Google News