Rose Villain (ph.Fotogramma)
Reduce del successo del Festival di Sanremo, a Rose Villain sembra però andare tutto storto. Dopo il furto della sua adorata moto, poi ritrovata, ora la cantante si trova a fare i conti con un altro di crimine. In Rete sono apparse foto che la ritraggono nuda, o meglio ritraggono un corpo nudo con il suo viso, perché ovviamente non è lei, ma un’immagine creata con l’intelligenza artificiale.
E’ stata proprio Rose Villain a raccontare, attraverso i suoi canali social, cosa è successo. In una storia Instagram ha spiegato: “Stanno girando foto di me nuda che ovviamente sono dei fake”. Il fatto che siano foto false, realizzate con l’IA, non ha sollevato la cantante. Anzi. “Comunque la cosa mi mette a disagio – ha scritto ancora – e mi fa sentire violata”. L’artista ha poi concluso: “Ho già sporto denuncia ma vorrei ricordare che è illegale ed è punibile chi crea, chi diffonde e chi condivide materiale di questo tipo”.
L’artista ha voluto sottolineare come queste azioni rappresentino una vera e propria violenza perpetrata attraverso la Rete. Rose Villain ha quindi rivolto un pensiero a chi, come lei, potrebbe essere vittima di revenge porn: “E’ una violenza a tutti gli effetti e il problema è che queste cose succedono anche a persone fragili che magari non sanno proteggersi, tutelarsi e difendersi come possono e devono fare”.
La cantante di “Click Boom” è solo l’ultima vittima dell’intelligenza artificiale. Questo strumento, se non utilizzato in modo corretto, può avere conseguenze negative. Tra queste c’è il deepfake, termine coniato nel 2017 da un utente di Reddit per parlare con gli altri iscritti di video pornografici manipolati. Il deepfake è una parola composta: “deep” sta per “deep learning”, una tecnica avanzata di intelligenza artificiale, che usando vari algoritmi, riesce a elaborare in modo automatico una serie di informazioni con l’obiettivo di manipolare le sembianze delle persone rubando la loro identità; e “fake” che significa “falso”.
Anche Giorgia Meloni è stata vittima di deepfake. Due uomini, padre e figlio, avrebbero, infatti, diffuso in Rete immagini pornografiche, ovviamente finte, del premier. La Meloni ha chiesto 100mila euro di risarcimento che, in caso di vittoria, devolverà a un fondo ministeriale che sostiene le donne vittime di violenza.
Sul fronte internazionale, anche Taylor Swift ha subito un trattamento analogo. L’immagine della cantante è stata utilizzata per pubblicare video pornografici falsi su X. I video hanno fatto in breve tempo il giro del mondo, tanto che sono stati visti ben 47 milioni di volte.
L’intelligenza artificiale non è utilizzata solo per creare falsi video porno. Altri personaggi noti come Elon Musk e Volodymyr Zelensky sono stati vittime di questa tecnologia. L’immagine del miliardario è stata utilizzata per mettere in piedi una truffa online che utilizzando un suo finto discorso ha spinto migliaia di utenti a iscriversi a una piattaforma di trading online. La stessa tecnica è stata usata quando un deepfake del presidente ucraino Volodymyr Zelensky esortava le truppe del suo Paese ad arrendersi alle forze russe.
(Foto copertina: credit agenzia Fotogramma)
Andare in vacanza con la propria migliore amica può essere un’esperienza indimenticabile, ma anche una…
Il weekend di metà agosto si apre con energia, voglia di leggerezza e nuove emozioni.…
Il ciambellone all’acqua con pesche è un dolce semplice e genuino, perfetto per la colazione…
Le melanzane ripiene di riso integrale, pomodorini e olive sono un piatto completo, profumato e…
Con il caldo estivo e l’umidità, mantenere le sopracciglia definite e ordinate può diventare una…
La settimana centrale di agosto porta con sé emozioni forti, nuovi inizi e momenti di…