Youtube, rimossi 1000 video di annunci truffa
Gennaio 27, 2024YouTube ha rimosso oltre 1000 video pubblicitari che promuovono truffe effettuate tramite l’intelligenza artificiale con celebrità, suscitando l’indignazione a causa delle immagini deepfake di Taylor Swift.
Quante volte abbiamo pensato: “L’intelligenza artificiale è una cosa molto utile, ma altrettanto pericolosa se usata male”….
Sebbene venga usata per scopi molto utili e importanti, era scontato che avrebbe prodotto anche effetti negativi, infatti dopo le Cryptotruffe ora YouTube deve combattere contro gli annunci deep fake.
Entriamo nel dettaglio per capire cosa sono gli annunci deepfake, come funzionano e chi li crea.
Annunci deepfake di YouTube
A causa delle crescenti preoccupazioni per l’abuso dell’intelligenza artificiale (IA) da parte di truffatori, YouTube ha rimosso oltre 1.000 annunci video deepfake dalla sua piattaforma. Secondo quanto riportato, molti di questi video deepfake avevano raggiunto milioni di visualizzazioni su YouTube.
Questi annunci video deepfake, generati attraverso l’uso dell’intelligenza artificiale, presentavano figure famose come Taylor Swift, Steve Harvey e Joe Rogan che promuovevano truffe legate a Medicare su YouTube.
La rimozione di tali video deepfake è avvenuta in seguito a un’indagine condotta da 404 Media sulla diffusione di tali contenuti fuorvianti su YouTube.
YouTube ha dichiarato di essere pienamente consapevole di questa problematica e sta attivamente lavorando per prevenire la diffusione di deepfake che coinvolgono celebrità.
La piattaforma di proprietà di Google ha annunciato di aver dedicato risorse significative per contrastare la diffusione di questi annunci truffaldini basati sull’intelligenza artificiale e che stanno impegnandosi in modo proattivo per affrontare la situazione.
I deepfake sono diventati un grave crimine informatico negli ultimi tempi, con celebrità e persone comuni che ne sono ugualmente vittime.
Secondo l’ultima ricerca della società di sicurezza informatica Deeptrace, circa il 96% dei deepfake sono pornografici e quasi sempre ritraggono donne.
La deepfake di Taylor Swift diventa virale.
In risposta alle crescenti preoccupazioni per la proliferazione di contenuti deepfake, YouTube ha intrapreso un’azione decisiva per combattere la diffusione di pubblicità truffa generate dall’intelligenza artificiale con celebrità.
In risposta alle crescenti preoccupazioni per l’aumento dei contenuti deepfake, YouTube ha adottato misure drastiche per contrastare la diffusione di annunci truffa generati dall’intelligenza artificiale con protagoniste celebrità. Secondo quanto riportato da Economic Times, l’ultima stretta della piattaforma ha portato alla rimozione di oltre 1.000 video simili, indicando un chiaro intento di affrontare il problema. Questa decisione è stata presa in seguito a un maggiore controllo, scaturito dal rilascio di immagini deepfake non consensuali di natura pornografica con protagonisti personaggi noti, come Taylor Swift.
La tecnologia deepfake, che sfrutta l’intelligenza artificiale per alterare video e immagini, costituisce una delle sfide principali per le piattaforme web. In particolare, la creazione di pubblicità ingannevoli che coinvolgono celebrità notevoli ha generato seri problemi etici e legali. L’approccio proattivo di YouTube nella rimozione di questi video fraudolenti testimonia il suo impegno a sostenere l’integrità della piattaforma e a proteggere gli utenti da contenuti ingannevoli.
La diffusione delle immagini deepfake di natura pornografica non consensuale con Taylor Swift ha suscitato una rapida risposta da parte di YouTube. Questi materiali illeciti hanno attirato un’ampia attenzione, con un post che ha ricevuto milioni di visualizzazioni e migliaia di condivisioni prima di essere rimosso. Questo evento ha generato critiche significative e ha evidenziato l’urgente necessità per le piattaforme di contrastare la diffusione di contenuti deepfake dannosi.
Chi è stato creato il deepfake di Taylor Swift?
Ciò che rende ancora più preoccupanti queste immagini è che, secondo il rapporto, non sono state create addestrando un modello di intelligenza artificiale, ma attraverso l’hacking di strumenti come il Designer di Microsoft, eludendo così le misure di sicurezza progettate per impedire la generazione di immagini di celebrità.
“I membri del gruppo hanno condiviso strategie per eludere queste misure di sicurezza, evitando l’uso di “Taylor Swift” e preferendo parole chiave come “Taylor ‘cantante’ Swift”. In questo modo sono riusciti a generare immagini sessualizzate utilizzando parole chiave che descrivono “oggetti, colori e composizioni che sembrano chiaramente atti sessuali”, anziché cercare di utilizzare termini espliciti.
Gli sforzi di YouTube per arginare il problema
Gli sforzi di YouTube nel contrastare gli annunci truffa AI che coinvolgono celebrità sono stati supportati da collaborazioni e indagini investigative. Un’indagine condotta da 404 Media ha rivelato l’entità del problema, portando alla scoperta e alla rimozione di oltre 1.000 video fraudolenti legati a una rete pubblicitaria. Questo impegno congiunto, unitamente agli investimenti continui in tecnologie avanzate di rilevamento, ha consentito a YouTube di affrontare prontamente la crescente presenza di contenuti falsi.
Al centro delle attività di YouTube si pone l’obiettivo di preservare la fiducia e la sicurezza degli utenti. Priorizzando la rimozione di informazioni fuorvianti e migliorando le procedure per individuarle e prevenirne la diffusione, la piattaforma mira a creare un ambiente online più sicuro per la sua vasta comunità globale.
Inoltre, YouTube comprende l’importanza di una vigilanza costante nella lotta contro le minacce emergenti, come la tecnologia deepfake, e si impegna a rimanere al passo con i rischi in continua evoluzione.
Le azioni proattive di YouTube nell’eliminare oltre 1.000 video di pubblicità truffa AI con celebrità evidenziano la sua dedizione nel contrastare la diffusione di contenuti fraudolenti. La recente attenzione suscitata dalle immagini deepfake non consensuali di Taylor Swift sottolinea l’importanza di combattere la disseminazione di contenuti dannosi online.
Attraverso sforzi coordinati e investimenti nella tecnologia di rilevamento, YouTube sta lavorando instancabilmente per preservare la fiducia e la sicurezza degli utenti di fronte alle crescenti minacce legate alla tecnologia deepfake.