YouTube: Stop ai Video per Bambini Generati dall’IA
Marzo 15, 2024YouTube afferma che utilizzerà una combinazione di filtri automatici, revisione umana e feedback degli utenti per determinare quali contenuti saranno accessibili nel servizio YouTube Kids.
C’è un nuovo modo per arricchirsi su Internet, almeno stando a una serie di tutorial su YouTube che promuovono guadagni usando l’intelligenza artificiale per creare video per bambini. La ricerca su come realizzare contenuti o canali per bambini su YouTube ora mostra tutorial che forniscono una guida per creare animazioni semplici in poche ore. Essi promuovono l’utilizzo di strumenti come ChatGPT, i servizi di sintesi vocale ElevenLabs e Murf AI e le funzionalità di intelligenza artificiale generativa all’interno di Adobe Express per automatizzare lo scripting e la produzione audio e video.
“NON È DIFFICILE”, recita una delle miniature dei primi risultati, mentre il titolo di un’altra promette la possibilità di generare un video con una canzone originale per bambini “In meno di 20 minuti!” La viralità alimentata dalle ricchezze che si dicono essere disponibili può essere stupefacente. “$ 1.2 milioni con video generati dall’intelligenza artificiale per bambini?” suggerisce un titolo, mentre un altro proclama “$ 50,000 al mese!”
Poiché YouTube è la forza predominante nell’intrattenimento per bambini, se anche solo una frazione del successo suggerito nei tutorial di attività secondaria sarà raggiunto dai video per bambini generati dall’intelligenza artificiale, milioni di bambini li guarderanno. L’anno scorso, la BBC ha investigato sull’aumento dei video di “cattiva scienza” rivolti ai bambini più grandi su YouTube e ha identificato oltre 50 canali che utilizzano l’intelligenza artificiale per promuovere pseudoscienza e teorie del complotto, spesso con milioni di visualizzazioni. Ma i video animati rivolti ai bambini più piccoli sono stati in gran parte non esaminati.
WIRED ha individuato diversi account che sembrano proporre contenuti generati dall’intelligenza artificiale per bambini, principalmente attraverso l’analisi di canali relativamente recenti che pubblicano un grande numero di video. La startup specializzata nel rilevamento dei deepfake, Reality Defender, ha esaminato campioni provenienti da vari di questi canali e ha scoperto prove che l’IA generativa fosse parte del processo di produzione.
“Alcuni dei video che abbiamo esaminato presentano una combinazione di sceneggiature probabilmente generate, voci probabilmente generate o una combinazione dei due, dimostrando che il text-to-speech generativo è sempre più diffuso nei video di YouTube, anche quelli destinati ai bambini”, afferma il CEO di Reality Defender, Ben Colman.
Un canale, chiamato Neo, conta oltre 970.000 iscritti e i suoi video ricevono regolarmente più di un milione di visualizzazioni. Dal suo lancio nel novembre 2023, ha pubblicato regolarmente un nuovo video ogni pochi giorni, con titoli come “Ahi! Baby Got a Boo Boo” e “Poo Poo Song”. (La cacca è un tema duraturo tra i bambini su YouTube e sui servizi di streaming musicale.) Reality Defender ha analizzato la sceneggiatura trascritta da un video di esempio, “Caring for Injured Baby Dino”, e ha scoperto che era probabilmente generata dall’intelligenza artificiale al 98%.
Anche il canale Super Crazy Kids, prodotto da una società con sede a Hyderabad, in India, sembra integrare strumenti di intelligenza artificiale nella realizzazione dei suoi video animati più recenti. Vanta oltre 11 milioni di abbonati. Reality Defender ha esaminato un video di esempio e ha individuato la presenza di “frammenti vocali sintetici”. (Il titolo del video è un insieme di parole chiave: “Pig Finger Family Song Baby Nursery Rhymes Colorful Cars Colors for Kids 45 Mins Collection Video.”) Il canale si definisce educativo e spesso etichetta i suoi video come strumenti per apprendere colori, forme e numeri.
YouTube, nuove politiche contro i video per bambini generati con la IA
Neo, Super Crazy Kids e altri canali simili condividono un aspetto comune: presentano animazioni 3D in uno stile simile a Cocomelon, il canale per bambini più popolare di YouTube negli Stati Uniti. (Dana Steiner, portavoce della società madre di Cocomelon, Moonbug, afferma che nessuno dei suoi spettacoli attualmente utilizza l’intelligenza artificiale, “ma il nostro talentuoso team creativo esplora sempre nuovi strumenti e tecnologie”).
Questa estetica familiare significa che un genitore impegnato che guarda rapidamente uno schermo potrebbe confondere il contenuto dell’intelligenza artificiale con un programma che ha controllato. E anche se non è particolarmente ben realizzato, il contenuto dei video pubblicati da questi canali tende ad essere scadente nello stesso modo in cui gran parte dell’intrattenimento per bambini di oggi è scadente: frenetico, rumoroso, poco originale.
YouTube è in procinto di introdurre nuove politiche per i contenuti generati dall’intelligenza artificiale, anche se l’azienda non cerca di limitarle in modo significativo.
“YouTube introdurrà presto etichette di contenuto e requisiti di divulgazione per i creatori che caricano contenuti che contengono materiale realistico alterato o sintetico, inclusi contenuti rivolti a bambini e famiglie”, afferma la portavoce di YouTube Elena Hernandez.
Quando WIRED ha chiesto se YouTube cercherà in modo proattivo i contenuti generati dall’intelligenza artificiale e li etichetterà come tali, Hernandez ha detto che maggiori dettagli arriveranno in seguito, ma che prevede di fare affidamento principalmente sulla divulgazione volontaria. “Il nostro approccio principale sarà quello di richiedere ai creatori stessi di rivelare quando hanno creato contenuti alterati o sintetici che sono realistici”.
L’azienda afferma di utilizzare una combinazione di filtri automatici, revisione umana e feedback degli utenti per determinare quali contenuti sono accessibili nel servizio YouTube Kids più limitato.
Alcuni temono che YouTube e i genitori di tutto il mondo non siano adeguatamente preparati per l’imminente ondata di contenuti per bambini generati dall’intelligenza artificiale. Il neuroscienziato Erik Hoel ha recentemente guardato alcuni dei tutorial su come creare contenuti per bambini con l’intelligenza artificiale, oltre ad alcuni video che sospettava fossero stati realizzati utilizzando la tecnologia.
Hoel era così turbato da ciò che ha visto che ha inveito contro il concetto sul suo Substack, anche individuando Super Crazy Kids. “In tutta la nazione ci sono bambini accasciati davanti agli iPad che vengono sottoposti a deflusso sintetico, privati del contatto umano anche nei media che consumano”, ha dichiarato Hoel.
L’avvertimento di Hoel ricorda l’ultimo grande scandalo su YouTube per bambini, soprannominato “Elsagate”. Ha preso il via nel 2017 quando le persone hanno iniziato a notare video surreali e inquietanti rivolti ai bambini sulla piattaforma, spesso con personaggi popolari come Elsa di Frozen della Disney, Spiderman e l’eroe porcino titolare di Peppa Pig. Sebbene i contenuti generati dall’intelligenza artificiale non abbiano raggiunto un nadir simile, i suoi creatori sembrano perseguire un obiettivo simile di attirare l’attenzione dei consigli automatici di YouTube.