Prosegue il lavoro di OpenAI, la casa madre dell’applicazione generativa di testo ChatGpt, nello sviluppo di nuovi modelli di intelligenza artificiale. L’ultimo è Sora, una piattaforma che permette di creare filmati fornendo al chatbot solo indicazioni testuali. In altre parole, basterà descrivere a Sora quanto vogliamo vedere e l’IA realizzerà il video interpretando le nostre indicazioni. Siamo solo agli inizi, ma a giudicare dai brevi filmati pubblicati dal fondatore Sam Altman su X, generati in base alle descrizioni fornite dagli utenti del social network, il risultato è già strabiliante.
Non solo in senso buono, s’intende. Lo stesso fondatore e primo ad di OpenAI, che si appresta a rilasciare ChatGpt 5, ha dichiarato di “non dormire la notte“, per le possibili implicazioni negative dell’IA. Non a caso, quella di Sora non è stata ancora rilasciata al pubblico, nemmeno in versione di prova, anche perché OpenAl deve ancora capire come proteggerla da eventuali problemi dovuti alla produzione di video falsi, fatti passare per veri. L’organizzazione ha affermato che verranno coinvolti politici, educatori e artisti per “comprendere le preoccupazioni e identificare casi d’uso positivi per questa nuova tecnologia”.
Un aiuto dovrebbe arrivare dalle etichette a cui sta lavorando il consorzio C2pa, di cui fanno parte OpenAl ma anche la Bbc e il New York Times. L’idea è inserire dati aggiuntivi che evidenzino l’eventuale creazione di un file tramite AI, bloccandone la diffusione online qualora vengano violate le norme condivise. Sulla scia di quanto già fatto per la generazione di immagini. A sollevare un’ulteriore polemica è la stessa OpenAl, affermando che “nonostante ricerche e test approfonditi non è possibile prevedere tutti i modi positivi in cui le persone utilizzeranno la nostra tecnologia, né come ne abuseranno”.
Solo qualche giorno fa, Google aveva lanciato Lumiere, una piattaforma di IA simile che però crea filmati partendo da immagini caricate dall’utente. Sora non è il primo modello del genere ma è l’unico a poter generare un file lungo fino a 60 secondi. Inoltre, l’IA può realizzare interi video simulando la presenza di più videocamere, il che garantisce che i soggetti rimangano gli stessi anche quando escono temporaneamente dalla vista. Con i metadati del consorzio C2pa, verranno esaminati i singoli fotogrammi di ogni video per garantire l’adesione alle norme di utilizzo, prima che il filmato venga mostrato ai navigatori.