La Rivoluzione di Sora: Videogiochi iper-realistici e i Rischi delle Deepfake
OpenAI, celebre per il suo sistema ChatGPT, ha dato vita a Sora, un’innovativa intelligenza artificiale capace di generare video straordinariamente realistici partendo da semplici istruzioni testuali. La presentazione di questo sistema ha destato ammirazione per le sue potenzialità, ma ha anche sollevato numerose preoccupazioni riguardo ai pericoli che potrebbe comportare. La capacità di creare contenuti iper-realistiche attraverso Sora apre la strada a scenari in cui la manipolazione dell’informazione potrebbe raggiungere livelli senza precedenti.
Il Funzionamento di Sora e l’Impatto Rivoluzionario
La versione di Sora mostrata da OpenAI ha stupito il pubblico dimostrando la sua abilità nel generare video di 60 secondi partendo da istruzioni testuali, o da un breve testo accompagnato da un’immagine. L’elevato realismo dei video dimostrativi è stato evidente, mostrando scene come una donna che passeggia per le strade di Tokyo, un cane che gioca felice sulla neve o una mandria di mammut che corre verso l’obiettivo. Questo livello di dettaglio è reso possibile grazie alla combinazione di due approcci all’intelligenza artificiale: il primo simile a Dall-E per la generazione d’immagini, mentre il secondo, noto come ‘architettura del trasformatore’, connette e contestualizza dati sequenziali, replicando il processo di costruzione linguistica per creare video comprensibili e coinvolgenti.
Le Preoccupazioni e i Pericoli delle Deepfake
L’allarme sull’utilizzo improprio di tecnologie avanzate come Sora è stato suonato da Hany Farid, esperto di giurisprudenza digitale all’Università di Berkeley, che ha dichiarato: ‘Questa tecnologia sorprendente migliorerà velocemente, portandoci verso un’epoca in cui sarà sempre più difficile distinguere il vero dal falso.’ OpenAI ha risposto a tali preoccupazioni confermando di non aver ancora reso pubblico Sora, poiché è in corso un lavoro da parte di esperti per implementare misure di sicurezza adeguate, come l’introduzione di filigrane o identificatori univoci all’interno dei video, al fine di prevenire utilizzi impropri. È evidente che questa tecnologia potrebbe trarre in inganno il pubblico, e senza un’azione concertata tra aziende informatiche, gestori di social media e istituzioni globali, il rischio di diffusione di disinformazione potrebbe raggiungere livelli senza precedenti nei prossimi anni.