Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

OpenAI ha presentato Sora 2, un modello generativo video+audio con maggiore aderenza alla fisica, realismo visivo più elevato, controllo fine delle scene e sincronizzazione tra dialoghi ed effetti sonori. Questa nuova versione perfeziona gli aspetti tecnici e introduce un insieme di funzionalità che hanno l’obiettivo di rendere l’esperienza di creazione e fruizione più completa e accessibile. L’app Sora su iOS integra tali capacità in un ambiente orientato alla creazione, al remix dei contenuti e alla scoperta, con un feed che può essere personalizzato e regolato in base alle esigenze dell’utente. Una delle novità più rilevanti è la possibilità di inserire la propria immagine e voce nei video grazie a una procedura di verifica e consenso che abilita l’uso del proprio “cameo”. Dopo questa procedura, l’utente mantiene il pieno controllo e può decidere chi ha il diritto di utilizzare il suo cameo, oltre a poter revocare l’autorizzazione o richiedere la rimozione dei video nei quali compare. L’accesso al servizio è partito con inviti e la fase di rollout ha riguardato inizialmente Stati Uniti e Canada. Dopo aver ricevuto un invito, il modello diventa utilizzabile anche via web su sora.com. In questa prima fase, l’uso è gratuito ma con limiti, calibrati in base alla disponibilità di calcolo. Gli abbonati a ChatGPT Pro possono usufruire di una versione sperimentale a qualità superiore, denominata Sora 2 Pro, disponibile via web e in seguito anche nell’app. OpenAI ha precisato che Sora 1 Turbo resta disponibile e che tutte le creazioni già realizzate rimangono accessibili nella libreria personale su sora.com. Al momento, l’applicazione non è disponibile su dispositivi Android; l’azienda ha indicato che l’espansione della compatibilità è parte dei piani futuri.

Il progetto è accompagnato da una filosofia del feed che mira a incentivare la produzione e non soltanto il consumo passivo dei contenuti. Il sistema di ranking è stato progettato per privilegiare ciò che può ispirare e stimolare la creazione, piuttosto che contenuti destinati a trattenere l’utente in modo passivo. L’app consente inoltre di dare istruzioni in linguaggio naturale per personalizzare le raccomandazioni e introduce la possibilità di effettuare sondaggi periodici sul benessere degli utenti, così da permettere regolazioni in base all’esperienza effettiva. La personalizzazione del feed può essere limitata o disattivata e sono state previste opzioni specifiche per gli account dei minori. I controlli parentali si estendono anche alla gestione dei messaggi diretti e alla possibilità di disattivare lo scorrimento continuo, in modo da creare un ambiente che non favorisca dipendenze o eccessi di utilizzo.

Le system card (documenti che OpenAI pubblica per illustrare il funzionamento e le misure di sicurezza dei propri modelli), spiegano in dettaglio queste caratteristiche. In particolare, viene descritto il processo di addestramento del modello, basato su insiemi di dati eterogenei: materiale pubblico disponibile sul web, contenuti forniti da partner selezionati. Questo materiale è stato sottoposto a una pipeline di filtraggio e curato in modo da ridurre la probabilità di generazioni indesiderate. Il sistema di sicurezza, definito “safety stack”, comprende classificatori multimodali applicati sia agli input che agli output, blocchi preventivi del prompt quando questo viola le policy, e ulteriori blocchi post-generazione in caso di tentativi di aggirare i filtri. Per i minori vengono applicate soglie più severe e controlli aggiuntivi. Nel lancio iniziale, inoltre, sono stati previsti limiti stringenti: non è consentito il video-to-video, non è permesso generare contenuti che includano figure pubbliche attraverso text-to-video e non è possibile produrre rappresentazioni di persone reali, a meno che non si tratti di utenti che hanno dato un consenso esplicito tramite la funzione cameo. L’enforcement del prodotto combina strumenti automatizzati, segnalazioni da parte degli utenti e una revisione umana, con provvedimenti graduati in base alla gravità delle violazioni.

Per garantire la tracciabilità dei contenuti, OpenAI ha implementato diverse soluzioni. Tutti gli asset generati sono accompagnati da metadati C2PA, i video scaricati dall’app e da sora.com includono un watermark visibile, e sono stati sviluppati strumenti interni che consentono di verificare se un contenuto è stato prodotto dai sistemi dell’azienda. Tali misure non rappresentano una soluzione definitiva e fanno parte di una strategia in continua evoluzione che verrà ampliata con ulteriori tecniche. La system card descrive anche una fase di red teaming condotta con tester esterni, finalizzata a identificare scenari di abuso e a calibrare filtri, blocklist e soglie dei classificatori. Le valutazioni di sicurezza, raccolte su migliaia di prompt avversari, hanno fornito metriche aggregate relative a categorie sensibili come violenza, estremismo, autolesionismo e contenuti per adulti. I risultati mostrano una capacità elevata di bloccare l’output non consentito e un tasso contenuto di rifiuti erronei su contenuti legittimi.

Per gli adolescenti sono state previste ulteriori restrizioni sugli output e sulla gestione del feed. Gli account giovanili beneficiano di impostazioni predefinite più protettive, con maggiori tutele per la privacy e limitazioni nelle funzioni di scoperta. Sono previsti limiti alla possibilità di contatto da parte di utenti adulti e controlli più avanzati per i genitori attraverso la sezione dedicata ai Parental controls. Le impostazioni permettono di disattivare completamente la personalizzazione del feed, di controllare la continuità dello scorrimento e di definire con precisione la gestione dei messaggi diretti.