Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

OpenAI ha annunciato un pacchetto ampio e articolato di misure per rafforzare la sicurezza degli utenti più giovani, sottolineando ancora una volta l’impegno a rendere l’utilizzo di ChatGPT conforme alle esigenze di un pubblico che include anche i minori. Tra le novità più rilevanti c’è lo sviluppo di un sistema di previsione dell’età, che servirà a distinguere in maniera automatica chi ha meno di 18 anni dagli adulti. Questo strumento permetterà di modulare le risposte del modello in base all’età dell’utente, bloccando contenuti inappropriati, come materiale sessuale esplicito o conversazioni che potrebbero risultare dannose. Nei casi considerati di rischio grave, come la manifestazione di pensieri suicidari o situazioni di forte disagio, la piattaforma sarà in grado di avvisare direttamente i genitori e, se la situazione lo richiede, coinvolgere le autorità competenti per garantire un intervento tempestivo. L’obiettivo dichiarato è fornire una cornice di protezione che renda l’esperienza più sicura senza rinunciare a un uso consapevole e responsabile della tecnologia.

A partire dalla fine del mese, inoltre, sarà disponibile una gamma di controlli parentali pensata per dare alle famiglie strumenti concreti con cui gestire e monitorare l’uso dell’intelligenza artificiale in casa. Tra questi controlli figurano la possibilità di collegare l’account di un genitore a quello del figlio attraverso un semplice invito email, impostando così una supervisione diretta. I genitori potranno limitare funzioni come la memoria e la cronologia delle chat, ricevere notifiche in caso di emergenze e stabilire fasce orarie di inattività, le cosiddette “ore di buio”, durante le quali i minori non potranno accedere a ChatGPT. Questo pacchetto si aggiunge ad altre funzioni già in essere, come i promemoria interni all’applicazione che invitano a prendersi delle pause durante sessioni particolarmente lunghe, contribuendo così a promuovere un utilizzo più equilibrato.

Sam Altman, amministratore delegato di OpenAI, ha chiarito che queste decisioni derivano dalla necessità di trovare un equilibrio tra tre principi fondamentali che spesso entrano in conflitto: la tutela della privacy, la garanzia di libertà d’uso per gli adulti e la protezione dei minori. L’azienda considera le conversazioni con l’intelligenza artificiale come una delle forme di interazione digitale più sensibili, paragonabili a un colloquio medico o a una consulenza legale, e intende assicurare un livello di riservatezza adeguato a questa importanza. Per questo motivo sono allo studio soluzioni di sicurezza avanzata che rendano i dati inaccessibili anche ai dipendenti dell’azienda, con eccezioni limitate solo ai casi di minacce estreme, come progetti di violenza, rischi immediati per la vita di qualcuno o potenziali attacchi informatici di ampia portata.

La libertà rimane un caposaldo per gli adulti: a questi utenti verrà concessa la possibilità di sfruttare le potenzialità del modello anche in ambiti creativi complessi, inclusi temi delicati che non rientrano nella sfera della pericolosità, come ad esempio la scrittura di un racconto che tratti il tema del suicidio senza che questo costituisca un incitamento reale. Allo stesso tempo, le restrizioni saranno molto più rigide quando si tratta di adolescenti e ragazzi sotto i 18 anni. A loro, per esempio, non sarà permesso chiedere conversazioni a sfondo flirt o contenuti sensibili anche se contestualizzati in ambiti narrativi. In caso di segnali di disagio psicologico, l’azienda ha previsto che venga tentato il contatto con i genitori, e laddove questo non fosse possibile, che siano coinvolte direttamente le autorità in presenza di pericolo immediato. OpenAI ammette che la previsione dell’età non sarà mai completamente infallibile, e proprio per questo, in caso di incertezza, la scelta sarà quella di adottare la versione pensata per gli under-18, offrendo però agli adulti un percorso di verifica della propria identità per sbloccare le funzioni complete.

Secondo quanto comunicato, queste misure vanno lette come parte di una strategia più ampia che vuole rispondere alle sollecitazioni di esperti, associazioni e istituzioni, con cui l’azienda si confronta regolarmente per migliorare i propri strumenti. OpenAI ha sottolineato che la strada da percorrere sarà complessa, che non mancheranno critiche e discussioni sui compromessi tra sicurezza e diritti individuali, ma ha anche assicurato la massima trasparenza sulle scelte future. Lo scopo ultimo rimane quello di costruire un ecosistema che, pur consapevole dei rischi, sappia offrire a centinaia di milioni di utenti un’intelligenza artificiale sicura, rispettosa e capace di adattarsi alle diverse età e ai diversi bisogni, influenzando positivamente la vita quotidiana delle persone e consolidando un rapporto di fiducia duraturo.