Un salto di qualità nelle conversazioni con l’intelligenza artificiale. OpenAI ha rilasciato un aggiornamento significativo alla modalità vocale avanzata di ChatGPT, offrendo a tutti gli utenti abbonati un’esperienza di dialogo ancora più fluida, naturale e intuitiva, capace di avvicinarsi a sfumature tipiche dell’interazione umana.
La nuova versione della modalità vocale non si limita a una semplice lettura di testi: la voce di ChatGPT diventa capace di sfumature emotive, pause, inflessioni e persino accenti di sarcasmo o empatia. Le interazioni assumono così una cadenza più realistica, con pause naturali, enfasi ben posizionate e una maggiore capacità di cogliere il tono emotivo richiesto dal contesto. Questo aggiornamento perfeziona la tecnologia presentata nel lancio iniziale della modalità avanzata, aprendo la strada a conversazioni dove l’intelligenza artificiale sembra davvero “ascoltare” e rispondere con l’intonazione giusta.
Un’altra novità di rilievo è l’integrazione della traduzione simultanea nelle conversazioni vocali. Ora, ChatGPT può fungere da interprete in tempo reale: basta chiedere alla modalità vocale di tradurre tra due lingue, e il sistema continuerà a offrire traduzioni automatiche durante tutta la conversazione, finché l’utente non decide di interrompere o modificare la lingua. Che si tratti di chiedere indicazioni per le vie di Roma o dialogare con colleghi in un ufficio di Tokyo, la funzione promette di abbattere le barriere linguistiche in modo naturale. Un esempio? In un ristorante a San Paolo, la voce di ChatGPT è in grado di trasformare istantaneamente le richieste in inglese in portoghese, e viceversa, consentendo una comunicazione immediata e senza sforzi.
Questa nuova modalità vocale avanzata è già disponibile per tutti gli utenti a pagamento di ChatGPT, su ogni piattaforma e mercato. Per iniziare, basta selezionare l’icona del microfono nell’area di composizione dei messaggi.
L’aggiornamento segue una serie di migliorie apportate nei mesi scorsi, volte a ridurre le interruzioni durante l’uso della voce e a rendere gli accenti più naturali.
Qualche limite ancora da perfezionare
OpenAI segnala che, durante i test, sono state osservate leggere fluttuazioni nella qualità dell’audio: alcune voci potrebbero manifestare variazioni inattese di tono o intensità. Questi fenomeni, pur rari, sono sotto osservazione e si prevede un costante miglioramento della stabilità e coerenza audio. Permangono inoltre alcune anomalie note, come la produzione occasionale di suoni non richiesti – ad esempio rumori privi di senso o frammenti di musica in sottofondo. Il team di sviluppo è già al lavoro per risolvere anche questi episodi.
Con questo aggiornamento, OpenAI punta a rendere l’intelligenza artificiale una vera e propria interfaccia vocale in grado di accompagnare l’utente nella vita quotidiana, abbattendo distanze linguistiche e rendendo il dialogo con la tecnologia sempre più accessibile.