Skip to content Skip to footer

WWDC25: mentre Apple “abbellisce”, OpenAI e Google volano nell’AI

L’attesa per il keynote di Cupertino, in diretta mondiale il 9 giugno, era carica di promesse: l’arena virtuale di WWDC25 scintillava di slogan sulla “Liquid Glass” UI e su un’intelligenza “più personale che mai”, ma dietro le luci di scena si è percepita la fatica di un decollo che ancora non arriva.

Apple Intelligence rimane confinata a modelli AI medio-piccol che operano “on-device” per compiti di riassunto, generazione di Genmoji e traduzione live; si aprono le porte a ChatGPT dentro Image Playground, ma l’aggiornamento sostanziale di Siri è stato rinviato a data indefinita, dettaglio che persino il blog-live di The Verge ha definito un “puntare su Siri più avanti”. Nello stesso frangente Craig Federighi ha ammesso che “serve più tempo” prima di alzare davvero l’asticella conversazionale.

Bastano pochi minuti di contrazione in Borsa per misurare la delusione: −1,5 % in chiusura di giornata e circa 75 miliardi di dollari di capitalizzazione svaniti, con analisti che parlano di visione senza ancora un motore adeguato. Gli investitori chiedono prove di potenza generativa pari a quelle dei concorrenti.

Mentre Apple affinava i ritocchi estetici, OpenAI accelerava sul fronte più spettacolare: l’Advanced Voice Mode di ChatGPT, lanciato soltanto ventiquattr’ore prima, offre risposte in ~300 ms, modulazioni emotive udibili e traduzione in tempo reale, un’esperienza di dialogo che molti utenti descrivono come “quasi umana”. Non soltanto velocità: il nuovo framework per agenti di OpenAI consente a servizi vocali di orchestrare compiti da soli, dalla ricerca di informazioni al completamento di prenotazioni, senza tornare a chiedere istruzioni passo-passo.

Google, in parallelo, continua a irrobustire la famiglia Gemini. La serie 2.5 Pro introduce “Deep Think”, modalità di ragionamento esteso che spinge il modello oltre benchmark matematici e di coding, mentre l’API Live apre a input video e output audio nativo, con la possibilità di scegliere accento, tono e personalità della voce). In altre parole, Mountain View offre oggi un’assistenza multimodale che ascolta, vede, parla e ragiona con un contesto fino a un milione di token.

Di fronte a questi front-runner, l’approccio di Apple — tutto centrato su privacy locale e su un supervisore umano che approvi ogni passo — appare cauto al limite dell’autolimitazione. La promessa di sicurezza e integrazione profonda nell’ecosistema può ancora sedurre l’utente fedele, però la distanza in termini di scala parametrica, finestra di contesto e qualità vocale rimane evidente; perfino la traduzione live annunciata a San José, pur utile, ricalca funzioni già rodate altrove.

Le ragioni della cautela sono note, ma il mercato di giugno non concede tregua: Wall Street percepisce l’inerzia come rischio d’irrilevanza futura, e alcuni analisti suggeriscono acquisizioni esterne per colmare il divario in tempi brevi. La prossima finestra decisiva cadrà in autunno, quando iPhone 17 dovrà ospitare un Siri finalmente rinato; se anche allora la voce dell’assistente resterà priva di quell’intuizione “agentica” che ormai caratterizza ChatGPT e Gemini, la pazienza degli investitori potrebbe esaurirsi del tutto.

Per ora, WWDC25 ha lasciato l’impressione di un’azienda che abbellisce la cabina di pilotaggio mentre altri, già in quota, sperimentano voli ipersonici. Cupertino non è mai stata così ricca di risorse, ma il tempo, più che il denaro, si sta rivelando il vero avversario.