\\ Home Page : Articolo : Stampa
Il device di OpenAI e Jony Ive: alla fine potrebbe essere solo uno smartphone
Di Alex (del 03/05/2026 @ 13:00:00, in Intelligenza Artificiale, letto 49 volte)
[🔍CLICCA PER INGRANDIRE ]
OpenAI e Jony Ive: il device rivoluzionario potrebbe essere uno smartphone
OpenAI e Jony Ive: il device rivoluzionario potrebbe essere uno smartphone

Il device "rivoluzionario" di OpenAI, affidato al genio creativo di Jony Ive, potrebbe rivelarsi soltanto uno smartphone. L'analista Ming-Chi Kuo rivela che OpenAI sviluppa chip con Qualcomm e MediaTek per un telefono basato su agenti AI al posto delle app. L'utopia screenless svanisce. LEGGI TUTTO L'ARTICOLO

🎧 Ascolta questo articolo



L'acquisizione da 6,5 miliardi: quando Jony Ive incontra l'intelligenza artificiale
Jonathan Paul Ive, universalmente noto come Jony Ive, è considerato uno dei più grandi designer industriali della storia contemporanea. Durante i suoi ventisette anni trascorsi ad Apple, dal 1992 al 2019, ha plasmato l'identità estetica e funzionale di un'intera era tecnologica. Sotto la sua direzione creativa, Apple ha realizzato prodotti che hanno ridefinito non solo il mercato dei dispositivi elettronici, ma il rapporto stesso tra essere umano e tecnologia. L'iMac G3 del 1998, con le sue forme tondeggianti e i suoi colori traslucidi, segnò la rinascita di Apple dopo anni di crisi profonda. L'iPod, lanciato nel 2001, rivoluzionò il modo in cui ascoltiamo la musica. L'iPhone del 2007 ridisegnò per sempre il concetto di telefonia mobile, creando la categoria degli smartphone così come la conosciamo oggi. L'iPad, l'Apple Watch, il MacBook Air nella sua versione ultrasottile: ciascuno di questi prodotti porta l'impronta inconfondibile della sua visione progettuale, capace di fondere estetica e funzionalità in una sintesi raramente raggiunta nell'industria dei beni di consumo.

Nel 2019, Ive lasciò Apple fondando LoveFrom, uno studio creativo indipendente con base a San Francisco, con cui continuò inizialmente a collaborare con Apple in un rapporto di consulenza esclusiva. Questo sodalizio si interruppe nel 2022, liberando definitivamente Ive da qualsiasi vincolo contrattuale con la sua ex azienda. Nei mesi successivi, il designer britannico cominciò a guardare con crescente interesse all'intelligenza artificiale come nuova frontiera del design. Non si trattava soltanto di un aggiornamento tecnologico, ma di una trasformazione antropologica: il modo in cui gli esseri umani interagiscono con le macchine stava cambiando radicalmente, e Ive voleva essere al centro di questa rivoluzione.

È in questo contesto che, intorno al 2023, prese avvio una collaborazione riservata e quasi clandestina tra Ive e Sam Altman, il CEO di OpenAI. I due si incontravano regolarmente, spesso a casa di Altman a San Francisco, dove discutevano di come l'intelligenza artificiale potesse tradursi in nuovi oggetti fisici capaci di cambiare l'esperienza quotidiana delle persone. Altman rimase profondamente colpito dalla visione di Ive: un device che non fosse uno schermo in più, ma qualcosa di fondamentalmente diverso, capace di liberare l'utente dalla tirannia del display permanente. Questa collaborazione informale si concretizzò nella fondazione di io Products, una startup dedicata allo sviluppo di hardware AI-native, co-fondata da Ive e dal suo storico collaboratore Tang Tan, ex vicepresidente di Apple con decenni di esperienza nella progettazione di prodotti hardware. Tang Tan aveva supervisionato lo sviluppo fisico di generazioni di iPhone e di altri dispositivi Apple, accumulando una competenza operativa e ingegneristica difficilmente replicabile.

Nel maggio 2025, OpenAI annunciò ufficialmente l'acquisizione di io Products in un'operazione interamente in azioni (all-stock deal) del valore di circa 6,5 miliardi di dollari, nella più grande scommessa hardware mai intrapresa da un'azienda di intelligenza artificiale pura. L'annuncio fu accompagnato da una lettera aperta firmata congiuntamente da Altman e Ive, in cui i due delineavano una visione ambiziosa: creare strumenti che potenziassero la creatività umana senza distrarre, che dessero accesso all'intelligenza artificiale in modo naturale e non invasivo, e che si integrassero nella vita quotidiana senza generare quella dipendenza dallo schermo che caratterizza l'uso degli smartphone moderni. Altman, in una conversazione interna con i dipendenti di OpenAI poi trapelata ai media, affermò che l'azienda intendeva produrre 100 milioni di unità del nuovo dispositivo più velocemente di quanto qualsiasi altra azienda avesse mai consegnato 100 milioni di qualcosa di nuovo. Una dichiarazione al limite dell'iperbole, che tuttavia fotografava perfettamente le ambizioni di OpenAI nel campo dell'hardware consumer. Con l'accordo, Ive assunse il ruolo di responsabile del design per entrambe le aziende, portando nella nuova avventura l'intero studio creativo LoveFrom. La fusione univa così la leadership mondiale nei modelli linguistici avanzati con una delle menti creative più brillanti mai espresse dall'industria tecnologica, in una combinazione che, almeno sulla carta, aveva tutti gli ingredienti per ridefinire il panorama dell'hardware di consumo nel ventunesimo secolo.

Il progetto originario: un oggetto senza schermo e senza precedenti
Nei mesi successivi all'acquisizione, i dettagli sul misterioso device cominciarono a trapelare, dipingendo l'immagine di un oggetto radicalmente diverso da qualsiasi cosa esistesse sul mercato. La descrizione che emergeva da fonti interne, da articoli del Wall Street Journal e da dichiarazioni filtrate era quella di un dispositivo tascabile, privo di schermo, e profondamente consapevole del contesto ambientale in cui si trovava. In una chiamata interna con i dipendenti, Sam Altman lo descrisse come il "terzo dispositivo core" della vita di una persona, qualcosa che avrebbe affiancato il computer portatile e lo smartphone senza sostituirli, aggiungendo però una dimensione radicalmente nuova all'interazione con l'intelligenza artificiale. Un oggetto che avrebbe convissuto sulla scrivania o in tasca accanto agli altri device, ma che avrebbe operato secondo una logica completamente diversa, libera dai paradigmi consolidati dell'era del touchscreen.

Altman fu esplicito nel definire ciò che il device non avrebbe dovuto essere: non un paio di occhiali smart, non un indossabile tradizionale. Ive, dal canto suo, aveva espresso una chiara avversione verso i dispositivi da portare sul corpo come forma primaria di interfaccia AI. Entrambi condividevano una visione filosofica precisa: la tecnologia avrebbe dovuto aiutare le persone a vivere più intensamente il mondo reale, non a immergersi ulteriormente in un universo digitale. Il device avrebbe dovuto avere una "vibrazione più calma", per usare la terminologia adottata dallo stesso Altman in alcune interviste. Meno stimoli visivi, più presenza contestuale e discreta. Una sorta di intelligenza ambientale, sempre disponibile ma mai invadente, capace di rispondere senza monopolizzare l'attenzione visiva dell'utente.

Il progetto ricevette il nome in codice "Gumdrop" e prevedeva, secondo diverse fonti, lo sviluppo parallelo di almeno tre dispositivi distinti. Il primo e più discusso era un oggetto dalla forma simile a una penna intelligente: compatta, minimalista, capace di trascrivere testo scritto a mano, integrare ChatGPT e utilizzare modelli di intelligenza artificiale sia in locale che nel cloud. Uno strumento pensato per chi vuole interagire con l'AI in modo concentrato e produttivo, senza passare attraverso uno schermo. Il secondo dispositivo era descritto come un prodotto audio "da portare con sé", probabilmente un sistema di auricolari o un altoparlante personale di nuova generazione, pensato per rendere l'AI accessibile attraverso il suono in qualsiasi contesto quotidiano. Il terzo dispositivo rimaneva avvolto nel mistero più assoluto, ma alcune fonti accennavano a un oggetto domestico di nuova concezione, forse un altoparlante intelligente radicalmente ripensato.

Sul fronte produttivo, le prime indiscrezioni indicavano Foxconn come partner manifatturiero di riferimento, il medesimo gigante taiwanese che assembla la grande maggioranza degli iPhone per Apple. Una scelta non casuale: Foxconn dispone delle capacità produttive e della supply chain necessarie per gestire lanci di prodotto su scala globale massiccia. Tuttavia, emersero presto anche considerazioni geopolitiche: OpenAI avrebbe preferito produrre al di fuori della Cina, orientandosi verso il Vietnam e gli Stati Uniti come destinazioni produttive alternative. A complicare il quadro, arrivò una dichiarazione giurata di Tang Tan, chief hardware officer di io Products, depositata nel contesto di una causa legale intentata da iyO, una startup sostenuta da Google che produceva dispositivi in-ear personalizzati e che accusava OpenAI di violazione del marchio. Nella dichiarazione, Tan affermò chiaramente che il design del prodotto era ancora in fase di sviluppo e che il dispositivo era distante almeno un anno dall'essere commercializzato.

La vicenda mise in luce quanto il progetto fosse ancora fluido e in evoluzione, nonostante le dichiarazioni ottimistiche dell'azienda. Il fallimento commerciale di dispositivi simili, come il poco fortunato AI Pin di Humane — stroncato dalla quasi totalità dei recensori per prestazioni deludenti e prezzo elevato — e il Rabbit R1 — criticato per funzionalità insufficienti — aveva nel frattempo alzato l'asticella delle aspettative e dell'attenzione critica. Entrambi avevano dimostrato che creare una nuova categoria di device è enormemente più difficile di quanto sembri, anche per startup ben finanziate con visioni ambiziose. OpenAI era consapevole di muoversi su un terreno minato: le promesse avrebbero dovuto essere davvero all'altezza delle aspettative generate, pena un fallimento clamoroso che avrebbe danneggiato non solo la reputazione hardware dell'azienda, ma anche quella del suo core business nell'intelligenza artificiale.

La svolta clamorosa: dall'utopia screenless allo smartphone
A pochi mesi di distanza dalle prime rivelazioni sull'acquisizione di io Products, un nuovo e sorprendente elemento cominciò a emergere dal panorama dei rumours tecnologici: OpenAI stava valutando, o addirittura stava attivamente sviluppando, non soltanto i device dalla forma insolita descritti in precedenza, ma qualcosa di molto più convenzionale e al tempo stesso enormemente ambizioso. Uno smartphone. Un dispositivo che Altman stesso aveva a più riprese escluso dall'orizzonte dei piani dell'azienda. Un oggetto che Jony Ive, l'uomo che aveva co-progettato il primo iPhone nel 2007, avrebbe potuto ridisegnare partendo da zero con la logica dell'intelligenza artificiale generativa al centro di tutto. La notizia rappresentava una svolta radicale rispetto alla narrativa costruita nei mesi precedenti, e sollevava interrogativi fondamentali sulla coerenza della strategia di OpenAI e sulla reale praticabilità della visione "anti-schermo" che aveva alimentato le aspettative del mercato.

La risposta va cercata, in parte, nella storia recente degli esperimenti hardware nell'ecosistema AI. Il mercato aveva già assistito a diversi tentativi di creare categorie di device radicalmente nuove attorno all'intelligenza artificiale. L'AI Pin di Humane, un piccolo proiettore laser da appuntare sul bavero della giacca, aveva suscitato enorme curiosità prima del suo lancio, ma si era rivelato un prodotto acerbo, lento, con un'autonomia insufficiente e un'esperienza utente frustrante. Le recensioni erano state impietose: praticamente nessun critico tecnologico di rilievo lo aveva promosso come prodotto consigliabile al grande pubblico. Il Rabbit R1, un piccolo dispositivo arancione pensato per gestire app attraverso un agente AI senza che l'utente dovesse aprirle direttamente, aveva ottenuto risultati analoghi: interessante come concept, insufficiente come prodotto reale. Entrambi avevano dimostrato in modo doloroso che creare una nuova categoria di device è enormemente più difficile di quanto sembri, anche per startup con visioni ambiziose e team di talento.

OpenAI era consapevole di questi precedenti. L'azienda sapeva che lanciare un oggetto privo di schermo, in un mercato ancora strutturato attorno all'interazione touch-based e visiva, avrebbe richiesto un cambiamento culturale profondo da parte degli utenti. Cambiamento che — come dimostravano i fallimenti citati — il mercato non era necessariamente pronto ad accogliere nell'immediato. Lo smartphone, invece, è il device più diffuso nella storia dell'umanità: ci sono circa sette miliardi di unità attive nel mondo. È il centro della vita digitale di quasi ogni adulto sul pianeta. È il dispositivo attraverso cui le persone comunicano, lavorano, si informano, si intrattenono, acquistano, navigano. È il terminale attraverso cui accedono a ChatGPT e a tutti i servizi di OpenAI. Costruire uno smartphone progettato specificamente per l'AI non significherebbe creare un mercato dal nulla: significherebbe conquistare una quota di quello esistente, vastissimo e consolidato.

C'è poi una considerazione strategica ancora più profonda. Apple e Google controllano i due sistemi operativi dominanti — iOS e Android — attraverso cui OpenAI e le altre aziende AI devono distribuire le proprie applicazioni. Questo crea una dipendenza strutturale: qualsiasi funzionalità che ChatGPT voglia offrire deve passare attraverso le regole dell'App Store di Apple o del Play Store di Google. Funzionalità come l'accesso continuo al microfono, la lettura del contesto dello schermo, l'integrazione profonda con le comunicazioni dell'utente — tutte capacità essenziali per un agente AI davvero autonomo — sono limitate o vietate dagli ecosistemi dei due colossi. Un proprio smartphone eliminerebbe questi vincoli, consentendo a OpenAI di fornire un servizio di agente AI completo senza restrizioni imposte da terze parti. È la stessa logica che aveva spinto Apple a progettare i propri chip: controllare il silicio significa controllare l'esperienza, senza compromessi imposti dalle limitazioni di hardware progettato per scopi generici. OpenAI, con la stessa intuizione, vorrebbe ora controllare l'intero stack tecnologico: hardware, sistema operativo, modelli AI, esperienza utente. Una verticalizzazione totale che le consentirebbe di competere ad armi pari — e forse di superare — i giganti che oggi ospitano i suoi servizi sulle proprie piattaforme.

La bomba di Ming-Chi Kuo: chip personalizzati con Qualcomm e MediaTek
Il 27 aprile 2026 — a pochissimi giorni dalla stesura di questo articolo — Ming-Chi Kuo, analista della società di investimento TF International Securities e tra i più rispettati osservatori della supply chain tecnologica mondiale, pubblicò sul suo profilo X un'analisi che scosse profondamente il settore. Kuo non è un commentatore qualunque: la sua capacità di raccogliere informazioni dai fornitori e produttori asiatici che riforniscono le grandi aziende tecnologiche lo ha reso nel tempo la fonte più affidabile per anticipare le mosse di Apple e dei principali produttori hardware. Le sue previsioni sui nuovi iPhone, sugli accessori Apple e sui chip della serie M hanno avuto un tasso di accuratezza notevolmente elevato, conferendogli un'autorevolezza ineguagliata nel panorama dell'analisi tecnologica internazionale. Quando Kuo parla, Wall Street ascolta — e spesso reagisce immediatamente.

Nel suo post, Kuo rivelò che OpenAI non si stava limitando a sviluppare i piccoli dispositivi non-phone emersi dalle indiscrezioni precedenti. Parallelamente, in modo più strutturato di quanto si pensasse, l'azienda stava lavorando con MediaTek e Qualcomm per sviluppare processori dedicati allo smartphone, con Luxshare Precision Industry come partner esclusivo per il co-design del sistema e la manifattura. Secondo le verifiche di Kuo nella supply chain, le specifiche del dispositivo e l'elenco definitivo dei fornitori sarebbero stati finalizzati entro la fine del 2026 o al massimo nel primo trimestre del 2027, con l'avvio della produzione di massa previsto per il 2028.

La scelta di Qualcomm e MediaTek come partner per i chip è densa di significati strategici. Qualcomm è il produttore degli Snapdragon, i processori che equipaggiano la grande maggioranza degli smartphone Android di fascia alta, e ha costruito nel tempo una profonda expertise nell'ottimizzazione dei chip per applicazioni mobili. MediaTek, il suo principale rivale nel segmento dei processori per smartphone, ha guadagnato terreno significativo nel mercato globale, conquistando posizioni anche nel segmento premium con la sua serie Dimensity. Coinvolgere entrambi suggerisce una strategia di diversificazione e competizione nella fornitura dei chip, con l'obiettivo di ottenere le migliori prestazioni possibili in termini di efficienza energetica e capacità di inferenza AI in locale. La scelta non è quella di sviluppare un chip completamente proprietario dall'inizio — come ha fatto Apple con la serie A e poi M — ma piuttosto di co-sviluppare processori personalizzati che integrino le esigenze specifiche di OpenAI in termini di AI agent inference, mantenendo al tempo stesso la collaborazione con partner che già conoscono il mercato degli smartphone nel profondo, con decenni di esperienza nella produzione di silicio per dispositivi mobili.

Altrettanto rilevante è il ruolo di Luxshare Precision Industry, un'azienda cinese che negli ultimi anni ha cercato con determinazione di ridurre la propria dipendenza dalla supply chain di Apple, dove compete direttamente con Foxconn. La partnership esclusiva con OpenAI rappresenterebbe per Luxshare un'opportunità straordinaria di posizionarsi all'avanguardia di una nuova generazione di dispositivi, prima ancora che il mercato prenda forma definitiva. È lo stesso vantaggio da first-mover che Foxconn aveva ottenuto lavorando con Apple nei primissimi anni della storia dell'iPhone, quando pochissimi credevano che quel dispositivo avrebbe dominato il mercato mondiale della telefonia. L'esclusività del rapporto suggerisce anche che OpenAI stia cercando un grado di controllo e riservatezza molto elevato nelle fasi iniziali del progetto, per evitare fughe di informazioni in un settore — quello degli smartphone — dove la competizione è spietata e dove le indiscrezioni possono spostare miliardi di capitalizzazione di mercato in poche ore.

La reazione dei mercati finanziari fu immediata e spettacolare. Le azioni di Qualcomm schizzarono verso l'alto fino al 13% nel pre-mercato, quasi annullando le perdite accumulate nel 2026 fino a quel momento. Qualcomm stava attraversando un periodo di pressione: i margini lordi erano scesi al 55,1% e la concorrenza crescente di MediaTek nel segmento premium stava mettendo a dura prova le sue prospettive di crescita. La notizia di una potenziale partnership con OpenAI — che avrebbe aperto un nuovo, enorme flusso di ricavi — fu accolta dagli investitori come una svolta significativa. Kuo proiettò un potenziale mercato indirizzabile di 300-400 milioni di unità annue per lo smartphone OpenAI, un numero che supererebbe i circa 230 milioni di iPhone spediti da Apple ogni anno e i circa 220 milioni di Galaxy spediti da Samsung. Un obiettivo di crescita straordinario — al limite dell'inverosimile per un newcomer nel mercato — ma che delineava la portata senza precedenti delle ambizioni di OpenAI nel campo dell'hardware consumer di massa. Parallelamente, Kuo precisò che questo progetto smartphone è separato e distinto dal primo hardware che io Products lancerà nella seconda metà del 2026, che resta un device dalla forma non-phone: probabilmente un altoparlante smart o auricolari di nuova generazione.

Agenti AI al posto delle app: la visione di un nuovo paradigma
Al cuore della visione delineata da Ming-Chi Kuo e coerente con la filosofia dichiarata di OpenAI c'è un concetto radicale: gli agenti di intelligenza artificiale dovranno sostituire le app tradizionali come modalità principale di interazione con lo smartphone. Non si tratta di aggiungere un'app di ChatGPT al proprio telefono, come già avviene oggi. Si tratta di ripensare completamente l'architettura dell'esperienza utente, eliminando l'interfaccia basata su icone e applicazioni che Apple introdusse nel 2007 con il primo iPhone e che da allora è rimasta sostanzialmente immutata nel suo paradigma fondamentale. Una rivoluzione non estetica ma concettuale, che cambia il modo stesso in cui una persona pensa al proprio dispositivo mobile.

Come funzionerebbe concretamente questo paradigma agentico? Invece di aprire l'app del calendario per verificare un appuntamento, di aprire Maps per navigare verso una destinazione, di aprire Gmail per rispondere a un'email, di aprire Uber per prenotare un passaggio, l'utente interagirebbe con un unico agente AI che gestirebbe tutto in modo autonomo, proattivo e contestuale. "Gli utenti non stanno cercando di usare un mucchio di app", ha scritto Kuo nel suo post. "Stanno cercando di portare a termine compiti e soddisfare bisogni attraverso il telefono." È una distinzione sottile ma fondamentale: le app sono strumenti, i bisogni sono obiettivi. L'agente AI si occuperebbe degli strumenti, consentendo all'utente di concentrarsi esclusivamente sugli obiettivi. Questa idea non è esclusiva di OpenAI: il CEO di Nothing, Carl Pei, ha dichiarato al SXSW 2026 che le app degli smartphone scompariranno man mano che gli agenti AI prenderanno il loro posto. È una visione condivisa da un numero crescente di operatori del settore.

Per funzionare davvero in questo modo, un agente AI ha bisogno di qualcosa che gli smartphone attuali limitano severamente: l'accesso continuo al contesto reale dell'utente. Kuo descrive questa necessità come "full real-time state", ovvero la capacità del dispositivo di catturare continuamente e in modo integrato la posizione dell'utente, le sue attività, le sue comunicazioni, il suo contesto ambientale. È questa ricchezza di dati contestuali che consente a un agente AI di essere davvero proattivo: di ricordarti un appuntamento prima ancora che tu ci pensi, di prenotare un taxi sulla base del tuo itinerario previsto, di rispondere a un messaggio in modo appropriato avendo letto il thread della conversazione, di identificare un problema attraverso sensori e suggerire azioni conseguenti. L'architettura di elaborazione sarebbe ibrida: i modelli più piccoli e i task più leggeri verrebbero gestiti direttamente sul dispositivo (on-device inference), garantendo velocità, privacy e funzionamento anche offline; le richieste più complesse verrebbero invece delegate ai server cloud di OpenAI, dove risiedono i modelli più potenti.

Questo approccio ibrido riflette la visione che Qualcomm CEO Cristiano Amon ha espresso pubblicamente nel corso del 2026: che gli agenti AI sostituiranno il sistema operativo mobile e le app come strato primario di interazione, e che l'hardware dovrà essere progettato da zero per supportare un'inferenza AI continua ed efficiente dal punto di vista energetico. Non si tratta di adattare chipset esistenti con unità di elaborazione neurale aggiunte come accessorio, ma di riprogettare l'intera architettura del silicio attorno alle esigenze specifiche degli agenti AI. Un chip ottimizzato per gestire un'app di messaggistica è costruito in modo completamente diverso rispetto a un chip ottimizzato per eseguire continuamente modelli linguistici di media dimensione in locale, gestendo contemporaneamente sensoristica ambientale, comunicazione vocale e analisi contestuale. È una sfida ingegneristica di notevole complessità, che Qualcomm e MediaTek si troverebbero ad affrontare per la prima volta in un contesto commerciale di questa portata.

Le implicazioni in termini di privacy e di raccolta dati sono al tempo stesso affascinanti e profondamente preoccupanti. Uno smartphone che monitora continuamente la posizione, le conversazioni, le attività e il contesto ambientale dell'utente per alimentare un agente AI è, per definizione, uno dei dispositivi di sorveglianza personale più completi mai concepiti dalla mente umana. OpenAI avrebbe accesso a un flusso di dati sull'utente di densità e qualità ineguagliabili rispetto a qualsiasi app o servizio attuale. Questo solleva interrogativi seri sul trattamento di questi dati, sulla loro protezione da violazioni esterne, sul loro utilizzo per addestrare ulteriori modelli AI, sulla loro esposizione a richieste delle autorità governative. Il regolamento europeo sulla protezione dei dati (GDPR) e le normative sulla privacy in evoluzione in tutto il mondo potrebbero rappresentare ostacoli significativi al dispiegamento completo di questo modello in molti mercati chiave. OpenAI dovrà dimostrare, con fatti concreti e architetture verificabili, che i dati degli utenti sono gestiti con criteri di sicurezza e trasparenza all'altezza della straordinaria invasività del sistema che intende mettere sul mercato.

Le sfide colossali che OpenAI dovrà affrontare
L'ambizione di OpenAI nel campo degli smartphone è inversamente proporzionale alla sua esperienza nel settore. OpenAI è nata come laboratorio di ricerca sull'intelligenza artificiale, è diventata un'azienda di software e servizi AI, e non ha mai prodotto un singolo hardware consumer nella sua storia. Entrare nel mercato degli smartphone — uno dei più competitivi, complessi e capital-intensive del pianeta — è un'impresa di una difficoltà che nessuna quantità di denaro o di talento creativo può risolvere da sola. Lo dimostra la storia recente: Microsoft ha tentato con Nokia e Windows Phone, perdendo miliardi di dollari prima di arrendersi. Amazon ha provato con il Fire Phone nel 2014, ritirandolo dal mercato nel giro di pochi mesi con perdite ingenti. Meta ha rinunciato a sviluppare il proprio smartphone nonostante anni di discussioni interne. Solo chi controlla già un ecosistema hardware maturo — come Apple, Samsung o Google con i Pixel — riesce a sopravvivere e prosperare in questo mercato di una difficoltà strutturale quasi invalicabile.

Il primo ostacolo è la supply chain. Progettare un processore custom con Qualcomm e MediaTek, gestire le relazioni con Luxshare come manifatturiero esclusivo, garantire la qualità e la consistenza di centinaia di milioni di unità prodotte: si tratta di competenze che Apple ha sviluppato in quasi cinquant'anni di storia industriale e che non si improvvisano. Apple mantiene squadre di ingegneri hardware che lavorano con i partner asiatici da decenni, costruendo relazioni, processi e controlli qualità che consentono di produrre dispositivi con tassi di difettosità straordinariamente bassi. OpenAI, assumendo Ive e Tang Tan e acquistando io Products, ha fatto enormi passi avanti, ma rimane un'azienda con zero track record nella gestione di una supply chain hardware complessa su scala globale. Ogni ritardo nella catena di fornitura, ogni problema di qualità nei componenti, ogni difficoltà nella distribuzione fisica del prodotto potrebbe compromettere irrimediabilmente il lancio di un prodotto su cui l'intera strategia hardware dell'azienda è imperniata.

Il secondo ostacolo è l'ecosistema. Apple ha impiegato due decenni per costruire attorno all'iPhone un universo di prodotti complementari — AirPods, Apple Watch, Mac, Vision Pro — e di servizi — iMessage, Apple Pay, Apple Music, l'App Store con i suoi due milioni di applicazioni — che rendono l'abbandono dell'iPhone non solo scomodo, ma quasi impensabile per decine di milioni di utenti fidelizzati. Google ha costruito attorno ad Android un ecosistema simile, forse meno coeso ma enormemente più distribuito a livello globale. Un utente che oggi decide di usare uno smartphone OpenAI dovrà rinunciare a WhatsApp, a Instagram, a Spotify, a Netflix, ai giochi, alle app bancarie, a tutto ciò che costituisce la sua vita digitale — a meno che OpenAI non riesca a convincere i principali sviluppatori di app a supportare il nuovo sistema operativo, oppure non crei un layer di compatibilità in grado di eseguire le app Android. Entrambe le opzioni sono complesse e costose, e nessuna delle due garantisce un'esperienza utente comparabile a quella degli ecosistemi maturi.

Il terzo ostacolo è il timing. Con la produzione di massa prevista non prima del 2028, OpenAI entrerebbe nel mercato degli smartphone almeno undici anni dopo che il segmento ha raggiunto la sua piena maturità. Il gap tecnologico da colmare non è solo quello dei modelli AI — dove OpenAI è oggettivamente avanti — ma quello dell'intera esperienza utente, dell'affidabilità hardware, della maturità del software di sistema, delle partnership con gli operatori telefonici, della rete di assistenza post-vendita. Apple ha trascorso anni a costruire relazioni con AT&T, T-Mobile, Verizon e i principali operatori europei e asiatici. OpenAI dovrà negoziare queste relazioni da zero, in un mercato dove gli operatori sono già solidamente allineati con Apple e Samsung e hanno scarso incentivo a sostenere un newcomer rischioso. A ciò si aggiunge la questione della fiducia degli utenti: Apple è percepita come un'azienda attenta alla privacy, mentre OpenAI è vista come un'azienda che raccoglie enormi quantità di dati per addestrare i propri modelli. Affidarle uno smartphone che monitora continuamente ogni aspetto della propria vita richiede un livello di fiducia istituzionale che OpenAI non ha ancora costruito presso il grande pubblico non specializzato. E Apple Intelligence, nel frattempo, sta migliorando progressivamente, integrando capacità AI sempre più avanzate nell'ecosistema iPhone già apprezzato dagli utenti, riducendo ulteriormente il vantaggio differenziale che OpenAI potrebbe vantare in termini di intelligenza artificiale pura.

C'è qualcosa di profondamente ironico — e storicamente significativo — nel fatto che Jony Ive, l'uomo che nel 2007 aiutò Steve Jobs a inventare il primo iPhone, ridefinendo per sempre il rapporto tra l'essere umano e la tecnologia mobile, possa ora trovarsi a progettare il suo potenziale successore o addirittura il suo sostituto. Il viaggio di OpenAI dall'utopia screenless allo smartphone è uno dei capitoli più sorprendenti e contraddittori della storia recente della Silicon Valley. Che sia davvero la scelta giusta, che lo smartphone OpenAI riesca a sfidare seriamente il dominio di Apple e Google, o che resti un'ambiziosa incompiuta, lo dirà soltanto il tempo. Ciò che è già certo è che il tentativo, nelle sue dimensioni e nelle sue implicazioni strategiche, non ha precedenti nell'intera storia dell'industria tecnologica mondiale.