\\ Home Page : Articolo : Stampa
Il primo computer quantistico a tolleranza di errore: IBM Starling
Di Alex (del 24/02/2026 @ 13:00:00, in Nuove Tecnologie, letto 59 volte)
[ 🔍 CLICCA PER INGRANDIRE ]
Architettura quantistica IBM Starling con array di qubit logici a tolleranza di errore
Architettura quantistica IBM Starling con array di qubit logici a tolleranza di errore

IBM Starling segna il superamento definitivo dell'era NISQ: con 10.000 qubit logici tolleranti agli errori, l'informatica quantistica entra in una nuova fase. I surface codes garantiscono affidabilità senza precedenti, aprendo la strada alla simulazione molecolare complessa in tempo reale e al calcolo ad alta complessità. LEGGI TUTTO L'ARTICOLO

🎧 Ascolta questo articolo

Il superamento dell'era NISQ: cosa cambia con Starling
Per oltre un decennio, l'informatica quantistica è rimasta prigioniera di un paradosso: i qubit fisici sono estremamente sensibili al rumore ambientale — vibrazioni termiche, campi elettromagnetici, radiazioni cosmiche — e ogni calcolo superiore a pochi nanosecondi genera errori che si accumulano fino a rendere inutile il risultato. Questo era il regno dell'era NISQ (Noisy Intermediate-Scale Quantum), in cui i processori quantistici erano abbastanza grandi da essere interessanti, ma troppo rumorosi per risolvere problemi reali che i computer classici non potessero già affrontare.

IBM Starling rompe questo limite con un'architettura fondata su qubit logici anziché fisici. Un qubit logico è un'astrazione costruita a partire da molti qubit fisici — nel caso di Starling, circa 1000 fisici per ogni logico — organizzati in modo tale che gli errori vengano rilevati e corretti in tempo reale, senza collassare la sovrapposizione quantistica. Il risultato è un processore con 10.000 qubit logici stabili, capaci di eseguire circuiti quantistici di profondità prima impossibile.

I surface codes: il meccanismo della correzione degli errori
La tecnologia chiave di IBM Starling è il surface code, un protocollo di correzione degli errori quantistici in cui i qubit fisici sono disposti su una griglia bidimensionale. I qubit centrali della griglia memorizzano l'informazione quantistica, mentre i qubit ai bordi eseguono misurazioni di parità continue — i cosiddetti syndrome measurements — che rilevano la presenza di errori senza misurare direttamente lo stato quantistico dei qubit dati, preservando così la coerenza.

Quando un syndrome measurement rivela un'anomalia, gli algoritmi di decodifica — tipicamente varianti del minimum-weight perfect matching — identificano la posizione e il tipo di errore e applicano correzioni software che neutralizzano l'effetto del rumore fisico. La soglia di errore del surface code (circa 1% per operazione fisica) è stata finalmente raggiunta e superata dai qubit superconduttori di IBM, rendendo la correzione attiva degli errori non solo teoricamente possibile, ma praticamente efficiente.

Implicazioni per la simulazione molecolare complessa
La prima applicazione trasformativa di un sistema come IBM Starling riguarda la simulazione di sistemi molecolari complessi: processi che coinvolgono interazioni quantistiche tra elettroni — come la catalisi enzimatica, la fotosintesi o le reazioni di fissazione dell'azoto — sono intrinsecamente quantistici e impossibili da simulare con precisione su hardware classico per molecole di dimensioni biologiche rilevanti.

Con 10.000 qubit logici stabili, diventa possibile simulare in tempo reale la dinamica elettronica di proteine complesse, identificare nuovi catalizzatori per la sintesi farmaceutica, ottimizzare materiali per batterie di nuova generazione e simulare meccanismi di resistenza batterica agli antibiotici. Questi scenari non sono più speculativi: IBM ha già dimostrato simulazioni preliminari di piccole molecole su sistemi precursori di Starling, con risultati paragonabili ai metodi di chimica computazionale più accurati.

IBM Starling non è semplicemente un computer più grande: è un cambio di paradigma. L'era della computazione quantistica affidabile è iniziata, e le sue conseguenze per la farmacologia, la scienza dei materiali, la crittografia e l'intelligenza artificiale si dispiegheranno nei prossimi decenni con una velocità che ancora non riusciamo a prevedere completamente. Il futuro del calcolo ha smesso di essere rumoroso.