IBM descrive in dettaglio come portare il quantum computing concretamente alle imprese, con nuovi chip ma soprattutto nuove tecnologie
Autore: Redazione ImpresaCity
Il quantum computing è uscito dalla fase "trendy" di qualche anno fa, ma questo non vuol dire che lo sviluppo tecnologico dell'elaborazione quantistica non vada avanti. Si sta anzi lavorando da tempo, tra ricerca pura e applicazioni pratiche, ai principali due limiti che frenano lo sviluppo del quantum computing: il basso numero di qubit nei chip quantistici e l'alto tasso di errori che questi generano nella esecuzione di qualsiasi algoritmo.
Come per i bit del calcolo tradizionale, avere più qubit significa alla fine avere maggiore capacità di calcolo. Ma i "bit quantistici" sono oggetti fisicamente instabili, la cui sia pure accuratissima gestione comporta sempre un elevato tasso di errori di elaborazione. Da qui la necessità di due linee di sviluppo: da un lato studiare qubit più stabili, dall'altro - e soprattutto - aumentare il numero di qubit in un chip in modo che possano, in un certo senso, correggersi a vicenda.
IBM sta perseguendo entrambe queste linee di sviluppo tecnologico e di recente ha presentato al suo Quantum Summit i frutti del suo lavoro. Dando inoltre una visione ben definita di come il quantum computing possa crescere nei prossimi anni ed entrare concretamente nell'utilizzo da parte degli enti di ricerca, delle organizzazioni governative e delle grandi imprese.
Molto dei nuovi risultati presentati da IBM si basa sul lavoro di ricerca portato avanti in questi anni sulla mitigazione degli errori e delle interferenze fra qubit nel calcolo quantistico. E si basa anche sul concetto di qubit logico: data l'alta instabilità di un generico qubit, è utile "clonare" il suo funzionamento su altri qubit e associarne altri ancora, in numero elevato, per monitorare lo stato dei qubit per così dire "operativi".
Un qubit logico diventa quindi un "gruppo" di qubit fisici che si auto-monitora per verificare la presenza di eventuali instabilità. Che, tra l'altro, possono anche derivare da interferenze tra qubit adiacenti. Uno scenario tutt'altro che semplice, a causa del quale si stima che con le attuali tecniche di correzione degli errori servano qualcosa come quattrocento qubit fisici per "realizzare" un singolo qubit logico con una qualche capacità di auto-correzione.
In prospettiva il problema è cruciale. È praticamente impossibile che nel prossimo futuro avremo qubit stabili quanto i bit tradizionali. Quindi per avere chip con un numero di qubit logici sufficiente per calcoli praticamente utili, serviranno chip con migliaia di qubit fisici. Di conseguenza, servono processi produttivi dei chip quantistici sempre più evoluti ed efficaci. Va considerato in questo senso il nuovo chip IBM Condor, che ospita 1.121 qubit ed è frutto di un processo produttivo evoluto. Un esercizio anche di stile, se vogliamo, ma che delinea il futuro della produzione di chip quantistici.
L'altra strada seguita da IBM riguarda lo sviluppo di chip con un numero di qubit più "convenzionale" ma comunque efficaci perché dotati di auto-correzione. La novità in questo senso è il chip Quantum Heron, con 133 qubit. Un aumento che sembra limitato rispetto ai 127 del chip di punta precedente - Eagle - ma che in effetti, secondo IBM, porta un miglioramento prestazionale di 3-5 volte.
Heron non integra qubit logici che si correggono da soli ma apre la strada alla loro applicazione pratica. IBM prevede per l'anno prossimo la presentazione di chip Heron con forme di "error mitigation", ma già i primi Heron hanno un importante valore, perché introducono concretamente il concetto di modularità nel quantum computing. Nell'approccio delineato da IBM per i prossimi anni, infatti, la strada per avere più qubit operativi in un quantum computer non è (solo) avere nuovi chip con più qubit, ma sviluppare tecnologie che permettano a più chip quantistici di operare in sinergia.
È un approccio che si concretizza proprio con il chip Heron: IBM ha realizzato e messo in funzione il preannunciato nuovo sistema quantistico battezzato IBM Quantum System Two, che integra appunto tre chip Heron per arrivare a 399 qubit. L'annunciato erede di Heron, il chip Flamingo che vedremo in varie versioni dal 2025 in poi, promette di realizzare sistemi da 1.092 qubit (156 per chip, con 7 chip interconnessi) e dotati di correzione degli errori.
Questo approccio, secondo IBM, dovrebbe portare tutta la vera potenza del quantum computing dal 2033 in poi. Per il 2033 è infatti previsto il lancio del chip Blue Jay, con 2.000 qubit e soprattutto un miliardo di "quantum gate" per singolo circuito quantistico (concetto assimilabile, banalizzando, nel numero di operazioni possibili per singolo "programma" di quantum computing). In confronto, l'Heron di oggi supporta "solo" 5 mila quantum gate e Flamingo, negli anni, passerà da 5 mila a 7.500 quantum gate.
L'approccio modulare di IBM non riguarda solo i nuovi chip quantistici ma anche i sistemi stessi. Più sistemi Quantum System Two potranno essere connessi fra loro per sommare la loro potenza, arrivando in prospettiva a gestire 100 milioni di quantum gate per singolo circuito, e poi un miliardo entro il 2033.
Certo dieci anni sembrano davvero tanti per prevedere precisi sviluppi tecnologici nel campo del quantum computing, che poi non è fatto solo di hardware ma anche di piattaforme e software. Ma il valore dei nuovi annunci di IBM sta proprio in questa roadmap dettagliata, che per ora mantiene le promesse e almeno nelle intenzioni associa date precise a uno sviluppo tecnologico - quello appunto del quantum computing - che sinora è sempre sembrato legato più alla buona volontà della ricerca che a precisi impegni di business.