Computing del domani

Chip quantistici e neuromorfici: le ultime frontiere della ricerca

di Alessandra Tommasi e Lorenzo Rampa

Dentro al regno quantico: l’ultima frontiera del microchip

Il computer del futuro è già realtà e arriva dal regno quantico. Sfrutta una nuova tipologia di chip, che basano il loro funzionamento sui principi della computazione quantistica. Il tema è complicato, per cui è necessario fare un passo indietro per provare a comprendere meglio alcuni dei suoi concetti. Come sappiamo, un transistor può essere paragonato a una sorta di interruttore elettrico, che permette o blocca il passaggio del flusso degli elettroni, ovvero ciò che comunemente chiamiamo “elettricità”. All’interno di un singolo circuito elettronico sono presenti miliardi di transistor, attraverso i quali vengono veicolate le informazioni che viaggiano nel chip, costituite dai bit, e che permettono ai dispositivi elettronici di comunicare tra loro. Oggi i transistor stanno raggiungendo dimensioni pari a una manciata di atomi e siamo vicini al limite evolutivo del loro processo di miniaturizzazione (legge di Moore). Per questo motivo la nuova frontiera del quantum computing potrebbe portare a una svolta decisiva. Grazie agli stessi sforzi compiuti dalla ricerca per costruire i primi computer quantistici abbiamo maturato una maggiore comprensione delle caratteristiche di vari materiali a livello microscopico, sviluppando nuove tecnologie in grado di agire sull’atomo, manipolare il loro comportamento e addirittura controllare la corrente generata da un singolo elettrone.

«Il quantum computing è l’unica parte di Microsoft dove presentano slide che davvero non capisco».

Bill Gates

fondatore, Microsoft

Uno dei problemi che il quantum computing cerca di eliminare è il fenomeno denominato “Quantum Tunneling” (tunnel quantistico o “Effetto Tunnel”) a causa del quale gli elettroni del flusso elettrico di tanto in tanto attraversano le barriere fisiche. La sua imprevedibilità rappresenta uno dei principali limiti per l’attuale realizzazione di dispositivi su scala nanometrica. Di norma, la legge di conservazione dell’energia della meccanica classica impone che una particella non possa superare un ostacolo (o barriera) se non ha un’energia sufficiente per farlo. La meccanica quantistica, invece, prevede che una particella abbia almeno una bassa probabilità di attraversare spontaneamente una barriera di energia potenziale (l’energia che un corpo possiede in relazione alla sua posizione). Nel “Quantum tunneling” non è presente un ostacolo materiale, bensì uno “energetico”: un elettrone che raggiunge una sottile zona in cui dovrebbe essere respinto per via dell’energia insufficiente, ha una bassa probabilità di riuscire a superarla in una piccola frazione di casi. Questo perché quando si ha a che fare con le dimensioni infinitesimali del regno quantico, le nozioni di fisica e di comportamento dei corpi diventano imprevedibili per i nostri parametri. E proprio una delle possibili applicazioni del calcolo quantistico permette di sfruttare questo effetto di tunneling, all’interno di circuiti progettati in maniera dedicata, per risolvere problemi di ottimizzazione.

Ma il vero elemento fondamentale del quantum computing è rappresentato dal principio della sovrapposizione, sul quale si basa tutto il suo funzionamento. Per poter meglio comprendere in cosa consiste è però opportuno chiarire prima il concetto di Qubit. Nell’informatica le unità di misura elementare dell’informazione sono i bit, raffigurati con i valori 0 e 1 del codice binario, che corrispondono a una scelta tra due alternative egualmente possibili – due diversi stati che si possono assumere – e le loro combinazioni creano informazioni complesse. Al posto dei bit, i computer quantici utilizzano come elemento base dell’informazione i Quantum bit, detti Qubit, unità di misura anch’esse basate su 0 e 1. La particolarità che li differenzia dai semplici bit è la capacità di assumere allo stesso momento entrambi i possibili stati , aumentando così la capacità di calcolo e l’elaborazione dei dati in modo esponenziale.

È un po’ come il paradosso del gatto di Schrödinger: fino a quando non si apre la scatola sarà impossibile sapere se il Qubit è “vivo” o “morto”. Di fatto sarà potenzialmente entrambe le cose e il suo stato effettivo è determinato proprio nel momento in cui lo si osserva. Allo stesso modo il Qubit è sia 0 che 1 nello stesso istante, ma quando viene misurato il risultato finale del calcolo, considerando tutte le probabilità, questo collassa in uno dei due possibili stati. Se prendiamo, ad esempio, 4 bit tradizionali, che offrono una singola scelta tra un massimo di 16 combinazioni possibili, e li paragoniamo a 4 Qubit, il dislivello è subito intuibile. Questi 4 Qubit, grazie alla “sovrapposizione” rappresentano le 16 combinazioni possibili nello stesso momento. Per ogni Qubit in più, il numero cresce in modo esponenziale. Con 20 Quibit si immagazzinano 1 milione di valori contemporaneamente, mentre un computer quantistico con 300 Qubit può effettuare un numero di calcoli simultanei più grande del numero di atomi presenti nell’universo.

Una delle proprietà più controintuitive dei Qubit si basa sul principio dell’“entanglement”: ogni particella esistente può essere legata a una o più particelle differenti, con le quali rimane costantemente e “intimamente” connessa, anche se collocate agli angoli opposti dell’universo. Qualsiasi tipo di alterazione o mutamento che subisce una delle due parti si ripercuote istantaneamente anche sull’altra. Allo stesso modo si ha una connessione esistente tra uno dei possibili stati del Qubit e quello “intrecciato” con esso, per cui le loro variazioni si influenzano a vicenda, a prescindere dalla distanza che li separa. Sovrapposizione, entanglement ed interferenza quantistica sono tutte proprietà che permettono ai computer quantistici di essere estremamente più veloci e potenti nell’elaborazione rispetto ai computer tradizionali.

Queste nuove delicate e costosissime macchine – i costi di realizzazione di un singolo dispositivo si attestano sulle decine di miliardi di dollari – hanno al loro interno una griglia composta da centinaia di piccoli anelli di niobio, un metallo molto duttile, che fungono da processore per i Qubit. Affinché tutto funzioni correttamente, un computer quantico deve mantenere una temperatura interna di una frazione di grado al di sopra dello zero assoluto (-273.15 gradi Celsius). Oltre all’assenza di vibrazioni termiche, un quantum computer deve operare in assenza interferenze elettromagnetiche e di qualsiasi altro fenomeno che possa influenzare lo stato quantico del processore, che dura solamente una frazione di secondo e dal quale dipende il funzionamento dell’intero macchinario.

La sfida impari tra computer quantistici e supercomputer

Quando si parla di capacità di calcolo e risoluzione di problemi matematici estremamente complessi, i computer quantici non sono secondi a nessuno. Diversi esperimenti recenti hanno dimostrato una maggiore efficienza nei confronti dei supercomputer, dispositivi realizzati con un’architettura pensata per avere delle prestazioni di gran lunga superiori a quelle di un normale pc. Si tratta di calcolatori grandi e complessi, composti da decine, se non centinaia di migliaia di processori e chip di vario tipo. Nell’autunno del 2019 il computer quantico di Google Sycamore, venendo mantenuto a una temperatura di 15 milliKelvin (200 volte più fredda dello spazio profondo), ha risolto in 200 secondi calcoli matematici complessi che avrebbero richiesto ad un supercomputer moderno almeno 3-4 giorni di tempo. 

Ma i computer quantistici presentano anche un altro grande vantaggio: il risparmio energetico. Quando viene raggiunta la bassissima temperatura necessaria al loro isolamento, i processori quantistici diventano superconduttori, possono cioè condurre l’elettricità senza incontrare alcuna resistenza. Il risultato è che consumano un quantitativo d’energia elettrica praticamente nullo e generano una quantità di calore irrisoria. L’energia consumata equivale solo a una frazione di quella di un computer classico perché il quantum computing permette di compiere gli stessi calcoli di un supercomputer manipolando una quantità estremamente più piccola di elettroni, qualche centinaio contro il torrente di elettroni necessario a mettere in moto un calcolatore classico. La maggior parte dei supercomputer moderni utilizza tra l’1 e i 10 megawatt di elettricità in media, abbastanza da soddisfare la domanda di quasi 10mila case. Consumare 1 megawatt all’anno negli Stati Uniti vuol dire spendere 1 milione di dollari, nel caso dei supercomputer diversi milioni. Nello stesso arco di tempo un singolo computer quantistico utilizza 25 kilowatt, che corrispondono a 25mila dollari all’anno. Contrariamente a quello che si potrebbe pensare però, i computer quantistici non sono in grado di sostituire i computer classici dei giorni nostri nelle loro mansioni a causa di alcune incompatibilità strutturali e, soprattutto, perché su una vasta quantità di algoritmi non forniscono alcun vantaggio rispetto ai calcolatori tradizionali.

Verso la rivoluzione: tra chip ibridi e “Hot Qubit” 

 

Al fine di accorciare i tempi di attesa nello sviluppo di questa nuova tecnologia, in questi ultimi anni la ricerca sta battendo strade alternative per tentare di trovare delle soluzioni concrete. Ad esempio, riducendo i costi elevati dovuti alle bassissime temperature dei computer quantici. Oppure, creando degli ibridi che sfruttano i materiali e le proprietà dei semiconduttori tradizionali e suddividendo i compiti tra una macchina classica e una macchina quantistica. Quest’ultima funge da “acceleratore dedicato”, ovvero da componente in grado di effettuare alcuni tipi di calcolo molto velocemente. Quello che si ottiene è che è possibile, a volte, ridurre le dimensioni dei problemi che devono essere fatti girare su una macchina quantistica moderna, che ad oggi rimane ancora limitata. In poche parole si utilizza il meglio dei due mondi e allo stesso tempo abbattono in modo significativo i costi di realizzazione. Grazie al computing ibrido sono comparse alcune applicazioni iniziali in industrie come quella delle auto, il manifatturiero e la finanza. Volkswagen lo sta utilizzando per ottimizzare le rotte del trasporto pubblico in diverse città del mondo. DENSO, produttore di parti per auto in Giappone, ha affermato di poter ridurre i ritardi e migliorare l’efficienza dei robot automatizzati nelle sue fabbriche attraverso un’applicazione costruita con un quantum computer. Nel 2020 gli scienziati della Pritzker dell’università di Chicago hanno annunciato di aver trovato un modo per sfruttare e controllare gli stati quantici nei dispositivi elettronici ordinari, realizzati in carburo di silicio. Un’altra scoperta molto interessante è arrivata dalla University of New South Wales di Sidney, dove è stato trovato un modo per rendere i Qubit molto più economici. Utilizzando un processore quantistico al silicio, una sorta di ibrido tra elettronica tradizionale ed elettronica quantistica, è stato fatto funzionare con successo un computer quantistico alla temperatura di 1,5 Kelvin, cioè -271,65 Celsius, anziché gli 0,01 Kelvin normalmente richiesti. Così si è ridotta di molto l’entità dell’investimento iniziale necessario al raffreddamento. Questi Qubit che operano a temperature più calde sono stati definiti “Hot Qubit”.

 

«Non potremmo costruire computer quantistici a meno che l’universo non fosse quantistico e informatico. Possiamo costruire tali macchine perché l’universo sta immagazzinando ed elaborando informazioni nel regno quantistico. Quando costruiamo computer quantistici, dirottiamo il calcolo sottostante per fargli fare le cose che vogliamo. Stiamo hackerando l’universo».

Seth Lloyd

fisico e informatico, MIT Boston

La corsa al “vantaggio quantico” del Big Tech

 

In parallelo alle vie alternative, prosegue anche lo sviluppo del computer quantistico classico. Occorsero oltre 30 anni per passare dalla prima teorizzazione di Paul Benioff del 1980 alla messa in commercio nel 2011 del D-Wave, il primo (presunto) computer quantistico commerciale, in vendita per 10 milioni di dollari. Nell’estate del 2018 IBM ha testato a Milano il primo computer quantistico commerciale basato su circuito, successivamente rilasciato nel gennaio 2019. All’epoca era dotato di un sistema a 20 Qubit. Oggi l’era dei computer quantistici su piccola scala (da 2 a 10 Qubit) è ormai un ricordo del passato. È arrivata l’era dei Noisy Intermediate-Scale Quantum Processors (NISQ), che contengono decine o centinaia di Qubit. Sono definiti noisy (cioè rumorosi), perché questi sistemi non sono ancora del tutto stabili e si è in cerca di soluzioni. Come già detto, al momento il limite sta anche nel loro valore pratico molto limitato, visto che sono perlopiù testati nella risoluzione di problemi matematici complessi.

Giganti come IBM, Microsoft, Intel e Google, per citarne solo alcuni, da anni investono senza sosta miliardi di dollari nella corsa al segreto per sbloccare le infinite applicazioni di questa nuova tecnologia. Lo scorso novembre IBM ha annunciato il suo processore quantistico Eagle da 127 Qubit superconduttori. Nel 2022 l’azienda prevede di rilasciare chip quantistici Osprey da 433 Qubit e, nell’arco di due anni, anche il computer quantistico Condor da 1.121 Qubit. Intel sembra essere passata dalla sperimentazione sui Qubit superconduttori a quella sugli spin Qubit in silicio. Questi ultimi hanno le dimensioni di un transistor e sono dunque 1 milione di volte più piccoli di un singolo Qubit superconduttore. Il livello successivo saranno i computer quantistici che riusciranno a correggere l’ampio margine d’errore dovuto alla difficoltà del controllo dei Qubit. Molto probabilmente non ci saranno mai computer portatili e smartphone quantistici e il quantum computing rimarrà un’applicazione di nicchia per una certa categoria di problemi matematici. Tuttavia risulta difficile predire cosa ci riservi il futuro.

Due Qubit sottoposti a entanglement quantistico in un reticolo di atomi di silicio – Canva

Chip come neuroni: la tecnologia che imita il cervello

Negli ultimi anni si sente spesso parlare di chip neuromorfici nell’ambito del progresso tecnologico. Ma in cosa consistono esattamente? E perché sono così importanti per il futuro? Si tratta di microprocessori che imitano il funzionamento della mente umana, replicandone la struttura e i meccanismi interni. Questi chip sono utilizzati per realizzare i sistemi ad autoapprendimento delle reti neurali per le intelligenze artificiali. Ma come funzionano di preciso i meccanismi di questo chip? I nostri neuroni in genere non sono né accesi né spenti, così come le informazioni non sono “importanti” o “non importanti”, bensì hanno vari livelli di importanza. Per riprodurre questo comportamento in un chip neuromorfico è necessario utilizzare un metodo di comunicazione dei dati analogico, ovvero con diverse sfumature di  maggior complessità rispetto al semplice 0 e 1 della comunicazione digitale tipica del codice binario. Si tratta di uno scambio di informazioni, come video, immagini e suoni, che avviene utilizzando segnali continui (ad esempio l’onda sinusoidale), detti appunto “analogici”. Per gestire questi differenti livelli di dati sia l’hardware che il software adottato per la realizzazione dei computer neuromorfici devono essere in grado di registrare ed elaborare più livelli di informazioni. Abbiamo visto come un transistor sia una sorta di interruttore che cambia il suo stato al passaggio di corrente elettrica, variando da “acceso” a “spento”. Mentre un Memristor (il nostro neurone artificiale) è un tipo di circuito elettrico che può cambiare il suo stato in base all’intensità della corrente che lo attraversa, e “ricordarsi” quel suo stato anche quando non c’è elettricità. Così, è in grado di assumere molteplici stati, paragonabili a diversi valori. Più la corrente è intensa, più il valore è alto.

All’interno di un processore neuromorfico sono presenti migliaia di neuroni artificiali tutti interconnessi tra loro, che vengono “stimolati” dal passaggio dei dati. Quindi elaborano le informazioni e rilasciano un risultato ai neuroni adiacenti, innescando un’elaborazione a catena continua. Il tipo di risultato che prevale alla fine del procedimento determina l’intensità, e quindi lo specifico stato memorizzato, simulando il “ragionamento” e il processo decisionale del computer. In fondo, l’“intelligenza” delle IA non è altro che il risultato di algoritmi complessi, che vengono allenati per una determinata funzione. È una sorta di “intelligenza simulata”, con algoritmi sono talmente complessi che sembra di avere a che fare con sistemi in grado di pensare, ma in realtà il risultato si ottiene effettuando gli stessi calcoli che farebbe un software banale, solo con una potenza e una quantità di dati estremamente superiori. Questi processori di prossima generazione saranno importanti per il futuro dell’intelligenza artificiale e potrebbero essere utilizzati per l’elaborazione dei dati negli ambienti in tempo reale in evoluzione. Tradotto, potrebbe significare nuovi sensori e IA capaci di riconoscere ed elaborare immagini, odori, suoni, e ambienti del mondo reale in modo più efficiente e corretto. Potrebbe voler dire auto a guida autonoma completamente indipendenti, città “intelligenti” automatizzate con IA che gestiscono i sistemi del traffico cittadino, droni per l’assistenza personale dei cittadini e tecnologie di tracciamento e riconoscimento facciale infallibili e velocissime.

I cervelli in silicio sono già tra noi

 

Se è corretto affermare che lo sviluppo su larga scala del chip neuromorfico ad oggi è ancora una chimera, è allo stesso tempo innegabile che nell’ultima decade sono stati fatti diversi passi avanti nella ricerca e lo sviluppo di applicazioni valide in tal senso. Ad esempio, nel 2014 un team di ricercatori di IBM e Cornell University ha presentato TrueNorth, chip neuromorfico realizzato nell’ambito del progetto SyNAPSE, finanziato dalla DARPA (l’agenzia di ricerca del dipartimento della Difesa degli Stati Uniti). Questo chip è composto da 5,4 miliardi di transistor disposti in 4.096 nuclei neurosinaptici interconnessi, con oltre 400 milioni di bit di memoria locale.

Su di esso è possibile programmare individualmente 1 milione di neuroni e 256 milioni di sinapsi artificiali, in una rete bidimensionale dal consumo simile a quello di un computer desktop. Nel 2017 i ricercatori dell’IBM Research in Australia hanno combinato il chip TrueNorth con algoritmi di apprendimento profondo e il robot NAO per classificare immagini dal vivo in 10 categorie, comunicate dal robot attraverso il linguaggio. Nel 2018 Intel ha presentato Loihi, un chip neuromorfico con 131mila neuroni e 130 milioni di sinapsi artificiali. Loihi è stato usato per gestire arti robotici e ha permesso la nascita del primo computer capace di sentire e distinguere gli odori. Di recente è stato implementato l’algoritmo neurale per l’apprendimento rapido automatico e l’identificazione degli odori anche in contesti difficili, pubblicato da Intel su Nature Machine Intelligence a marzo 2020. Il chip neuromorfico è stato istruito su un dataset di 72 sensori chimici in risposta a 10 odori. Le risposte di questi sensori sono state trasmesse al chip e ai suoi circuiti neurali che hanno rapidamente appreso “l’impronta chimica” di ciascun odore e li hanno identificati anche in condizioni di interferenza, riconoscendoli a ogni successiva esposizione. Loihi 2, è stato annunciato a inizio ottobre e conterrà più di 1 milione di neuroni artificiali. Intel ha istituito nel 2018 la Intel Neuromorphic Research Community (INRC), uno sforzo di ricerca collaborativo tra mondo accademico e high-tech che include più di 75 organizzazioni, tra cui laboratori pubblici, startup di computing neuromorfico e importanti università di tutto il mondo. Una di queste realtà è Accenture Labs, che sta cercando il modo migliore con cui il chip Lohi di Intel potrà aiutare le aziende a prepararsi a un futuro fatto di elevati carichi di dati, interazioni tra veicoli intelligenti e un riconoscimento vocale sempre più avanzato. Un altro aderente è la compagnia spaziale Airbus, specializzata in sicurezza informatica, che nel 2020 ha avviato un progetto in collaborazione con l’università di Cardiff, incentrato sempre su Lohi, per migliorare la propria tecnologia di rilevazione di malware. La multinazionale GE lo sta analizzando per ottimizzare i propri processi industriali con gli approcci ad alta efficienza energetica; Hitachi lo sta sperimentando per il riconoscimento di dati e sensori in HD e per aumentare la scalabilità e la flessibilità dell’edge computing.