La legge di Moore, che ha alimentato la rivoluzione informatica e tecnologica sin dagli anni ‘60, è stata puntualmente rispettata fino ad ora, ma è inevitabilmente destinata a terminare. Il calore e il raggiungimento di dimensioni ormai di scala atomica, alla fine hanno stanno ponendo un freno alle prestazioni dei processori. È la fine della più grande era dello sviluppo tecnologico, o si profila invece all’orizzonte qualcosa di nuovo?
Nel 1965 Gordon Moore, cofondatore della Fairchild Semiconductor e di Intel, scrisse un saggio diventato poi famosissimo, nel quale – oltre a predire meraviglie come i personal computer, orologi da polso digitali, macchine automatiche e “attrezzature personali di comunicazione portatile” (ovvero i telefoni cellulari) – provò a dare anche un riferimento temporale a questa sua visione, osservando che la capacità computazionale dei microprocessori raddoppiava ogni due anni o giù di lì (la famosa “legge di Moore”). Tale principio empirico, che ha alimentato la rivoluzione informatica e tecnologia dagli anni ‘60, è stato puntualmente rispettato fino ad oggi, ma è inevitabilmente destinato a terminare.
La legge di Moore
In realtà non si tratta di una legge “fisica” ma di un paradigma che l’industria dei semiconduttori ha deliberatamente scelto di perseguire: ad ogni fase, gli sviluppatori di software producevano applicazioni che mettevano a dura prova le capacità dei chip esistenti; i consumatori richiedevano così maggiori prestazioni ed i produttori si precipitavano a rispondere a tale domanda con i chip di nuova generazione. Seguire questo sviluppo esponenziale è stato (ed è) estremamente costoso: ad ogni salto generazionale erano necessari investimenti in macchinari sempre più sofisticati e costosi ed i cicli di produzione diventarono sempre più numerosi e complessi, tanto da richiedere, a partire dal 1991, la pubblicazione di una road map biennale (International Technology Roadmap for Semiconductors), per coordinare ciò che le centinaia di produttori e fornitori dovevano fare per rimanere al passo con la legge. Tuttavia, l’enorme versatilità dei chip faceva sì che i produttori potessero concentrarsi sullo sviluppo di soli due tipi di prodotti: processori e memorie, che potevano quindi essere prodotti e venduti i enormi quantità, generando incassi tali da sostenere i costi di sviluppo e nel contempo abbassare anche i prezzi di vendita, alimentando maggiormente la domanda. Ciò ha convertito la legge di Moore in una profezia auto-avverante: i nuovi chip hanno seguito la legge perché l’industria ha fatto in modo che lo facessero. Tutto ha funzionato perfettamente, finché alcuni limiti non sono venuti fuori in tutta la loro complessità.
I limiti insiti nella “profezia” della legge di Moore
Il primo, fu evidente fin già dal 1989: la miniaturizzazione sempre più spinta (i microprocessori top-of-the-line attualmente hanno dimensioni circuitali intorno a 14 nanometri, più piccoli rispetto alla maggior parte dei virus; si calcola che il limite “fisico” possa essere di 2-3 nanometri, cioè circa 10 atomi di diametro, oltre il quale gli effetti quantistici diventano predominanti) portava ad avere temperature sempre più elevate, tanto che a partire dal 2004 ci fu uno stop alla frequenza di clock dei microprocessori. Per mantenere fede alla legge di Moore si cominciarono a costruire chip con più processori (o core) che, funzionando in parallelo, aggiravano parzialmente il problema. Infatti dividendo un algoritmo in parti uguali e facendolo eseguire dai processori in parallelo si supera l’ostacolo, ma ciò è spesso impossibile. Il secondo limite, fu più una sorpresa: l’avvento degli smartphone, dei tablet, dei dispositivi indossabili, dell’Internet of Things e prossimamente dello Swarm Sensing ha cambiato radicalmente le regole del gioco. Fino a una ventina di anni fa, non c’era sostanzialmente molta differenza tra le priorità e i modi di funzionare di un PC o di un super computer: i chip erano gli stessi (cambiava solo il numero). I nuovi microprocessori hanno oggi invece priorità molto differenti dai loro “cugini più sedentari”. I chip di uno smartphone tipico devono inviare e ricevere segnali per le chiamate vocali, Wi-Fi, Bluetooth, GPS, ma anche di rilevamento tattile, di prossimità, accelerazione, campi magnetici, impronte digitali… Oltre a questo, il dispositivo deve ospitare circuiti per usi speciali per la gestione dell’alimentazione, per mantenere tutte queste funzioni attive senza che si scarichi la batteria troppo rapidamente. Il problema per i produttori di chip è che questa specializzazione mina il ciclo economico di autosostentamento della legge di Moore. Il vecchio mercato richiedeva quantità enormi di prodotti che facessero solo un paio di cose, il nuovo mercato richiede poche centinaia di migliaia di prodotti che devono fare un sacco di cose. La fine della legge di Moore non è quindi solo un problema tecnico, si tratta anche di una questione economica. La sfida è quindi molto complessa.
Il crepuscolo della legge di Moore: quale futuro?
Tutti sono d’accordo che il crepuscolo della legge di Moore non significherà la fine del progresso. Un Boeing 787 non è più veloce di un 707 fatto nel 1950 – ma sono aeroplani molto diversi, con le innovazioni che vanno dai controlli completamente elettronici, ad una fusoliera in fibra di carbonio. Questo è ciò che accadrà con i computer: l’innovazione continuerà, ma sarà più sfumata e complicata. Anzitutto, anziché progettare i chip e poi realizzare le applicazioni, si dovrà iniziare dalle applicazioni stesse e poi lavorare verso il basso per vedere che chip sono necessari per sostenerle. Tra questi chip ci saranno ovviamente anche nuove generazioni di sensori, circuiti di gestione dell’alimentazione e altri dispositivi in silicio, richiesti da un mondo in cui computing è sempre più mobile. La questione ora è che cosa accadrà nei primi anni 2020, quando la miniaturizzazione non sarà più possibile con il silicio perché gli effetti quantistici entreranno in gioco. Una possibilità è quella di abbracciare dei paradigmi completamente nuovi, come l’informatica quantistica (che promette velocità esponenzialmente elevate per alcune tipologie computazionali), o il calcolo neuromorfico, che mira a modellare elementi di elaborazione sui neuroni nel cervello. Ma nessuno di questi paradigmi alternativi ha avuto ancora applicazioni al di fuori del laboratorio. Un approccio diverso è la ricerca di un materiale semiconduttore in sostituzione del silicio, in grado di generare molto meno calore. Ci sono molti candidati, che vanno da composti di grafene, a materiali spintronici, che consentono di effettuare i calcoli basandosi sulla rotazione degli elettroni, piuttosto che dal loro movimento. La ricerca è molto attiva, ma anche in questo campo non ci sono applicazioni note al di fuori della ricerca. Un’altra possibilità è infine quella di modificare l’architettura dei chip, sfruttando la terza dimensione e impilando strati di microprocessori. In linea di principio, questo dovrebbe permettere di impacchettare più potenza computazionale nella stessa area. In pratica, tuttavia, questo attualmente funziona solo con chip di memoria, che usando circuiti che consumano energia solo quando si accede ad una cella di memoria, scaldano molto meno (esempio il progetto Hybrid Memory Cube, di Samsung e Micron Technology). Poiché almeno il 50% del totale del calore è attualmente generato dal flusso degli elettroni avanti e indietro tra le memorie e i microprocessori, una soluzione potrebbe essere quella di integrare le due tipologie di chip impilandole nella stessa scala nanometrica tridimensionale. Questo è difficile, anche perché i microprocessori attuali e i chip di memoria sono così diversi che non possono essere fatti sulla stessa linea di produzione. A Stanford hanno però sviluppato un’architettura ibrida che è molto promettente e che impila unità di memoria insieme a transistor a base di nanotubi di carbonio, che trasportano anche la corrente da strato a strato. A Berkeley, stanno invece lavorando sulle metodologie per ridurre i costi di progettazione dei nuovi chip: invece di partire da zero ogni volta, pensano che si dovrebbe creare i nuovi dispositivi, combinando grosse parti di circuiti esistenti già ottimizzati. È un po’ come con i mattoncini Lego: la sfida è fare in modo che i blocchi lavorino correttamente insieme, ma se si sceglie di usare i vecchi metodi di progettazione, i costi ed i tempi diventerebbero presto proibitivi. Come vediamo, la legge di Moore sta volgendo al termine in senso letterale, perché la crescita esponenziale del numero di transistor non può continuare, ma dal punto di vista del consumatore, la legge di Moore afferma semplicemente che il valore-utente raddoppia ogni due anni. E in questa forma, la legge continuerà finché l’industria sarà in grado di riempire i suoi dispositivi con nuove funzionalità. Le idee sono là fuori e le attività per ingegnerizzarle sono frementi, così come la ricerca a supporto…