Tag Archives: Internet of Things

Sfida alla legge di Moore sui circuiti integrati

Published by:

La legge di Moore, che ha alimentato la rivoluzione informatica e tecnologica sin dagli anni ‘60, è stata puntualmente rispettata fino ad ora, ma è inevitabilmente destinata a terminare. Il calore e il raggiungimento di dimensioni ormai di scala atomica, alla fine hanno stanno ponendo un freno alle prestazioni dei processori. È la fine della più grande era dello sviluppo tecnologico, o si profila invece all’orizzonte qualcosa di nuovo?

Nel 1965 Gordon Moore, cofondatore della Fairchild Semiconductor e di Intel, scrisse un saggio diventato poi famosissimo, nel quale – oltre a predire meraviglie come i personal computer, orologi da polso digitali, macchine automatiche e “attrezzature personali di comunicazione portatile” (ovvero i telefoni cellulari) – provò a dare anche un riferimento temporale a questa sua visione, osservando che la capacità computazionale dei microprocessori raddoppiava ogni due anni o giù di lì (la famosa “legge di Moore”). Tale principio empirico, che ha alimentato la rivoluzione informatica e tecnologia dagli anni ‘60, è stato puntualmente rispettato fino ad oggi, ma è inevitabilmente destinato a terminare.

La legge di Moore

In realtà non si tratta di una legge “fisica” ma di un paradigma che l’industria dei semiconduttori ha deliberatamente scelto di perseguire: ad ogni fase, gli sviluppatori di software producevano applicazioni che mettevano a dura prova le capacità dei chip esistenti; i consumatori richiedevano così maggiori prestazioni ed i produttori si precipitavano a rispondere a tale domanda con i chip di nuova generazione. Seguire questo sviluppo esponenziale è stato (ed è) estremamente costoso: ad ogni salto generazionale erano necessari investimenti in macchinari sempre più sofisticati e costosi ed i cicli di produzione diventarono sempre più numerosi e complessi, tanto da richiedere, a partire dal 1991, la pubblicazione di una road map biennale (International Technology Roadmap for Semiconductors), per coordinare ciò che le centinaia di produttori e fornitori dovevano fare per rimanere al passo con la legge. Tuttavia, l’enorme versatilità dei chip faceva sì che i produttori potessero concentrarsi sullo sviluppo di soli due tipi di prodotti: processori e memorie, che potevano quindi essere prodotti e venduti i enormi quantità, generando incassi tali da sostenere i costi di sviluppo e nel contempo abbassare anche i prezzi di vendita, alimentando maggiormente la domanda. Ciò ha convertito la legge di Moore in una profezia auto-avverante: i nuovi chip hanno seguito la legge perché l’industria ha fatto in modo che lo facessero. Tutto ha funzionato perfettamente, finché alcuni limiti non sono venuti fuori in tutta la loro complessità.

I limiti insiti nella “profezia” della legge di Moore

Il primo, fu evidente fin già dal 1989: la miniaturizzazione sempre più spinta (i microprocessori top-of-the-line attualmente hanno dimensioni circuitali intorno a 14 nanometri, più piccoli rispetto alla maggior parte dei virus; si calcola che il limite “fisico” possa essere di 2-3 nanometri, cioè circa 10 atomi di diametro, oltre il quale gli effetti quantistici diventano predominanti) portava ad avere temperature sempre più elevate, tanto che a partire dal 2004 ci fu uno stop alla frequenza di clock dei microprocessori. Per mantenere fede alla legge di Moore si cominciarono a costruire chip con più processori (o core) che, funzionando in parallelo, aggiravano parzialmente il problema. Infatti dividendo un algoritmo in parti uguali e facendolo eseguire dai processori in parallelo si supera l’ostacolo, ma ciò è spesso impossibile. Il secondo limite, fu più una sorpresa: l’avvento degli smartphone, dei tablet, dei dispositivi indossabili, dell’Internet of Things e prossimamente dello Swarm Sensing ha cambiato radicalmente le regole del gioco. Fino a una ventina di anni fa, non c’era sostanzialmente molta differenza tra le priorità e i modi di funzionare di un PC o di un super computer: i chip erano gli stessi (cambiava solo il numero). I nuovi microprocessori hanno oggi invece priorità molto differenti dai loro “cugini più sedentari”. I chip di uno smartphone tipico devono inviare e ricevere segnali per le chiamate vocali, Wi-Fi, Bluetooth, GPS, ma anche di rilevamento tattile, di prossimità, accelerazione, campi magnetici, impronte digitali… Oltre a questo, il dispositivo deve ospitare circuiti per usi speciali per la gestione dell’alimentazione, per mantenere tutte queste funzioni attive senza che si scarichi la batteria troppo rapidamente. Il problema per i produttori di chip è che questa specializzazione mina il ciclo economico di autosostentamento della legge di Moore. Il vecchio mercato richiedeva quantità enormi di prodotti che facessero solo un paio di cose, il nuovo mercato richiede poche centinaia di migliaia di prodotti che devono fare un sacco di cose. La fine della legge di Moore non è quindi solo un problema tecnico, si tratta anche di una questione economica. La sfida è quindi molto complessa.

Il crepuscolo della legge di Moore: quale futuro?

Tutti sono d’accordo che il crepuscolo della legge di Moore non significherà la fine del progresso. Un Boeing 787 non è più veloce di un 707 fatto nel 1950 – ma sono aeroplani molto diversi, con le innovazioni che vanno dai controlli completamente elettronici, ad una fusoliera in fibra di carbonio. Questo è ciò che accadrà con i computer: l’innovazione continuerà, ma sarà più sfumata e complicata. Anzitutto, anziché progettare i chip e poi realizzare le applicazioni, si dovrà iniziare dalle applicazioni stesse e poi lavorare verso il basso per vedere che chip sono necessari per sostenerle. Tra questi chip ci saranno ovviamente anche nuove generazioni di sensori, circuiti di gestione dell’alimentazione e altri dispositivi in silicio, richiesti da un mondo in cui computing è sempre più mobile. La questione ora è che cosa accadrà nei primi anni 2020, quando la miniaturizzazione non sarà più possibile con il silicio perché gli effetti quantistici entreranno in gioco. Una possibilità è quella di abbracciare dei paradigmi completamente nuovi, come l’informatica quantistica (che promette velocità esponenzialmente elevate per alcune tipologie computazionali), o il calcolo neuromorfico, che mira a modellare elementi di elaborazione sui neuroni nel cervello. Ma nessuno di questi paradigmi alternativi ha avuto ancora applicazioni al di fuori del laboratorio. Un approccio diverso è la ricerca di un materiale semiconduttore in sostituzione del silicio, in grado di generare molto meno calore. Ci sono molti candidati, che vanno da composti di grafene, a materiali spintronici, che consentono di effettuare i calcoli basandosi sulla rotazione degli elettroni, piuttosto che dal loro movimento. La ricerca è molto attiva, ma anche in questo campo non ci sono applicazioni note al di fuori della ricerca. Un’altra possibilità è infine quella di modificare l’architettura dei chip, sfruttando la terza dimensione e impilando strati di microprocessori. In linea di principio, questo dovrebbe permettere di impacchettare più potenza computazionale nella stessa area. In pratica, tuttavia, questo attualmente funziona solo con chip di memoria, che usando circuiti che consumano energia solo quando si accede ad una cella di memoria, scaldano molto meno (esempio il progetto Hybrid Memory Cube, di Samsung e Micron Technology). Poiché almeno il 50% del totale del calore è attualmente generato dal flusso degli elettroni avanti e indietro tra le memorie e i microprocessori, una soluzione potrebbe essere quella di integrare le due tipologie di chip impilandole nella stessa scala nanometrica tridimensionale. Questo è difficile, anche perché i microprocessori attuali e i chip di memoria sono così diversi che non possono essere fatti sulla stessa linea di produzione. A Stanford hanno però sviluppato un’architettura ibrida che è molto promettente e che impila unità di memoria insieme a transistor a base di nanotubi di carbonio, che trasportano anche la corrente da strato a strato. A Berkeley, stanno invece lavorando sulle metodologie per ridurre i costi di progettazione dei nuovi chip: invece di partire da zero ogni volta, pensano che si dovrebbe creare i nuovi dispositivi, combinando grosse parti di circuiti esistenti già ottimizzati. È un po’ come con i mattoncini Lego: la sfida è fare in modo che i blocchi lavorino correttamente insieme, ma se si sceglie di usare i vecchi metodi di progettazione, i costi ed i tempi diventerebbero presto proibitivi. Come vediamo, la legge di Moore sta volgendo al termine in senso letterale, perché la crescita esponenziale del numero di transistor non può continuare, ma dal punto di vista del consumatore, la legge di Moore afferma semplicemente che il valore-utente raddoppia ogni due anni. E in questa forma, la legge continuerà finché l’industria sarà in grado di riempire i suoi dispositivi con nuove funzionalità. Le idee sono là fuori e le attività per ingegnerizzarle sono frementi, così come la ricerca a supporto…

 

Industry 4.0: la produzione diventa lean

Published by:

Oggi, nella maggior parte dei casi, il controllo della conformità dei pezzi avviene dopo lo stampaggio, quando lo scarto è già stato generato. La soluzione ideale, invece, è quella di agire a monte, implementando una procedura di qualificazione del processo per ogni singolo stampo, al fine di determinarne la precisione e la ripetibilità già dal collaudo. Perché un tale procedimento possa essere messo in atto è necessario definire chiaramente i parametri di processo critici, anche da gestire in fase di stampaggio, ed effettuare il controllo di processo con l’ausilio di strumenti di monitoraggio adeguati, per esempio l’andamento della pressione della cavità dello stampo e le curve grafiche di riferimento della pressa, ottenibili dalle unità di controllo avanzate. La parola chiave dell’industria del futuro, diventa quindi “digitalizzazione”.

Produzione “zero difetti”
Nello stampaggio a iniezione il potenziale dell’industria digitale è particolarmente evidente nella produzione di pezzi di grande complessità e in piccoli lotti, ma anche nei casi in cui è necessario effettuare cambi versione in modo rapido ed efficiente. Esigenze che, nella Filiera “Zero difetti” a Mecspe 2017 di Parma erano soddisfatte da una pressa Arburg, accessoriata in modo specifico, e dalle funzionalità del suo sistema di gestione ALS. Il progetto è stato sviluppato seguendo una logica improntata alla lean production, un concetto ancora relativamente poco applicato nel settore delle materie plastiche, al quale, invece, potrebbe portare enormi vantaggi nell’ottimizzazione dei tempi di produzione e nel controllo di processo, soprattutto nell’ottica di ottenere un manufatto privo di difetti.

Controllo a tuttotondo
Controllo di processo, nell’Industria 4.0, significa anche disporre di un sistema per la diagnosi precoce della deriva dei parametri di qualità, ma anche per la loro correzione in base a valori predefiniti, al fine di evitare che venga raggiunto il fuori tolleranza. Qualora le variazioni di tali parametri non siano correggibili in modo precoce, il sistema deve identificare i pezzi non conformi e quindi separarli per mezzo di robot o selettori di scarti. In un simile contesto, la macchina a iniezione diventa il fulcro dell’intero processo di stampaggio, perché attraverso l’unità di controllo, si interfaccia con le periferiche, le apparecchiature ausiliarie e lo stampo, permettendo sia il monitoraggio delle prestazioni della pressa stessa, sia il controllo di qualità in tempo reale. Controllo che avviene online, senza l’intervento dell’operatore.

Tracciabilità per ogni pezzo
Oltre alla visibilità e al controllo in tempo reale dei processi, un altro aspetto importante dell’operatività Industry 4.0 è la condivisione delle informazioni, realizzabile, per esempio, attraverso la codifica del pezzo con QR code, codice a barre o altro. Il sistema ALS della pressa rileva e memorizza i parametri di ogni stampata, oltre ad ogni altro parametro operativo delle attrezzature interfacciate, e ne permette la tracciabilità nel tempo, abbinando anche i parametri del pezzo alla confezione.

Tutto con lo smarphone
A Mecspe, nella Filiera “Zero difetti” ai visitatori veniva illustrato il processo di stampaggio a iniezione di un componente per il settore automobilistico destinato alla protezione dall’alta tensione: un pezzo tecnico di grande precisione e con caratteristiche critiche. Il manufatto veniva prodotto in una linea dove tutte le attrezzature – pressa a iniezione, ausiliari, periferiche, robot e marcatura laser – erano interfacciate tra loro. Il pezzo stampato, all’uscita della pressa veniva inviato a una stazione di marcatura laser per l’impressione di un QR code, che permetterà di risalire – mediante smartphone – ai parametri di processo di ogni pezzo specifico.