Tag Archives: Industria 4.0

Vocabolario 4.0

Published by:

Sui media il termine Industria 4.0 è ormai quasi abusato, citato, più o meno a proposito, da politici e giornalisti, industriali e sindacalisti: è il destino delle sigle o slogan di successo (ricordate TPM, six sigma,…?) … tutti ne parlano, ma quanti le conoscono realmente, magari per averla studiata o per esperienza diretta? Per fortuna il sito ideato e prodotto da Class Editori quattropuntozero.info, sicuramente uno strumento di riferimento per entrare nel clima Industria 4.o, ha ben pensato di curare un utilissimo vocabolario 4.0 che raccoglie i termini che vengono citati nella nuova metodologia. Partiamo quindi dal termine che identifica il nuovo modello industriale.

Industria 4.0

Identifica un’iniziativa dell’industria dell’ automazione tedesca avviata nel 2011 con l’obiettivo di definire una strada maestra per lo sviluppo delle aziende manifatturiere nella Internet age. Una naturale evoluzione basata su un nuovo scenario tecnologico in cui esseri umani, macchine e oggetti per la gestione intelligente dei sistemi sono e saranno sempre più collegati in tempo reale.

Additive Manufacturing

Una serie di processi di fabbricazione additiva che consentono di realizzare oggetti tridimensionali a partire da un modello digitale, depositando progressivamente materiale strato su strato. Si contrappone alle tradizionali tecniche di produzione sottrattiva e rappresenta una vera e propria integrazione tra mondo reale e mondo virtuale.

Augmented Reality

Insieme di fenomeni di arricchimento della percezione sensoriale umana spesso prodotti attraverso elettronica e tecnologie digitali. La persona coinvolta resta a contatto con la realtà fisica, che viene però integrata con informazioni e input aggiuntivi.

Big Data and Smart Data

Una raccolta incredibilmente estesa in termini di volume, velocità e varietà, che comprende dati strutturati e non, la cui estrazione richiede metodi analitici e tecnologie sempre più sofisticate. La sfida attuale consiste nel trasformare i big data in smart data: informazioni intelligenti, nuove e utili, che diano vantaggio competitivo e siano perfettamente fruibili per il cliente.

Cloud Computing and Data Analytics

Insieme delle tecnologie che permettono di elaborare, archiviare e memorizzare dati grazie all’utilizzo di risorse hardware e software distribuite nella rete. Attraverso il loro utilizzo si ottiene una riduzione di costi oltre che un miglioramento dei servizi associati al prodotto.

Cyber Physical System

L’industria 4.0 è la teorizzazione di un paradigma manifatturiero basato sul concetto di Cyber Physical System (CPS), ovvero sistemi informatici in grado di interagire con i sistemi fisici in cui operano; tali sistemi sono dotati di capacità computazionale, di comunicazione e di controllo.

Cyber Security

Insieme di tecnologie, processi e pratiche aventi lo scopo di proteggere gli asset informatici da possibili attacchi esterni o interni che potrebbero provocare danni diretti o indiretti di notevole impatto.

Digital Enterprise

Un’azienda nella quale l’IT assume un ruolo determinante nella definizione della propria strategia di business. Tutti i processi di creazione del valore, fino anche al coinvolgimento dei fornitori, sono rappresentati e gestiti in modo digitale e strettamente interconnessi.

Digitalizzazione

Indica l’utilizzo delle tecnologie digitali per modificare un modello di business e fornire all’impresa opportunità in termini di creazione di valore. In sostanza riassume il processo di transizione verso un business digitale.

IoT e Industrial Internet

Internet connette anche le “cose”. Dispositivi e macchine si rendono riconoscibili e acquisiscono intelligenza tanto da poter trasferire in rete dati su se stessi e accedere ad informazioni aggregate da altri. Nella comunicazione, raccogliendo quanto a loro necessario e fornendo quanto disponibile, guadagnano così la possibilità di svolgere alcune attività in modo autonomo.

Meccatronica

Meccanica connessa all’elettronica, uguale meccatronica. In particolar modo rappresenta l’integrazione stretta tra meccanica, elettronica e informatica e dunque l’impiego di sistemi elettronici per controllare il movimento di organi meccanici. Rientrano in questa categoria gli attuatori (regolatori, convertitori e trasformatori di energia) i sensori ed i dispositivi di controllo o regolatori.

Motion Control

È l’insieme delle tecnologie e dei dispositivi che guidano gli strumenti meccanici in movimento, un fattore chiave che influisce sulle prestazioni della macchina. Le soluzioni tecnologiche del motion control permettono di realizzare macchine in cui il coordinamento tra gli organi in movimento è ottenuto tramite sistemi elettronici, anziché tramite i tradizionali sistemi meccanici di distribuzione del moto (ad esempio cinghie o ruote dentate).

Personalizzazione

Le tecnologie IoT renderanno disponibili in tempo reale una grande mole di informazioni sui clienti, per esempio in merito alle modalità di utilizzo/fruizione di prodotti e servizi, dati biometrici, stili di vita, ecc. Sarà quindi possibile definire i bisogni dei clienti eseguendo un targeting spinto dal mercato.

Predictive maintenance system

Si tratta di un sistema che, grazie all’impiego di un hardware specifico, a sensori e ad algoritmi predittivi e con l’impiego di tecnologie abilitanti in ambito IoT (Big data, Cloud computing, Machine Learning), consente di massimizzare l’efficacia delle attività di manutenzione dei clienti, intervenendo da remoto e riducendo fermi macchina e costi di manutenzione.

Reshoring

Si intende la decisione di riportare nel paese di origine dell’azienda le attività produttive in precedenza delocalizzate all’estero (off-shoring). In tal senso, si considerano sia le produzioni svolte all’interno di stabilimenti di proprietà che quelle affidate a fornitori esterni (out-sourcing).

Simulation

Consente di definire la geometria del prodotto e simularne il comportamento nei più svariati modi, senza bisogno di costruire e utilizzare prototipi fisici. Attraverso la realizzazione dei digital twin, o copie digitali, del prodotto un’ampia gamma di varianti possono essere confrontate, testate e valutate. Tutto in modo virtuale.

Time to Market

E’ il tempo necessario per introdurre sul mercato un nuovo prodotto. È un termine molto utilizzato nell’industria 4.0. Infatti, per via della possibilità sempre più avanzata della prototipazione digitale e reale (tramite la stampa 3D) il tempo necessario, dalla sua idea iniziale al momento in cui viene commercializzato, si riduce.

Wearable Technologies

Sono dispositivi e sensori indossabili. Costituiscono un esempio di IoT dal momento che sfanno parte di oggetti fisici (come orologi e braccialetti smart) o “cose” integrati con elettronica, software, sensori e connettività per consentire agli oggetti di raccogliere e scambiare quantità di dati con un produttore, un operatore o altri dispositivi collegati senza richiedere l’intervento umano.

I professionisti dei Big Data

Published by:

Se è già scritto che Big Data «guideranno l’economia nei prossimi anni»: se questo avverrà, le aziende avranno bisogno di sviluppare delle risorse umane in grado di gestire questi Big Data, che in sintesi sono una collezione di dati informatici così estesa da richiedere tecnologie apposite per la propria elaborazione. In effetti, non che sia facile destreggiarsi tra estrazione e interpretazione dei numeri, soprattutto se si è sprovvisti della materia più preziosa: il capitale umano. Circa il 98% delle aziende intervistate (secondo un’indagine del gruppo Adecco e dell’Università Milano-Bicocca) sostiene infatti che i candidati siano assenti o «difficili da reperire» nel mercato italiano, nonostante una ricerca affidata per lo più ad agenzie di risorse umane e università. Tra i ruoli giudicati più interessanti nell’immediato spiccano Big Data analytics specialist (63,64%), data content&communication specialist (38,64%), Big Data architect (32,95%), data scientist (29,5%) e social mining specialist (13,6%). Tutte figure che costituiscono la filiera dello studio delle informazioni online, con profili più orientati all’analisi (analytics specialist) o all’approfondimento dei contenuti (content&communication specialist).

Qualcuno, però, obietta che il gap andrebbe letto da una posizione opposta a quella suggerita dalle imprese: i candidati non mancano, sono le aziende a offrire condizioni retributive e contrattuali poco competitive. Su scala internazionale, secondo una stima del portale DataJobs (inserire link: datajobs.com/big-data-salary), la retribuzione d’ingresso può oscillare tra i 50-75mila dollari. Un po’ difficile immaginare medie simili in Italia, Paese che “vanta” alcune delle retribuzioni più basse d’Europa nel settore dell’Ict.
Ciralli non ne è convinto: almeno nell’oasi dei Big Data, stipendi e prospettive di carriera possono fare gola a talenti qualificati. «Le aziende non sono poco attrattive e non è una questione retributiva, ma di formazione – dice In Italia, da una parte c’è bisogno di maggiore orientamento ai giovani per indirizzarli verso i percorsi più virtuosi finalizzati all’occupabilità e dall’altra ad incentivare la collaborazione tra impresa e scuola».

Industria 4.0 e Big Data: 4 aziende italiane su 10 non sanno che cosa siano

Published by:

I Big Data «guideranno l’economia nei prossimi anni». Sempre che si sappia di cosa si sta parlando: secondo un’indagine del gruppo Adecco e dell’Università Milano-Bicocca, il 40% delle aziende italiane italiane non conosce il concetto e appena il 12% fa uso dei “grandi dati” a fini commerciali, mentre il 48% ammette di averne una padronanza solo parziale. Il campione è composto da circa 350 referenti aziendali ed è stato attinto tra società di varie dimensioni e settore di provenienza, con predominio di industria metalmeccanica-elettronica (41,02%) e commercio e servizi (26,29%). Le Pmi rappresentano quasi la metà dell’indagine (47,14%), ma il ritardo sul fenomeno non sembra essere una loro esclusiva: circa un intervistato su tre (35,03%) proviene da industrie di grandi dimensioni, in teoria più inclini all’aggiornamento digitale rispetto alle imprese di dimensione micro, piccola o media.

grafico_bigdata-01

A che punto sono le aziende e dove servono di più i Big Data
I Big Data sono, semplificando, una collezione di dati informatici così estesa (“grandi dati”) da richiedere tecnologie apposite per la propria elaborazione. La loro analisi può fruttare vantaggi competitivi alle aziende perché fornisce informazioni monetizzabili in fase di vendita, ad esempio sulle abitudini o i gusti dei clienti. Un valore aggiunto fondamentale nell’era dell’economia online, come testimonia anche il fatto che la quasi totalità delle aziende (circa il 97%) li consideri una «opportunità» e non un rischio per la propria impresa. Da qui a fare investimenti effettivi, però, il passo è lungo: solo il 20% ha già avviato progetti in materia e un 10% dichiara di avere «intenzione di farlo», contro una quota del 32,43% che ammette di non avere nessuna azione in corsa e un ulteriore 37,16% che non manifesta alcun interesse. «Un dato allarmante se paragonato al 12% di chi conosce i Big Data, in particolare pensando al tema della competitività delle nostre imprese in ottica futura », dice al Sole 24 Manlio Ciralli, capo del brand e dell’innovazione del Gruppo Adecco in Italia .

Va detto, però, che il deficit italiano non è isolato. L’Unione europea rincorre i macro-investimenti già messi in campo da Usa e Asia, dove l’analisi dei “grandi dati” è un patrimonio che va dai colossi della Gdo come Walmart alle startup innovative. «Non è solo l’Italia che deve accelerare il passo, ma l’Europa in generale, per esempio Paesi come Francia e Spagna. Stati Uniti e i Paesi asiatici sono molto più avanti – fa notare Ciralli – Si stima che il volume di dati immagazzinati su scala mondiale crescerà del 40% all’anno fino al 2020».  Dove possono essere più proficui? All’interno dell’azienda, i settori più beneficiati dai Big Data si rivelano il commerciale (64,8%) e il marketing (62,4%), seguiti da It (35,2%), comunicazione (33,6%), finanza e produzione (29,6%).

Tratto da Il Sole 24 Ore, articolo di Alberto Magnani. 25/11/2016

Sfida alla legge di Moore sui circuiti integrati

Published by:

La legge di Moore, che ha alimentato la rivoluzione informatica e tecnologica sin dagli anni ‘60, è stata puntualmente rispettata fino ad ora, ma è inevitabilmente destinata a terminare. Il calore e il raggiungimento di dimensioni ormai di scala atomica, alla fine hanno stanno ponendo un freno alle prestazioni dei processori. È la fine della più grande era dello sviluppo tecnologico, o si profila invece all’orizzonte qualcosa di nuovo?

Nel 1965 Gordon Moore, cofondatore della Fairchild Semiconductor e di Intel, scrisse un saggio diventato poi famosissimo, nel quale – oltre a predire meraviglie come i personal computer, orologi da polso digitali, macchine automatiche e “attrezzature personali di comunicazione portatile” (ovvero i telefoni cellulari) – provò a dare anche un riferimento temporale a questa sua visione, osservando che la capacità computazionale dei microprocessori raddoppiava ogni due anni o giù di lì (la famosa “legge di Moore”). Tale principio empirico, che ha alimentato la rivoluzione informatica e tecnologia dagli anni ‘60, è stato puntualmente rispettato fino ad oggi, ma è inevitabilmente destinato a terminare.

La legge di Moore

In realtà non si tratta di una legge “fisica” ma di un paradigma che l’industria dei semiconduttori ha deliberatamente scelto di perseguire: ad ogni fase, gli sviluppatori di software producevano applicazioni che mettevano a dura prova le capacità dei chip esistenti; i consumatori richiedevano così maggiori prestazioni ed i produttori si precipitavano a rispondere a tale domanda con i chip di nuova generazione. Seguire questo sviluppo esponenziale è stato (ed è) estremamente costoso: ad ogni salto generazionale erano necessari investimenti in macchinari sempre più sofisticati e costosi ed i cicli di produzione diventarono sempre più numerosi e complessi, tanto da richiedere, a partire dal 1991, la pubblicazione di una road map biennale (International Technology Roadmap for Semiconductors), per coordinare ciò che le centinaia di produttori e fornitori dovevano fare per rimanere al passo con la legge. Tuttavia, l’enorme versatilità dei chip faceva sì che i produttori potessero concentrarsi sullo sviluppo di soli due tipi di prodotti: processori e memorie, che potevano quindi essere prodotti e venduti i enormi quantità, generando incassi tali da sostenere i costi di sviluppo e nel contempo abbassare anche i prezzi di vendita, alimentando maggiormente la domanda. Ciò ha convertito la legge di Moore in una profezia auto-avverante: i nuovi chip hanno seguito la legge perché l’industria ha fatto in modo che lo facessero. Tutto ha funzionato perfettamente, finché alcuni limiti non sono venuti fuori in tutta la loro complessità.

I limiti insiti nella “profezia” della legge di Moore

Il primo, fu evidente fin già dal 1989: la miniaturizzazione sempre più spinta (i microprocessori top-of-the-line attualmente hanno dimensioni circuitali intorno a 14 nanometri, più piccoli rispetto alla maggior parte dei virus; si calcola che il limite “fisico” possa essere di 2-3 nanometri, cioè circa 10 atomi di diametro, oltre il quale gli effetti quantistici diventano predominanti) portava ad avere temperature sempre più elevate, tanto che a partire dal 2004 ci fu uno stop alla frequenza di clock dei microprocessori. Per mantenere fede alla legge di Moore si cominciarono a costruire chip con più processori (o core) che, funzionando in parallelo, aggiravano parzialmente il problema. Infatti dividendo un algoritmo in parti uguali e facendolo eseguire dai processori in parallelo si supera l’ostacolo, ma ciò è spesso impossibile. Il secondo limite, fu più una sorpresa: l’avvento degli smartphone, dei tablet, dei dispositivi indossabili, dell’Internet of Things e prossimamente dello Swarm Sensing ha cambiato radicalmente le regole del gioco. Fino a una ventina di anni fa, non c’era sostanzialmente molta differenza tra le priorità e i modi di funzionare di un PC o di un super computer: i chip erano gli stessi (cambiava solo il numero). I nuovi microprocessori hanno oggi invece priorità molto differenti dai loro “cugini più sedentari”. I chip di uno smartphone tipico devono inviare e ricevere segnali per le chiamate vocali, Wi-Fi, Bluetooth, GPS, ma anche di rilevamento tattile, di prossimità, accelerazione, campi magnetici, impronte digitali… Oltre a questo, il dispositivo deve ospitare circuiti per usi speciali per la gestione dell’alimentazione, per mantenere tutte queste funzioni attive senza che si scarichi la batteria troppo rapidamente. Il problema per i produttori di chip è che questa specializzazione mina il ciclo economico di autosostentamento della legge di Moore. Il vecchio mercato richiedeva quantità enormi di prodotti che facessero solo un paio di cose, il nuovo mercato richiede poche centinaia di migliaia di prodotti che devono fare un sacco di cose. La fine della legge di Moore non è quindi solo un problema tecnico, si tratta anche di una questione economica. La sfida è quindi molto complessa.

Il crepuscolo della legge di Moore: quale futuro?

Tutti sono d’accordo che il crepuscolo della legge di Moore non significherà la fine del progresso. Un Boeing 787 non è più veloce di un 707 fatto nel 1950 – ma sono aeroplani molto diversi, con le innovazioni che vanno dai controlli completamente elettronici, ad una fusoliera in fibra di carbonio. Questo è ciò che accadrà con i computer: l’innovazione continuerà, ma sarà più sfumata e complicata. Anzitutto, anziché progettare i chip e poi realizzare le applicazioni, si dovrà iniziare dalle applicazioni stesse e poi lavorare verso il basso per vedere che chip sono necessari per sostenerle. Tra questi chip ci saranno ovviamente anche nuove generazioni di sensori, circuiti di gestione dell’alimentazione e altri dispositivi in silicio, richiesti da un mondo in cui computing è sempre più mobile. La questione ora è che cosa accadrà nei primi anni 2020, quando la miniaturizzazione non sarà più possibile con il silicio perché gli effetti quantistici entreranno in gioco. Una possibilità è quella di abbracciare dei paradigmi completamente nuovi, come l’informatica quantistica (che promette velocità esponenzialmente elevate per alcune tipologie computazionali), o il calcolo neuromorfico, che mira a modellare elementi di elaborazione sui neuroni nel cervello. Ma nessuno di questi paradigmi alternativi ha avuto ancora applicazioni al di fuori del laboratorio. Un approccio diverso è la ricerca di un materiale semiconduttore in sostituzione del silicio, in grado di generare molto meno calore. Ci sono molti candidati, che vanno da composti di grafene, a materiali spintronici, che consentono di effettuare i calcoli basandosi sulla rotazione degli elettroni, piuttosto che dal loro movimento. La ricerca è molto attiva, ma anche in questo campo non ci sono applicazioni note al di fuori della ricerca. Un’altra possibilità è infine quella di modificare l’architettura dei chip, sfruttando la terza dimensione e impilando strati di microprocessori. In linea di principio, questo dovrebbe permettere di impacchettare più potenza computazionale nella stessa area. In pratica, tuttavia, questo attualmente funziona solo con chip di memoria, che usando circuiti che consumano energia solo quando si accede ad una cella di memoria, scaldano molto meno (esempio il progetto Hybrid Memory Cube, di Samsung e Micron Technology). Poiché almeno il 50% del totale del calore è attualmente generato dal flusso degli elettroni avanti e indietro tra le memorie e i microprocessori, una soluzione potrebbe essere quella di integrare le due tipologie di chip impilandole nella stessa scala nanometrica tridimensionale. Questo è difficile, anche perché i microprocessori attuali e i chip di memoria sono così diversi che non possono essere fatti sulla stessa linea di produzione. A Stanford hanno però sviluppato un’architettura ibrida che è molto promettente e che impila unità di memoria insieme a transistor a base di nanotubi di carbonio, che trasportano anche la corrente da strato a strato. A Berkeley, stanno invece lavorando sulle metodologie per ridurre i costi di progettazione dei nuovi chip: invece di partire da zero ogni volta, pensano che si dovrebbe creare i nuovi dispositivi, combinando grosse parti di circuiti esistenti già ottimizzati. È un po’ come con i mattoncini Lego: la sfida è fare in modo che i blocchi lavorino correttamente insieme, ma se si sceglie di usare i vecchi metodi di progettazione, i costi ed i tempi diventerebbero presto proibitivi. Come vediamo, la legge di Moore sta volgendo al termine in senso letterale, perché la crescita esponenziale del numero di transistor non può continuare, ma dal punto di vista del consumatore, la legge di Moore afferma semplicemente che il valore-utente raddoppia ogni due anni. E in questa forma, la legge continuerà finché l’industria sarà in grado di riempire i suoi dispositivi con nuove funzionalità. Le idee sono là fuori e le attività per ingegnerizzarle sono frementi, così come la ricerca a supporto…

 

Industry 4.0: Il futuro della manifattura

Published by:

Per la prima volta dall’inizio dell’era industriale, la vera fonte di valore non sono i prodotti in sé quanto i dati, considerati oggi il petrolio dell’era digitale. Resta da vedere se i cambiamenti positivi bilanceranno quelli negativi. L’Ue ha presentato in aprile un action plan

Per la prima volta dall’inizio dell’era industriale, la vera fonte di valore non sono i prodotti in sé quanto i dati, considerati oggi il petrolio dell’era digitale. È quanto prospetta la cosiddetta quarta rivoluzione industriale, o Industry 4.0, il concetto coniato durante la Fiera di Hannover del 2011.

Nel gennaio 2016 il presidente del World Economic Forum di Davos, Klaus Schwab, afferma: “L’ondata di innovazione attuale non ha precedenti nella storia. Comparata con le passate, l’odierna rivoluzione industriale sta evolvendo in maniera esponenziale piuttosto che seguire un andamento lineare”.

A guidare il cambiamento sono diverse tecnologie: sensori tecnologici in grado di collegare ogni oggetto al mondo digitale, intelligenza artificiale, internet mobile 5G, analisi dei big data, cloud computing, realtà aumentata e stampa in 3D.

Questa rivoluzione potrebbe, però, non avere lo stesso impatto sui diversi settori economici ed è da vedere se i cambiamenti positivi bilanceranno i negativi. Secondo un rapporto dello staff di ricerca del Parlamento Europeo, la digitalizzazione ha la potenzialità di invertire l’attuale processo di de-industrializzazione europea aiutando il settore manifatturiero ad assicurare il target del 20% del pil Ue.

Dal punto di vista tecnico la digitalizzazione è in grado di ottimizzare l’intera catena del valore, risparmiando su capitale, energia e lavoro a bassa qualifica. Le catene del valore integrato, secondo lo studio del parlamento, possono velocizzare il processo di manifattura del 70% in termini di tempi di consegna dei prodotti al mercato e garantire aumenti di produttività in diversi settori. Per le imprese, però, l’innovazione rappresenta un investimento rilevante, non sempre sostenibile per piccole e medie imprese, quantificato in 140 miliardi.

Inoltre la diffusione della robotica avanzata potrebbe assecondare lo schiacciamento della classe media se nuovi lavori non saranno creati in settori dove il capitale umano è essenziale, come nella cura alla persona. Lo stesso Klaus Schwab a Davos ha affermato “L’ineguaglianza rappresenta una delle grandi preoccupazioni associate alla quarta rivoluzione industriale” sottolineando come la tecnologia sia stata una delle cause maggiori della stagnazione dei salari nei paesi sviluppati.

La strategia europea

Secondo il Commissario Ue per l’innovazione, Carlos Moedas, i paesi europei di tradizione manifatturiera “non si stanno integrando con il mondo del digitale”. L’esecutivo europeo menziona anche la mancanza di un mercato unico digitale e il basso investimento in ricerca. Per affrontare questi cambiamenti la Commissione Europea ha presentato il 19 aprile un action plan su standardizzazione del mercato digitale europeo e cloud computing, oltre ad una serie di finanziamenti per aiutare le imprese a massimizzare la creazione del valore.

Sebbene Germania, Francia, Olanda e Regno Unito abbiano già presentato i loro piani di digitalizzazione industriale, la competizione globale resta alta di fronte alle posizioni quasi monopoliste di imprese come Google e Facebook. Se non governata, l’Internet of Things sarà una cattiva notizia per l’Europa perché sono soprattutto imprese americane come Amazon, Google, Apple e Facebook ad essere capaci di usare i dati per la creazione di veicoli automatici e prodotti costumizzati.

Ma anche L’Asia si sta preparando. Se il Giappone è il paese maggiormente avanzato su questo fronte, secondo Roland Berger, la Cina punta molto sulla stampa in 3D, cercando di trasformare la sua economia manifatturiera.

ClassEuractiv.it

Industry 4.0: la produzione diventa lean

Published by:

Oggi, nella maggior parte dei casi, il controllo della conformità dei pezzi avviene dopo lo stampaggio, quando lo scarto è già stato generato. La soluzione ideale, invece, è quella di agire a monte, implementando una procedura di qualificazione del processo per ogni singolo stampo, al fine di determinarne la precisione e la ripetibilità già dal collaudo. Perché un tale procedimento possa essere messo in atto è necessario definire chiaramente i parametri di processo critici, anche da gestire in fase di stampaggio, ed effettuare il controllo di processo con l’ausilio di strumenti di monitoraggio adeguati, per esempio l’andamento della pressione della cavità dello stampo e le curve grafiche di riferimento della pressa, ottenibili dalle unità di controllo avanzate. La parola chiave dell’industria del futuro, diventa quindi “digitalizzazione”.

Produzione “zero difetti”
Nello stampaggio a iniezione il potenziale dell’industria digitale è particolarmente evidente nella produzione di pezzi di grande complessità e in piccoli lotti, ma anche nei casi in cui è necessario effettuare cambi versione in modo rapido ed efficiente. Esigenze che, nella Filiera “Zero difetti” a Mecspe 2017 di Parma erano soddisfatte da una pressa Arburg, accessoriata in modo specifico, e dalle funzionalità del suo sistema di gestione ALS. Il progetto è stato sviluppato seguendo una logica improntata alla lean production, un concetto ancora relativamente poco applicato nel settore delle materie plastiche, al quale, invece, potrebbe portare enormi vantaggi nell’ottimizzazione dei tempi di produzione e nel controllo di processo, soprattutto nell’ottica di ottenere un manufatto privo di difetti.

Controllo a tuttotondo
Controllo di processo, nell’Industria 4.0, significa anche disporre di un sistema per la diagnosi precoce della deriva dei parametri di qualità, ma anche per la loro correzione in base a valori predefiniti, al fine di evitare che venga raggiunto il fuori tolleranza. Qualora le variazioni di tali parametri non siano correggibili in modo precoce, il sistema deve identificare i pezzi non conformi e quindi separarli per mezzo di robot o selettori di scarti. In un simile contesto, la macchina a iniezione diventa il fulcro dell’intero processo di stampaggio, perché attraverso l’unità di controllo, si interfaccia con le periferiche, le apparecchiature ausiliarie e lo stampo, permettendo sia il monitoraggio delle prestazioni della pressa stessa, sia il controllo di qualità in tempo reale. Controllo che avviene online, senza l’intervento dell’operatore.

Tracciabilità per ogni pezzo
Oltre alla visibilità e al controllo in tempo reale dei processi, un altro aspetto importante dell’operatività Industry 4.0 è la condivisione delle informazioni, realizzabile, per esempio, attraverso la codifica del pezzo con QR code, codice a barre o altro. Il sistema ALS della pressa rileva e memorizza i parametri di ogni stampata, oltre ad ogni altro parametro operativo delle attrezzature interfacciate, e ne permette la tracciabilità nel tempo, abbinando anche i parametri del pezzo alla confezione.

Tutto con lo smarphone
A Mecspe, nella Filiera “Zero difetti” ai visitatori veniva illustrato il processo di stampaggio a iniezione di un componente per il settore automobilistico destinato alla protezione dall’alta tensione: un pezzo tecnico di grande precisione e con caratteristiche critiche. Il manufatto veniva prodotto in una linea dove tutte le attrezzature – pressa a iniezione, ausiliari, periferiche, robot e marcatura laser – erano interfacciate tra loro. Il pezzo stampato, all’uscita della pressa veniva inviato a una stazione di marcatura laser per l’impressione di un QR code, che permetterà di risalire – mediante smartphone – ai parametri di processo di ogni pezzo specifico.

Big Data, tra potenziale economico e privacy

Published by:

di Frédéric Simon | EurActiv.com, traduzione di Barbara Pianese

Per molti a Bruxelles la rivoluzione dei dati è stata un brusco risveglio, a causa delle intercettazioni su larga scala dell’intelligence degli Stati Uniti. Se i politici europei ne apprezzano il potenziale economico, i timori sulla privacy restano

I politici di tutta Europa tendono a guardare con sospetto alla grande rivoluzione dei dati, considerandola un processo prettamente americano importato con rilievi importanti in tema privacy. E non hanno tutti i torti come si è visto quando è stato scoperto che i servizi segreti americani hanno carpito informazioni dai server delle aziende internet inducendo le autorità di regolamentazione dell’Ue a rafforzare le leggi sulla privacy e a chiedere un nuovo accordo per sorvegliare il trasferimento dei dati con gli Stati Uniti.

Le cose, però, sono mutate molto da allora, con i politici europei grandi promotori dei ” big data”, considerati motore di crescita economica e strumento di supporto in alcuni settori di policy.

Un settore chiave è la lotta al terrorismo. L’interesse per l’analisi dei dati è cresciuta in modo significativo dopo gli attentati di Parigi dello scorso anno assieme alle iniziative europee per monitorare i post sui social media che diffondono messaggi radicali e mirano a reclutare combattenti per gruppi estremisti, in particolare per la guerra in Siria.

Nel frattempo i membri del Parlamento europeo hanno votato una relazione che prospetta accuse penali qualore aziende come Facebook e Twitter non rimuovano i messaggi dei jihadisti dai loro siti web.

Un altro progetto di punta è la creazione di un’unità speciale della Commissione europea dedicata alla lotta contro la propaganda russa, lanciata sulla scia della crisi in Ucraina orientale in seguito all’annessione della Crimea. L’unità di nove persone all’interno del servizio per l’azione esterna della Commissione è stata creata l’anno scorso e si concentra sul controllo della disinformazione su Internet grazie ai dati raccolti da una rete di 400 collaboratori da tutta Europa e dall’Europa orientale in modo particolare.

Ma dare un senso all’enorme quantità di informazioni pubblicate sui social media quotidianamente non può essere demandato solo agli esseri umani. “I social network producono un tale volume di dati impossibile da elaborare per un cervello umano”, spiega Laurentiu Vasiliu, fondatore e ceo di Peracton, una società che fornisce in tempo reale analisi del cosiddetto “sentiment” per gli investitori. “Così abbiamo bisogno di macchine per analizzare ed elaborare tali dati”, ha aggiunto Vasiliu nel corso di un recente evento sul data mining organizzato da EurActiv.com.

Ma il software utilizzato dalla società può essere applicato in qualsiasi altra area, ad esempio per monitorare l’occorrenza di determinate parole o frasi usate dai jihadisti a cui è possibile associare anche la posizioni geograficha dell’autore.

Allo stesso tempo, però, vanno fatte delle osservazioni dal punto di vista della privacy. “Gli utenti di Twitter, Facebook e altri social media hanno bisogno di essere rassicurati che non ci sia un abuso dei loro”, ha spiegato Vasiliu.

I legislatori nel Parlamento europeo, quindi, hanno adottato una riforma della normativa Ue sulla protezione dei dati lo scorso aprile, dopo anni di arduo negoziato.

L’eurodeputato tedesco Jan Philip Albrecht, che ha rappresentato il Parlamento Ue nei negoziati con i 28 stati membri, ha definito l’accordo “storico”, affermando come il nuovo regolamento “permetterà alle persone di riprendere il controllo dei propri dati personali nell’era digitale”.