Category Archives: News

Industria 4.0 e formazione tecnica

Published by:

La rivoluzione in atto portata dalla Industria 4.0 sta cambiando rapidamente, specie nelle imprese più innovative, professioni e competenze: dall’utilizzo di software alla digitalizzazione dei processi, dalla conoscenza e padronanza della nuova strumentazione tecnologica alla capacità di adattarsi ai rinnovati processi aziendali, anche attraverso forme flessibili di organizzazione del lavoro. Non sempre la “formazione” delle risorse umane è in linea con le novità in arrivo e molto spesso gli imprenditori lamentano competenze esclusivamente “teoriche”. In Italia, evidenzia l’Istat, rispetto all’insieme dell’Unione europea, la percentuale delle forze lavoro con competenze digitali elevate è considerevolmente inferiore (il 23% contro il 32%) e tra i 5 maggiori paesi europei il nostro mostra il più basso livello di diffusione delle competenze digitali. In un quadro del genere formazione e apprendimento (possibilmente permanente) rappresentano una scelta obbligata per lavoratori e imprese. Del resto, il 60% delle professioni, secondo gli studi più recenti verranno automatizzate solo in parte, per almeno il 30% e soprattutto se si vuole evitare una perdita di posti di lavoro bisognerà necessariamente innovare: si stima, per esempio, che nell’alta tecnologia, life science e ricerca scientifica ci creeranno nei prossimi anni circa 1 milione di posti. Tra le professioni più richieste ci sono infatti soprattutto analisti e progettisti di software, esperti nei servizi sanitari e sociali, tecnici della gestione finanziaria, esperti nei rapporti con il mercato.

In fondo, un “primo assaggio” dell’impatto delle nuove tecnologie sul mercato del lavoro arriva dalle statistiche Istat sull’andamento dell’occupazione nel settore Ict, un altro indicatore di Industria 4.0: ad esempio, è cresciuta la quota di professioni Ict dirigenziali e tecniche ad elevata qualificazione (ingegneri elettronici e delle comunicazioni, analisti e amministratori di sistema, specialisti di Rete e della sicurezza informatica). Ebbene, il loro peso sul totale dell’occupazione in professioni Ict è salito dal 23% al 30,9%. E fa riflettere, infine, come più della metà degli occupati in professioni Ict risulti impiegata in settori non-Ict. Un altro indizio del peso delle nuove tecnologie (e della direzione che sta prendendo il mercato del lavoro).

A questo proposito è interessante segnalare nuove forme di collaborazione fra Aziende e Scuole: ad ottobre presso la Festo Spa di Assago è stato organizzato un evento rivolto ai Presidi (circa 120) per descrivere i futuri sviluppi di nuovi strumenti formativi grazie all’utilizzo dell’impianto I4.0 messo a punto dalla Festo,  già in uso la facoltà di Ingegneria (nuovo polo di Bovisa).

 

Appuntamento al SIMa – Summit Italiano per la Manutenzione

Published by:

SIMa 2017 Summit Italiano per la Manutenzione

Scalo Intercontinentale di Malpensa – Sheraton Hotel – 11/12 Ottobre

A.I.MAN., Associazione Italiana di Manutenzione, da sempre fulcro e punto di riferimento a livello Nazionale, annuncia la nascita di SIMa, Summit Italiano per la Manutenzione: una due giorni nella quale tutti gli esperti di Manutenzione sul territorio Nazionale potranno trovare spunti di riflessione, novità, aggiornamenti, su tutto quello che è il panorama riguardante il loro lavoro. Location di questa prima Edizione sarà lo Scalo Intercontinentale di Malpensa: luogo nel quale la Manutenzione riveste un ruolo di primaria importanza.

Mercoledì 11 Ottobre: MaintenanceStories 

L’evento, organizzato da TIMGlobal Media in collaborazione con FESTO Consulting, è ormai pienamente riconosciuto sul territorio come una giornata di fondamentale importanza dagli addetti ai lavori. Anche per questa edizione la struttura sarà la consueta: verranno esposti casi di successo in ambito Manutenzione per una platea selezionata e composta esclusivamente da Responsabili di Manutenzione, Direttori di Stabilimento, Responsabili Acquisti e Direttori Tecnici, oltre che da figure affini che lavorano in ambito Manutenzione. Al termine dei lavori i partecipanti avranno la possibilità di visitare luoghi dove la Manutenzione è strategica a Malpensa come il BHS, il Sistema di Smistamento Bagagli, la Centrale di Malpensa di SEA Energia e come in Aeroporto operano in merito al De-icing.

CLICCA QUI PER PROGRAMMA E PRE-REGISTRAZIONE AL MAINTENANCESTORIES

Giovedì 12 ottobre: Maintenance Forum

Nella giornata dedicata al Maintenance Forum, coordinato da A.I.MAN. , Associazioni ed Enti che operano in ambito Manutenzione in Italia terranno i loro convegni annuali, in sessioni parallele. Parteciperanno a questa prima edizione:

Osservatorio sulle Attività di Manutenzione degli AeroportiIscrizioni qui
TeSeM, Osservatorio Tecnologie e Servizi per la Manutenzione – Iscrizioni qui
Man.Tra, Associazione Manutenzione Trasporti – Iscrizioni qui

Industria 4.0: notizie estive

Published by:

Fabbricadigitale – Open innovation campus

Un open innovation campus di provincia, sulle rive del Po, dove non esistono barriere e tutti possono contribuire allo sviluppo di idee innovative all’insegna di una vera contaminazione. E’ lo spazio di Fabbricadigitale, azienda IT specializzata in soluzioni software per il mondo cloud e multimediale, inaugurato nel 2016 a Casalmaggiore (Cremona) e in arrivo anche a Milano.

“All’interno della nostra azienda abbiamo creato un’area di circa 400 metri quadrati aperta a chiunque, con lo scopo di dar vita a momenti di confronto nella direzione dell’open innovation”, ovvero quella “nuova modalità di cambiare i processi innovativi delle aziende, grazie alla quale tutti possono concorrere allo sviluppo delle idee, anche chi sulla carta sembra il meno adatto per farlo”. Fabbricadigitale, ad esempio, sta portando avanti un’idea di startup nata da un boscaiolo della zona, il quale “normalmente non sarebbe stato ascoltato, perché non è laureato alla Bocconi o al Politecnico”, sottolinea Francesco Meneghetti, Ceo dell’azienda Fabbricadigitale, spiegando che l’open innovation “ha anche un ruolo sociale”. Il Ceo annuncia poi l’apertura, per fine settembre, dell’open innovation campus Milano, in zona Darsena, che funzionerà un po’ allo stesso modo.

“Milano è un luogo più sfidante dal quale possiamo portare a a casa grandi risultati”. All’open innovation Campus di Casalmaggiore si accede scaricando una App dedicata, che apre le porte della struttura, senza bisogno delle chiavi, e consente di accendere e spegnere le luci, oppure di scegliere il colore della luce della propria postazione di lavoro. Uno spazio completamente free che organizza momenti di confronto e di formazione, incontri di consulenza e offre un’area di coworking. Tra le attività, “incontriamo gli imprenditori e individuiamo insieme a loro, con il metodo dell’open innovation, gli interventi di innovazione più adatti alle esigenze della loro azienda”.(ANSA).

Marazzi Group – Industria Ceramica

Si racconta che nel 1935 Filippo Marazzi costruì il primo impianto produttivo della sua azienda di Sassuolo usando come struttura due file parallele di pioppi, fondando così quella che sarà definita la “fabbrica di cartone”, per la provvisorietà della sua struttura. Oggi Marazzi è il più noto marchio di piastrelle in ceramica ed è un simbolo del Made in Italy nel settore dell’arredamento e del design.

L’azienda ha sempre investito in nuove tecnologie, a partire dai ‘forni a tunnel’ nei primi anni ’50, arrivando oggi a ideare una chat che facilita l’accesso alle informazioni aziendali, come la disponibilità di magazzino, la merce consegnata giornalmente, lo stato di avanzamento della produzione, i dati dei clienti. Marazzi Bot è una app che permette di inviare in chat richieste attraverso il proprio smartphone e ricevere una risposta rapida e adeguata. In pratica si configura come alternativa alla consultazione di database, Intranet e altri canali aziendali, velocizzando i tempi. Si può dire che Marazzi abbia fatto la storia della ceramica moderna realizzando innovazioni tecnologiche, di processo e di design nel settore delle piastrelle.

Dalla prima collaborazione tra sarti dell’alta moda e la ceramica negli anni ’70 alla Torre Arcobaleno di Milano, Marazzi è intervenuta anche nella metropolitana di Roma. L’azienda è rimasta a conduzione familiare fino al 2013, quando è entrata a far parte Mohawk Industries, principale produttore mondiale nel settore del flooring quotato alla Borsa di New York. (ANSA)

LinUp glasses – occhiali con videocamera

Si chiamano LinUp glasses e sono degli occhiali dotati di una videocamera Hd che ha la possibilità di immagazzinare immagini e filmati e di trasmetterli a distanza. Gli occhiali 4.0 sono prodotti dalla società LinUp, una startup fondata nel 2015 con una compagine sociale composta da tre soci.

La società, grazie alle sue soluzioni innovative, nel giro di un anno ha raddoppiato il portafoglio ordini. I LinUp glasses sono degli occhiali che, attraverso una telecamera, riprendono tutte le operazioni di lavoro che poi vengono inviate e condivise tramite uno smartphone che fa da ponte. In questo modo, chi si trova alle prese con un intervento di manutenzione può ricevere assistenza a distanza, guidato da uno specialista, il quale può verificare in tempo reale se l’operazione sta procedendo correttamente e intervenire con istruzioni vocali o manuali e schemi di progettazione. Si tratta di una tecnologia (Linup Maint) creata con lo scopo di migliorare e semplificare gli interventi di manutenzione che azzera i costi di intervento, riduce i tempi di un guasto e fornisce un supporto in tempo reale a distanza.

Uno dei fondatori di LinUp ha evidenziato che nell’era dell’industria 4.0 le piccole e medie imprese hanno “l’obbligo di ottimizzare il sistema produttivo attraverso la riduzione di tempi e costi. LinUp ha creato un sistema integrato hardware e software che consente di introdurre nelle piccole e medie imprese concetti, metodologie e strumenti di analisi del processo produttivo utilizzati fino ad ora esclusivamente dalle grandi aziende”. In particolare, l’azienda napoletana ha automatizzato le analisi acquisendo i dati da strumenti che vengono indossati dagli operatori stessi senza interferire sulle attività in corso; creato un software che memorizza ed analizza tutte le attività in corso degli operatori negli ambienti produttivi; sviluppato algoritmi per creare una mappa degli sprechi e per visualizzarli in modo semplice ed intuitivo; sviluppato sensori in grado di monitorare e garantire l’ergonomia del posto di lavoro; ridotto al minimo l’intervento del consulente esterno; creato moduli formativi delle risorse dell’azienda per renderle autonome. (ANSA)

Mandelli Sistemi – Centri di lavoro CNC

Una storia lunga 80 anni, focalizzata sull’innovazione, ha trasformato una piccola e media impresa piacentina in una delle principali aziende italiane per la produzione di macchine utensili. E’ la Mandelli Sistemi, fondata nel 1932 da Renato Mandelli, entrata nel gruppo Riello Sistemi nel 2000 e presente nell’Industria 4.0 con “i-Pum@suite4.0”.

“Grazie a questo innovativo pacchetto – spiega il project manager della ditta, Riccardo Daverio – siamo in grado di aiutare le imprese ad ottimizzare l’uso di un centro di lavoro rappresentando un significativo passo in avanti nella direzione della fabbrica intelligente”. Il pacchetto consiste nell’arricchimento della sensoristica di macchina, finalizzata alla raccolta dei dati e alla dotazione di strumenti di trasmissione dati “real time”.

In questo modo è possibile condividerli e monitorarli telemetricamente da remoto. Questi strumenti, oltre a massimizzare l’efficienza del singolo mezzo produttivo, in quanto riducono il tempo di fermo grazie a strategie di manutenzione predittiva (Big Data Analytics) e di realtà aumentata, renderanno possibile una maggiore conoscenza della macchina in modo da utilizzarla in maniera ottimale. Mandelli Sistemi fa parte delle aziende portate che Smau ha raccontato nel suo roadshow e che porterà sul palcoscenico della prossima edizione autunnale a Milano, dal 24 al 26 ottobre. (ANSA)

Polo Meccatronica di Rovereto

Su un’area sconfinata, dove fino a 100 anni fa non c’era altro che campagna, e il primo insediamento produttivo arrivò nel 1925 con il cotonificio Pirelli, sorge il Polo Meccatronica di Rovereto, uno spazio di oltre 17 mila metri quadrati in cui impresa, ricerca e formazione si incontrano e producono innovazione. Voluto dalla Provincia di Trento, il progetto è in continua evoluzione e nel giro di cinque anni ospiterà anche il mondo della scuola portando gli studenti vicino alle imprese. Negli spazi di Polo Meccatronica, quest’anno è nato il più avanzato laboratorio d’Italia per i prototipi meccatronici, ‘Prom Facility’, grazie alla collaborazione tra Provincia di Trento, Trentino Sviluppo, Universtià degli Studi di Trento, Confindustria Trento e Fondazione Bruno Kessler. Frutto di un investimento di circa 6 milioni di euro (principalmente finanziamenti europei), il laboratorio punta a coinvolgere startup e pmi, oltre ai ricercatori, nel processo produttivo del prototipo, in uno spazio aperto e di contaminazione, che si sviluppa su 1.500 metri quadrati ed è pieno di tecnologie all’avanguardia, come stampanti e scanner 3D, macchine al taglio laser e utensili per lavorazioni additive e sottrattive. Un progetto che mira anche “ad avvicinare i ricercatori all’impresa, con la possibilità di creare nuovi posti di lavoro ad alta specializzazione su esigenze direttamente stimolate dalle aziende”, spiega il direttore di Prom Facility, Paolo Gregori. Il prossimo anno è previsto un ampliamento degli spazi produttivi con la costruzione di un edificio di circa 6 mila metri quadrati destinato a laboratori e centri di ricerca, mentre nel 2022 ci sarà spazio anche per la collaborazione tra scuola e impresa. Nel corpo centrale del polo di Meccatronica troveranno spazio le nuove sedi dell’Istituto tecnico tecnologico “G. Marconi” e del Centro di Formazione Professionale “G. Veronesi” di Rovereto, per un totale di circa 1.400 studenti, più docenti, personale tecnico e amministrativo. Le scuole saranno vicine al mondo dell’impresa con laboratori di produzione e isole di apprendimento dedicate, e con strumenti multimediali d’avanguardia. (ANSA)

Tecnest – sw ed applicazioni web, collaborative e smart per l’industria.

Una sera d’estate, nel lontano 1987, quando l’informatica era qualcosa per pochi, quattro ingegneri si presentarono davanti al notaio per dar vita ad un’azienda che avrebbe anticipato il futuro della fabbrica 4.0. Si chiama Tecnest, viene dalla provincia di Udine e realizza soluzioni software per dare ritmo alla fabbrica: consegnare in tempo, ridurre gli sprechi, ottimizzare i processi di produzione e della supply chain.

Tutto ebbe inizio da un’intuizione – spiega il presidente di Tecnest, Fabio Pettarin, socio fondatore insieme a Mario Chientaroli: “nella nostra precedente esperienza in Zanussi ci eravamo accorti che le piccole e medie imprese, quelle che hanno sempre rappresentato l’ossatura economica dell’Italia, non venivano considerate quando si parlava di gestione e controllo della produzione. Abbiamo così deciso di mettere a disposizione delle realtà più piccole del settore manifatturiero l’innovazione e la tecnologia”. Questo progetto ha dato vita ad “uno dei primi software di schedulazione della produzione in Italia” che si è trasformato in un pacchetto completo per tutti i processi di produzione, arrivando di recente al lancio di soluzioni integrate per l’Industry 4.0. Si tratta di nuove applicazioni web, collaborative e smart che consentono di ottimizzare i processi di produzione e di mettere in comunicazione sistemi, macchine e persone.

“L’innovazione chiama innovazione ed è per questo che dopo essere cresciuti per 30 anni, continuiamo ancora a crescere”, afferma Pettarin. Oggi “l’industria 4.0 ha dato un nuovo impulso al settore” perché “non si tratta esclusivamente di fornire un software e accompagnare le aziende verso i loro obiettivi strategici, ma di mettere in campo un progetto dove la componente di know-how fa la differenza”. Partendo da un produttore di sedie, il primo cliente di Tecnest, le sue soluzioni coinvolgono ormai aziende manifatturiere di diversi settori e dimensioni, in tutta Italia e all’estero. Dalla vicentina, Ompar, che produce macchinari per l’industria orafa si passa al trucco hi-tech di Mascara Plus Cosmetics, fino al fashion con l’azienda 2M del gruppo Calzedonia. Inoltre, l’organico di Tecnest si è ampliato raggiungendo i 50 dipendenti, la sede si è ammodernata, trasferendosi a Tavagnacco, dopo aver aperto anche una filiale a Cinisello Balsamo (Milano). (ANSA)

Fomar Stamp CNC

Quarant’anni di innovazione e cambiamenti senza mai trascurare il ruolo dei lavoratori in azienda. E’ questa la filosofia dei due soci della Fomar Stamp, Egidio Martinolini e Clemente Fontana, che hanno realizzato nella loro azienda dei centri di lavoro di ultima generazione guardando alle tecnologie di ultima generazione ed al 4.0.

Fontana nel 1974, all’età di 29 anni ed al termine della scuola serale di disegno, fonda a Mesenzana (Varese) la Fomar Stamp. Dopo alcuni anni vengono inseriti in azienda le prime macchine a impostazione numerica. Oggi tutta la produzione è incentrata su apparecchiature ad alto contenuto tecnologico e digitale. La Fomar Stamp è specializzata nella progettazione e costruzione di stampi (stampi tradizionali – bicomponente e tricomponente) in materie plastiche, gomma, bachelite e leghe leggere per industrie elettriche, elettromeccaniche, automobilistiche, cosmetiche, sanitarie, medicale ed alimentari. La qualità è “l’obbiettivo assoluto – affermano in azienda – a cui mirano le maestranze della Fomar Stamp. Per produrre attrezzature di ottima qualità, accanto all’esperienza e capacità individuali, sono indispensabili macchinari moderni e di precisione, di cui disponiamo”. (ANSA)

ComoNext – Innovation Hub

Un ex cotonificio di fine Ottocento a Lomazzo (Como) diventa la porta d’ingresso per il futuro dell’impresa 4.0 e fucina di idee innovative: 120 aziende mature e startup, 600 impiegati, i knowledge workers, che quotidianamente lavorano sulle tematiche del cambiamento, dell’industria 4.0 e della trasformazione digitale, sono a disposizione delle pmi italiane per lo sviluppo di progetti competitivi. E’ la storia tutta italiana di una riqualificazione territoriale che ha dato vita, lì dove sorgeva un’area industriale, ad un Innovation Hub: ComNext, simbolo di un vero modello di open innovation. “Insieme agli stakeholder del territorio, Camera di Commercio, associazioni di categoria, mondo delle università e dei capitali, abbiamo costruito un patto di sistema, che abbiamo chiamato la next innovation, ovvero un percorso metodico di trasformazione digitale delle imprese in chiave 4.0”, spiega il direttore generale di ComoNext, Stefano Soliano, sottolineando la necessità di un cambiamento di mentalità degli imprenditori verso “una visione digitale dell’impresa”, perché “le pmi italiane hanno un gap culturale ancora da colmare”. Il piano nazionale del governo “è un meccanismo che funziona bene e c’è da sperare che il limite temporale venga esteso, dal momento che è un fortissimo volano”. Nell’Innovation Hub di Lomazzo si lavora per accompagnare le imprese lungo il cammino della quarta rivoluzione industriale, attraverso una consulenza ad hoc costruita in base alle specifiche esigenze di ognuno. In particolare, con il percorso “Innovation Ramp-up”, l’imprenditore viene accompagnato per quattro mezze giornate nel Parco scientifico tecnologico alla scoperta di un “mondo cambiato”, attraverso visite alle imprese innovative, business games e lezioni frontali. Nella fase successiva, gli esperti di ComoNext vanno nella sua azienda per capire i possibili interventi di trasformazione digitale, finché lui diventa pronto per affrontare il cambiamento e realizzare il suo progetto innovativo. Un percorso, sostenuto da Camera di Commercio di Como, Unindustria e Confartigianato Como con un tesoretto di 180 mila euro, che “ha la finalità di creare awareness per far capire che serve cambiare – afferma Soliano -. Noi andiamo nelle aziende e le aiutiamo a identificare le aree che necessitano del cambiamento”. Il direttore annuncia poi un nuovo progetto allo studio che prevede la realizzazione di “un dimostratore di Industria 4.0 all’interno del parco di Lomazzo, per far toccare con mano un esempio di fabbrica 4.0 e offrire un laboratorio di idee”. “Stiamo lavorando con altri poli tecnologici e l’idea è di estenderlo anche al centro-sud Italia. Credo possa rapidamente diventare un progetto di interesse nazionale”. ComoNext è nato nel 2010 su iniziativa della Camera di Commercio di Como, che oggi è il socio principale, seguito dal Comune di Lomazzo, la Fondazione Politecnico di Milano, Unindustria Como e diversi Istituti di credito. (ANSA)

Convegno CICPND MONITORAGGIO DI IMPIANTI INDUSTRIALI E OPERE INFRASTRUTTURALI

Published by:

Segnaliamo il Convegno organizzato dal CICPND, dal titolo MONITORAGGIO DI IMPIANTI INDUSTRIALI E OPERE INFRASTRUTTURALI che si terrà a Rimini Mercoledì 4 ottobre 2017, presso i laboratori ENEA C.R. Casaccia, Santa Maria Galeria, di cui alleghiamo il depliant informativo.
La partecipazione è gratuita per i Soci di CICPND Associazione: la partecipazione al Convegno è riservata ad un numero massimo di 70 partecipanti,  ed è consigliato di porvvedere all’iscrizione entro il 27/09/2017.
RingraziandoVi per l’attenzione, Vi porgiamo cordiali saluti.

CICPND Associazione
Via C. Pisacane, 46
20025 Legnano MI
Tel: +039 0331-545600
Fax: +039 0331-543030
E-mail: info@cicpnd.it
Sito: www.cicpnd.it

Vocabolario 4.0

Published by:

Sui media il termine Industria 4.0 è ormai quasi abusato, citato, più o meno a proposito, da politici e giornalisti, industriali e sindacalisti: è il destino delle sigle o slogan di successo (ricordate TPM, six sigma,…?) … tutti ne parlano, ma quanti le conoscono realmente, magari per averla studiata o per esperienza diretta? Per fortuna il sito ideato e prodotto da Class Editori quattropuntozero.info, sicuramente uno strumento di riferimento per entrare nel clima Industria 4.o, ha ben pensato di curare un utilissimo vocabolario 4.0 che raccoglie i termini che vengono citati nella nuova metodologia. Partiamo quindi dal termine che identifica il nuovo modello industriale.

Industria 4.0

Identifica un’iniziativa dell’industria dell’ automazione tedesca avviata nel 2011 con l’obiettivo di definire una strada maestra per lo sviluppo delle aziende manifatturiere nella Internet age. Una naturale evoluzione basata su un nuovo scenario tecnologico in cui esseri umani, macchine e oggetti per la gestione intelligente dei sistemi sono e saranno sempre più collegati in tempo reale.

Additive Manufacturing

Una serie di processi di fabbricazione additiva che consentono di realizzare oggetti tridimensionali a partire da un modello digitale, depositando progressivamente materiale strato su strato. Si contrappone alle tradizionali tecniche di produzione sottrattiva e rappresenta una vera e propria integrazione tra mondo reale e mondo virtuale.

Augmented Reality

Insieme di fenomeni di arricchimento della percezione sensoriale umana spesso prodotti attraverso elettronica e tecnologie digitali. La persona coinvolta resta a contatto con la realtà fisica, che viene però integrata con informazioni e input aggiuntivi.

Big Data and Smart Data

Una raccolta incredibilmente estesa in termini di volume, velocità e varietà, che comprende dati strutturati e non, la cui estrazione richiede metodi analitici e tecnologie sempre più sofisticate. La sfida attuale consiste nel trasformare i big data in smart data: informazioni intelligenti, nuove e utili, che diano vantaggio competitivo e siano perfettamente fruibili per il cliente.

Cloud Computing and Data Analytics

Insieme delle tecnologie che permettono di elaborare, archiviare e memorizzare dati grazie all’utilizzo di risorse hardware e software distribuite nella rete. Attraverso il loro utilizzo si ottiene una riduzione di costi oltre che un miglioramento dei servizi associati al prodotto.

Cyber Physical System

L’industria 4.0 è la teorizzazione di un paradigma manifatturiero basato sul concetto di Cyber Physical System (CPS), ovvero sistemi informatici in grado di interagire con i sistemi fisici in cui operano; tali sistemi sono dotati di capacità computazionale, di comunicazione e di controllo.

Cyber Security

Insieme di tecnologie, processi e pratiche aventi lo scopo di proteggere gli asset informatici da possibili attacchi esterni o interni che potrebbero provocare danni diretti o indiretti di notevole impatto.

Digital Enterprise

Un’azienda nella quale l’IT assume un ruolo determinante nella definizione della propria strategia di business. Tutti i processi di creazione del valore, fino anche al coinvolgimento dei fornitori, sono rappresentati e gestiti in modo digitale e strettamente interconnessi.

Digitalizzazione

Indica l’utilizzo delle tecnologie digitali per modificare un modello di business e fornire all’impresa opportunità in termini di creazione di valore. In sostanza riassume il processo di transizione verso un business digitale.

IoT e Industrial Internet

Internet connette anche le “cose”. Dispositivi e macchine si rendono riconoscibili e acquisiscono intelligenza tanto da poter trasferire in rete dati su se stessi e accedere ad informazioni aggregate da altri. Nella comunicazione, raccogliendo quanto a loro necessario e fornendo quanto disponibile, guadagnano così la possibilità di svolgere alcune attività in modo autonomo.

Meccatronica

Meccanica connessa all’elettronica, uguale meccatronica. In particolar modo rappresenta l’integrazione stretta tra meccanica, elettronica e informatica e dunque l’impiego di sistemi elettronici per controllare il movimento di organi meccanici. Rientrano in questa categoria gli attuatori (regolatori, convertitori e trasformatori di energia) i sensori ed i dispositivi di controllo o regolatori.

Motion Control

È l’insieme delle tecnologie e dei dispositivi che guidano gli strumenti meccanici in movimento, un fattore chiave che influisce sulle prestazioni della macchina. Le soluzioni tecnologiche del motion control permettono di realizzare macchine in cui il coordinamento tra gli organi in movimento è ottenuto tramite sistemi elettronici, anziché tramite i tradizionali sistemi meccanici di distribuzione del moto (ad esempio cinghie o ruote dentate).

Personalizzazione

Le tecnologie IoT renderanno disponibili in tempo reale una grande mole di informazioni sui clienti, per esempio in merito alle modalità di utilizzo/fruizione di prodotti e servizi, dati biometrici, stili di vita, ecc. Sarà quindi possibile definire i bisogni dei clienti eseguendo un targeting spinto dal mercato.

Predictive maintenance system

Si tratta di un sistema che, grazie all’impiego di un hardware specifico, a sensori e ad algoritmi predittivi e con l’impiego di tecnologie abilitanti in ambito IoT (Big data, Cloud computing, Machine Learning), consente di massimizzare l’efficacia delle attività di manutenzione dei clienti, intervenendo da remoto e riducendo fermi macchina e costi di manutenzione.

Reshoring

Si intende la decisione di riportare nel paese di origine dell’azienda le attività produttive in precedenza delocalizzate all’estero (off-shoring). In tal senso, si considerano sia le produzioni svolte all’interno di stabilimenti di proprietà che quelle affidate a fornitori esterni (out-sourcing).

Simulation

Consente di definire la geometria del prodotto e simularne il comportamento nei più svariati modi, senza bisogno di costruire e utilizzare prototipi fisici. Attraverso la realizzazione dei digital twin, o copie digitali, del prodotto un’ampia gamma di varianti possono essere confrontate, testate e valutate. Tutto in modo virtuale.

Time to Market

E’ il tempo necessario per introdurre sul mercato un nuovo prodotto. È un termine molto utilizzato nell’industria 4.0. Infatti, per via della possibilità sempre più avanzata della prototipazione digitale e reale (tramite la stampa 3D) il tempo necessario, dalla sua idea iniziale al momento in cui viene commercializzato, si riduce.

Wearable Technologies

Sono dispositivi e sensori indossabili. Costituiscono un esempio di IoT dal momento che sfanno parte di oggetti fisici (come orologi e braccialetti smart) o “cose” integrati con elettronica, software, sensori e connettività per consentire agli oggetti di raccogliere e scambiare quantità di dati con un produttore, un operatore o altri dispositivi collegati senza richiedere l’intervento umano.

La fabbrica 4.0 – Uomini e robot: lotta di classe?

Published by:

Nelle moderne fabbriche si adottano soluzioni per migliorare l’efficienza generale e la qualità costruttiva, fin dai primissimi esemplari prodotti, che in genere scontano maggiori problemi di affidabilità a causa del necessario rodaggio di cui hanno bisogno organizzazione e macchinari prima di entrare a regime. La FCA ad esempio lavora con la Samsung per dotare alcuni operai di smartphone e smartwatch, analoghi a quelli in vendita (cambia solo il software), con l’obiettivo di accorciare i tempi, modernizzare l’intero ciclo produttivo e sgravare gli addetti sulle linee da alcuni carichi di lavoro: per mezzo degli smartwatch potranno convalidare un’operazione da remoto o chiedere l’intervento di un capo area senza doversi per forza recare ogni volta al computer del banco di lavoro. Le FCA e Samsung hanno scelto di utilizzare dispositivi in vendita (e non quelli professionali) perché vengono aggiornati più di frequente e sono molto affidabili.

In questo modo la Fiat Chrysler vuole sviluppare il concetto di fabbrica 4.0, ovvero un posto di lavoro ecosostenibile e tecnologico dove sono migliori i livelli di qualità, efficienza e digitalizzazione rispetto alle fabbriche delle tre precedenti rivoluzioni industriali. Il processo di aggiornamento ai nuovi standard ha coinvolto in particolare la fabbrica laziale di Cassino, rinnovata dopo un investimento nell’ordine degli 1,3 miliardi di euro per ospitare la produzione delle Alfa Romeo Giulia e Stelvio, vetture di prestigio che devono sottostare a vincoli molto rigorosi in termini costruttivi. Oggi la fabbrica è una delle più moderne che la FCA controlla nel mondo: qui alcuni operai lavorano indossando un orologio digitale della Samsung, connesso a una rete wi-fi interna, che permette loro di sveltire alcune operazioni diverse rispetto a quelle più consuetudinarie, dove maggiore è il rischio di sbavature: gli smartwatch sono disponibili nei reparti dove si montano optional come ad esempio il climatizzatore a quattro zone, il collegamento per la tv di bordo e alcuni particolari in materiale composito sulla Giulia Quadrifoglio.

Addio alla carta?

L’utilizzo di smartphone e smartwatch è riservato per adesso a pochi settori, in particolare a quelli dove maggiore è la precisione richiesta negli assemblaggi. L’operaio riceve sullo smartwatch la lista delle operazioni da compiere sul veicolo (differenti a seconda dell’allestimento o del mercato) e una volta completate le registra all’interno di un programma apposito, che rappresenta un’evoluzione in chiave moderna dei faldoni cartacei utilizzati fino a pochi anni fa. L’implementazione di telefoni e smartwatch non è stata ancora definita nei reparti verniciatura e lastratura, dove invece la componente umana ha un rilievo minore, complice il grande lavoro svolto dai robot e dai macchinari. I lavori di ammodernamento svolti a Cassino permettono agli operai di mantenere un tempo medio di 1 minuto per stazione di lavoro, contro i 6 della fabbrica Maserati di Grugliasco. Oggi FCA produce 612 vetture Alfa Romeo al giorno, suddivise fra i nuovissimi modelli Giulia e Stelvio.

Come sarà il mercato del lavoro nei prossimi dieci anni?

Non sono certo pochi gli studi che fanno temere il peggio per il mercato del lavoro: Frey e Osborne, due ricercatori dell’Università di Oxford, hanno infatti stimato che entro il 2040 il 47% dei lavori negli USA sarà svolto da robot. 

Sono invece molto più cauti Arntz, Gregory e Zierahn, che per conto dell’Ocse hanno calcolato che solamente il 9% delle occupazioni dei 21 Paesi più industrializzati del mondo sarebbero effettivamente a rischio per via della automazione. Questa seconda stima è di fatto confermata da uno studio degli analisti di McKinsey, secondo il quale solamente il 5% delle occupazioni odierne può essere effettivamente e completamente automatizzato. Con il progresso tecnologico dei prossimi anni però, come prosegue l’indagine di McKinsey, la percentuale potrebbe salire fino al 49%.

I dati provenienti dagli studi più allarmanti vanno ovviamente a influenzare la visione di molti cittadini, anche in Italia. Stando infatti al rapporto AGI-Censis “Uomini, robot e tasse: il dilemma digitale”, il 37,8% degli italiani è fermamente convinto che la robotizzazione dei processi produttivi non potrà che portare a una riduzione dei posti di lavoro. Il 33,5% degli intervistati sostiene al contrario che i posti di lavoro aumenteranno, mentre il 28,5% del campione pensa che l’automazione non porterà nessun cambiamento sull’ammontare delle opportunità lavorative. “In realtà” sostiene Adami “la progressiva automazione ci mette di fronte, piuttosto che a uno vero stravolgimento del mercato del lavoro, a un necessario cambiamento culturale. In questo senso, le aziende devono investire in un processo di continuo aggiornamento delle competenze dei propri dipendenti”.

La tanto temuta quarta rivoluzione industriale potrebbe dunque essere una opportunità di espansione per il mondo del lavoro “se le aziende saranno in grado di sfruttare razionalmente le nuove tecnologie” ha commentato Adami. “Il risultato più incisivo sarà un benefico miglioramento delle competenze dei lavoratori in fatto di digitalizzazione e di agilità”. A tutto questo va ovviamente aggiunto l’ovvio aumento di ricerca personale in ambito IT, professionisti con le competenze idonee per supportare i business nell’avvio di una produzione in ottica Industry 4.0.

“Come ormai sanno molti direttori HR, in Italia a oggi la ricerca di talenti professionali in grado di avviare un reale processo di cambiamento interno è in molti casi frustrante, in quanto meno del 10% della popolazione possiede delle valide competenze ICT”. Il problema, prosegue Adami, è che “più della metà del mercato del lavoro ha attualmente bisogno di queste figure in grado di supportare il processo di innovazione digitale interno: da qui il ruolo fondamentale delle società di recruiting nella ricerca dei migliori talenti”.

Root Cause Analysis

Published by:

Il mese scorso abbiamo parlato di troubleshooting, cioè del processo a ritroso nella catena di cause ed effetti, che ha lo scopo di identificare la causa o le concause che ne sono alla radice. In queste tratteremo meglio il concetto di ricerca della cause alla radice del problema.

Nel precedente articolo di marzo si è visto che le situazioni veramente problematiche sono solo una minoranza rispetto al totale delle attività manutentive e pesano circa il 10%. In particolare, nel 9% di queste, possiamo giungere ad una soluzione positiva facendo di tecniche e metodologie di problem solving, adattate al campo manutentivo. Le metodologie utilizzate sono varie, ricalcano il concetto espresso dal ciclo di Deming nel PDCA. Facendo riferimento allo schema in sette passi descritto in figura, dopo aver superato le fasi iniziali del metodo, che hanno l’obiettivo di identificare il problema, passiamo all’analisi delle informazione, allo scopo di identificare la causa o le concause alla radice del problema.

Root Cause Analysis

L’analisi per risalire alle cause alla radice di un evento (guasto, difetto, incidente) è nota col nome Root Cause Analysis o, più brevemente, RCA: con essa si può, per esempio, indagare su quali sono le cause che provocano un incendio. Un efficace attività di Root Cause Analysis porta ad evidenziare la soluzione efficace (Effective Solution), deve essere in grado di identificare almeno una causa alla radice, controllabile e realizzabile ed in grado di soddisfare gli obiettivi.

Da dove si parte per identificare le cause e le cause di fondo? Possiamo partire dalle analogie degli effetti con problemi precedentemente apparsi, analizzati e possibilmente risolti (esperienza delle persone, documentazione disponibile). Ma occorre fare attenzione poiché a effetti uguali non corrispondono sempre cause uguali, in quanto occorre sempre considerare il contesto del problema. Per identificare le cause possiamo anche partire da considerazioni tecniche derivanti, per esempio, dalla conoscenza del progetto di un prodotto, del suo processo di fabbricazione, ovvero da conoscenze scientifiche su possibili correlazioni causa-effetto. E’ importante sottolineare che un effetto (evento, guasto, difetto) avviene se le cause alla sua origine si verificano nello stesso tempo, nelle stesse condizioni, nello stesso luogo. La RCA è un processo iterativo che, partendo dall’effetto, giunge alla definizione della causa o delle cause che lo originano, le quali, a loro volta, possono essere effetti di cause a livello superiore. In questo modo, procedendo per livelli di approfondimento sempre maggiori, giunge necessariamente alla definizione della o delle cause primarie alla radice dei problemi (effetti) evidenziati dal guasto. Sul tema RCA e problem solving sono stati messi a punto, a partire dagli anni novanta, diversi sistemi di analisi, come il metodo KT di Kepner e Tregoe, il Reason® di Decision System, Apollo® di Apollo Associated Services e TapRooT® di System Improvements.

Il metodo dei 5 “perché?”

Per risalire alla causa alla radice del problema si può utilizzare il metodo dei “5 perché?”. Questo dispositivo logico è stato introdotto nell’ottica dell’individuazione delle cause incerte sulle quali avviare una diagnosi. Con il metodo dei 5 perché è possibile risalire dall’effetto alle effettive cause di un evento. Il metodo è di una semplicità disarmante ed è forse per questo motivo che molti tecnici lo trascurano. Esso richiede soltanto che, con la curiosità di una scimmia e la purezza ideologica di un bambino, il gruppo si chieda il perché di un fatto, senza accontentarsi della prima risposta. Ecco alcuni suggerimenti per utilizzare in modo efficace questo metodo.

  • Non fermarsi fino a quando esiste ancora una possibilità di domandarsi perché.
  • Non accontentarsi di espressioni generiche (scorretto, sbagliato, rotto, ecc.), in quanto a ciascuno di questi aggettivi deve corrispondere un perché.
  • Porre massima attenzione alla precisione e all’attenzione ai dettagli.
  • Non sorvolare su risposte evasive.
  • Accertarsi che le spiegazioni siano comprese e condivise da tutti.
  • Il processo di ricerca “a ritroso”, dall’effetto noto alla causa o alle concause primarie, si considera chiuso solo quando si sia individuata la causa alla radice del problema (Root Cause).
  • Trovate le cause, il processo logico chiede comunque delle risposte e delle soluzioni (realizzabili e non, definitive e provvisorie).
  • Terminare ogni riunione con un rapporto scritto e letto in presenza di tutti i componenti del gruppo di lavoro.
  • Terminare ogni riunione con un piano con le attività da fare, le tempistiche, i controlli intermedi, i compiti e le responsabilità.

Per contrastare un’anomalia è possibile, una volta individuate le sue cause determinanti, decidere e realizzare delle azioni correttive a esse corrispondenti. L’esperienza dimostra però che spesso, al fine di una cura veramente efficace e duratura, è necessario risalire più a monte. Per esempio, contro l’effetto “consumo eccessivo di olio” potremmo decidere di rabboccare l’olio, il che costituisce un’azione provvisoria; si avrà un’azione correttiva soltanto eliminando la causa del consumo eccessivo, ossia sostituendo le fasce elastiche. Avendo individuato le cause di un problema, possiamo pensare a un intervento correttivo che comporti la loro riduzione o eliminazione. Ma occorre considerare che ciascuna di queste cause è a sua volta l’effetto di un’altra causa. È pertanto opportuno chiederci nuovamente: “Perché avviene questo?”, risalendo lungo la catena causa-effetto. Nell’esempio, se la risposta è: “Le fasce sono usurate perché il motore ha più di 100.000 Km, e ciò è normale a questo chilometraggio”, allora l’analisi è finita e possiamo agire definitivamente, sostituendole. Siamo infatti giunti alla causa alla radice del problema, cioè al livello ultimo in cui, nel procedere lungo la catena causa-effetto, possiamo situare l’intervento correttivo al fine di eliminare il problema iniziale. Se invece la risposta è: “Non sappiamo quali siano con sicurezza le cause di questo effetto”, bisognerà avviare una nuova analisi, che ci potrà portare a individuare le vere cause a un livello più vicino “alla radice”, con conseguente possibilità di interventi più radicali. In effetti, molti insuccessi, anomalie o disfunzioni si ripresentano perché l’azione correttiva è stata fatta a un livello di causa insufficiente per “sradicare” definitivamente il problema. È sradicando i problemi, ossia prevenendoli alla radice, che possiamo giungere a una soluzione duratura. Soffermiamoci un attimo per riflettere e capire quale fra questi interventi è opportuno scegliere ai fini di una maggiore efficacia. A questo punto si può fare una prima constatazione: più si scende verso la radice, lungo la catena causa-effetto, più tempo bisognerà dedicare alla ricerca. Spesso il passaggio da un livello all’altro non è cosi ovvio, e a volte occorre condurre un’analisi approfondita (seguita naturalmente da una verifica) per scendere di un gradino.

Altre conseguenze della causa

Nell’esempio precedente abbiamo considerato la catena causa-effetto come lineare. In realtà, la concatenazione è spesso di tipo “reticolare”. In effetti, lo scostamento dal quale siamo partiti nell’analisi, può essere solo una delle conseguenze della causa, e ce ne possono essere altre, già avvenute oppure imminenti. È quindi opportuno, partendo dalla causa rinvenuta, chiedersi: “Quali altre conseguenze può avere avuto questa causa”? e, anche: “Quali altre conseguenze può stare per avere, qui o presso il cliente?”. Allora chiediamoci: “L’acqua salata può aver provocato altri danni all’interno dell’alternatore?”, “La mancanza di energia può aver provocato qualche altro danno a bordo?”. Partendo dalla causa rinvenuta, cerchiamo di sfruttare fino in fondo il lavoro di analisi già fatto, e controlliamo quali altre conseguenze ci possono essere state. Se non si è esperti del ramo, è opportuno chiedere a uno specialista di controllare; per identificare le altre possibili conseguenze della causa (a livello di ipotesi d’effetto), le conoscenze tecniche e l’esperienza possono infatti svolgere un ruolo determinante. In questa indagine ci può venire in aiuto lo schema funzionale del sistema, ossia la descrizione di tutti gli organi incaricati di assicurare una certa funzione all’impianto o all’organizzazione, oppure il diagramma di flusso del processo.

Applicazione della RCA

La cellula base del processo di analisi RCA è costituita dallo schema base in cui un effetto (guasto/anomalia/incidente) può essere dovuto all’azione di due cause concorrenti: una azione ed una condizione.

In tal caso per un evento di guasto, visto come effetto primario, è possibile individuare una serie di azioni negative generate dall’operatore, dal sistema di controllo, dall’ambiente, .., che possono avere generato l’effetto segnalato; a queste si possono associare in alternativa o in aggiunta delle condizioni anomale (pressioni, temperature, .., ) rispetto alle condizioni considerate di normale funzionamento. Le metodologie di analisi degli incidenti identificano azioni ed agenti (persone, cose). La loro combinazione può portare ad un risultato non programmato (indicente, guasto, difetto): la vettura sbanda, la vettura è l’agente, lo sbandamento è l’azione; il cane scappa via, il cane è l’agente ed il suo correre è l’azione.

Fonte: Trasmissioni di Potenza (Ed. Tecniche Nuove), maggio 2015

Troubleshooting

Published by:

Col termine Troubleshooting si identifica il processo di ricerca ed analisi che lega l’accertamento di uno o più sintomi di un’avaria o di un malfunzionamento, con una o più possibili cause: si tratta quindi di un processo a ritroso nella catena di cause ed effetti, che ha lo scopo di identificare la causa o le concause che ne sono alla radice.

Uno studio condotto da una importante multinazionale evidenzia che le situazioni veramente problematiche sono (per fortuna) una minoranza rispetto al totale delle attività manutentive e pesano circa il 10%. In particolare, nel 9% di queste, possiamo giungere ad una soluzione positiva facendo di tecniche e metodologie di problem solving, adattate al campo manutentivo. Solo una parte minima (1%) richiede strumenti straordinari: la complessità e la gravità degli effetti di questi casi, che generalmente impattano pesantemente sulla qualità di un prodotto o sulla salute delle persone o dell’ambiente, devono essere affrontate in modo collegiale e coordinato (task force), in quanto coinvolgono più enti e persone all’interno di una Azienda. Nei casi più frequenti di un servizio di manutenzione, la situazione problematica si presenta quando, a fronte di un guasto abbastanza grave non esistono o non sono conosciute soluzioni efficaci e definitive. Per meglio dire, non esistono né procedure di troubleshooting né esperienze dirette del personale, oppure potrebbe capitare le immediate soluzione adottate dai tecnici, in base alle loro competenze, falliscono: problema!  Al fine di evitare confusione e panico è caldamente consigliabile affidarsi ad una metodologia, cioè ad una procedura logico-analitica di approccio al problema, attraverso la sequenza di azioni logicamente correlate di seguito elencate. Le metodologie utilizzate sono varie, ma abbastanza simili, in quanto tutte ricalcano il meraviglioso concetto espresso dal ciclo di Deming nel PDCA (*), e vengono generalmente descritte attraverso schemi a blocchi come quello descritto in figura (Metodo in sette passi). Con questo primo articolo analizzeremo le varie fasi descritte nel modello che abbiamo scelto, sottolineando che la letteratura tecnica ne presenta altri, che però non variamo in modo sensibile nelle logica. Cominciamo quindi con descrivere le fasi iniziali del metodo, che hanno l’obiettivo di identificare il problema.

Identificazione del problema

Il primo passo nel cammino che conduce alla ricerca e soluzione dei guasti consiste nella definizione del vero problema, quindi si deve sapere “che cosa” è successo prima di dire “perché” è successo. In genere, quando le persone riferiscono i problemi, i fatti raccontati possono essere incompleti, poco chiari e imprecisi in troppi dettagli. Tipicamente, si tende a riferire personali interpretazioni ai problemi visti: magari a queste si aggiungono le impressioni trasmesse da altre persone presenti. La situazione peggiora quando i problemi accadono durante il turno di notte o in giornate festive, per cui si possono solo leggere le annotazioni scritte dai testimoni senza poterli ascoltare direttamente. Possiamo distinguere alcune situazioni ricorrenti.

  • Problemi semplici: la loro identificazione necessita di semplici relazioni con l’operatore. Per esempio, l’operatore potrebbe riferire che il sensore di temperatura di un impianto è andato a zero e non si muove, l’indicatore di flusso oscilla, oppure si è acceso un allarme: si tratta di informazioni chiare e inequivocabili.
  • Problemi transitori e complessi: la raccolta dei sintomi può spaziare dall’indicazione chiara a quella vaga. Queste ultime possono non essere né concise né corrette e si possono avere troppe o troppo poche informazioni, magari viziate da pregiudizi o convinzioni.
  • Livello della comunicazione: quando si definisce il problema è opportuno ascoltare con cura la persona che riporta il fatto.

L’oggetto del rapporto consiste generalmente nella descrizione di sintomi e specifiche osservazioni, sulla base dei primi tentativi di soluzione di quel problema e sulla conoscenza e competenza di chi parla. Dopo avere ascoltato attentamente conviene fare domande chiare, brevi e precise. È meglio evitare di utilizzare termini troppo tecnici o forbiti: un buon ricercatore di guasti dovrebbe parlare e comprendere la lingua delle persone che operano in quella sede. Ciò significa conoscere il processo, il layout fisico dello stabilimento, la posizione degli strumenti e delle funzioni dell’impianto, non solo con il loro termine tecnico, ma anche secondo abbreviazioni e nomignoli comunemente usati in stabilimento (l’esperienza insegna che conoscere la forma dialettale o le corrispondenti parole in gergo aiuta molto nella comunicazione con gli addetti).

  • Interpretazione soggettiva: la persona che riporta un problema può introdurre nella sua descrizione delle interpretazioni personali. Quando non emerge chiaramente una causa del problema segnalato, l’esistenza di queste interpretazioni personali diventa evidente. Per esempio, un’interpretazione comune è che si trova sempre il guasto nello strumento, quando in effetti esiste un problema collegato al processo; in questo caso lo strumento riporta semplicemente le informazione che legge. Ci si può trovare di fronte a una valutazione soggettiva perché la persona che riporta l’informazione crede, per qualunque ragione, che un certo particolare di una macchina abbia causato il problema: molti casi pratici dimostrano che certe convinzioni portano fuori strada e che la soluzione sta altrove. Gli operatori che hanno troppa fiducia negli strumenti tendono a escludere altre informazioni: in questi casi è necessario imparare a distinguere il segnale vero ed essere sicuri di non subire interferenze. In buona sostanza, vale sempre la regola: “non dire mai più di quanto non si è sicuri di sapere”. Quando si definisce il problema è buona regola considerare il grado di generalità con cui si rapporta. Per esempio, un operatore potrebbe dire che una valvola di controllo è andata in avaria, dando così un preciso e ben definito oggetto sul quale investigare. Ma se lo stesso operatore dice che “c’è un problema sul livello nel serbatoio combustibile”, fornendo così una descrizione vaga, il guasto potrebbe essere causato da una serie di problemi, riguardanti il processo stesso. I problemi transitori capitano occasionalmente, si pensi per esempio al controllo di chiusura di una stazione di lavoro che si fa soltanto nel terzo turno. La bravura del buon ricercatore di guasti consiste nell’ordinare e distinguere, fra le varie informazioni, quelle che permettono di definire adeguatamente il problema. La descrizione del problema fornisce il punto di partenza per la raccolta dati. Se non si conosce da dove partire, si può essere sommersi da troppi dati e informazioni, spesso sbagliati, e perdere di vista quelli giusti.

Riparazione provvisoria (Quick Fix)

Molto spesso sono indispensabili azioni immediate e provvisorie di riparazione e di rimessa in servizio di una macchina (quick fix), al fine di “tamponare” situazioni critiche o di emergenza, al fine di velocizzare la ripresa di un processo produttivo o di un servizio o per limitare eventuali danni a cose e persone. Non sono secondarie, anzi fanno parte della normale attività di un servizio di manutenzione: richiedono elevata professionalità, capacità di rapida analisi della situazione e resistenza allo stress. L’efficacia di un’azione di tamponamento si basa su più fattori: esperienza, strumentazione, training. L’esperienza è sicuramente una carta vincente nella ricerca guasti: si tratta di ritrovare un problema già vissuto, di cui si pensa di conoscerne la soluzione. La eccessiva fiducia sull’esperienza, però, può ridurre la capacità di vedere oltre e comprendere a fondo e completamente un fenomeno. Nondimeno investire in strumentazioni di diagnostica evolute consente di velocizzare la fase di ricerca ed identificazione di sintomi e degli effetti di un guasto e quindi di porli in immediata correlazione con le probabili cause alla radice.

In generale, comunque, l’addestramento continuo del personale, la formazione sulle modalità di individuazione e riparazione, sia provvisoria che definitiva, dei guasti, anche attraverso la simulazione di casi reali, costituiscono la forma più efficace di training, forza e patrimonio delle aziende meglio organizzate

PDCA

Il ciclo (virtuoso) di Deming o PDCA è un modello studiato per il miglioramento continuo della qualità in un’ottica a lungo raggio. Serve per promuovere una cultura della qualità che è tesa al miglioramento continuo dei processi e all’utilizzo ottimale delle risorse. Questo strumento parte dall’assunto che per il raggiungimento del massimo della qualità sia necessaria la costante interazione tra ricerca, progettazione, test, produzione e vendita. Per migliorare la qualità e soddisfare il cliente, le quattro fasi devono ruotare costantemente, tenendo come criterio principale la qualità. La sequenza logica dei quattro punti ripetuti per un miglioramento continuo è la seguente:

P – Plan (Progettazione e pianificazione)

D – Do (Esecuzione del programma, dapprima in contesti circoscritti)

C – Check (Test e controllo, studio e raccolta dei risultati e dei riscontri)

A – Act (Azione per rendere definitivo e/o migliorare il processo (estendere quanto testato dapprima in contesti circoscritti all’intera organizzazione)

Fonte: Trasmissioni di Potenza (Ed. Tecniche Nuove), marzo 2015

I professionisti dei Big Data

Published by:

Se è già scritto che Big Data «guideranno l’economia nei prossimi anni»: se questo avverrà, le aziende avranno bisogno di sviluppare delle risorse umane in grado di gestire questi Big Data, che in sintesi sono una collezione di dati informatici così estesa da richiedere tecnologie apposite per la propria elaborazione. In effetti, non che sia facile destreggiarsi tra estrazione e interpretazione dei numeri, soprattutto se si è sprovvisti della materia più preziosa: il capitale umano. Circa il 98% delle aziende intervistate (secondo un’indagine del gruppo Adecco e dell’Università Milano-Bicocca) sostiene infatti che i candidati siano assenti o «difficili da reperire» nel mercato italiano, nonostante una ricerca affidata per lo più ad agenzie di risorse umane e università. Tra i ruoli giudicati più interessanti nell’immediato spiccano Big Data analytics specialist (63,64%), data content&communication specialist (38,64%), Big Data architect (32,95%), data scientist (29,5%) e social mining specialist (13,6%). Tutte figure che costituiscono la filiera dello studio delle informazioni online, con profili più orientati all’analisi (analytics specialist) o all’approfondimento dei contenuti (content&communication specialist).

Qualcuno, però, obietta che il gap andrebbe letto da una posizione opposta a quella suggerita dalle imprese: i candidati non mancano, sono le aziende a offrire condizioni retributive e contrattuali poco competitive. Su scala internazionale, secondo una stima del portale DataJobs (inserire link: datajobs.com/big-data-salary), la retribuzione d’ingresso può oscillare tra i 50-75mila dollari. Un po’ difficile immaginare medie simili in Italia, Paese che “vanta” alcune delle retribuzioni più basse d’Europa nel settore dell’Ict.
Ciralli non ne è convinto: almeno nell’oasi dei Big Data, stipendi e prospettive di carriera possono fare gola a talenti qualificati. «Le aziende non sono poco attrattive e non è una questione retributiva, ma di formazione – dice In Italia, da una parte c’è bisogno di maggiore orientamento ai giovani per indirizzarli verso i percorsi più virtuosi finalizzati all’occupabilità e dall’altra ad incentivare la collaborazione tra impresa e scuola».

Industria 4.0 e Big Data: 4 aziende italiane su 10 non sanno che cosa siano

Published by:

I Big Data «guideranno l’economia nei prossimi anni». Sempre che si sappia di cosa si sta parlando: secondo un’indagine del gruppo Adecco e dell’Università Milano-Bicocca, il 40% delle aziende italiane italiane non conosce il concetto e appena il 12% fa uso dei “grandi dati” a fini commerciali, mentre il 48% ammette di averne una padronanza solo parziale. Il campione è composto da circa 350 referenti aziendali ed è stato attinto tra società di varie dimensioni e settore di provenienza, con predominio di industria metalmeccanica-elettronica (41,02%) e commercio e servizi (26,29%). Le Pmi rappresentano quasi la metà dell’indagine (47,14%), ma il ritardo sul fenomeno non sembra essere una loro esclusiva: circa un intervistato su tre (35,03%) proviene da industrie di grandi dimensioni, in teoria più inclini all’aggiornamento digitale rispetto alle imprese di dimensione micro, piccola o media.

grafico_bigdata-01

A che punto sono le aziende e dove servono di più i Big Data
I Big Data sono, semplificando, una collezione di dati informatici così estesa (“grandi dati”) da richiedere tecnologie apposite per la propria elaborazione. La loro analisi può fruttare vantaggi competitivi alle aziende perché fornisce informazioni monetizzabili in fase di vendita, ad esempio sulle abitudini o i gusti dei clienti. Un valore aggiunto fondamentale nell’era dell’economia online, come testimonia anche il fatto che la quasi totalità delle aziende (circa il 97%) li consideri una «opportunità» e non un rischio per la propria impresa. Da qui a fare investimenti effettivi, però, il passo è lungo: solo il 20% ha già avviato progetti in materia e un 10% dichiara di avere «intenzione di farlo», contro una quota del 32,43% che ammette di non avere nessuna azione in corsa e un ulteriore 37,16% che non manifesta alcun interesse. «Un dato allarmante se paragonato al 12% di chi conosce i Big Data, in particolare pensando al tema della competitività delle nostre imprese in ottica futura », dice al Sole 24 Manlio Ciralli, capo del brand e dell’innovazione del Gruppo Adecco in Italia .

Va detto, però, che il deficit italiano non è isolato. L’Unione europea rincorre i macro-investimenti già messi in campo da Usa e Asia, dove l’analisi dei “grandi dati” è un patrimonio che va dai colossi della Gdo come Walmart alle startup innovative. «Non è solo l’Italia che deve accelerare il passo, ma l’Europa in generale, per esempio Paesi come Francia e Spagna. Stati Uniti e i Paesi asiatici sono molto più avanti – fa notare Ciralli – Si stima che il volume di dati immagazzinati su scala mondiale crescerà del 40% all’anno fino al 2020».  Dove possono essere più proficui? All’interno dell’azienda, i settori più beneficiati dai Big Data si rivelano il commerciale (64,8%) e il marketing (62,4%), seguiti da It (35,2%), comunicazione (33,6%), finanza e produzione (29,6%).

Tratto da Il Sole 24 Ore, articolo di Alberto Magnani. 25/11/2016

Il guasto: analisi e misura

Published by:

L’esigenza di intervenire in modo veloce ed efficace dipende dalla professionalità del manutentore: in questo articolo analizzeremo alcuni aspetti legati al guasto ed alcuni noti indicatori necessari per la sua misura.

Definizione di guasto

Il guasto è la condizione di non realizzazione dello stato desiderato di funzionamento, ovvero, come recitano le norme UNI, la “cessazione dell’attitudine di un’entità ad eseguire la funzione richiesta”. La norma definisce inoltre come “avaria” lo “stato di un’entità, caratterizzato dalla sua inabilità ad eseguire una funzione richiesta”. Si deduce che il guasto è un evento, un passaggio da uno stato di buon funzionamento  ad un altro che non rispetta le prestazioni attese, mentre l’avaria è uno stato, una situazione stazionaria, in cui l’entità non è assolutamente in grado di operare. Il termine guasto corrisponde a failure in inglese e défaillance in francese, mentre avaria diventa rispettivamente fault e panne.

Entità

Nelle due precedenti definizioni si fa riferimento al termine entità, di cui abbiamo ovviamente una definizione ufficiale, riportata nella norma UNI 9910, che la definisce in questo modo: “ogni parte, componente, dispositivo, sottosistema, unità funzionale, apparecchiatura o sistema che può essere considerata individualmente”. Quindi un’entità, per la quale valgono anche i sinonimi “elemento” e “bene”, è tutto ciò che può essere descritto e considerato in modo individuale, sia che si tratti di un’attività, un processo, un prodotto, ma anche di un’organizzazione, un sistema, una persona o un gruppo. Nel campo della manutenzione, a un’entità può essere attribuito un valore economico, sociale o anche artistico, come per esempio impianto, linea, sistema e macchina, gruppo funzionale, assieme, sottoassieme, componente oggetto dell’attività di manutenzione. Il linguaggio tecnico anglosassone come al solito semplifica la terminologia, utilizzando due termini ben noti: equipment ed item, senz’altro più noti e diffusi del nostro “entità”!

Guasti di un’entità

Tutte le cose prodotte dall’uomo sono soggette a guasto, per quanto siano ben costruite e affidabili: si tratta solo di definire quando e come si guasteranno nel corso della loro vita utile. Capire come un guasto accade è la caratteristica principale dell’attività di ricerca dei guasti. Capire quando un guasto accade, o quando potrebbe accadere, è la caratteristica principale della manutenzione preventiva. Un guasto può accadere a fronte della rottura, o avaria, di un componente, coinvolgendo la struttura (hardware) dell’oggetto, oppure per un errore di programma (software), oppure per un errore umano. Un sistema può sempre avere un difetto funzionale quando, pur lavorando regolarmente, è chiamato a fare qualcosa per cui non è stato progettato oppure è esposto a condizioni transitorie che causano il momentaneo guasto. La prima attività nella ricerca guasti consiste nel trovare che cosa si è rotto, in modo da ripararlo e renderlo di nuovo disponibile. Ciò significa conoscere le condizioni operative di un processo e identificare la causa principale del guasto. Le origini di un guasto possono poi derivare da cause interne oppure da cause esterne. Se la causa è interna a un componente, questa ne è generalmente anche la causa principale; nel momento in cui il componente sarà riparato o sostituito, il problema sarà conseguentemente risolto. Se il problema capita troppo spesso, l’affidabilità del componente viene messa in discussione, per cui bisogna ricercare un’altra causa all’origine dell’avaria. Tale situazione porta a iniziare una fase importantissima di analisi nota con il termine di problem solving che, attraverso vari strumenti e metodologie mutuati dalla Total Quality, portano all’identificazione della, o delle, cause prime all’origine di una situazione problematica. Essa è nota anche con la sigla RCA (Root Cause Analysis), ossia analisi di ricerca della radice dei problemi. Se invece la causa è esterna al componente, i motivi del guasto non sono così ovvi: infatti, anche se possiamo ancora riparare o sostituire il componente fuori uso, dobbiamo necessariamente cercare la radice del problema in modo da non ricadere nello stesso problema.

Ciclo di vita

Il ciclo di vita dei componenti elettronici e meccanici segue la ben nota curva di affidabilità o probabilità di guasto, detta a vasca da bagno (bathtub curve). La curva può essere divisa in tre fasi: il periodo iniziale  (infanzia o rodaggio), il periodo di vita utile e il periodo finale o  vecchiaia. Il periodo iniziale è caratterizzato dal fenomeno della mortalità infantile, che appunto si riscontra all’inizio della vita operativa di un componente, normalmente nelle prime settimane o nei primi mesi, generalmente nel periodo di messa a punto e collaudo di un nuovo impianto.

I problemi nascono principalmente da difetti sui materiali, di lavorazione delle parti e di montaggio durante l’installazione, ma possono derivare spesso da errori nella conduzione e nella manutenzione, causati generalmente dall’inesperienza del personale: in particolare proprio nella fase iniziale di uso di un nuovo processo si possono evidenziare veri e propri errori di progettazione. Molti difetti di lavorazione vengono rilevati prima del montaggio della macchina presso il cliente, attraverso prove e collaudi eseguiti dal fornitore nelle fasi fondamentali del suo processo di fabbricazione. Gli errori di montaggio sono più difficili da controllare e possono essere ridotti attraverso ispezioni e tabelle di controllo definite in specifiche procedure operative. La seconda fase della vasca da bagno corrisponde al periodo di vita utile nel quale il tasso di guasto casuale rimane costante: il fatto che il tasso di guasto resti basso deriva da una efficace politica di manutenzione svolta dall’utilizzatore. La terza fase della curva vede poi un progressivo aumento della probabilità di guasto, a causa della crescente obsolescenza fisica e tecnica delle entità: un gruppo o un componente che entra in questa può comunque essere revisionato e recupera la propria affidabilità, prolungando in genere la propria vita utile.

KPI

Gli indicatori chiave delle prestazioni (noti anche con l’acronimo kpi – key performance indicator) sono utili per descrivere e comprendere i fenomeni tecnici e organizzativi durante un guasto di un’entità e stabilire quindi la misura dell’affidabilità durante il periodo di vita utile. I principali kpi utilizzati sono i seguenti:

MTTF (Mean Time To Failure): questo indicatore indica il tempo di vita operativa medio di un’entità non riparabile: è l’inverso del tasso di guasto (1/τ) nel periodo considerato.

Il MTTF non è legato alla vita utile dello strumento, che è il tempo che intercorre tra la fine del periodo di mortalità infantile e quello di logoramento. Un sistema potrebbe avere un MTTF di 100.000 ore, ma una vita utile di soli 3 anni. Ciò significa che, durante i 3 anni di vita utile, è improbabile che il componente si rompa, così come potrebbe rompersi rapidamente una volta che entri nel periodo di logoramento. Per illustrare la differenza fra MTTF e vita utile, consideriamo che, per gli esseri umani, il tasso di mortalità nei primi 30 anni è stimato pari a 1,1 morti per 1.000 persone all’anno, il che equivale ad avere un MTTF pari a 909 anni. Questo è molto più del tempo di vita utile di un uomo che, in genere, è inferiore ai 100 anni. In altre parole, gli esseri umani sono delle macchine molto affidabili nei primi 30 anni di vita, ma successivamente, con l’avanzamento dell’età, la loro affidabilità decresce rapidamente. Un altro esempio pratico lo si ritrova sul disco rigido di un computer fornito di un MTTF di un milione di ore, ma con una vita utile di soli 5 anni. All’interno della sua vita utile il disco è molto affidabile, ma dopo 5 anni incomincia a deteriorarsi e la sua affidabilità decresce rapidamente. Il disco con un MTTF di un milione di ore potrebbe essere comunque più affidabile rispetto a un altro disco con un MTTF di 500.000 ore, a parità di vita utile.

MTBF (Mean Time Between Failure): rappresenta il tempo medio di funzionamento di un’entità riparabile. Si deduce che per una macchina complessa, cioè costituita da vari componenti, ipotizzandone la riparabilità a fronte di un’avaria, si parlerà di MTBF, pari ad una media di n ore di funzionamento tra un guasto e l’altro, senza distinguere la tipologia dei guasti. Per ogni suo componente si parlerà di MTTF, nell’ipotesi in cui il componente stesso venga sostituito per guasto e non riparato, o di MTBF nel caso alternativo in cui il componente venisse sostituito e riparato.

MTTR (Mean Time To Restoration): definito come “valore atteso del tempo al ripristino” (UNI 9910), rappresenta il tempo medio necessario per ripristinare il buon funzionamento, calcolato dall’istante in cui interviene il guasto. Il tempo al ripristino o di rimessa in servizio è l’intervallo di tempo durante il quale l’entità si trova in uno stato di indisponibilità a causa di un guasto (UNI 9910). Si noti come l’ente unificatore raccomandi espressamente di abbandonare la più diffusa, e ampiamente usata, interpretazione di MTTR come Mean Time To Repair . Il motivo della segnalazione deriva dall’ambiguità di interpretazione del concetto di riparazione: lo stato di guasto intercorre da quando è percepito a quando è rimosso. Il puro tempo tecnico di riparazione non è descrittivo dell’impatto reale del guasto sulla produttività. La conseguenza effettiva di un guasto è generalmente superiore a quella del semplice intervento di manutenzione e risente di altri tempi passivi, quali ritardi di segnalazione, emissione di documentazione, scarico degli impianti ed eventuale pulizia, raccolta informazioni e quant’altro non direttamente controllabile dalla manutenzione, ma comunque attivato da un guasto e messo quindi in conto al medesimo. Il MTTR sarà un indicatore fondamentale della misura della prestazione di un intervento di manutenzione correttiva; infatti esso è composto da più fasi, di cui quella di ricerca guasti è molto spesso la più impegnativa in termini temporali. Per monitorare il tempo medio di riparazione a fronte di un guasto si utilizza quindi l’indicatore MRT (Mean Repair Time), la misura di quella parte del tempo attivo di manutenzione correttiva, esclusa la fase di ricerca guasti, durante il quale vengono eseguite azioni di riparazione su un’entità.

Fonte: Trasmissioni di Potenza (Ed. Tecniche Nuove), gennaio 2015

Dossier UNI sulla certificazione energetica degli edifici

Published by:

Dossier pubblicato nella rivista U&C,  dedicato al tema della certificazione energetica degli edifici.
Il documento, a cura dell’ente federato CTI (Comitato Termotecnico Italiano), intende illustrare le principali novità contenute nei nuovi provvedimenti legislativi pubblicati in Gazzetta ufficiale il 15 luglio scorso, e precisamente i tre Decreti datati 26 giugno 2015 costituenti i disposti attuativi della Legge 90/13, recepimento italiano della Direttiva 2010/31/UE sulla prestazione energetica degli edifici.
Dossier UNI certificazione energetica edifici
tratto da U&C n. 5 – Maggio 2016

Industria 4.0, +10 mld investimenti

Published by:

Il 21 settembre 2016 è stato presentato a Milano il piano del governo Industria 4.0, che punta a far crescere gli investimenti privati di 10 miliardi solo nel 2017. I dettagli sono stati illustrati dal ministro dello Sviluppo Carlo Calenda e dal presidente del Consiglio Matteo Renzi.
La prima direttrice chiave è sugli investimenti: +10 miliardi di quelli privati nel 2017; +11,3 mld di spesa privata in sviluppo ricerca e innovazione nel periodo 2017-2020; +2,6 mld nel volume degli investimenti privati “Early Stage” nel periodo 2017-2020. La seconda direttrice riguarda le competenze: 200 mila studenti universitari e 3.000 manager specializzati sui temi 4.0; il raddoppio degli studenti iscritti agli istituti tecnici superiori; circa 1.400 dottorati di ricerca. Gli incentivi fiscali, per un totale di 13 miliardi, diventano orizzontali, non più a bando. “Pensiamo che l’Italia debba essere patria delle possibilità“, dobbiamo “cambiare la mentalità e dire che è la patria delle possibilità e delle opportunità“, ha detto Renzi. (ANSA).

A conti fatti il piano, più ambizioso anche delle versioni iniziali, dispone un impegno maggiore rispetto a programmi già varati da altri grandi economie: «Dieci miliardi in Francia, 1 miliardo in Germania, 500 milioni in Usa, con modelli comunque molto diversi di coinvolgimento dei privati» dice Marco Taisch, del Politecnico di Milano, aprendo la presentazione al Museo della scienza e della tecnologia (Il Sole 24 Ore).

Di seguito il documento della Audizione di Carlo Calenda, Ministro dello Sviluppo Economico, sul tema Industria 4.0, fatta presso la Camera dei Deputati il 15 giugno 2016 : audizione-industria-4-0-defcalenda

Indagine Federmeccanica: Industria 4.o in Italia

L’indagine, volta a rilevare il grado di conoscenza, il livello di adozione delle tecnologie abilitanti e lo stato delle aspettative rispetto alla cosiddetta “quarta rivoluzione industriale”, contribuisce alla definizione di un percorso evolutivo verso l’Industria 4.0 ed è scaricabile dal link a fondo pagina.

Il campione rappresenta circa 3,5% dell’universo della popolazione delle imprese iscritte a Federmeccanica (circa 15.000). Tale campione appare sufficientemente ampio rispetto all’obiettivo di fornire informazioni utili circa quella parte dell’industria italiana che si dimostra più sensibile rispetto alle tematiche dell’innovazione tecnologica, ma, non essendo di tipo probabilistico, non garantisce pienamente il rispetto delle condizioni di applicabilità dell’inferenza statistica.

Il risultato dell’indagine però non è esaltante e evidenzia che siamo ancora molto lontani dal modello industria 4.0, in quanto solo il 64% delle imprese del campione dichiara di avere adottato almeno una delle 11 tecnologie considerate.

Il mutamento delle competenze

Relativamente al cambiamento delle competenze trasversali (soft skills) richieste al personale avvenuto a seguito dell’introduzione delle tecnologie qui considerate emerge che:

‐ Per gli operai i principali cambiamenti hanno riguardato, nell’ordine: a) l’autonomia, responsabilità, adattabilità e proattività; b) la capacità di lavorare in gruppo e c) il problem solving

‐ Per gli impiegati i principali cambiamenti hanno riguardato, nell’ordine: a) Fast and focused decision making /problem solving; b) l’autonomia, responsabilità, adattabilità e proattività + la capacità di lavorare in gruppo + la comunicazione digitale

‐ Per i dirigenti i principali cambiamenti hanno riguardato, con pari importanza: a) Fast and focused decision making/problem solving e b) l’autonomia, responsabilità, adattabilità e proattività; solo al terzo posto la leadership.

Nell’insieme, il cambiamento delle competenze viene giudicato, in media, maggiore per gli impiegati che per dirigenti ed operai

Sintesi del livello di onoscenza ed applicazione delle singole tecnologie Industria 4.0.

Meccatronica. Il 76% del campione dichiara di conoscere la tecnologia; essa è conosciuta dall’87% degli adopters e dal 60% dei non adopters. Circa il 50% delle imprese rispondenti dichiara di adottare la meccatronica, di queste il 69% la usa nell’ambito della produzione, il 43% nello sviluppo di nuovi prodotti, il 12% nella commercializzazione, il 11% in attività di servizio

Robotica. L’85% del campione dichiara di conoscere la tecnologia; essa è conosciuta dal 92% degli adopters e dal 74% dei non adopters. Circa il 51% delle imprese rispondenti dichiara di adottare la robotica, di queste l’80% la usa nell’ambito della produzione, il 22% nello sviluppo di nuovi prodotti, il 9% in attività di servizio, l’8% nella commercializzazione
Robotica collaborativa. Il 38% del campione dichiara di conoscere la tecnologia; essa è conosciuta dal 44% degli
adopters e dal 29% dei non adopters. Solo l’11% delle imprese rispondenti dichiara di adottare la robotica collaborativa, di queste il 64% la usa nell’ambito della produzione, il 39% nello sviluppo di nuovi prodotti, il 10% in attività di servizio, il 7% nella commercializzazione

IoT (Internet of Things). Il 55% del campione dichiara di conoscere la tecnologia; essa è conosciuta dal 64% degli adopters e dal 40% dei non adopters. Circa il 27% delle imprese rispondenti dichiara di adottare la tecnologia IoT, di queste il 44% la usa nell’ambito dello sviluppo di nuovi prodotti, il 37% in attività di servizio, il 35% nella commercializzazione, il 34% nella produzione

Big Data. Il 48% del campione dichiara di conoscere la tecnologia; essa è conosciuta dal 58% degli adopters e dal 32% dei non adopters. Circa il 24% delle imprese rispondenti dichiara di adottare la tecnologia Big Data, di queste il 48% la usa nell’ambito della produzione, il 34% in attività di servizio, il 33% nello sviluppo di nuovi prodotti, il 25% nella commercializzazione

Cloud computing. Il 72% del campione dichiara di conoscere la tecnologia (l’84% degli adopters ed il 53% dei non adopters. Circa il 42% delle imprese rispondenti dichiara di adottare il Cloud Computing, di queste il 55% la usa in attività di servizio, il 44% nell’ambito della produzione, il 29% nello sviluppo di nuovi prodotti, il 20% nella commercializzazione

Sicurezza informatica. Il 93% del campione dichiara di conoscere la tecnologia (dal’97% degli adopters e dall’86% dei non adopters. Circa l’83% delle imprese rispondenti dichiara di adottare tecnologie connesse alla Sicurezza Informatica, di queste il 66% le usa nell’ambito della produzione, il 56% in attività di servizio, il 39% nello sviluppo di nuovi prodotti, il 37% nella commercializzazione

Stampa 3D. Il 75% del campione dichiara di conoscere la tecnologia; essa è conosciuta dall’83% degli adopters e dal 63% dei non adopters. Circa il 32% delle imprese rispondenti dichiara di adottare la Stampa3D, di queste il 76% nello sviluppo di nuovi prodotti, il 35% la usa nell’ambito della produzione, il 4% in attività di servizio, il 4% nella commercializzazione

Simulazione. Il 71% del campione dichiara di conoscere la tecnologia (l’83% degli adopters ed il 53% dei non adopters. Circa il 53% delle imprese rispondenti dichiara di adottare la Simulazione, di questi il 73% la usa nell’ambito dello sviluppo di nuovi prodotti, il 42% nella produzione, il 22% in attività di servizio, il 15% nella commercializzazione

Nanotecnologie. Il 49% del campione dichiara di conoscere la tecnologia il 55% degli adopters ed il 39% dei non adopters. Solo l’11% delle imprese rispondenti dichiara di adottare le nanotecnologie, di questi il 78% le usa nello sviluppo di nuovi prodotti, il 35% nell’ambito della produzione, il 9% nella commercializzazione, il 7% in attività di servizio

Materiali intelligenti. Il 43% del campione dichiara di conoscere la tecnologia (il 47% degli adopters ed il 37% dei
non adopters. Circa il 15% delle imprese rispondenti dichiara di adottare la tecnologia dei materiali  intelligenti, di queste il 68% la usa nello sviluppo di nuovi prodotti, il 43% nell’ambito della produzione, l’8% nella commercializzazione, il 7% in attività di servizio.

industria4.0-in-italia-indagine-di-federmeccanica

Sfida alla legge di Moore sui circuiti integrati

Published by:

La legge di Moore, che ha alimentato la rivoluzione informatica e tecnologica sin dagli anni ‘60, è stata puntualmente rispettata fino ad ora, ma è inevitabilmente destinata a terminare. Il calore e il raggiungimento di dimensioni ormai di scala atomica, alla fine hanno stanno ponendo un freno alle prestazioni dei processori. È la fine della più grande era dello sviluppo tecnologico, o si profila invece all’orizzonte qualcosa di nuovo?

Nel 1965 Gordon Moore, cofondatore della Fairchild Semiconductor e di Intel, scrisse un saggio diventato poi famosissimo, nel quale – oltre a predire meraviglie come i personal computer, orologi da polso digitali, macchine automatiche e “attrezzature personali di comunicazione portatile” (ovvero i telefoni cellulari) – provò a dare anche un riferimento temporale a questa sua visione, osservando che la capacità computazionale dei microprocessori raddoppiava ogni due anni o giù di lì (la famosa “legge di Moore”). Tale principio empirico, che ha alimentato la rivoluzione informatica e tecnologia dagli anni ‘60, è stato puntualmente rispettato fino ad oggi, ma è inevitabilmente destinato a terminare.

La legge di Moore

In realtà non si tratta di una legge “fisica” ma di un paradigma che l’industria dei semiconduttori ha deliberatamente scelto di perseguire: ad ogni fase, gli sviluppatori di software producevano applicazioni che mettevano a dura prova le capacità dei chip esistenti; i consumatori richiedevano così maggiori prestazioni ed i produttori si precipitavano a rispondere a tale domanda con i chip di nuova generazione. Seguire questo sviluppo esponenziale è stato (ed è) estremamente costoso: ad ogni salto generazionale erano necessari investimenti in macchinari sempre più sofisticati e costosi ed i cicli di produzione diventarono sempre più numerosi e complessi, tanto da richiedere, a partire dal 1991, la pubblicazione di una road map biennale (International Technology Roadmap for Semiconductors), per coordinare ciò che le centinaia di produttori e fornitori dovevano fare per rimanere al passo con la legge. Tuttavia, l’enorme versatilità dei chip faceva sì che i produttori potessero concentrarsi sullo sviluppo di soli due tipi di prodotti: processori e memorie, che potevano quindi essere prodotti e venduti i enormi quantità, generando incassi tali da sostenere i costi di sviluppo e nel contempo abbassare anche i prezzi di vendita, alimentando maggiormente la domanda. Ciò ha convertito la legge di Moore in una profezia auto-avverante: i nuovi chip hanno seguito la legge perché l’industria ha fatto in modo che lo facessero. Tutto ha funzionato perfettamente, finché alcuni limiti non sono venuti fuori in tutta la loro complessità.

I limiti insiti nella “profezia” della legge di Moore

Il primo, fu evidente fin già dal 1989: la miniaturizzazione sempre più spinta (i microprocessori top-of-the-line attualmente hanno dimensioni circuitali intorno a 14 nanometri, più piccoli rispetto alla maggior parte dei virus; si calcola che il limite “fisico” possa essere di 2-3 nanometri, cioè circa 10 atomi di diametro, oltre il quale gli effetti quantistici diventano predominanti) portava ad avere temperature sempre più elevate, tanto che a partire dal 2004 ci fu uno stop alla frequenza di clock dei microprocessori. Per mantenere fede alla legge di Moore si cominciarono a costruire chip con più processori (o core) che, funzionando in parallelo, aggiravano parzialmente il problema. Infatti dividendo un algoritmo in parti uguali e facendolo eseguire dai processori in parallelo si supera l’ostacolo, ma ciò è spesso impossibile. Il secondo limite, fu più una sorpresa: l’avvento degli smartphone, dei tablet, dei dispositivi indossabili, dell’Internet of Things e prossimamente dello Swarm Sensing ha cambiato radicalmente le regole del gioco. Fino a una ventina di anni fa, non c’era sostanzialmente molta differenza tra le priorità e i modi di funzionare di un PC o di un super computer: i chip erano gli stessi (cambiava solo il numero). I nuovi microprocessori hanno oggi invece priorità molto differenti dai loro “cugini più sedentari”. I chip di uno smartphone tipico devono inviare e ricevere segnali per le chiamate vocali, Wi-Fi, Bluetooth, GPS, ma anche di rilevamento tattile, di prossimità, accelerazione, campi magnetici, impronte digitali… Oltre a questo, il dispositivo deve ospitare circuiti per usi speciali per la gestione dell’alimentazione, per mantenere tutte queste funzioni attive senza che si scarichi la batteria troppo rapidamente. Il problema per i produttori di chip è che questa specializzazione mina il ciclo economico di autosostentamento della legge di Moore. Il vecchio mercato richiedeva quantità enormi di prodotti che facessero solo un paio di cose, il nuovo mercato richiede poche centinaia di migliaia di prodotti che devono fare un sacco di cose. La fine della legge di Moore non è quindi solo un problema tecnico, si tratta anche di una questione economica. La sfida è quindi molto complessa.

Il crepuscolo della legge di Moore: quale futuro?

Tutti sono d’accordo che il crepuscolo della legge di Moore non significherà la fine del progresso. Un Boeing 787 non è più veloce di un 707 fatto nel 1950 – ma sono aeroplani molto diversi, con le innovazioni che vanno dai controlli completamente elettronici, ad una fusoliera in fibra di carbonio. Questo è ciò che accadrà con i computer: l’innovazione continuerà, ma sarà più sfumata e complicata. Anzitutto, anziché progettare i chip e poi realizzare le applicazioni, si dovrà iniziare dalle applicazioni stesse e poi lavorare verso il basso per vedere che chip sono necessari per sostenerle. Tra questi chip ci saranno ovviamente anche nuove generazioni di sensori, circuiti di gestione dell’alimentazione e altri dispositivi in silicio, richiesti da un mondo in cui computing è sempre più mobile. La questione ora è che cosa accadrà nei primi anni 2020, quando la miniaturizzazione non sarà più possibile con il silicio perché gli effetti quantistici entreranno in gioco. Una possibilità è quella di abbracciare dei paradigmi completamente nuovi, come l’informatica quantistica (che promette velocità esponenzialmente elevate per alcune tipologie computazionali), o il calcolo neuromorfico, che mira a modellare elementi di elaborazione sui neuroni nel cervello. Ma nessuno di questi paradigmi alternativi ha avuto ancora applicazioni al di fuori del laboratorio. Un approccio diverso è la ricerca di un materiale semiconduttore in sostituzione del silicio, in grado di generare molto meno calore. Ci sono molti candidati, che vanno da composti di grafene, a materiali spintronici, che consentono di effettuare i calcoli basandosi sulla rotazione degli elettroni, piuttosto che dal loro movimento. La ricerca è molto attiva, ma anche in questo campo non ci sono applicazioni note al di fuori della ricerca. Un’altra possibilità è infine quella di modificare l’architettura dei chip, sfruttando la terza dimensione e impilando strati di microprocessori. In linea di principio, questo dovrebbe permettere di impacchettare più potenza computazionale nella stessa area. In pratica, tuttavia, questo attualmente funziona solo con chip di memoria, che usando circuiti che consumano energia solo quando si accede ad una cella di memoria, scaldano molto meno (esempio il progetto Hybrid Memory Cube, di Samsung e Micron Technology). Poiché almeno il 50% del totale del calore è attualmente generato dal flusso degli elettroni avanti e indietro tra le memorie e i microprocessori, una soluzione potrebbe essere quella di integrare le due tipologie di chip impilandole nella stessa scala nanometrica tridimensionale. Questo è difficile, anche perché i microprocessori attuali e i chip di memoria sono così diversi che non possono essere fatti sulla stessa linea di produzione. A Stanford hanno però sviluppato un’architettura ibrida che è molto promettente e che impila unità di memoria insieme a transistor a base di nanotubi di carbonio, che trasportano anche la corrente da strato a strato. A Berkeley, stanno invece lavorando sulle metodologie per ridurre i costi di progettazione dei nuovi chip: invece di partire da zero ogni volta, pensano che si dovrebbe creare i nuovi dispositivi, combinando grosse parti di circuiti esistenti già ottimizzati. È un po’ come con i mattoncini Lego: la sfida è fare in modo che i blocchi lavorino correttamente insieme, ma se si sceglie di usare i vecchi metodi di progettazione, i costi ed i tempi diventerebbero presto proibitivi. Come vediamo, la legge di Moore sta volgendo al termine in senso letterale, perché la crescita esponenziale del numero di transistor non può continuare, ma dal punto di vista del consumatore, la legge di Moore afferma semplicemente che il valore-utente raddoppia ogni due anni. E in questa forma, la legge continuerà finché l’industria sarà in grado di riempire i suoi dispositivi con nuove funzionalità. Le idee sono là fuori e le attività per ingegnerizzarle sono frementi, così come la ricerca a supporto…

 

Ishikawa or 5-Why – Which do you prefer for Root Cause Analysis?

Published by:

Discussione sulla RCA, proposta e pubblicata su LinkedIn da  Daniel Uebbing

Il diagramma di Ishikawa è il metodo più popolare per l’analisi delle cause, perché causa principale ed effetto sono presentate in modo conciso. Quali sono i vantaggi?

  • Ottimo metodo per la raccolta dettagliata delle cause principali
  • Presentatione delle inter relazioni
  • Chiara presentazione grafica
  • Elaboratione visuale delle cause alla radice
  • Secondo l’analisi delle cause è possibile avviare misure sostenibili
  • Strutturazione generale dei processi
  • Apprendibilità

Ma non bisogna ignorare il metodo dei 5-Perché per l’analisi delle cause. Il metodo 5-Perché viene utilizzato in qualità in tutto il mondo e soprattutto è aggiuntivo al metodo Ishikawa. L’uso di 5-perché è semplice e conveniente soluzione per economizzare le risorse interne.

Quali sono i vantaggi per riprodurre tutte le procedure amministrative necessarie all’interno di un software?

  • E’ possibile avviare misure sostenibili fuori dalla analisi delle cause
  • Per avere un processo standard all’interno della società per la documentazione del CIP Workshop e misure sostenibili.
  • Si garantisce la totale trasparenza di tutte le azioni nell’ambito del processo di miglioramento continuo
  • Si effettua una panoramica a disposizione di tutte le attività presenti
  • Siete sostenuti da un sistema di promemoria che assume la e-mailing automatica di promemoria, e vi sostiene per garantire il completamento contemporaneo di misure
  • Si dispone di una panoramica di tutte le attività che rimangono ancora da completare

D.Uebbing

Troubleshooting machines without wiring diagrams

Published by:

Segnaliano una discussione lanciata su LinkedIn da Lue Yang, Electronic Circuit Board Repair Specialist For OEM’s.

Troubleshooting machines without wiring diagrams

I’ve been in many plants helping maintenance friends/clients troubleshoot their machines without any wiring diagrams due to many reasons. Whatever the case may be, we were still troubleshooting with any wiring diagrams.
I wanted to reach out to all the Maintenance guys out there and draw on your experiences to see what creative ways you guys have worked around not having wiring diagrams for troubleshooting purposes?

Industry 4.0: Il futuro della manifattura

Published by:

Per la prima volta dall’inizio dell’era industriale, la vera fonte di valore non sono i prodotti in sé quanto i dati, considerati oggi il petrolio dell’era digitale. Resta da vedere se i cambiamenti positivi bilanceranno quelli negativi. L’Ue ha presentato in aprile un action plan

Per la prima volta dall’inizio dell’era industriale, la vera fonte di valore non sono i prodotti in sé quanto i dati, considerati oggi il petrolio dell’era digitale. È quanto prospetta la cosiddetta quarta rivoluzione industriale, o Industry 4.0, il concetto coniato durante la Fiera di Hannover del 2011.

Nel gennaio 2016 il presidente del World Economic Forum di Davos, Klaus Schwab, afferma: “L’ondata di innovazione attuale non ha precedenti nella storia. Comparata con le passate, l’odierna rivoluzione industriale sta evolvendo in maniera esponenziale piuttosto che seguire un andamento lineare”.

A guidare il cambiamento sono diverse tecnologie: sensori tecnologici in grado di collegare ogni oggetto al mondo digitale, intelligenza artificiale, internet mobile 5G, analisi dei big data, cloud computing, realtà aumentata e stampa in 3D.

Questa rivoluzione potrebbe, però, non avere lo stesso impatto sui diversi settori economici ed è da vedere se i cambiamenti positivi bilanceranno i negativi. Secondo un rapporto dello staff di ricerca del Parlamento Europeo, la digitalizzazione ha la potenzialità di invertire l’attuale processo di de-industrializzazione europea aiutando il settore manifatturiero ad assicurare il target del 20% del pil Ue.

Dal punto di vista tecnico la digitalizzazione è in grado di ottimizzare l’intera catena del valore, risparmiando su capitale, energia e lavoro a bassa qualifica. Le catene del valore integrato, secondo lo studio del parlamento, possono velocizzare il processo di manifattura del 70% in termini di tempi di consegna dei prodotti al mercato e garantire aumenti di produttività in diversi settori. Per le imprese, però, l’innovazione rappresenta un investimento rilevante, non sempre sostenibile per piccole e medie imprese, quantificato in 140 miliardi.

Inoltre la diffusione della robotica avanzata potrebbe assecondare lo schiacciamento della classe media se nuovi lavori non saranno creati in settori dove il capitale umano è essenziale, come nella cura alla persona. Lo stesso Klaus Schwab a Davos ha affermato “L’ineguaglianza rappresenta una delle grandi preoccupazioni associate alla quarta rivoluzione industriale” sottolineando come la tecnologia sia stata una delle cause maggiori della stagnazione dei salari nei paesi sviluppati.

La strategia europea

Secondo il Commissario Ue per l’innovazione, Carlos Moedas, i paesi europei di tradizione manifatturiera “non si stanno integrando con il mondo del digitale”. L’esecutivo europeo menziona anche la mancanza di un mercato unico digitale e il basso investimento in ricerca. Per affrontare questi cambiamenti la Commissione Europea ha presentato il 19 aprile un action plan su standardizzazione del mercato digitale europeo e cloud computing, oltre ad una serie di finanziamenti per aiutare le imprese a massimizzare la creazione del valore.

Sebbene Germania, Francia, Olanda e Regno Unito abbiano già presentato i loro piani di digitalizzazione industriale, la competizione globale resta alta di fronte alle posizioni quasi monopoliste di imprese come Google e Facebook. Se non governata, l’Internet of Things sarà una cattiva notizia per l’Europa perché sono soprattutto imprese americane come Amazon, Google, Apple e Facebook ad essere capaci di usare i dati per la creazione di veicoli automatici e prodotti costumizzati.

Ma anche L’Asia si sta preparando. Se il Giappone è il paese maggiormente avanzato su questo fronte, secondo Roland Berger, la Cina punta molto sulla stampa in 3D, cercando di trasformare la sua economia manifatturiera.

ClassEuractiv.it

Industry 4.0: la produzione diventa lean

Published by:

Oggi, nella maggior parte dei casi, il controllo della conformità dei pezzi avviene dopo lo stampaggio, quando lo scarto è già stato generato. La soluzione ideale, invece, è quella di agire a monte, implementando una procedura di qualificazione del processo per ogni singolo stampo, al fine di determinarne la precisione e la ripetibilità già dal collaudo. Perché un tale procedimento possa essere messo in atto è necessario definire chiaramente i parametri di processo critici, anche da gestire in fase di stampaggio, ed effettuare il controllo di processo con l’ausilio di strumenti di monitoraggio adeguati, per esempio l’andamento della pressione della cavità dello stampo e le curve grafiche di riferimento della pressa, ottenibili dalle unità di controllo avanzate. La parola chiave dell’industria del futuro, diventa quindi “digitalizzazione”.

Produzione “zero difetti”
Nello stampaggio a iniezione il potenziale dell’industria digitale è particolarmente evidente nella produzione di pezzi di grande complessità e in piccoli lotti, ma anche nei casi in cui è necessario effettuare cambi versione in modo rapido ed efficiente. Esigenze che, nella Filiera “Zero difetti” a Mecspe 2017 di Parma erano soddisfatte da una pressa Arburg, accessoriata in modo specifico, e dalle funzionalità del suo sistema di gestione ALS. Il progetto è stato sviluppato seguendo una logica improntata alla lean production, un concetto ancora relativamente poco applicato nel settore delle materie plastiche, al quale, invece, potrebbe portare enormi vantaggi nell’ottimizzazione dei tempi di produzione e nel controllo di processo, soprattutto nell’ottica di ottenere un manufatto privo di difetti.

Controllo a tuttotondo
Controllo di processo, nell’Industria 4.0, significa anche disporre di un sistema per la diagnosi precoce della deriva dei parametri di qualità, ma anche per la loro correzione in base a valori predefiniti, al fine di evitare che venga raggiunto il fuori tolleranza. Qualora le variazioni di tali parametri non siano correggibili in modo precoce, il sistema deve identificare i pezzi non conformi e quindi separarli per mezzo di robot o selettori di scarti. In un simile contesto, la macchina a iniezione diventa il fulcro dell’intero processo di stampaggio, perché attraverso l’unità di controllo, si interfaccia con le periferiche, le apparecchiature ausiliarie e lo stampo, permettendo sia il monitoraggio delle prestazioni della pressa stessa, sia il controllo di qualità in tempo reale. Controllo che avviene online, senza l’intervento dell’operatore.

Tracciabilità per ogni pezzo
Oltre alla visibilità e al controllo in tempo reale dei processi, un altro aspetto importante dell’operatività Industry 4.0 è la condivisione delle informazioni, realizzabile, per esempio, attraverso la codifica del pezzo con QR code, codice a barre o altro. Il sistema ALS della pressa rileva e memorizza i parametri di ogni stampata, oltre ad ogni altro parametro operativo delle attrezzature interfacciate, e ne permette la tracciabilità nel tempo, abbinando anche i parametri del pezzo alla confezione.

Tutto con lo smarphone
A Mecspe, nella Filiera “Zero difetti” ai visitatori veniva illustrato il processo di stampaggio a iniezione di un componente per il settore automobilistico destinato alla protezione dall’alta tensione: un pezzo tecnico di grande precisione e con caratteristiche critiche. Il manufatto veniva prodotto in una linea dove tutte le attrezzature – pressa a iniezione, ausiliari, periferiche, robot e marcatura laser – erano interfacciate tra loro. Il pezzo stampato, all’uscita della pressa veniva inviato a una stazione di marcatura laser per l’impressione di un QR code, che permetterà di risalire – mediante smartphone – ai parametri di processo di ogni pezzo specifico.

Ford, uomini e robot “mano nella mano”

Published by:

Gli inventori della catena di montaggio tornano a rivoluzionare le fabbriche. Il sito produttivo di Colonia, in Germania, sta sperimentando degli speciali co-bot che hanno raggiunto un tale livello di precisione da effettuare sia lavori più pesanti che fare un massaggio vibrante alla nuca di un operaio.

Un robot, o meglio un co-bot – robot collaborativo – che lavora “mano nella mano” con gli operai, compiendo le mansioni più pesanti: ecco la novità che Ford ha introdotto nella sua fabbrica di Colonia, in Germania, dove nella linea di montaggio di Fiesta, uomini e macchine costruiscono vetture fianco a fianco. I co-bot sono impiegati per eseguire compiti che richiedono forza, destrezza e precisione, rendendo il lavoro degli operai più leggero e sicuro. E proprio nell’ottica della collaborazione positiva, questi robot – composti di un braccio meccanico multifunzione – hanno raggiunto un tale livello di precisione e sensibilità che sono anche in grado di fare un massaggio vibrante alla testa di una persona o preparare un caffè, come si vede dal video rilasciato da Ford.

ford

“I robot stanno aiutando a rendere le attività più facili, più sicure e più veloci, integrando i nostri dipendenti con abilità hanno fatto aprire mondi di produzione e progettazione di nuovi modelli Ford senza limiti”, ha dichiarato Karl Anton, direttore del dipartimento vehicle operations di Ford Europa. “Lavorare in alto con strumenti pneumatici pesanti è un lavoro duro che richiede forza, resistenza e precisione. Il robot è un vero e proprio aiuto”, ha aggiunto l’addetto alla produzione Ngali Bongongo. Dunque un’esperienza positiva che rientra nel piano industriale 4.0 di Ford, ovvero la quarta rivoluzione industriale, frutto di due anni di progettazione in collaborazione con l’azienda tedesca specializzata KUKA Roboter GmbH.

Bibliografia

Published by:

Pubblichiamo una amplia bibliografia, utile riferimento di un manager di manutenzione, che comprende, oltre ai testi di riferimento su tecniche e metodologie applicate in manutenzione, anche le fondamentali pubblicazioni su Lean Production, TPM e WCM.

Manutenzione

AA.VV., Manuale di Manutenzione Industriale, Tecniche Nuove, 2005

L.Furlanetto, Manuale di manutenzione degli impianti industriali e servizi, Franco Angeli 1998

Block H.P., Geitner F.K., Machinery Failure Analysis and Troubleshooting, Gulf Professional Publishing, USA 1999 3rd edition

Block H.P., Geitner F.K., Improving Machinery Reliability, Gulf Professional Publishing, USA 1998 3rd edition

Cominoli F.M., La manutenzione si può anche fare, Pitagora Editrice Bologna, 2006

Vito D’Incognito, Progettare il sistema manutenzione, Franco Angeli, 1995

L.Fedele, L.Furlanetto, D.Saccardi, Progettare e gestire la manutenzione, McGraw-Hill, 2004

Marigo M., La manutenzione di macchine e impianti: sicurezza e affidabilità, EPC Editore, 2012

Vagliasindi F., Come organizzare la manutenzione, Franco Angeli, 1999

L.Furlanetto, C.Mastriforti, Outsourcing e global service, Franco Angeli, 2000

Problem Solving & Troubleshooting

Gano D.L., Apollo Root Cause Analysis – A New Way of Thinking, Third Edition by Dean L. Gano Copyright 2007

Kepner C., Tregoe B., The Rational Manager, Kepner.Tregoe Inc., Princeton, New Jersey, USA 1965

Mostia W.L., Troubleshooting: a technician’s guide, ISA -The Instrumentation, Systems & Automation Society, USA 2000

Reason J., Hobbs A., Managing Maintenance Error – A Pratical Guide, Ashgate 2004

Stefanini P., Metodi di ricerca e prevenzione dei guasti, II edizione, Tecniche Nuove, 2011

Lean Production, TPM e WCM

Harmon Roy L., Rinnovare la fabbrica, la produzione snella dal modello alla realtà, Il Sole 24 Ore, 1992.

Kobayashi I., 20 Keys to Workplace Improvement, Productivity Press, 1990.

Ishikawa K., Guida al controllo di qualità, Franco Angeli, 1988.

Nakajima S., Introduction to TPM, Productivity Press, 1988.

Nakajima S., TPM Development Program. Implementing Total Productive Maintenance, Productivity Press, 1988.

JMAC Consiel, JIPM , Applichiamo il TPM – Guida Operativa alla realizzazione del Total Productive Maintenance, Franco Angeli.

JMAC Consiel, JIPM ,Total Productive Maintenance. La sfida per un management creativo, Franco Angeli, 1998.

Ohno T., Lo spirito Toyota, Einaudi, 1993

J.P.Womack, D.T.Jones, Lean Thinking, Guerini e A.,1997

Shingo S., Il sistema di produzione giapponese “Toyota” dal punto di vista dell’industrial engineering, Franco Angeli, 1991.

Furlanetto L., Arata Adreani, Progettare la Fabbrica Snella, Franco Angeli 1999

Donini C., Il manuale della Lean Manufacturing, Franco Angeli 2004

Schonberger R.J., Tecniche produttive giapponesi. Nove lezioni di semplicità, Franco Angeli, 1988.

D.Falcone, F.DeFelice, A.Petrillo, Il World Class Manufacturing; origine, sviluppo e strumenti, McGraw-Hill, 2014

La manutenzione affidabilistica

Published by:

Il monitoraggio delle condizioni è una tecnica efficace ed abbastanza diffusa per prevedere e prevenire guasti incipienti sia in macchine rotanti che in altre apparecchiature industriali.

Nell’articolo “Condition Monitoring Is Not Enough” di J.Tranter (Mobius Institute, Australia) pubblicato su AMMJ, si affronta il tema in modo più ampio: sebbene il condition monitoring sia di vitale importanza, per massimizzare la pruduttività degli asset bisogna attuare un programma di analsi per la eliminazione delle condizioni anomale che possono generare il guasto stesso.

L’autore presenta in sostanza un approccio affidabilistico alla manutenzione, che coinvolge non solo aspetti tecnici, ma anche organizzativi.

leggi AMMJ pag.4

Repair versus Replace

Published by:

I modelli che descrivono il costo totale del ciclo di vita di un’entità sono importanti perché aiutano a valutare il costo globale di un asset, piuttosto che il solo costo iniziale di acquisto. Come possiamo utilizzare questi strumenti per definire quando riparare e quando sosstituire, in modo da progettare una efficace strategia di gestione delle risorse aziendali?

Leggi l’articolo di Andy Page pubblicato su maintword.com

ARG

Il latinorum ai tempi dell’industria 4.0

Published by:

La lingua italiana ha circa 60 milioni di parlanti  in patria, molti milioni all’estero; è la quarta lingua più parlata al mondo, vanta una tradizione culturale di grande livello, che non potrà mai tramontare; le nostre opere liriche sono ascoltate in italiano in tutto il mondo; la nostra lingua si accoppia bene ai primati connessi a cucina e turismo; molti stranieri vogliono parlare italiano per la sua particolare dolcezza e musicalità … peccato che qualcuno, proprio nella nostra classe dirigente, non di rado gli giri le spalle.

E’ facile riscontrare un uso eccessivo di anglismi integrali (cioè non adattati) in molti settori della comunicazione quotidiana, non solo tecnica: mission per mission o scopo, step per fase, location per posto o ambientazione, slide per diapositiva, spending review per revisione della spesa, crowdfunding per finanziamento collettivo, default per fallimento, jobs act per riforma del lavoro, stepchild adoption per adozione del figlio del compagno/a, bail-in per salvataggio interno.

Come nota Claudio Marazzini, Presidente dell’Accademia della Crusca, l’introduzione di anglicismi oscuri fanno ripensare alla funzione ingannatrice di quel latinorum di cui parlava Alessandro Manzoni nei Promessi Sposi: c’è il rischio che i termini-truffa entrino nei regolamenti, nei testi di valore giuridico che governano la vita dei cittadini.

Il modello Industria 4.0 cita termini quali Advanced Automation, Smart Manufacturing, Supply Chain Integration, big data, open data, Internet of things, machine-to-machine e cloud computing.

Anche nel linguaggio manutentivo si usano molti termini anglosassoni: si pensi ai vari indicatori MTBF, MTTR,…., accettati ed inseriti nelle normative UNI sulla manutenzione; per la misura delle prestazioni si parla di OEE (Overall Equipment Effectiveness) invece che Produttività o Resa o Rendimento, ma in molti confondono effectiveness (efficacia) con efficiency (efficienza); conosciamo la parola Equipment e non sappiano che il termine ufficale scelto da UNI per identificare la macchina (impianto, gruppo,linea, attrezzatura,…) è Entità; CMMS invece che SIM o sistemi informatici di manutenzione; outsourcing invece che terziarizzazione; failure per guasto e fault per avaria; usiamo l’acronimo KPI per indicatori di prestazione, ma lo leggiamo male, pronunciando chi-pi-ai invece che chei-pi-ai!

In effetti una parola inglese può ammazzare tre o quattro parole italiane, cancellando le sfumature che sempre sono proprie dei sinonimi, in compenso sintetizzando i concetti e velocizzando la comunicazione: anche i più restii se ne faranno una ragione, perché, in definitiva, la lingua riflette le condizioni della società che l’adopera.

Le svalutazioni sono sempre a somma zero?

Published by:

Un manager di manutenzione dedica gran parte del suo tempo alla propria professione: i quotidiani problemi di “produttività” degli impianti non devono però far perdere di vista gli altri aspetti socio-economici che determinano la qualità della nostra vita attuale e futura. Guardare oltre il nostro “recinto” può aiutare a capire meglio il mondo in cui viviamo: il primo contributo a questo obiettivo è fornito dalla lettura dell’articolo di Alessandro Fugnoli ,  pubblicato a fine aprile sul sito Trend-online.com  , sulle relazione fra tassi e monete e macroeconomie globali. Buona lettura.

Il vero esotismo non è viaggiare dall’altra parte del mondo per scoprire le differenze tra un McDonald’s asiatico e uno di casa nostra. Esotismo è viaggiare nel tempo. Non nel futuro, dal momento che la fantascienza è inevitabilmente proiezione del presente, ma nel passato anche prossimo, così strano e così alieno.

Ci fu un tempo, dall’origine della nostra specie fino a un secolo e mezzo fa, in cui il concetto di privacy era praticamente sconosciuto e perfino il corpo del sovrano era pubblico. Re Sole provvedeva ogni mattina ai bisogni del corpo in una grande sala e nel frattempo discorreva di affari di stato con ospiti e cortigiani. Aveva però il privilegio di potere dormire da solo, se voleva. La camera da letto, dal neolitico in poi, era comunque un concetto noto solo alle classi alte delle città. Nelle campagne del mondo la stragrande maggioranza degli esseri umani, una volta uscita dalle grotte, aveva sempre vissuto in comune in quello che oggi chiameremmo un monolocale senza bagno, che fosse uno yurt dell’Asia centrale, una capanna africana o una cascina padana da albero degli zoccoli.In questo monolocale si dormiva tutti insieme cercando di affrontare il gelo delle notti d’inverno senza disperdere calore. Nelle campagne cinesi di 7 mila anni fa si dormiva su pietre che erano state precedentemente messe vicino al fuoco, nella domus romana era già in uso il camino, ma indumenti spessi e pesanti coperte erano comunque indispensabili per sopravvivere. Con dieci o venti persone tutte insieme le notti erano movimentate e le coperte, tirate da tutte le parti, si rivelavano regolarmente troppo piccole e lasciavano inevitabilmente scoperto qualcuno.

Oggi abbiamo i termostati e le termocoperte, mentre al MIT hanno già pronta una pellicola di polimeri alimentati a energia solare che, applicata al pigiama, può regolarne a comando la temperatura. Il concetto di coperta troppo corta rimane però, come metafora, quando in economia si parla di risorse scarse da distribuire.A livello globale, come è ben noto, il bene scarso di questi nostri anni è la crescita, che è la coperta che ci protegge dalla disoccupazione di massa e dall’instabilità sociale. Questa coperta è così preziosa che i vari paesi cercano ogni volta che possono di tirarla dalla loro parte svalutando la loro moneta. Poiché però la mia svalutazione è la rivalutazione degli altri ecco che si usa dire che i riallineamenti sono a somma zero. Se svaluto esporto di più e importo di meno, ma a spese dei miei vicini. La crescita globale resta invariata e la guerra valutaria genera solo instabilità e confusione, per cui può addirittura risultare a somma negativa se il mio vantaggio competitivo diventa più piccolo del danno creato agli altri.Questo, quanto meno, è quello che si usa dire, scuotendo la testa, soprattutto quando a svalutare sono gli altri. Come tutte le frasi fatte (e come molte delle regole che si studiano sui manuali di economia) la teoria della somma zero vale qualche volta, ma non sempre.Ci sono infatti due casi in cui tirare la coperta può risultare a somma positiva e produrre più calore per tutti.

Il primo caso è quando si tira la coperta tutti insieme, allargandola (si suppone in questo caso che la coperta sia elastica). Se tutti i paesi creano contemporaneamente nuova base monetaria attraverso il Quantitative easing è come se tutti svalutassero l’uno verso l’altro. I rapporti di cambio rimangono alla fine invariati e si crea uno stimolo. Se lo stimolo mette in moto risorse inutilizzate crea crescita, se le risorse inutilizzate non esistono più crea solo inflazione. Se le risorse inutilizzate esistono ancora, ma non hanno voglia o modo di essere utilizzate lo stimolo ritorna al mittente (le banche ridepositano in banca centrale i soldi del Qe) e non succede niente. In questi anni abbiamo visto che lo stimolo ha avuto in parte il primo effetto e in parte il terzo. Alla fine, per quanto inferiore alle attese, è stato positivo.

Il secondo caso di coperta tirata a somma positiva è quando la coperta, senza cambiare forma o dimensione, viene spostata da una parte e dall’altra con uno spirito di cooperazione. Tutti abbiamo freddo, ma se qualcuno ha la febbre (e a turno capita a tutti) accettiamo di rimanere con una gamba o un braccio scoperti per coprire bene il malato. Se si tratta di un figlio piccolo lo facciamo volentieri, se si tratta di un parente lontano siamo meno lieti ma lo facciamo lo stesso. È lo spirito con cui si va ad aiutare il vicino che ha la casa a fuoco perché si sa che il fuoco potrebbe arrivare anche da noi.In questi anni post-2008 la coperta l’hanno tirata per primi gli Stati Uniti, che hanno inventato (o riscoperto) il Qe e hanno deciso che se non guarivano loro non sarebbe guarito comunque nessuno. Gli altri hanno accettato. Lo yen è salito fino a 80, l’euro fino a 1.50 e il renminbi ha continuato a rafforzarsi fino all’agosto scorso.Gli Stati Uniti sono guariti e si è ammalato invece il Giappone, che nel 2013 e poi di nuovo a fine 2014 ha svalutato fino a che non sono occorsi 125 yen per comprare un dollaro. Nessuno dei vicini ha fatto i salti di gioia ma Abe è stato bravo a convincere il mondo che la svalutazione, accompagnata dalle altre misure fiscali e strutturali, ci avrebbe restituito un Giappone risanato.Nella primavera del 2014 è stata l’Europa, con la sua parte meridionale esausta dopo tre anni di austerità, a mettersi in malattia e a curarsi con Qe e svalutazione. Anche questa volta i vicini hanno accettato di spostare la coperta. Un’implosione dell’Europa in un mondo fragile sarebbe stata devastante.

Nel 2013 hanno cominciato ad ammalarsi anche molti emergenti. La febbre si è alzata di nuovo nel 2015 per i molti di loro che producono materie prime e ha raggiunto in certi casi livelli pericolosi. E così l’anno scorso è stato loro concesso di tirare la coperta aggressivamente. Oggi non sono guariti, ma sono comunque sopravvissuti a una crisi gravissima e, sia pure barcollanti, sono di nuovo in piedi.Nel 2015, in agosto, la Cina ha smesso di fare finta di essere sana e ha fatto capire ai vicini di non farcela più a stare agganciata a un dollaro sempre più forte. In settembre la Yellen ha dichiarato ufficialmente che anche agli Stati Uniti cominciava a mancare il fiato. Questa idea è stata poi ribadita dalla stessa Yellen due settimane fa. Da settembre a oggi, del resto, l’economia americana è cresciuta pochissimo.Da qualche tempo, quindi, sono gli Stati Uniti (ufficialmente a nome della Cina) a tirare la coperta. Tutti gli altri hanno restituito all’incirca un quarto della loro svalutazione rispetto al dollaro.Il G 20 di Shanghai di fine febbraio si conferma ogni giorno di più come un piccolo Plaza (l’accordo del 1985 che fermò l’ascesa del dollaro). Nelle settimane che sono seguite a Shanghai abbiamo visto una nuova manovra europea studiata in modo da non indebolire l’euro. Il Giappone, dal canto suo, rinunciando ad allargare ulteriormente il suo Qe, ha implicitamente rinunciato a riportare lo yen a 125 (ora è a 108) anche se la sua economia ha perso una parte notevole dei progressi dovuti alla prima Abenomics. La Corea ha accettato di rivalutare insieme allo yen e perfino la Nuova Zelanda, rinunciando ad abbassare i tassi, ha accettato di non svalutare più.

Da una parte c’è la sensazione che allargare troppo il Qe è inutile e che i tassi negativi, oltre una certa misura, siano profondamente destabilizzanti. Dall’altra c’è la richiesta americana di una tregua sul dollaro.A questo punto la coperta è posizionata in modo ottimale, perché nessuno sta troppo bene e nessuno sta troppo male. Il paese che sta meglio, a guardare i numeri, è la Germania, che è anche quella che si lamenta più di tutti.La Germania, da paese mercantilista che non esporta mai abbastanza e non ha mai un cambio basso come vorrebbe, ha sviluppato negli anni una grande abilità nell’atteggiarsi a vittima. Prima l’unificazione, poi i disastrosi investimenti tedeschi nella tecnologia in bolla del 1999-2000, poi il peso morto del resto dell’Eurozona, poi il 2008, poi la Grecia e l’Italia, oggi la Cina in cui è più difficile esportare, Brexit, di nuovo la Grecia, le banche italiane, i rifugiati, insomma la Germania non è mai a corto di scuse per lamentarsi non solo all’interno dell’eurozona ma anche verso il resto del mondo. Dobbiamo comunque stare attenti a criticarla troppo, noi in Italia, perché questa capacità tedesca di tenere l’euro basso pur in presenza di un surplus delle partite correnti ci fa molto comodo.L’equilibrio attuale dei cambi può tenere a patto che tengano i suoi due anelli deboli, la Cina e l’America. Per l’America non c’è troppo da preoccuparsi perché ha una solidità strutturale senza pari. Per la Cina c’è da chiedersi quanto potrà andare avanti con lo stimolo del credito, ma per il momento le cose sono sotto controllo.

L’America, sempre più vicina alla piena occupazione, ha bisogno di alzare i tassi, ma non può farlo con un dollaro troppo forte. La coperta verrà dunque aggiustata fino a che la Cina sarà capace di assorbire un rialzo americano senza svalutare. In pratica ci sarà il rialzo il giorno in cui le economie americana e cinese andranno bene contemporaneamente. La prossima verifica sarà a giugno, ma se l’America andrà piano come adesso il rialzo verrà rimandato di nuovo.In questo clima tiepido e forse anche freddino borse e bond galleggiano senza troppi problemi. Il ribilanciamento dei portafogli dopo le vendite da panico di gennaio e febbraio è completato e lo spazio per salire è molto ridotto. In un mondo stabile (o semplicemente percepito come tale) occorrerebbe comunque uno shock esterno per fare ritracciare i mercati. Più che alleggerire si tratta quindi, in questa fase, di riposizionarsi verso ciclici ed emergenti nella speranza ragionevole che l’economia americana, grazie al dollaro più debole, torni ad accelerare.

Rapporto TESEM sulla manutenzione

Published by:

A fine 2015 TeSeM ha reso pubblico il report annuale, compendio di due interessanti indagini, complementari negli obiettivi e nelle modalità, ma sinergiche nei risultati: il benchmark della manutenzione, continuazione della ricerca iniziata nel 2012, e una riflessione sulle prospettive di implementazione dell’ Asset Management nell’industria italiana

L’Osservatorio TeSeM della School of Management del Politecnico di Milano è ormai riconosciuto come un punto di osservazione privilegiato sulle innovazioni di tecnologie e di servizi per la manutenzione. Sono oggetto di studio dell’Osservatorio tutti i temi pertinenti l’innovazione della manutenzione quali le tecnologie diagnostiche, i sistemi informativi e ICT di supporto, le pratiche di ingegneria di manutenzione, il full service e altre forme innovative per la fornitura di servizi di manutenzione, riservando una particolare attenzione alle conseguenze sul “business” aziendale e ai cambiamenti organizzativi indotti dalle innovazioni studiate. Con questi interessi di scopo, l’Osservatorio è un’iniziativa al di sopra delle parti che promuove la costituzione di una community permanente di confronto tra la domanda e l’offerta di tecnologie e servizi per la manutenzione.

Obiettivo della ricerca è di studiare l’evoluzione verso la manutenzione basata sulle condizioni (on condition maintenance), attraverso diversi stadi di sviluppo, a partire dalla manutenzione correttiva (a guasto) per arrivare al giusto mix di politiche che la rappresentino la soluzione ottimale per soddisfare le strategie e le sinergie aziendali. Per rispondere a questo obiettivo generale Tesem prevede di focalizzarsi sulle migliori pratiche e tecnologie disponibili, ponendo particolare attenzione a diversi fattori: il ruolo del sistema informativo per lo sviluppo delle politiche di manutenzione; le opportunità degli strumenti di mobile maintenance per l’attività sul campo; lo sviluppo delle tecnologie diagnostiche e prognostiche a supporto delle decisioni; il ruolo dell’ingegneria di manutenzione per la pianificazione delle politiche; lo sviluppo delle politiche e la gestione delle risorse di manutenzione.

leggi l’articolo pubblicato da Trasmissioni di Potenza (Tecniche Nuove Editore)

Industry 4.0, la voce di chi produce

Published by:

Si è svolto Venerdì 18 marzo ad Assago (MI) il Convegno Industry 4.0, la voce di chi produce, organizzato da Festo Spa in occasione del sessantesimo anniversario dalla sua fondazione.

Advanced Automation, Smart Factory & Smart Manufacturing, Supply Chain Integration, Interconnessione.

Cosa rappresentano le diverse facce dell’Industry 4.0 e Internet of Things per il settore manifatturiero e come impatteranno nella pratica sulle performance di business?
A che punto siamo in Italia e cosa cambierà realmente?
Come si stanno muovendo i costruttori di macchine e impianti per soddisfare le aspettative delle aziende produttrici?
Attorno a questi temi è giunta la testimonianza attiva di chi studia gli scenari, chi sviluppa la tecnologia, dei costruttori di plants & machines e degli attori dell’industrial manufacturing. Uno sguardo davvero a 360 gradi sull’Industry 4.0!

In modello industriale 4.0 scaturisce dalla quarta rivoluzione industriale. L’espressione tedesca Industrie 4.0 è stata usata per la prima volta alla Fiera di Hannover nel 2011 in Germania. Non esiste ancora una definizione esauriente del fenomeno, ma in estrema sintesi alcuni analisti tendono a descriverla come un processo che porterà alla produzione industriale completamente  automatizzata e interconnessa. Le nuove tecnologie digitali avranno un impatto profondo nell’ambito di quattro direttrici di sviluppo: la prima riguarda l’utilizzo dei dati, la potenza di calcolo e la connettività, e si declina in big data, open data, internet of things, machine-to-machine e cloud computing. La seconda è quella della analisi: una volta raccolti, i dati devono produrre valore. La terza direttrice di sviluppo è l’interazione tra uomo e macchina, che coinvolge le interfacce touch e la realtà aumentata. Infine il settore che si occupa del passaggio dal digitale al reale, che comprende la manifattura, la stampa 3D, la robotica, le comunicazioni, le interazioni machine-to-machine e le nuove tecnologie per immagazzinare e utilizzare l’energia in modo mirato, razionalizzando i costi e ottimizzando le prestazioni. Oltre a Festo Industrial Automation, anche il Gruppo BMW cambierà l’organizzazione produttiva della rete globale, annunciando il programma Manufacturing 4.0, orientato ad una maggiore digitalizzazione, ad un’ulteriore spinta sul fronte della robotizzazione e a una forte automazione della logistica.

Sarà fondamentale capire come i processi di manutenzione si dovranno inserire ed integrare nel modo più efficace e costruttivo nel modello industriale 4.o.

 

 

 

La nuova ISO9001: 2015, quali i principali cambiamenti

Published by:

È ormai certa per settembre 2015, l’emissione della nuova ISO9001 che conterrà modifiche sia di natura prettamente formale (termini, definizioni) sia operativa, ridando cosi energia e spinta ai sistemi di gestione per la qualità.

Gli obiettivi che la nuova edizione si pone sono quelli di riflettere i cambiamenti in un mondo del lavoro sempre più complesso e dinamico, di facilitare un’implementazione efficace presso le organizzazioni, di consentire verifiche di conformità efficaci, di utilizzare un frasario più semplice al fine di garantire un’interpretazione e comprensione dei requisiti la più uniforme possibile.

Si tratta ormai della quinta versione delle norme relative ai sistemi di gestione per la qualità o, meglio, della terza revisione sostanziale delle stesse. Abbiamo infatti avuto le norme edizione 1987 e 1994 seguite da quelle edizione 2000 e 2008 per giungere ora alla edizione 2015.

Leggi l’articolo completo sulla rivista Stampi (digitale).

Saluto del Presidente

Published by:

GittarelliLa genesi dell’ Associazione risale al 2011, quando è stata pubblicata la Norma UNI 11420 “Manutenzione – Qualifica del personale di manutenzione”, alla stesura della quale avevo partecipato attivamente come componente della Commissione UNI    Manutenzione.
Scopo della Norma UNI 11420 è quello di definire le conoscenze, le abilità e le competenze necessarie per acquisire uno specifico livello di qualifica professionale nella manutenzione.
Sulla base della norma e con il contributo dei partner europei, è stata poi preparata la norma EN 15628 di prossima pubblicazione. Successivamente alla norma UNI, l’ente CICPND ha pubblicato il Regolamento N° 299 per la certificazione delle competenze di manutenzione, suddividendo le professioni in tre livelli:

  • Specialista di manutenzione (Livello 1)
  • Supervisore e/o ingegnere di manutenzione (Livello 2)
  • Responsabile di manutenzione (Livello 3)

Infine ACCREDIA ha accreditato il processo per la certificazione delle figure professionali previste dal Regolamento CICPND. Il riconoscimento del processo di certificazione da parte di ACCREDIA ha fatto si che, finalmente, oggi si possa parlare di “professione“ del manutentore.

Nasce quindi l’esigenza di una Associazione in grado di rispondere puntualmente alle esigenze di rappresentanza (anche pubblica e formale) e di riconoscimento di una professione basilare nella gestione dei processi industriali, delle infrastrutture (porti, autostrade, aeroporti), delle facilities e delle utilities (e della loro relativa efficienza energetica).

Asso.E.Man. nasce pertanto con lo scopo primario di valorizzare e promuovere le figure degli Esperti nella Manutenzione certificati.
La certificazione professionale deve basarsi su protocolli ufficiali accreditati ACCREDIA e che operino in conformità alla norma ISO 17024.

Il Consiglio Direttivo dell’associazione sarà in carica per tre esercizi. Primo compito del Consiglio sarà la composizione di un Comitato Scientifico e la formazione di organismi tecnici consultivi. Riteniamo inoltre di vitale importanza la creazione di partnership e di collaborazioni con altre Associazioni, Imprese Private, Enti, Università e Centri di diffusione della Cultura della Manutenzione, in Italia e all’estero.

Perché una nuova associazione di manutenzione ?
Asso.E.Man. nasce principalmente come rappresentante e portavoce del personale di manutenzione che intende valorizzare la propria professionalità. Per questo motivo prevediamo due modalità associative:

  • I Soci ordinari, cioè i professionisti della manutenzione in possesso di una certificazione accreditata
  • I Soci affiliati, cioè coloro che (anche se non certificati) sono comunque esperti di manutenzione riconosciuti dal Consiglio Direttivo della associazione

A nome dei soci fondatori e del Consiglio Direttivo sono pertanto lieto di invitare ad associarsi tutti coloro che hanno passione e visione “alta” del ruolo della manutenzione.
Ci accumunerà la volontà di essere portatori di alcuni importanti valori sociali:

  • la cultura della conservazione, contrapposta alla cultura del disinteresse e dello spreco dei beni e della energia
  • l’attenzione al mantenimento del valore dei beni e delle risorse, nella prospettiva della sostenibilità
  • la propensione ad operare garantendo la sicurezza nel lavoro e la cura dell’ambiente

Francesco Gittarelli
Presidente Asso.E.Man