Condividi, , Google Plus, LinkedIn,

Stampa

Pubblicato in:

Intelligenza artificiale per controllo e sicurezza delle infrastrutture

Il centro interdipartimentale SISCON del Politecnico di Torino, creato appositamente con il fine di promuovere ricerca, trasferimento tecnologico e consulenza nel campo delle infrastrutture civili, insieme ad alcuni partner aziendali, sta approfondendo lo studio delle tecniche dell’intelligenza artificiale, valutandone le potenzialità e le possibilità di applicazione ai processi di individuazione, valutazione e predizione del danno strutturale (DDEP, Damage Detection, Evaluation, Prediction)

sfondo chiaia

Monitoraggio e controllo di infrastrutture civili

I recenti eventi di crolli e la situazione di degrado riscontrata nelle infrastrutture (Figure 1A e 1B) hanno reso necessario valutare la sicurezza dei manufatti esistenti mediante un approccio olistico che associ alla ispezione e sperimentazione sugli elementi (anche alla scala reale) e alla valutazione locale delle caratteristiche dei materiali (attacchi chimici, corrosione e fatica, ecc.) la misura diretta dei segnali di sofferenza strutturale.

Per raggiungere questi obiettivi, i sistemi di monitoraggio devono evolvere verso il cosiddetto controllo “attivo”, richiedendo per ciascun manufatto la progettazione specifica del sistema centrata sulle peculiarità strutturali proprie dell’opera monitorata.

In tale maniera la tradizionale manutenzione correttiva (fix-it-when-it-broke) può evolvere verso la più affidabile risk-based maintenance ossia verso una strategia di manutenzione predittiva.

L’applicazione pratica del controllo attivo è, nel campo delle infrastrutture civili, molto più difficile che nel settore industriale (per esempio meccanico e aeronautico) per una serie di motivazioni.

  • Viadotti
    1A chiaia
    1A. Problematiche di degrado e collasso di viadotti esistenti in c.a. e c.a.p.
  • Degrado
    1B chiaia
    1B. Problematiche di degrado e collasso di viadotti esistenti in c.a. e c.a.p.

Innanzitutto, la scala delle opere civili implica complesse e continue interazioni con il territorio (rischio sismico e idrogeologico). In secondo luogo, la progettazione dei manufatti civili (si pensi all’emblematico caso degli impalcati in c.a. precompresso), fino a oggi, non ha tenuto conto dei requisiti elementari del design for maintenance.

Le parti critiche dei manufatti risultano spesso non ispezionabili, così come lo smontaggio e la sostituzione di elementi strutturali è nella maggior parte dei casi assai complessa e dispendiosa.

Si aggiunga a quanto detto che la progettazione strutturale civile, fino agli ultimi anni, non ha quasi mai tenuto conto dei requisiti di robustezza, limitandosi a quelli di resistenza.

Pertanto, nella concezione e dimensionamento delle opere non sono stati applicati i concetti di consequence-based design ben noti in altri campi dell’ingegneria (per esempio nucleare e aeronautica) grazie ai quali è possibile inibire il collasso sproporzionato originato da eventi locali e difendersi da eventi imprevedibili tipo “cigni neri” con conseguenze catastrofiche.

Le infrastrutture civili, per quanto sopra descritto, spesso forniscono una risposta altamente non lineare agli stress esterni. La rassicurante distribuzione gaussiana non rappresenta adeguatamente le situazioni estreme e le code statistiche (fat tails) stabiliscono la sicurezza dell’opera.

Il risultato è che, in molti casi, eventi di intensità maggiore possono colpire il sistema in maniera alquanto sproporzionata rispetto agli eventi più piccoli. In tal senso assumono particolare importanza nel monitoraggio i cosiddetti segnali deboli (weak signals), ossia quegli indicatori di cambiamento o sofferenza inizialmente non apprezzabili all’interno del rumore bianco di fondo, senza chiara correlazione con i trend macroscopici ma con tendenza a crescere e a moltiplicarsi improvvisamente e rapidamente diventando decisivi per la sicurezza dell’opera (Figura 2).

  • Manufatti
    2 chiaia
    2. Uno schema dei segnali deboli

Questo comportamento ricorda alcuni aspetti del corpo umano nel quale i neurotrasmettitori, attivati da cause esterne o interne, inviano al cervello la sensazione del dolore che rappresenta un vero e proprio “allarme” di uno stato patologico e consente di intervenire.

È interessante notare come il nostro sistema di monitoraggio e controllo possa, a volte, apparire illogico. Si pensi alla forte sensazione di dolore nei confronti della frattura di un arto o anche solo di un mal di testa. Il superamento della soglia di dolore (allarme) porta il sistema ad allontanarsi dalla causa evitando danni maggiori, o a prendere provvedimenti di cura.

Viceversa, il corpo non attiva il medesimo controllo nei confronti di eventi ben più gravi come gran parte delle neoplasie tumorali le quali attivano sensazioni di fastidio o dolore nel corpo umano soltanto quando la loro evoluzione è già in fase avanzata e spesso, purtroppo, non più curabile.

Mentre traumi ossei, urti e scottature rappresentano la quotidianità fin dai tempi dell’uomo di Neanderthal, le malattie tumorali si sono diffuse in tempi più recenti. Pertanto, il meccanismo genetico evolutivo del corpo umano non ha ancora sviluppato un efficace sistema di controllo attivo dei tumori.

Tuttavia il corpo umano, per effetto dei tumori, subisce alterazioni indirette visibili nel sangue, nel sistema linfatico e in quello ormonale. Uno dei principali scopi della ricerca oncologica è oggi l’identificazione dei cosiddetti marker, segnali deboli che diagnosticano l’attivazione di degenerazioni neoplastiche già dalle prime fasi, in modo da poter intervenire tempestivamente.

Come in oncologia, il complesso problema di riuscire a evidenziare – mediante tecniche robuste e possibilmente non distruttive – i marker di sofferenza e/o indebolimento nelle infrastrutture in esercizio (spesso occulti come ad esempio nel caso dei cavi di precompressione) può beneficiare delle moderne tecniche dell’Intelligenza Artificiale.  

L’intelligenza artificiale applicata

Le prime importanti applicazioni dell’Intelligenza Artificiale (IA) risalgono agli anni Ottanta del secolo scorso, con le reti neuronali e gli algoritmi genetici.

Dopo l’iniziale entusiasmo, a causa delle oggettive difficoltà tecnologiche, la spinta nella ricerca e sviluppo dell’AI subì un notevole rallentamento. Soltanto nell’ultimo decennio, grazie alla nuova potenza computazionale, all’esuberante disponibilità di dati (Big Data), alla sensoristica a basso costo (IoT, Internet of Things) e ai progressi teorici nella ricerca, l’interesse accademico e industriale è esploso con enormi investimenti da parte di aziende e università.

In particolare le multinazionali digitali hanno stimolato lo sviluppo di sistemi esperti per la pattern recognition e il machine learning oggi di uso corrente in svariati settori (Figure 3A e 3B).

  • Structural Health Monitoring
    3A chiaia
    3A. Esempio di pattern recognition di uso comune: il riconoscimento di specie vegetali
  • clustering
    3B chiaia
    3B. Esempio di pattern recognition di uso comune: il riconoscimento di specie facciale

L’obiettivo iniziale dell’IA era quello di realizzare una macchina intelligente con tutte le capacità intellettive e cognitive di un essere umano (inclusa l’immaginazione, considerata dagli antropologi come la vera capacità fautrice del successo dell’homo sapiens sul nostro pianeta).

A fronte di questa utopistica IA “forte”, la tecnologia ha – per ora – sviluppato applicazioni riconducibili a una IA “debole”, meno generale e completa, definibile come l’intelligenza di una macchina che risolve problemi specifici attraverso alcune capacità cognitive conferitegli.

Si tratta cioè di un’intelligenza applicativa, ossia di una razionalità (nel senso di saper fare la cosa giusta) che è quindi basata essenzialmente sulle sole capacità cognitive del ragionamento (escludendo capacità come la creatività, l’immaginazione, l’emozione).

Pertanto gli algoritmi di programmazione si basano sui ben noti paradigmi di ragionamento, quali ad esempio quello logico-matematico, quello tassonomico-gerarchico, quello probabilistico-statistico, quello diagnostico-causale e quello analogico spazio-temporale.

In tale contesto, ad esempio, l’IA ha consentito di perfezionare e potenziare i noti modelli di analisi di rischio industriale e strategico e come la fault-tree analysis e il modello Swiss Cheese (Figura 4), mediante semplici implementazioni di algoritmi di ragionamento tassonomici e gerarchici arricchiti da valutazioni statistiche.

  • Sicurezza
    4 chiaia
    4. Il modello “swiss-cheese” di verifica della sicurezza di un sistema

L’applicazione dell’intelligenza artificiale al controllo delle infrastrutture

Il Centro interdipartimentale SISCON del Politecnico di Torino, creato appositamente con il fine di promuovere ricerca, trasferimento tecnologico e consulenza nel campo delle infrastrutture civili, insieme ad alcuni partner aziendali come RFI SpA, sta approfondendo lo studio delle tecniche dell’intelligenza artificiale, valutandone le potenzialità e le possibilità di applicazione ai processi di individuazione, valutazione e predizione del danno strutturale (DDEP, Damage Detection, Evaluation, Prediction).

Il cardine di questo nuovo e rivoluzionario approccio risiede nel concetto per cui un sistema di IA adeguatamente programmato e allenato è in grado di apprendere le relazioni emergenti dai dati sperimentali e monitorati rendendo, di conseguenza, manifeste le “strutture logiche” del comportamento strutturale dell’opera, anche indipendentemente dalle leggi e dai modelli classici della meccanica strutturale.

In tal modo, analizzando i dati provenienti dal sistema di monitoraggio (per esempio sensori accelerometrici acustici e ambientali, inclinometri, estensimetri) e individuando i possibili segnali deboli di sofferenza, diviene possibile estrarre i parametri sensibili al danno, dai quali il sistema di IA possa ricavare lo stato di salute della struttura oggetto di esame (intelligent damage detection).

L’implementazione di sistemi di machine learning consente di automatizzare i processi di Structural Health Monitoring (SHM), con il duplice vantaggio di ridurre la dipendenza dal fattore umano (si pensi alla soggettività intrinseca delle tradizionali procedure di ispezione e analisi difettologiche) e di gestire una base dei dati teoricamente infinita migliorando progressivamente – tramite allenamento continuo – le proprie capacità di damage detection e predittività.

La prima fase dell’attività di un sistema di SHM basato sull’Intelligenza Artificiale ha come obiettivi la scoperta e localizzazione dei segnali di sofferenza e/o comportamento anomalo della struttura (Figura 5).

  • Politecnico di Torino
    5 chiaia
    5. Il flusso schematico di un sistema IA di Structural Health Monitoring

Ciò richiede un buon livello di conoscenza (LC) dell’opera, tramite le indagini dirette sui materiali e l’analisi del progetto, e l’identificazione dello stato di danneggiamento, ricavabile tramite i sistemi di monitoraggio attivo.

Obiettivo successivo è la cosiddetta “classificazione” del danno con la valutazione della sua estensione e localizzazione più probabile. Tale attività implica il clustering delle informazioni e la scelta dell’algoritmo di classificazione più adatto alla problematica richiesta (Figura 6).

Le strategie di apprendimento possono basarsi sulla filosofia dell’unsupervised learning, ossia sull’addestramento del sistema IA tramite semplici data set senza indicazioni riguardanti il risultato: in tal modo il sistema riesce a tracciare la struttura logica che sovrintende ai dati senza l’interpretazione modellistica degli stessi.

In alternativa, la filosofia del supervised learning prevede l’utilizzo di algoritmi, come le reti neurali, addestrati attraverso l’assegnazione di set di dati a cui è associato un output consistente in un target che definisce la classe di appartenenza.

Nell’ambito dell’identificazione del danneggiamento strutturale si parla di strategie di novelty detection e anomaly detection, al fine di distinguere un segnale standard da uno patologico.

  • infrastrutture
    6 chiaia
    6. I criteri alla base delle fasi di clustering e di classificazione

Nell’ottica di una efficace “prognosi del danno” (DP), implicante la stima della sicurezza strutturale, occorre fornire al sistema esperto la capacità cognitiva di valutazione del ruolo, importanza e potenziali conseguenze delle eventuali anomalie rilevate, anche in relazione alle sollecitazioni e ai carichi esterni.

Il sistema dev’essere quindi opportunamente istruito tramite l’aggiunta del database di tutti i possibili meccanismi di collasso locale e globale (PFM, potential failure modes), che rappresenta ciò che nell’esperienza cognitiva umana è il dataset dei pericoli dai quali star lontani (Figura 7).

A questo punto il sistema esperto, finalmente dotato di tutte le conoscenze necessarie allo svolgimento dei suoi ragionamenti, è in grado di stimare l’importanza della patologia rilevata per la specifica situazione strutturale considerata (e quindi di valutare il rischio, in termini di conseguenze, di un eventuale default) e può fornire la predizione del livello corrente di sicurezza strutturale.

In tal modo il sistema elabora stime relative alla vita residua della struttura con il fine di mettere in campo le opportune strategie di manutenzione/riparazione o anche di fornire segnali di allarme e indicare i possibili limiti di transitabilità/esercizio del manufatto.

Sulla base di quanto sopra sinteticamente descritto, si deduce come la condizione necessaria per l’addestramento di sistemi IA per la diagnosi e prognosi strutturale sia la disponibilità di un adeguato set di addestramento per ogni classe.

Nel caso di ponti e viadotti, non essendo disponibili (fortunatamente) estesi database di collassi reali, l’algoritmo di machine learning deve essere addestrato tramite modelli virtuali (supervised learning) customizzati per le diverse tipologie strutturali.

  • Trave
    7 chiaia
    7. Uno schema esemplificativo dei potenziali modi di collasso in una trave in c.a.p. inflessa

L’adozione dell’IA, infine, implica importanti questioni etiche e di responsabilità. Tali sono, ad esempio, quelle associate all’utilizzo degli output del sistema esperto, ossia al loro ruolo di supporto alle decisioni umane o di autorità decisionale autonoma (si pensi alla decisione relativa alla subitanea inibizione al traffico di un ponte a valle dei segnali di warning provenienti dal sistema).

Risolte tali decisive questioni, l’inserimento degli algoritmi di IA nei processi di controllo delle strutture civili potrà rappresentare comunque uno strumento efficace per migliorare le politiche di gestione e manutenzione di patrimoni infrastrutturali complessi quali le reti stradali, autostradali e ferroviarie e i grandi sistemi idroelettrici.

>  Se questo articolo ti è piaciuto, iscriviti alla Newsletter mensile al link http://eepurl.com/dpKhwL  <