Dipartimento per l’Università, l’Alta Formazione artistica, musicale e coreutica e per la Ricerca Scientifica e Tecnologica

Direzione Generale per  il Coordinamento e lo Sviluppo della Ricerca

Ufficio VII - UPOC

 

 

 

UNIONE EUROPEA

 

 

Avviso  n. 1575/2004

 

 

Allegato B

“Schema per la redazione
 dell’elaborato progettuale”

 

 

 

Programma Operativo Nazionale 2000-2006

 “Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione”

Misura II.2 “Società dell’Informazione per il Sistema Scientifico Meridionale”

Azione a – Sistemi di calcolo e simulazione ad alte prestazioni

 

 

Il presente elaborato progettuale si compone di n 108 pagine comprensive della copertina e degli allegati.

Sezioni compilate:

Sezione

Allegato

X        Sezione 1

q                                                                    Allegato 1  

X        Sezione 2.1

q                                                                    Allegato 2  

q                                                                    Sezione 2.2

X        Allegato A: curricula

X        Sezione 2.3

X        Allegato B: lettere di intenti

X        Sezione 3

q                                                                     

X        Sezione 4

q                                                                     

 

(Firma del Legale Rappresentante o di suo delegato)

 

________________________________________

 

Il presente documento costituisce lo schema  per la formulazione degli elaborati progettuali da presentare in risposta al presente avviso.

 

Le sezioni che compongono la struttura contengono tutte le informazioni indispensabili per una corretta valutazione dei progetti e debbono pertanto essere correttamente compilate.

 

Lo schema per la redazione dei documenti progettuali viene articolato come di seguito riportato:

 

Sezione 1 – Dati riassuntivi, dedicata all’illustrazione sintetica di informazioni relative al progetto nel suo complesso, finalizzate a fornire un quadro di insieme e una base conoscitiva per la successiva lettura degli elementi di dettaglio dello stesso.

 

Sezione 2 – Soggetto proponente, che raccoglie elementi di sintesi sul soggetto proponente utili a valutare la competenza e l’esperienza del soggetto in relazione al progetto proposto in coerenza con i parametri di valutazione riportati al punto 11 dell’Avviso;

 

Sezione 3 – Il progetto, dedicata specificatamente all’illustrazione dei contenuti del progetto ed altresì finalizzata a  porre in evidenza le eventuali caratteristiche dell’intervento, in accordo con  i parametri di valutazione riportati al punto n. 11 dell’Avviso.

 

Sezione 4 – Piano finanziario del progetto

 

 

Allegato 1 – Dichiarazione dei requisiti di PMI

 

Allegato 2 -  Elementi per la valutazione dell’effetto incentivante dell’intervento cofinanziato

 

Allegato  3  Note per la redazione della documentazione


 

Sezione 1. Dati Riassuntivi

 

1.1.  Soggetto proponente[1]

 

Dati identificativi del soggetto proponente

Denominazione : ENEA - Ente per le Nuove Tecnologie, l' Energia e l' Ambiente

Indirizzo : Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA

Tel.

06-30486155

Fax

06-30484290

e-mail

taglienti@casaccia.enea.it

 

Rappresentante legale

 

Nominativo

Prof. Carlo Rubbia

Indirizzo : Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA

Tel.

06-36272294

Fax

06-36272640

e-mail

carlo.rubbia@enea.it

 

 

 

 

Persona delegata dal Rappresentante legale[2]

 

Nominativo

Ing. Sandro Taglienti

Ente e struttura di appartenenza

ENEA

Indirizzo : Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA

Tel.

06-30486155

Fax

06-30484290

e-mail

taglienti@casaccia.enea.it

 

 

 

Responsabile scientifico/tecnico  del  progetto

Nominativo

Ing. Silvio Migliori

Ente e struttura di appartenenza

ENEA

Indirizzo

Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA

Tel.

06-36272232

Fax

06-36272640

e-mail

migliori@enea.it

 

 

 

Responsabile amministrativo del  progetto

 

Nominativo

Dr. Andrea Quintiliani

Ente e struttura di appartenenza

ENEA

Indirizzo

CR Casaccia Via Anguillarese 301 00060

S. Maria di Galeria ROMA

Tel.

06-30486134

Fax

06-30484290

e-mail

quintiliani@casaccia.enea.it

 


 

1.2 In caso di Consorzi  riportare per ciascun soggetto consorziato le seguenti informazioni:

 

 

 

Denominazione del soggetto consorziato

Sede legale[3]

Natura giuridica[4]

Quota di partecipazione al Fondo consortile[5]

(valore %)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

TOTALE

 

 

 

 

 

 

 

1.3       Data di costituzione e di scadenza del Consorzio.

 

Data di costituzione __ __/__ __/__ __ __ __    Data di scadenza __ __/__ __/__ __ __ __   

 

 

 

 

1.4              Dimensione del Consorzio

 

q                                           PMI 

 

q                                            GI

 

 

(In caso di PMI  la dichiarazione di cui all’Allegato 1 è parte integrante dell’elaborato progettuale)

 

 

 

 

 

 

1.5 . Tipologia di attività  di riferimento (barrare la tipologia di riferimento, ogni proposta progettuale potrà fare riferimento a più ’  tipologie di attività)

 

Azione a della Misura II.2

Tipologia di attività

 

Nuovi sistemi di calcolo ad alte prestazioni orientati alla modellistica computazionale per la ricerca fondamentale e per le applicazioni tecnologiche in campi quali ad esempio la fisica, la chimica, le nanoscienze, le bioscienze, la farmaceutica, l’ambiente, l’ingegneria; con particolare riferimento allo sviluppo di codici originali (I.)

 

X

Nuovi  sistemi per la gestione e l’elaborazione di grandi banche dati in settori strategici della ricerca (quali ad esempio bioscienze, nanoscienze) (II.)

X

Nuovi   sistemi orientati alla simulazione multimediale anche di tipo immersivo, e/o con interazione multimodale, per applicazioni in settori prioritari quali ad esempio l’ingegneria, la struttura della materia, la progettazione ambientale (III.)

X

 

 

1. 6. Titolo del progetto

 

 

Centro Computazionale di RicErca sui Sistemi COmplessi - CRESCO

 

 

 

 

1.7 . Obiettivo finale del progetto e risultati disponibili a conclusione delle attività  (max 20 righe)

 

Il progetto ha come obiettivo la realizzazione, presso il Centro Ricerche ENEA di Portici (NA), di un importante Polo di calcolo multidisciplinare per lo studio dei sistemi complessi di natura biologica e tecnologica, collegato con facilities di elaborazione, archiviazione e visualizzazione 3D di dati ubicate presso i Centri ENEA di Brindisi e Trisaia (MT).

Sul versante infrastrutturale il Progetto prevede la realizzazione di una piattaforma di calcolo di assoluta eccellenza in grado di erogare una potenza dell’ordine del Teraflop, corredata di una nuova classe di funzionalità GRID innovative.

Sul piano delle applicazioni e dei contenuti scientifici, il Centro si focalizza sui seguenti ambiti principali:

·         lo studio di oggetti biologici dal punto di vista “sistemico” (in silico cell) e lo studio di sistemi naturali (comunità animali) secondo il paradigma dei sistemi complessi

·         lo studio di sistemi tecnologici e sociali complessi e delle loro mutue interazioni, e la realizzazione di opportuni strumenti per il modelling, la simulazione e il controllo di questi sistemi e di quelle interazioni;

·         l’implementazione di soluzioni innovative di GRID computing per le attività di R&S di punta dell’ENEA che richiedano l’utilizzo di risorse computazionali estremamente importanti.

 

 

 

 

1.8. Fasi della ricerca e sviluppo interessate dall’intervento

 

X         Ricerca Fondamentale

X         Ricerca Industriale

q                                                 Sviluppo Precompetitivo

 

 

1.9.            Sintesi dell’effetto di incentivazione dell’aiuto di stato (solo per Grandi Imprese. Riportare sinteticamente -  max 5 righe – quanto indicato nella scheda di cui all’Allegato 2 da considerarsi parte integrante dell’elaborato progettuale)

 

......................................................................................................................................................................................................................................................................................................................................................................................

 

 

1.10    Costo complessivo del progetto

 

               € 9.292.000

Il costo complessivo del progetto è da considerarsi al lordo dell’IVA, solo nel caso in cui  l’IVA non sia trasferibile e quindi costituisca un costo effettivo per il proponente.)

 

 

 

1.11.        Ripartizione costo complessivo per  tipologia di attività di ricerca

 

Attività

Quota di attività (%) (*)

Valore in Euro

% su costo totale

Ricerca Fondamentale

79,3

8.022.000

86,3

Ricerca Industriale

20,7

1.270.000

13,7

Sviluppo Precompetitivo

 

 

 

 

(*) Calcolata sulla base dell’impegno di personale.

 

1.12.        Maggiorazioni (valide solo per le attività di ricerca industriale e di sviluppo precompetitivo)

 

p                          PMI

p                          Aree 87 3a

p                          Partners UE

p                          Cooperazione con imprese produttrici di beni e servizi

p                          Ampia diffusione e pubblicazione dei risultati, concessione di brevetti, etc (art. 167 già art. 130 del trattato CE)


 

Sezione 2.                      Soggetto proponente

 

Sezione 2.1 -  Enti Pubblici di Ricerca e università 

(Sezione Riservata ai soggetti di cui ai sub A) e B) del punto 4 dell’Avviso)

 

Informazioni anagrafiche

 

Denominazione, sede legale, codice fiscale

 

ENEA – Ente per le Nuove Tecnologie, l’Energia e l’Ambiente

Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA

Cod. Fiscale: 01320740580

P. IVA: 00985801000

Codice di iscrizione all’Anagrafe Nazionale della Ricerche: 10002

 

 

L'ENEA, Ente per le Nuove tecnologie, l’Energia e l’Ambiente, è un ente pubblico che opera nei settori dell'energia, dell'ambiente e delle nuove tecnologie a supporto delle politiche di competitività e di sviluppo sostenibile del Paese.

I suoi compiti principali sono:

·         promuovere e svolgere attività di ricerca di base ed applicata e di innovazione tecnologica, anche mediante la realizzazione di prototipi e l'industrializzazione di prodotti;

·         diffondere e trasferire i risultati ottenuti, favorendone la valorizzazione a fini produttivi e sociali;

·         fornire a soggetti pubblici e privati servizi ad alto contenuto tecnologico, studi, ricerche, misure, prove e valutazioni.

Con queste finalità e nei settori di competenza, l'ENEA:

·         conduce progetti complessi di ricerca, sviluppo e dimostrazione, a prevalente contenuto ingegneristico e tecnologico, realizza e gestisce grandi attrezzature scientifiche;

·         valuta il grado di sviluppo di tecnologie avanzate, nonché i loro impatti economici e sociali, anche su richiesta delle pubbliche amministrazioni;

·         promuove la collaborazione con enti ed istituzioni di altri Paesi, anche per la definizione della normativa tecnica e la partecipazione ai grandi programmi di ricerca e agli organismi internazionali, fornendo competenze specifiche;

·         promuove, favorisce e sostiene processi di innovazione tecnologica del sistema produttivo nazionale, in particolare delle piccole e medie imprese;

·         collabora con le regioni e con le amministrazioni locali per promuovere, attraverso iniziative congiunte, lo sviluppo delle realtà produttive del territorio;

·         promuove la formazione e la crescita tecnico professionale dei ricercatori, anche attraverso apposite convenzioni con università nazionali ed internazionali.

L’ENEA svolge attività di ricerca scientifica e sviluppo tecnologico avvalendosi di competenze ad ampio spettro e di avanzate infrastrutture impiantistiche e strumentali dislocate presso i propri Centri di Ricerca.

L’Ente è dotato anche di una rete di sedi periferiche, distribuita su tutto il territorio nazionale, che promuove le attività dell’Ente e fornisce servizi di informazione e consulenza alle amministrazioni pubbliche e alle realtà produttive locali.

 

 

 

Fig. 1 Dislocazione dei principali Centri di Ricerca ENEA

 

 

Il Progetto è coordinato dal Servizio Centralizzato Informatica e Reti – INFO, ma vede la partecipazione di personale appartenente alle seguenti Unità dell’Ente:

·         Unità Tecnico-scientifica Materiali e Nuove Tecnologie – MAT

·         Unità Tecnico-scientifica Biotecnologie, protezione della Salute e degli Ecosistemi – BIOTEC

·         Unità Tecnico-scientifica Protezione e sviluppo dell’Ambiente e del Territorio – PROT

·         Unità Tecnico-scientifica Fonti rinnovabili e Cicli energetici innovativi – ENE

·         Progetto Speciale Clima Globale – CLIM

·          Servizio Calcolo e Modellistica – CAMO

·         Unità Tecnico-scientifica Fusione - FUS

 

 

Attività del Servizio Centralizzato Informatica e Reti – INFO

 

Il Servizio Centralizzato Informatica e Reti è in primo luogo responsabile, in ENEA, di tutti i servizi di elaborazione e trasmissione dei dati e di sviluppo di applicazioni informatiche. In questo ambito coopera con gli utenti, in tutte le fasi dei processi: sviluppo di tecnologie ICT, sviluppo di modelli, definizione procedure, messa a punto codici, scelta di ambienti operativi, personalizzazione di ambienti operativi per l’impiego dei sistemi e delle reti, gestione di sistemi. Il campo di intervento è estremamente ampio, toccando settori scientifici, ingegneristici, gestionali ed amministrativi.

 

In effetti, le tecnologie dell’informazione e delle comunicazioni ed il calcolo scientifico forniscono alimento sia alle attività di Ricerca e Sviluppo Tecnologico, sia alla gestione dei processi interni connessi con il funzionamento di un’organizzazione complessa.

 

L’attività di ricerca scientifica vede ormai sempre più frequentemente, in supporto allo studioso della specifica disciplina (energetica, scienza dei materiali, scienze ambientali e climatologia, termofluidodinamica, analisi di sistemi, genomica, fisica ed ingegneria nucleare ecc.), l’esperto di calcolo e di tecnologie informatiche che a tali fini mette a punto strumenti di elaborazione ed interpretazione dei dati.

 

In entrambi i casi citati il contributo sul fronte del calcolo e dello sviluppo delle ICT è, in buona misura, trasversale rispetto al dominio applicativo e si concentra su competenze (sistemi informativi aziendali e sistemi di supporto alle decisioni; elaborazione, interpretazione e presentazione dati; sistemi per la comunicazione e la formazione, interfacce avanzate uomo-macchina) che, per l’intrinseca complessità e per la rapida evoluzione di metodi e tecnologie, possono essere adeguatamente presidiate solo da personale dedicato in possesso di elevato grado di specializzazione.

 

Le architetture di calcolo, a loro volta, evolvono, con il progresso tecnologico nella microelettronica e nelle telecomunicazioni, verso configurazioni a rete che, per essere sfruttate al meglio delle loro potenzialità, vengono progettate, aggiornate e gestite da specialisti informatici operanti a stretto contatto con gli utenti, siano essi ricercatori, modellisti o responsabili di processi amministrativi e gestionali.

per l’area gestionale.

 

Negli ultimi anni ENEA-INFO ha investito fortemente in progetti di sviluppo di nuove soluzioni tecnologiche e di intervento strategico sulle infrastrutture dell’Ente, concretizzatisi nell’acquisizione di importanti progetti a finanziamento esterno.

 

Il Servizio INFO è presente con proprie risorse in tutti i principali Centri di ricerca dell’Ente, ivi compresi i 3 Centri ubicati nell’Obiettivo 1 interessati dal presente progetto.

 

Complessivamente, INFO dispone di 76 unità di personale a tempo indeterminato, di cui 31 con profilo tecnico-scientifico ed il rimanente con funzione tecnica e/o amministrativa.

 

 Come già accennato, il Servizio INFO ha il ruolo di coordinatore del progetto e di leadership nella Linea di Attività I “Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID Computing”, ma una parte sostanziale delle attività scientifiche previste sono svolte da personale appartenente ad altre Unità dell’Ente. La tabella che segue fornisce alcuni dati sulla consistenza del personale ENEA in generale e nei Centri ubicati nelle regioni dell’Obiettivo 1.

 

 

 

Unità Organizzativa ENEA

Personale totale

Di cui nelle sedi dell’Ob. 1

Serv. Centralizzato Informatica e Reti – INFO

76

6

Unità Materiali e Nuove Tecnologie – MAT

237

87

Unità Biotecnologie, protezione della Salute e degli Ecosistemi – BIOTEC

226

32

Unità Protezione e sviluppo dell’Ambiente e del Territorio – PROT

334

57

Unità Fonti rinnovabili e Cicli energetici innovativi – ENE

193

56

Progetto Speciale Clima Globale – CLIM

95

7

Servizio Calcolo e Modellistica – CAMO

28

-

Unità  Fusione - FUS

219

-

Totale Unità ENEA interessate

1.408

245

Totale ENEA

3.107

390

 

Tab. 1 Dati sulla numerosità del personale ENEA (al 31.12.2003)

 

Nel seguito una breve descrizione delle altre Unità ENEA interessate dal progetto.

 

Unità Materiali e Nuove Tecnologie – MAT

 

La missione della Unità Tecnico Scientifica Materiali e Nuove Tecnologie è la produzione di conoscenze, realizzazioni di materiali prototipali ed elaborazione, coordinamento di progetti complessi nel campo dei materiali innovativi, dei servizi metrologici, dei controlli e dei sistemi di qualità, a sostegno della competitività della produzione industriale, di nuova e qualificata occupazione e della sostenibilità dello sviluppo del Paese. Le principali aree di intervento sono:

·         Materiali Funzionali e loro Tecnologie d'Integrazione

·         Qualificazione di Materiali e Componenti, Metodologie di Misura e Metrologia

·         Sviluppo di Modellazione e di Metodi di Sintesi e Caratterizzazione di Materiali Nanofasici e Nanostrutturati

·         Sviluppo di Tecnologie e Processi di Sintesi, Trattamento di Superfici

·         Materiali Strutturati, Monoliti e Compositi

·         Manutenzione e Potenziamento del Patrimonio Strumentale e delle Tecnostrutture

·         Sviluppo di Competenze e di Nuova Progettualità

·         Servizi Tecnico Scientifici, Consulenze e Formazione Specialistica

·       Integrazione della Rete Materiale e Nuove Tecnologie nella Realtà Tecnico Scientifica Nazionale

 

Unità Biotecnologie, protezione della Salute e degli Ecosistemi – BIOTEC

Le attività dell’Unità Tecnico-Scientifica Biotecnologie, Protezione della Salute e degli Ecosistemi (BIOTEC) dell’ENEA sono relative ai settori agroalimentare e agroindustriale, sanitario e ambientale, con riferimento alle priorità del VI Programma Quadro dell'Unione Europea, nonché ai quattro assi strategici individuati dal Piano Nazionale delle Ricerche 2002.
In accordo con i quattro assi, vengono svolte attività di ricerca di base per l'avanzamento delle frontiere della conoscenza, attività di ricerca e sviluppo di tecnologie "abilitanti" a carattere multisettoriale (le biotecnologie in primis), di potenziamento della ricerca industriale e relativo sviluppo tecnologico e, infine, di innovazione in definiti contesti territoriali (come ad esempio aspetti specifici della gestione integrata del territorio e della tutela degli ecosistemi).

Le grandi tematiche di riferimento sono:

1.      Protezione della salute

2. Sviluppo di prodotti/processi a base biologica

3. Sicurezza alimentare e ambientale

4. Sviluppo del sistema agro-industriale

5. Studio e tutela degli ecosistemi

 

 Unità Fonti rinnovabili e Cicli energetici innovativi – ENE

Le attività dell’Unità Tecnico-Scientifica Fonti rinnovabili e cicli energetici innovativi dell’ENEA sono orientate alla ricerca e allo sviluppo tecnologico negli ambiti della produzione di energia da fonti rinnovabili e del miglioramento dell’efficienza energetica nei settori industriale, civile e dei trasporti.

L’Unità esercita nei confronti del mondo industriale e dei servizi un incisivo ruolo di stimolo all’innovazione di prodotto e di processo nel settore delle tecnologie energetiche strategiche e ambientalmente compatibili e partecipa alla nascita di nuove iniziative imprenditoriali in comparti innovativi mediante la realizzazione di prototipi pre-industriali.

Le attività dell’Unità, che consistono in sviluppo tecnologico, realizzazione di progetti strategici d’interesse nazionale e servizi di qualificazione energetica, riguardano prevalentemente i seguenti settori:

·         Fonti rinnovabili, in particolare fotovoltaico e biomasse. I principali obiettivi che si vogliono conseguire sono: lo sviluppo del fotovoltaico a concentrazione e delle tecnologie di produzione di celle a film sottili ad elevata efficienza; lo sviluppo della tecnologia della gassificazione delle biomasse e di processi innovativi per la produzione di nuovi vettori energetici. L’Unità partecipa, inoltre, alle attività del Grande Progetto ENEA "Solare Termodinamico", finalizzate allo sviluppo di impianti solari a concentrazione per la produzione di energia ad alta temperatura;

·         Cicli energetici innovativi. L’Unità opera per lo sviluppo di nuovi sistemi di produzione dell’energia caratterizzati dall’abbattimento quasi completo delle emissioni, basati su nuove tecnologie di combustione (mild combustion), sull’utilizzo di combustibili ricchi di idrogeno e su sistemi ibridi tipo celle a combustibile e microturbine a gas. Particolare rilevanza rivestono le attività volte a favorire lo sviluppo e la diffusione dell’idrogeno come il "combustibile del futuro", pulito ed economicamente compatibile per la produzione di energia elettrica; alcune delle attività in questo ambito sono condotte in collaborazione con il Grande Progetto ENEA "Idrogeno e celle a combustibile";

·         Usi finali dell’energia, in particolare nel settore trasporti. Gli interventi riguardano lo sviluppo di tecnologie per la gestione e il controllo della mobilità e del traffico e la sperimentazione di nuovi sistemi per autoveicoli innovativi a ridotto impatto ambientale (principalmente veicoli ibridi) destinati alle aree urbane.

Progetto Speciale Clima Globale – CLIM

 

Il Progetto ha la missione di fornire un contributo italiano, nel panorama delle ricerche internazionali sui cambiamenti globali, alla comprensione del clima e dei cambiamenti climatici, con una particolare attenzione all’area sud-europea e mediterranea, e di fornire consulenza qualificata alla Pubblica Amministrazione per far fronte agli impegni assunti dal Paese nell'ambito delle Convenzioni internazionali (clima, desertificazione, ozono stratosferico).

Tale missione può  essere sintetizzata nei seguenti punti:

a)      concorrere, nell'ambito degli sforzi internazionali sulle ricerche relative ai cambiamenti globali, a ridurre le incertezze scientifiche sulle conoscenze dei processi climatici ed ambientali globali, con particolare riferimento all'area mediterranea ed alla prevedibilità dell'evoluzione del clima e delle dinamiche ambientali complessive, sia nel breve che nel lungo termine;

b)      effettuare studi, analisi e valutazioni, in collaborazione con altri Enti ed Istituti di ricerca nazionali o internazionali, sulle conseguenze ambientali e socio-economiche, in area mediterranea ed in Italia, dei possibili o prevedibili cambiamenti globali, con particolare attenzione alle problematiche della siccità;

c)      fornire, in collaborazione con altre competenze ENEA, il supporto scientifico alla Pubblica Amministrazione per la individuazione delle iniziative di prevenzione e tutela ambientale che possano essere intraprese attraverso collaborazioni ed accordi a livello internazionale, nonché per la definizione delle azioni operative, in attuazione degli impegni assunti dall'Italia nelle convenzioni a carattere globale.

 

 

Servizio Calcolo e Modellistica – CAMO

 

Il Servizio fornisce un supporto di alto profilo nello svolgimento di attività di modellistica e simulazione e nello sviluppo di codici, tecnologie e sistemi per il calcolo, l’addestramento e il supporto alle decisioni, nei settori a maggiore complessità e trasversalità  nel contesto programmatico dell’ENEA.

Il Servizio CAMO opera in stretta collaborazione con il Servizio Centralizzato Informatica e Reti, e con le altre Unità ENEA,  nell’ambito di gruppi interdisciplinari di ricercatori, tecnologi e progettisti, appartenenti anche a organizzazioni esterne, per fornire competenze e strumenti nel campo della modellistica e simulazione, della codicistica e del calcolo, dello sviluppo di tecnologie e sistemi per l’addestramento ed il supporto alle decisioni, per un ampio spettro di problematiche fisiche, chimiche, strutturali e ingegneristiche di grande complessità.

 

In particolare:

 

·         sviluppa algoritmi innovativi, tecniche di modellistica e  simulazione, tecniche di visualizzazione scientifica e codici di calcolo di tipo generale e di diversa natura;

·         sviluppa e collabora nello sviluppo di applicazioni di calcolo e modellistica nei settori scientifici e tecnologici di interesse dell’Ente;

·         sviluppa nuove architetture, componenti e tecnologie di calcolo e reti ad alte prestazioni;

·         sviluppa nuove architetture basate su tecnologie ad Agenti Intelligenti per il monitoraggio e la riconfigurazione dinamica di sistemi e reti ad alta complessità;

·         sviluppa sistemi di addestramento e supporto alle decisioni basati sui concetti più innovativi di knowledge-management;

·         sviluppa interfacce basate sui principi ergonomici più innovativi allo scopo di facilitare l’usabilità dell’informazione;

·         promuove e/o svolge iniziative di formazione (corsi specialistici, borse di studio, tesi di laurea ecc.) e informazione (incontri, seminari, pubblicazioni, Internet).

 

 

Unità  Fusione – FUS

 

Il ruolo dell’Unità si articola sulle seguenti tematiche:

·         creazione di conoscenze nel campo della fusione termonucleare controllata mediante ricerche teoriche e sperimentali  in fisica del plasma per lo sfruttamento dell’energia da fusione;

·         sviluppo di sistemi, impianti e tecnologie,

·         definizione di scenari ed obiettivi in ambito internazionale;

·         valutazione di potenzialità ed applicazioni;

·         sviluppo delle ricadute tecnologiche connesse alla realizzazione delle macchine per la fusione con particolare riferimento alla superconduttività e alla telemanipolazione e robotica.

 

Fisica del confinamento magnetico

La Fisica del confinamento magnetico ha come obiettivi lo studio, la realizzazione e l’operazione di esperimenti basati sul principio del confinamento magnetico per la produzione di plasmi termonucleari. L’apparato sperimentale impiegato è il Tokamak FTU (Frascati Tokamak Upgrade). Il progetto FTU-D riguarda le attività di progettazione di un insieme di modifiche di FTU che permettano di ottenere, nella macchina, plasmi di sezione non circolare, con l’obiettivo di studiare i regimi di plasma cosiddetti “avanzati” a ridotto trasporto di energia dal plasma verso le pareti.

Il Progetto JET comprende le attività condotte sul JET (Joint European Torus) da personale dell’ENEA nel quadro dello European Fusion Development Agreement (EFDA) e il contributo finanziario italiano alla gestione della macchina.

Analogamente il Progetto RFX (Reversed Field Pinch) include i finanziamenti Euratom per il Consorzio RFX e l’apporto di personale ENEA alla gestione di RFX.

 

Il Progetto Ignitor

Il Progetto Ignitor prevede a medio termine la costruzione di una macchina ad alto campo magnetico estremamente compatta, che mira a esplorare plasmi in regime di ignizione.

Il progetto è inserito in un contesto di attività di ricerca più ampio che prevede, tra l’altro, l’istituzione di una infrastruttura sperimentale (una scuola e una struttura di formazione sulla fisica dei plasmi di livello internazionale) con il compito di produrre e studiare, per la prima volta al mondo, l’accensione controllata di plasmi termonucleari, impossibile sulle macchine attuali. Questo è il primo e fondamentale passo per lo sviluppo dell’energia nucleare da fusione, una nuova fonte energetica con notevole grado di compatibilità ambientale.

 

Fisica e tecnologia del confinamento inerziale

Sperimentazione con gli impianti di ricerca esistenti (ABC) nell’ambito della fisica del confinamento inerziale.

Sviluppo e mantenimento di capacità di valutazione critica nel campo della fusione a confinamento inerziale (watching-brief, secondo le indicazioni comunitarie) attraverso attività teorica esplorativa di schemi avanzati di fusione inerziale e attività sperimentale con l’impianto ABC.

Attività di watching-brief relativa alla realizzazione di un driver laser ad alta efficienza e frequenza di ripetizione mediante progetto e costruzione di moduli amplificatori pompati a diodi.

 

Nuova energia da idrogeno (Fusione fredda)

Questa attività consiste in ricerche sperimentali e tecniche riguardanti la produzione anomala di calore in reticoli metallici caricati con isotopi di idrogeno. In particolare si studia il sistema palladio-idrogeno. In questo contesto, si sviluppano: tecnologie di misura calorimetriche affidabili atte a misurare anche piccoli eccessi di calore, tecniche per la rivelazione di prodotti di reazione nucleare (elio) e studi teorici di base.

Si tratta di ricerche che hanno potenziali sviluppi conoscitivi e nelle quali l’ENEA ha acquisito esperienza e know-how. La collaborazione con LEDA ha ampliato tali caratteristiche e ha permesso di collocare le ricerche in un quadro teorico coerente. Si tratta comunque di ricerche alla frontiera della conoscenza, con l’alto rischio che alcuni obiettivi non vengano raggiunti in tempi stabiliti.

 

Radiofrequenza

Con la realizzazione degli impianti di riscaldamento ausiliario, per FT prima e FTU poi, si è costituita una notevole competenza nella realizzazione e gestione di impianti a RF di alta potenza (nel campo del MW) in un campo di frequenze da 0,5 GHz a 140 GHz. Essendo destinati alla sperimentazione su FTU, gli impianti sono soggetti a frequenti aggiornamenti e rifacimenti per garantire flessibilità operativa.

Gli obiettivi principali del progetto sono:

·         la comprensione teorica e sperimentale dei processi fisici di base dei plasmi confinati magneticamente e lo sviluppo tecnologico, in vista della realizzazione di un esperimento internazionale per lo studio di un burning plasma;

·         sviluppo del progetto Ignitor;

·         studi sulla fisica del confinamento inerziale in vista della partecipazione a programmi internazionali;

·         studi su approcci alternativi come quelli derivanti dai cosiddetti processi di “fusione fredda”.

 

 

 

 

Sezione 2.2 -  Consorzi

(Sezione riservata ai soggetti di cui al sub C) del punto 4 dell’Avviso)

 

Informazioni anagrafiche

 

o                                                      Ragione/denominazione sociale e forma giuridica, sede legale, estremi di iscrizione alla CCIAA e all’INPS (ramo di attività)

o     Capitale Sociale, soci e relative quote

o     Gruppo di appartenenza e suoi settori di attività (solo se la richiedente non ha i requisiti di PMI)

o                                                      Codice di iscrizione all’Anagrafe Nazionale della Ricerche (se già posseduto dalla richiedente)

 

Attività

 

o     Ramo di attività (indicare le attività del Consorzio come da atto costitutivo e/o statuto; principali attività produttive; ricavi dell’ultimo esercizio per vendite suddivisi per  beni e/o servizi; collocazione nel mercato))

o     Risorse umane (numero di dipendenti a data recente e sua ripartizione per funzione aziendale: direzione, amministrazione, produzione, ricerca e sviluppo, marketing, altre funzioni)

o     Sede di attività (ubicazione e principali linee di attività)

o     Rapporti sistematici con organizzazioni esterne di ricerca

 

 

Sezione 2.3 -  Competenze tecnico-scientifiche del soggetto proponente

 

o                              Strutture di ricerca e sviluppo, di progettazione da impiegare per l’esecuzione del progetto (laboratori e relative superfici; organico suddiviso in personale di ricerca, tecnico e amministrativo e relative qualifiche e profili professionali e sua compatibilità con gli impegni richiesti dal progetto proposto e dagli altri in contemporaneo svolgimento; attrezzature di particolare rilievo. )

 

L’ENEA, a seguito degli investimenti e delle recenti realizzazioni effettuate, è attualmente uno degli Enti pubblici maggiormente presenti sul territorio meridionale e opera in modo fortemente integrato con una pluralità di soggetti scientifici ed economici, pubblici e privati, attraverso una rete molto articolata di relazioni e progetti congiunti. L’Ente ha già realizzato una sperimentazione GRID al livello geografico che consente di condividere tutte le risorse informatiche presenti nei centri. Il “sistema virtuale” delle risorse informatiche distribuite per il calcolo scientifico e grafica avanzata dell’ENEA si pone ad un livello di assoluto rilievo nel panorama nazionale ed internazionale. Esso consente all’utente di utilizzare, in modo completamente automatico, qualunque calcolatore del sistema per eseguire i propri programmi ed elaborare i propri dati. E’ compito del sistema risolvere tutte le operazioni legate alla localizzazione fisica dei calcolatori, alla loro architettura e ai diversi sistemi operativi. Si ha quindi a disposizione un ambiente unico dove la scelta della stazione di lavoro da parte dell'utente è dipendente unicamente dalla portabilità dell'applicazione. L’attuale sistema integra le sedi ENEA di Bologna, Casaccia, Frascati  Portici (Fig. 2), Trisaia e Brindisi ove sono collocate le potenze di calcolo più rilevanti, per un totale di circa 500 GigaFlops.

 

 

Fig 2 Sala Calcolo Attuale del Centro ENEA Portici

 

I principali sistemi di supercalcolo vettoriali e paralleli che forniscono tali potenze, basati su architetture eterogenee (SIMD, MIMD, SMP), sono sistemi Quadrics/LinuxAlpha (100GigaFlops), sistemi IBM SP (300 GigaFlops), un sistema Cray SV1 (39 GigaFlops), oltre sistemi SGI e SUN e Cluster Linux per un totale di circa 100 GigaFlops, dislocati nei diversi Centri. Tali sistemi sono affiancati con strumenti di grafica avanzata immersivi ed interattivi. Tale potenza di calcolo è utilizzata da molteplici applicazioni scientifiche in diversi campi applicativi quali: reti neurali, scienza dei materiali, biotecnologie e genomica, chimica computazionale, elaborazione immagini, nuovi materiali, combustione, turbolenza, modelli climatologici, anche in collaborazioni con Università e Organizzazioni nazionali di ricerca. Negli attuali programmi ENEA si prevede il mantenimento e lo sviluppo di tali sistemi con particolare riguardo ai centri di Trisaia, Brindisi e Portici. Attività in tal senso sono già state effettuate.  La totalità delle infrastrutture delle infrastrutture sarà messa a disposizione per lo sviluppo e la realizzazione degli obiettivi del presente Progetto. In particolare presso il centro di Portici saranno  messe a disposizione :

 

v      un’area per l’installazione del sistema di supercalcolo di circa 250 mq  (Fig. 3).

Fig. 3. Area prevista per l’installazione delle infrastrutture relative al supercalcolatore

 

 

v      Un sistema per la visualizzazione tridimensionale immersiva (Fig. 4)

 

 

Fig. 4 Sala di Grafica 3D del centro di Portici

 

v      Una sala conferenza attrezzata con sistemi di videoconfrenza (Fig 5)

 

                                                   

Fig 5 Sala conferenze Centro ENEA Portici

 

Le infrastrutture citate sono state progettate e realizzate dal personale tecnico scientifico dell’ENEA che quindi ha acquisito un’esperienza pluriennale nella progettazione, realizzazione e gestione di sistemi ICT complessi ed a livello geografico.  In particolare si è realizzata un’infrastruttura che integra software commerciali, software provenienti dal modo della ricerca e software utente.

Le  attività di sviluppo ed implementazione sono state condotte in collaborazione con organismi nazionali ed internazionali, in particolare esiste una stretta collaborazione con il CERN ed ESA per lo sviluppo di griglie computazionali. L’ENEA è partner dei progetti GRID.it Wp 13 ed EGEE ( SA1). In questo ambito si stanno sviluppando tools innovativi di integrazione fra GRID. Inoltre è in corso di definizione sugli stessi temi un accordo di collaborazione con i laboratori USA Oak Ridge National Laboratories con cui l’ENEA ha rapporti di collaborazione storici. 

 

Per quanto riguarda le attività ricomprese nella Linea di Attività II “Sviluppo di tecnologie e modelli computazionali per la descrizione di sistemi complessi di origine biologica e di materiali innovativi” meglio descritta più avanti, le competenze ENEA sono legate all'area del Calcolo ad Alte  Prestazioni, in particolare alle applicazioni di calcolo scientifico da  effettuare sulle piattaforme di calcolo parallele. L'ENEA ha una  lunga esperienza in attività scientifiche, in differenti settori applicativi, dove il calcolo ad alte prestazioni risulta essere un  elemento abilitante, ed in passato, ha anche collaborato al  design e alla realizzazione di una piattaforma di calcolo eterogenea  (PQE1) che è stata successivamente utilizzata in diverse aree  applicative (scienza dei materiali, astrofisica, simulazioni  elettromagnetiche, bioinformatica etc.). Da diversi anni, si e'  sviluppata una competenza nella progettazione  di hardware, a livello di VHDL: è stato  sviluppato un tool per la progettazione di microprocessori che  implementano specifiche funzionalità, implementabili su logiche  riprogrammabili. Questa attività ha anche generato uno spin-off che ha  ricevuto il finanziamento MIUR nell'ambito del DL 297/99. L'Unità Calcolo e Modellistica svolge attività di consulenza a favore delle altre unità operative dell'ente, mettendo a disposizione il proprio know-how per la soluzione di problematiche computazionali complesse in settori quali l'analisi numerica, le tecniche di ottimizzazione, il trattamento di segnali e immagini etc. In questo senso, l'unità svolge un ruolo trasversale, di grande utilità a favore di aree disciplinari nelle quali le potenzialità offerte dall'approccio computazionale sono notevoli (si veda, come caso di rilievo, il settore della Biologia Computazionale e della Bioinformatica) ma rischiano di essere poco utilizzate per la difficoltà nel reperire specifiche competenze informatiche e di calcolo numerico a tale livello. L'unità Calcolo e Modellistica coordina inoltre un progetto FIRB (E-GEN) che mira ad integrare, attraverso le tecnologie informatiche, una serie di Laboratori tematici (Genomica, Proteomica, Profili Molecolari, Bioinformatica) che costituiscono una facility nazionale. Il Progetto CRESCO avrà, come suo ulteriore punto di forza, l'interconnessione di questa facility (con le infrastrutture sia HW che SW a disposizione) con l'elaboratore centrale previsto dal Progetto, in maniera da integrare efficacemente quanto già realizzato e disponibile dal progetto E-GEN con le attività previste dal progetto CRESCO.

 

Per quanto riguarda la Linea di Attività III “Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche complesse e delle loro interdipendenze”, meglio descritta più avanti, l’ENEA è già da qualche anno impegnato in attività di ricerca e sviluppo nel campo della modellistica e simulazione di reti tecnologiche complesse e delle loro interdipendenze, con particolare riferimento alle reti energetiche, al fine di analizzare la loro vulnerabilità ad eventi naturali, eventi deliberati, guasto dei componenti, e sviluppare tecnologie di diagnostica precoce degli stati anomali, di aiuto operatore e di addestramento alla gestione di situazioni di crisi, anche utilizzando simulazioni faster-than-real-time. In mancanza di adeguati finanziamenti nazionali le attività sono state svolte in ambito e con finanziamenti europei.

In particolare nell’ambito del V Programma Quadro della EU il Gruppo proponente ha partecipato ai Progetti EU-IST SAFEGUARD, EU-IST ACIP ed EU-IST SAFETUNNEL, tutti mirati allo sviluppo di modelli e tecnologie per valutare la vulnerabilità di reti tecnologiche complesse, in particolare reti di telecomunicazioni, reti elettriche e loro interdipendenze. In ambito VI Programma Quadro ENEA ha già ricevuto l’approvazione per due Progetti del tipo Coordinated Action nel settore specifico (CI2RCO e GIACS) e si appresta a presentare un Integrated Project. Tutto questo insieme di attività colloca ENEA dentro una vasta rete di collaborazioni nazionali e internazionali nel settore specifico, tanto da farne l’attore di riferimento nel panorama degli Enti di ricerca italiani. Beneficiando di tutta l’esperienza sopra descritta ENEA dispone di figure professionali di alto profilo a livello di gestione dei progetti e di modellistica e progettazione hardware e software che lavoreranno per il Progetto CRESCO. Al contrario, difetta di figure giovani per lo sviluppo del software e di alcune competenze specialistiche che saranno rese disponibili attraverso delle collaborazioni mirate con delle Università italiane. In aggiunta ENEA partecipa con un ruolo attivo ai lavori del Gruppo di Lavoro sulla Protezione delle Infrastrutture Critiche Informatizzate, presso la Presidenza del Consiglio dei Ministri, Dipartimento per l’Innovazione e le Tecnologie.

 

Con riferimento al soggetto della Linea di Attività Sviluppo di Modelli di Simulazione ed Analisi delle Reti Tecnologiche Complesse e delle loro Interdipendenze il Progetto CRESCO potrà beneficiare della partecipazione ENEA a reti di collaborazioni scientifica già stabilite in ambito di Progetti nazionali ed internazionali. Tra questi si cita la partecipazione ENEA ai Progetti EU di seguito elencati:

 

EU-FP5 IST-2001-32685 SAFEGUARD (Intelligent Agents Organisation to Enhance Dependability and Survivability of Large Complex Critical Infrastructures)

 

EU-FP5 IST-2001-37257 ACIP (Analysis & Assessment for Critical Infrastructure Protection)

 

EU-FP5 IST-2001-28099 SAFETUNNEL (Innnovative systems and frameworks for enhancing of traffic safety in road tunnels)

 

 

EU-FP6 NEST-2003-12380 GIACS (General Integration of the Applications of Complexity in Sciences)

 

EU-FP6 IST-2004-15818 CI2RCO (Critical Information Infrastructure Research Coordination)

 

La collaborazioni con l’analoga iniziativa degli Stati Uniti denominata NISAC (National Infrastructure Simulation and Analysis Center). Il NISAC è una iniziativa congiunta tra Los Alamos National Labs, Livermore National Labs e Sandia National Labs, sponsorizzata dal Governo degli Stati Uniti. ENEA ha già, da diversi anni, intrapreso uno scambio di informazioni, soprattutto di carattere metodologico, attraverso il Dipartimento di Stato degli Stati Uniti (vedere lettera in Allegato A).

 

La partecipazione ENEA al Gruppo di Lavoro della Presidenza del Consiglio dei Ministri, Dipartimento per l’Innovazione e le Tecnologie, denominato “Protezione delle Infrastrutture Critiche Informatizzate”.

 

 

Relativamente in particolare al Sotto prgetto III.6 “Sistema Informativo per la Salvaguardia delle Infrastrutture e della Popolazione”(v. più avanti) l’ENEA, attraverso il Progetto Speciale Clima Globale, si occupa principalmente dello sviluppo di metodologie di elaborazione dedicate alle applicazioni delle tecniche di Osservazione aerospaziale della Terra (OT) e dei sistemi informativi territoriali (SIT), alla pianificazione territoriale ed al monitoraggio ambientale.

Le attività svolte affrontano organicamente tutte le problematiche connesse con il processo di mutua integrazione delle tecnologie citate, in modo che esso risulti funzionale rispetto ai differenti obiettivi da conseguire. Tali problematiche includono, tra l'altro, lo sviluppo di algoritmi di elaborazione delle immagini di OT nonché la progettazione strutturale dei SIT e la loro coerente ed efficiente implementazione.

È utilizzato il Sistema EDI (ENEA Digital Imagery), iscritto all’Albo dei Laboratori di Ricerca Scientifica e Tecnologica del MIUR al n.° 64, e dedicato alla elaborazione delle informazioni geografiche, in formato raster (immagine) e vettoriale. È costituito da sistemi HW e SW allo stato dell'arte tecnologico.

Le moderne tecnologie dell'Osservazione Aerospaziale della Terra e dei Sistemi Informativi Territoriali offrono straordinari mezzi di monitoraggio, di conoscenza e di analisi dell'ambiente che risultano utilissimi in una vasta gamma di discipline scientifiche (geologia, idrologia, oceanografia, ecc…) e di problematiche territoriali (discariche, urbanizzazione e trasporti, pianificazione territoriale, inquinamento chimico e termico, clima globale, gestione di parchi ed aree protette, biodiversità, agricoltura ecocompatibile, emergenze ambientali, ecc). Tuttavia il reale fattore del successo applicativo di queste due tecnologie risiede nella capacità di svilupparle e di integrarle mutuamente per realizzare strumenti operativi con cui far fronte alle più diversificate esigenze.

I principali committenti dell’Unità appartengono alla Pubblica Amministrazione e tra essi compaiono: il Segretariato Generale della Presidenza della Repubblica, la Magistratura (alcune Procure della Repubblica), la Guardia di Finanza, il Ministero delle Finanze. Numerosi sono infine i contatti e gli impegni con altri organismi di ricerca e con le imprese.

 

Tra le principali attività di R&ST svolte negli ultimi anni dall’Unità CLIM su progetti nazionali e comunitari, si segnalano le seguenti:

 

·         GIS-ILA. Geographic Information System for Italian Logistics in Antartica, utilizzato principalmente dall’attuatore delle attività logistiche (Consorzio P.N.R.A) che si svolgono nell’area antartica di interesse italiano.

·         SIMU (Sistema di acquisizione ed analisi di Immagini per lo studio della Mobilità Urbana), finalizzato alla stima della quantità di autoveicoli presenti nel sistema viario di una città mediate tecniche di aerofotogrammetria digitale.

·         TRIDENT (Three-dimensional Restitution via Internet of Digital Elevation Networks in Towns), ricostruzione di modelli tridimensionali di edifici in aree urbane tramite metodologie di aerofotogrammetria digitale.

·         EOBEM (Earth Observation for woodlands, shrublands and grassland Biomass Estimate and Management), per studio della distribuzione della vegetazione e della biomassa vegetale ai fini della gestione del Parco Nazionale dei Monti Sibillini.

·         SIMMI, Sistema Integrato per il Monitoraggio e la Manutenzione di Infrastrutture ferroviarie.

·         SITAC, Il Sistema Informativo Territoriale Ambientale della tenuta Presidenziale di Castelporziano.

 

 

Alcune attività di ricerca saranno sviluppate da partner qualificati operanti nelle aree dell’obiettivo 1 e da Università anch’esse per la maggior parte operanti in tali aree (v. più avanti per la descrizione dei Sottoprogetti in riferimento):

 

 

PARTNER

Sottoprogetti di interesse

Università di Salerno

I.2, III.3, III.5

Università di Roma “Tor Vergata”

I.2, III.1, III.4, III.5

Università di Roma “La Sapienza”

I.5

Università di Catania

II.2, III.1

Università di Lecce

III.2

Università del Piemonte Orientale

III.2

Università di Palermo

III.3

Università del Sannio

III.5

Cons. Interuniversitario ECONA

III.4

CRIAI – Consorzio Campano di Ricerca per l’Informatica e l’Automazione Industriale

I.2, III.5

Consorzio BioTekNet (Centro Regionale di Competenza in Biotecnologie Industriali)

II.1

Parco Scientifico e Tecnologico della Sicilia

I.2, II.2

Consorzio CETMA

II.4

Soc. Ylichron (spin-off ENEA)

I.4

 

 

Per maggiore informazione, si riportano le caratteristiche dei principali partner non universitari coinvolti.

 

CETMA

 

Il CETMA nell’ambito dei progetti svolti, ha sviluppato know-how nel settore della modellistica, simulazione e metodi di progettazione. Le conoscenze acquisite sono continuamente valorizzate ed approfondite attraverso lo sviluppo di nuovi progetti che utilizzano strumenti con elevata potenza di calcolo. Gli ambiti applicativi riguardano la modellazione e simulazione numerica di sistemi complessi quali il crashworthiness, la termofluidodimanica, l’interazione fluido-struttura, l’acustica, processi produttivi, ecc..

Nell’ambito del Progetto TECPO “Metodologie e TEcniche di progettazione di componenti Ceramici tradizionali e componenti a base di POlimeri e loro compositi” cofinanziato dal MURST e dall’ UE (periodo 1998-2001), è stato condotto uno studio finalizzato allo sviluppo di metodi e tecniche di progettazione innovativi per prodotti ceramici tradizionali (TECPO-CER). I settori analizzati sono stati quello delle piastrelle, delle stoviglie e degli idrosanitari.

In sostanza, il risultato principale del progetto TECPO è stato quello di dimostrare quanto sia importante lo sviluppo di metodologie che consentano di calcolare le deformazioni che subisce un pezzo durante tutto il processo produttivo arrivando a prevedere in maniera affidabile la forma dello stampo.

Nell’ambito del Progetto MAVET (Moduli Avanzati per vettori di trasporto collettivo), attualmente in fase di sviluppo, si stanno realizzando una serie di metodologie di progettazione attraverso un approccio cooperativo e multidisciplinare che utilizzano le più avanzate tecnologie informatiche; in particolare ci si riferisce a tecniche di simulazione avanzata per la progettazione strutturale di sistemi complessi e per lo studio virtuale dell’interior design di vettori ferrotranviari. 

Nel progetto SIDART (Sistema Integrato per la diagnostica dei beni artistici) il consorzio ha sviluppato librerie software e strumenti per l’acquisizione, processing e visualizzazione di dati diagnostici nel settore dei beni culturali. La tematica dei Virtual Set in real-time è stata affrontata in LIVEART, in cui la realtà virtuale è stata utilizzata per la ricostruzione di ambientazioni storiche con complesse funzionalità di interazione. Modelli di simulazione complessi, sono stati sviluppati dal consorzio nel progetto ICIV, il cui obiettivo è stato quello di integrare tecniche di visualizzazione avanzata nella pianificazione urbanistica.

Infine, il Progetto PROCETMA, attualmente in fase finale di sviluppo, prevede la realizzazione di un sistema informatico/informativo distribuito per la simulazione e visualizzazione interattiva di fenomeni complessi nel settore dei trasporti, che si avvalga della potenza di calcolo della GRID computazionale SPACI. Questa struttura permetterà di potenziare ulteriormente il calcolo ingegneristico con codici applicativi già in uso presso i laboratori del CETMA. Si tratta di codici agli elementi finiti quali Ansys, Patran/Nastran, LSDyna, Gambit/Fluent, LMS Sysnoise.

 

Collaborazioni scientifiche in ambito nazionale e internazionale

 

Tra le collaborazioni scientifiche del CETMA si citano le seguenti:

-          Vetrotex Saint-Gobain (Paris – France), per lo sviluppo di tecniche per la trasformazione di materiali compositi a matrice termoplastica ;

-          CILEA (Milano), per lo sviluppo di tecniche di analisi CFD mediante il calcolo parallelo

-          Engine Soft srl (Bergamo), per lo sviluppo di modelli numerici relativi al comportamento a crash di componenti in composito

-          BIESSE (Pesaro), per la progettazione di componenti strutturali in composito per macchine per la lavorazione del legno

-          ALSTOM Ferroviaria SpA (Savigliano – CN), per la progettazione di un albero cardanico in materiale composito  

-          ORAD (Realizzazione del Virtual Reality Theatre del Consorzio mediante cluster di PC)

-          SGI (sviluppo di applicazioni in Realtà Virtuale con tecnologie OpenGL Performe)

-          Centro di eccellenza per il Supercalcolo dell’università della Calabria (Collaborazioni Scientifiche)

-          Collaborazioni tecnico-scientifiche con il Distretto di Civita Castellana per l’individuazione di metodologie e strumenti innovativi di progettazione di modelli e stampi per la produzione di idrosanitari.

 

CRIAI

 

Il CRIAI Scarl, Consorzio Campano di Ricerca per l’Informatica e l’Automazione Industriale, è un Centro di ricerca e formazione sulle tecnologie dell’Informatica e delle Telecomunicazioni promosso dall'Università degli Studi di Napoli “Federico II” in collaborazione con altri partner industriali. E' un’esperienza pubblico/privato nata per svolgere programmi di ricerca di respiro nazionale ed europeo che coinvolgono realtà accademiche ed industriali.

Il CRIAI vanta una storia quasi ventennale di ricerca e di produzione scientifica nell’Informatica e nell’Automazione Industriale che testimonia il ruolo di primo piano avuto dal consorzio tra le istituzioni scientifiche meridionali e nazionali.  Il CRIAI fu costituito in data 15.12.1980 per iniziativa dell'Università degli Studi di Napoli e di soggetti industriali. Il CRIAI fu tra i promotori dei Consorzi IATIN, SOFTIN, Napoli Ricerche.

Avvalendosi di una nuova compagine societaria, attualmente il centro di ricerca si è posto l’obiettivo di aprirsi verso programmi di ricerca che coinvolgano realtà accademiche ed industriali di respiro europeo e, al tempo stesso, garantire ricadute tecnologiche a favore del territorio campano.

Il CRIAI è:

·         Centro di Ricerca iscritto all'Albo dei Laboratori di Ricerca accreditati della Regione Campania.

·         Organismo formativo accreditato dalla Regione Campania relativamente agli Ambiti Formazione Superiore e Formazione continua.

·         Ente certificato UNI EN ISO 9001:2000 per la realizzazione di progetti di ricerca scientifica e tecnologica (sett. EA35) e per l'erogazione di corsi di formazione (sett. EA37).

 

Il Consorzio CRIAI ha lo scopo di effettuare Ricerca Scientifica e Tecnologica, Trasferimento delle tecnologie, Formazione di nuove figure professionali ed erogazione di servizi avanzati nei settori dell'Informatica e delle Telecomunicazioni.

Il CRIAI è strutturato in dipartimenti corrispondenti ad aree tematiche identificate come centrali e di riferimento per le attività di ricerca e formazione. Tale organizzazione tiene conto del carattere fortemente interdisciplinare dei campi di ricerca più innovativi, che possono essere trasversali anche alle suddette aree. In particolare le aree identificate sono le seguenti:

Area Telecomunicazioni,  che riguarda applicazioni che sfruttano prevalentemente i canali di TLC a larga banda, come quello satellitare, il supporto per la formazione a distanza, il content delivery, la telemedicina; realizzazioni di sistemi di localizzazione, rivolti, ad esempio, al mercato dei trasporti, che sfruttino le ultime tecnologie del settore, come i terminali e le reti wireless: sistemi di telefonia su reti di trasmissione dati ed innovazioni legate al business dei call e contact centers

Area Multimedialità, che riguarda applicazioni web based interattive, i servizi erogabili tramite web television, la formazione a distanza, la fruizione dei beni culturali mediante tecnologie avanzate

Area Realtà Virtuale, che tratta la sperimentazione e la realizzazione di tecniche orientate agli ambienti virtuali ed alla interazione uomo macchina.

Area Formazione, che ha l’obiettivo di promuovere interventi volti sia alla qualificazione ed al rafforzamento del potenziale umano nella ricerca, nella scienza e nella tecnologia, sia alla promozione ed al miglioramento della formazione superiore ed universitaria, sia alla promozione della partecipazione delle donne con formazione universitaria e/o post-universitaria al mercato del lavoro. Gli argomenti oggetto degli interventi saranno strettamente connessi al know-how interno del CRIAI ed in particolare alle attività di ricerca dei singoli dipartimenti.

Osservatorio e Trasferimento Tecnologico, con il compito di sondare costantemente i trend di mercato e gli orientamenti della comunità scientifica al fine di anticiparne la domanda e di tenere costantemente aggiornato il piano di ricerca. Tale area avrà anche il compito di facilitare il processo di trasferimento del know-how del CRIAI verso il mondo dell’industria.

 

Competenze GRID

 

IL CRIAI è da tempo impegnato sulla problematica GRID in collaborazione l’Università Federico II e con i Centri di Ricerca del territorio. In particolare è stata avviato un protocollo di intesa con la sezione INFN di Napoli, orientato al trasferimento tecnologico e alla collaborazione a progetti. Attualmente il personale CRIAI partecipa alle attività di sperimentazione dell’uso di servizi del middleware Globus Toolkit nell’ambito del progetto INFN CAMPUS GRID.

Per il Centro di Ricerche ENEA di Portici, il CRIAI è impegnato in attività di consulenza ed assistenza specialistica in ambiente AFS su sistemi operativi UNIX/Linux, dei prodotti GIS afferenti al progetto ENEA Tele-Grid.

E’ stata inoltre avviata una collaborazione la sezione INFM di Napoli per l’avviamento e la gestione di un ulteriore centro per il calcolo parallelo, in ambiente LINUS – PBS, nell’ambito delle attività del Centro di Competenza Regionale per il Rischio Ambientale.

 

Parco Scientifico e Tecnologico della Sicilia

 

Il Parco Scientifico e Tecnologico della Sicilia (PSTS) è una società consortile per azioni nata nel 1991 che associa centri di ricerca ed aziende operanti in diversi settori dell’economia siciliana, il cui socio di maggioranza (88%) è l’Assessorato Regionale all’Industria.

Coerentemente alla sua missione, il PST Sicilia si propone di sviluppare la cultura dell’innovazione e della qualità nelle imprese regionali attraverso azioni di trasferimento tecnologico e di accompagnamento mirate ad accrescerne la competitività, di stimolare l’avvio di nuove attività produttive, di favorire l’insediamento in Sicilia di imprese hi-tech. Tutto ciò al fine di contribuire allo sviluppo economico del tessuto produttivo.

A tale scopo - utilizzando le agevolazioni nazionali (L.297/99,PON 2000-2006), regionali (POR Sicilia 2000-2006) e comunitarie (Interreg) - sviluppa progetti di ricerca, di innovazione e di trasferimento tecnologico, e progetti di alta formazione in collaborazione con strutture pubbliche di ricerca, amministrazioni, grandi e piccole imprese. In tal modo ha realizzato un sistema di relazioni articolato a vari livelli che gli consente di affrontare problemi di ricerca complessi e di assicurare il trasferimento alle PMI locali.

In linea con  le ricadute attese da diversi progetti di innovazione e ricerca già avviati, il Parco ha iniziato a  predisporre negli ultimi anni  la propria struttura per potersi configurare anche come centro di servizi. 

Il Parco Scientifico e Tecnologico della Sicilia dispone nelle province di Catania e di Palermo, anche tramite il suo aggregato consortile, di una rete di laboratori di ricerca e sviluppo che afferiscono ai settori dei beni culturali ed ambientali, della microelettronica e delle tecnologie della comunicazione, della qualità e della sicurezza delle produzioni alimentari (inclusa la maricoltura) e che è in corso di ampliamento e di potenziamento con l’obiettivo di organizzare servizi avanzati per le PMI (analisi avanzate, testing, addestramento tecnologico, noleggio di piattaforme attrezzate,accompagnamento tecnologico). Il  programma è sviluppato permette all’azienda di acquisire ulteriori asset innovativi sui quali puntare nel trasferimento tecnologico e nel fornire i servizi al tessuto imprenditoriale siciliano.

In particolare, sulla base di analisi di mercato e dei contatti  con imprese e centri di ricerca del territorio siciliano, si stanno realizzando:

·         a Catania, il potenziamento del laboratorio per la sicurezza dei prodotti agro-alimentari e del laboratorio di prova sui materiali, nonché l’implementazione del laboratorio  per la validazione del software, già progettato mediante un precedente finanziamento MIUR ; 

·         a Palermo, l’ampliamento dei servizi di analisi e  testing per il restauro dei beni culturali, le terrecotte e le malte e il  laboratorio per la biologia marina e la maricoltura .

Un’adeguata azione di marketing territoriale, il portale e i siti istituzionali del Parco e dei Soci contribuiscono alla promozione dei servizi offerti dalla rete.

Le competenze dimostrate nella creazione delle condizioni più favorevoli per la realizzazione di nuovi prodotti, per l’innovazione dei processi produttivi, per l’innovazione dei modelli organizzativi e la creazione di nuova impresa, fanno del PSTS un punto di riferimento per gli attori del sistema economico, uno strumento a disposizione delle PMI ai fini della loro crescita e del miglioramento della loro competitività e visibilità internazionale.  Il modello operativo estremamente flessibile, basato sulla costante interazione e cooperazione con le realtà istituzionali ed imprenditoriali, anche a livello internazionale, e la strettissima relazione con il mondo accademico e della ricerca in generale, determinano una massa critica di relazioni e sinergie utili all’acquisizione di nuove  conoscenze ed alla creazione di competenze nel campo della ricerca per l’innovazione, in quello dei servizi alle PMI, del trasferimento tecnologico e della diffusione e disseminazione dei risultati.

L’organizzazione ha moltiplicato gli sforzi per una più intensa attività di animazione territoriale stimolando, da un lato, la partecipazione del tessuto imprenditoriale nei percorsi di sviluppo del territorio e, dall’altro, mettendo a disposizione degli attori territoriali pubblici il proprio know how e le competenze del sistema di relazioni che rappresenta, per l’ideazione e la realizzazione di servizi per lo sviluppo.

La qualificata rete di collaborazioni ed il sostegno delle Università consentono di esportare modelli operativi collaudati e realizzare, in partenariato con strutture locali, centri operativi decentrati, caratterizzati da spiccate specificità. In questa prospettiva è stato avviato un programma di comunicazione verso le imprese, gli Enti, le Amministrazioni e i Centri Ricerca realizzato attraverso il sito web, il notiziario, la partecipazione a fiere, convegni e seminari; l’adesione al Partenariato della Comunicazione, istituito dal Dipartimento alla Programmazione della Regione Sicilia.

Il maggiore azionista del Parco è la Regione Sicilia, Assessorato Regionale per l’Industria.

 

 

 

 

 

 


 

Sezione 3.                      Il progetto

 

3.1   Titolo del progetto

 

Centro Computazionale di RicErca sui Sistemi COmplessi - CRESCO

 

3.2      Durata del progetto (in mesi)

 

36

 

3.3   Sede di svolgimento delle attività di progetto (indicare l’indirizzo della sede, nel caso in cui siano previste più sedi indicare l’indirizzo di ciascuna. Specificare, altresì, se la/e sede/i è/sono già disponibili e utilizzabili alla data di presentazione della proposta. Nel caso in cui ciò non si verifichi, specificare i tempi necessari a rendere disponibili le sedi individuate, nonché le azioni poste in essere al fine di garantire il rispetto dei termini previsti)

 

Centro Ricerche ENEA Portici

Località Granatello

Portici (NA)

 

Centro Ricerche ENEA  Brindisi

S.S. 7 Appia, km 713,700

Brindisi

 

Centro Ricerche ENEA Trisaia

S.S. 106 Ionica, km 419,500

Rotondella (MT)

 

Le sedi sono tutte disponibili e normalmente in uso alla data presente.

 

3.4  Obiettivo finale del progetto e risultati attesi

Descrivere l’obiettivo finale del progetto e i risultati attesi in modo da rendere evidente la coerenza del progetto con le azioni previste dall’Avviso  al punto 3.

 

Il Progetto ha come obiettivo la realizzazione, presso il Centro Ricerche ENEA di Portici (NA), di un importante Polo di calcolo multidisciplinare per lo studio dei sistemi complessi di natura biologica e tecnologica, collegato con facilities di elaborazione, archiviazione e visualizzazione 3D di dati ubicate presso i Centri ENEA di Brindisi e Trisaia (MT).

Sul versante infrastrutturale il Progetto prevede la realizzazione di una piattaforma di calcolo di assoluta eccellenza in grado di erogare una potenza dell’ordine del Teraflop, corredata di una nuova classe di funzionalità GRID innovative.

Sul piano delle applicazioni e dei contenuti scientifici, il Centro si focalizza sui seguenti ambiti principali:

·         lo studio di oggetti biologici dal punto di vista “sistemico” (in silico cell) e lo studio di sistemi naturali (comunità animali e sociali) secondo il paradigma dei sistemi complessi

·         lo studio di sistemi tecnologici complessi e delle loro mutue interazioni, e la realizzazione di opportuni strumenti per il modelling, la simulazione e il controllo;

·         l’implementazione di soluzioni innovative in tema di architetture di sistemi di calcolo e di GRID computing per le attività di R&S di punta dell’ENEA che richiedano l’utilizzo di risorse computazionali estremamente importanti.

 

In particolare, il progetto si articola sulle seguenti tre Linee di Attività:

  I.      Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID Computing.

II.      Sviluppo di tecnologie e modelli computazionali per la descrizione di sistemi complessi di origine biologica e di materiali innovativi.

III.      Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche complesse e delle loro interdipendenze.

 

La realizzazione dell’infrastruttura porterà inoltre allo sviluppo ed al potenziamento di alcune importanti funzioni tradizionalmente svolte dall’ENEA. In particolare:

·           la ricerca – sarà fornito supporto (di tipo sia capacity che capability), attraverso l’utilizzo dell’infrastruttura di calcolo, ad attività di ricerca già in corso di svolgimento nell’Ente nell’ambito delle linee programmatiche esistenti; tali attività potranno anche avere una focalizzazione di natura industriale;

·         la formazione – potranno essere potenziate le attività di formazione, in collaborazione con alcune sedi universitarie, al fine di supportare la diffusione delle metodologie sviluppate all’interno del Polo Multidisciplinare negli ambiti tematici oggetto di studio e ricerca, con positive ricadute anche nella creazione di percorsi formativi adatti al successivo reclutamento di personale;

·         il trasferimento tecnologico – verranno istituiti percorsi ed attivati idonei strumenti per favorire l’applicazione industriale delle tecnologie sviluppate, anche ricorrendo alla collaborazione di idonei partner (“industrial-exploitation partner”).

 

Lo schema logico dell’infrastruttura proposta è riportato nella figura seguente.

 

Fig. 6 Schema concettuale del Centro Computazionale CRESCO

 

 

 

Questa struttura funzionale può essere realizzata costituendo, attorno ad una facility di calcolo ad alte prestazioni (HPC), un insieme di “laboratori virtuali” ciascuno dei quali, in una specifica area disciplinare, vede cooperare ricercatori dell’ENEA, del sistema universitario e di altri enti di ricerca, con esperti e tecnologi del mondo delle imprese per lo sviluppo e la messa a punto di metodologie di simulazione, controllo e visualizzazione (si veda in proposito la fig. 7).

 

 

 

Imprese

 

ENEA

 

Università e altri Enti di ricerca

 

 

 

 

 Li

 
      

 

 

Fig. 7 Schema concettuale dei Laboratori Virtuali di CRESCO

 

 

 

Nel seguito è riportata una descrizione di maggiore dettaglio delle linee di attività più sopra citate.

 

I.      Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID Computing.

 

 

Recenti sviluppi nel settore del High-End Computing (HEC) hanno stimolato un riesame delle politiche internazionali, in particolare quelle degli USA, con un effetto di accelerazione dello sviluppo in questo settore. Gli eventi che hanno influito in modo significativo al rilancio dei HEC sono stati:

 

1.    lo sviluppo da parte del Giappone di un sistema di supercalcolo denominato  “ Earth Simulator” che ha dominato la classifica dei Top500 fino al Novembre 2004;

2.    la forte richiesta di potenza di calcolo dedicata sia a problematiche civili, talvolta con ricadute strategiche (ad es. applicazioni di geofisica e prospezione petrolifera) nonché di area militare.

 

Nello stesso tempo si sono evidenziati aspetti che richiedono ancora attività di ricerca e sviluppo delle infrastrutture HEC, come ad esempio:

 

1.    la difficoltà di utilizzare una frazione significativa della potenza di picco disponibile su tali infrastrutture;

2.    la problematica relativa alla diagnostica sia di sistema che degli applicativi che utilizzano tali infrastrutture.

 

Affrontare l’insieme di queste problematiche impone un investimento e richiede lo sviluppo per quello che concerne sia le architetture hardware e software sia gli applicativi. Un forte interesse nello sviluppo di applicativi che siano in grado di utilizzare a pieno le risorse disponibili è nel settore della difesa e dei grandi eventi naturali. Queste tematiche hanno dato al settore HEC la priorità di finanziamento in molti paesi ed in particolare negli USA. E’ ormai di dominio pubblico ritenere che le infrastrutture HEC sono abilitanti per lo sviluppo tecnologico e la competitività di ogni paese industrializzato.

Dall’analisi del contesto internazionale emerge che tutti i paesi industrializzati pongono particolare attenzione nei programmi ITC con particolare riguardo all’HEC e al Networking. La parte dominante in questo settore è tenuta dagli USA e Giappone come illustrato dalla Fig 8.

 

 

 

 

 

 


Quadro di riferimento top 500

 

 

Relazione Problema-Potenza

 

Piattaforma ENEA

 

Rete Attuale

 

Rete e sicurezza

 

 

Sito

 

 

 

 

 

 

 

Fig.8 Distribuzione percentuale per Paese della potenza di calcolo relativa alla lista Top 500 (giugno 2004)

 

 

 

L’Europa in questo contesto svolge un ruolo marginale e l’Italia, in particolare, segue a rilento l’evoluzione della stessa Europa. Nel contesto italiano l’infrastruttura ENEA riveste un ruolo di rilievo, almeno limitatamente all’ambito del sistema degli Enti di Ricerca. La tab. 2 dettaglia le potenze disponibili nei diversi Centri ENEA (alcune implementazioni sono frutto di precedenti interventi dei Fondi Strutturali).

 

 

Tab. 2 Principali risorse computazionali del GRID ENEA

 

 

Da quanto esposto emerge il fatto che ENEA è privo di un polo di eccellenza in grado di affrontare e risolvere i problemi di classe superiore oggetto della presente proposta. La presente proposta prevede di realizzare tale polo di eccellenza e di inserirlo in un’architettura GRID già operativa da anni. Questo consentirà di rendere immediatamente fruibile il nuovo polo come strumento abilitante per la ricerca di base che si vuole affrontare con il presente progetto.

 

La disponibilità di sistemi di calcolo potenti, distribuiti su vaste aree geografiche ma connessi tra loro da reti ad alta velocità, ha portato in questi anni allo sviluppo del concetto di griglia computazionale.

Il concetto di griglia (GRID) scaturisce dal tentativo di fornire una visione unitaria ad un insieme eterogeneo di risorse informatiche sparse tra siti distanti appartenenti, nel caso più generale, ad istituzioni anche molto diverse tra loro. La realizzazione concreta di una griglia computazionale richiede la definizione di un insieme di strumenti standard capaci di realizzare in modo uniforme l'accesso alle risorse informatiche disponibili, sia in termini di sistemi di calcolo che di archiviazione di dati. Inoltre tali strumenti devono essere in grado di garantire la sicurezza di operazione della griglia e fornire la possibilità di monitorare in ogni istante il suo funzionamento.

L'approccio basato sul concetto di griglia computazionale ha permesso di delineare un quadro unitario per l'insieme dei sistemi di calcolo di alte prestazioni disponibili all'interno dell'ENEA, al fine di ottimizzare il loro utilizzo all'interno di un ente distribuito sul tutto il territorio nazionale.

L'attività dell'ENEA infatti si svolge in 12 centri situati in Italia settentrionale, centrale e meridionale. Le sedi maggiori sono dotate ognuna di un centro di calcolo che gestisce le risorse installate localmente e che coprono esigenze di calcolo seriale, calcolo parallelo e richieste di grafica avanzata. Il sistema ENEA GRID permette accedere all'insieme di tali risorse distribuite geograficamente, come ad un unico sistema virtuale, con una capacità integrata globale di varie centinaia di Gflops, distribuita su sistemi paralleli (IBM SP, cluster Linux, Cray SV1 e macchine SGI). I componenti principali che permettono ad ENEA GRID di fornire all'utente questo unico sistema virtuale sono essenzialmente tre: una interfaccia grafica che consente un immediato ed amichevole accesso alla griglia, un sistema di supervisione e gestione che rende disponibile all’utente le risorse più idonee alla specifica applicazione tra quelle al momento disponibili, e una struttura dati distribuita.

La scelta dei componenti dell’attuale architettura di ENEA GRID si è rivolta ove possibile all'ambito OpenSource e solo limitatamente a prodotti proprietari.

 

Apartire da questa base operativa, tramite il presente progetto si vogliono sviluppare metodologie e soluzioni innovative, rispetto a quelle già in essere, al fine porre le basi e sperimentare nuove soluzioni GRID che superino i problemi che attualmente sono irrisolti o hanno una carente soluzione.

La Linea di attività I si articola nei sottoprogetti appresso elencati, che vengono più dettagliatamente descritti nel seguito.

 

SP I.1 Realizzazione dell’infrastruttura HPCN.

SP I.2 Sviluppo ed integrazione dell’architettura GRID e di grafica 3D.

SP I.3 Sviluppo ed ottimizzazione di codici applicativi in settori di R&S di punta.

SP I.4 Progettazione e sviluppo di librerie per l’implementazione efficiente e parallela di nuclei computazionali su dispositivi “Field Programmable Gate Arrays” (FPGA) integrati in un ambiente GRID.

SP I.5 Web archivi.

 

 

SP I.1 Realizzazione dell’infrastruttura HPCN

 

Il settore tecnologico in esame è in rapida evoluzione a partire dagli anni 80. Da quella data il trend di crescita è rimasto costante, come si evince dalla Fig. 9 (da uno studio di Jack  Dongarra, professore di Computer Science presso l’Università del Tennessee e ricercatore presso i Laboratori Nazionali di Oak Ridge, riconosciuto uno dei massimi esperti mondiali nel settore HPCN).

 

 

 

 

Fig.9 Evoluzione nel tempo dei computer ad alte prestazioni

 

 

 

Dalla figura si evince che nell’intorno del 2010 saranno disponibili supercalcolatori con capacità di elaborazione dell’ordine di 1 PetaFlops.  Stante la dinamica estremamente vivace che domina nel campo delle architetture e della componentistica, per quanto riguarda la scelta del sistema di HPC nell’ambito del presente Progetto, si ritiene opportuno in questa fase limitarsi a definire le caratteristiche funzionali del sistema che si desidera realizzare, lasciando aperta la definizione dei dettagli del sistema fino al momento della scelta conclusiva. Questo approccio consentirà di accedere al meglio delle tecnologie disponibili in quel momento.

Una possibile proiezione a medio termine su quelle che potrebbero essere le configurazioni per un sistema da 100 TFlops è ripotato in Tab. 3

 

 

Tab. 3 Possibili configurazioni di un sistema da 100 Tflops (J. Dongarra Giugno 2004)

 

 

 

I modelli computazionali che si vogliono usare sono costituiti, come descritto nei paragrafi dedicati, da modelli aventi le seguenti caratteristiche:

  1. Fortemente accoppiati ( Analisi Molecolare, Fluidodinamica, Combustione, …)
  2. Debolmente accoppiati ( Montecarlo, ..)
  3. Multicase ( Analisi Immagini, Genomica, ….)

 

Per ogni classe di problemi si richiedono caratteristiche differenti della piattaforma di calcolo. In particolare:

a.    la classe 1 richiede sistemi con una rete di intercomunicazione fra processori efficiente ed a bassa latenza (minore di 3 microsec rispetto alle librerie standard di “message passing”), possibilmente con memoria condivisa fra i processori nonché la disponibilità di un file system parallelo ed efficiente;

b.    per la classe di tipo 2 è sufficiente avere un numero elevato di processori a disposizione con una rete di interconnessione sufficiente a non rallentare la fase di raccolta dati fra gruppi di elaborazioni indipendenti;

c.    per la classe di tipo 3 è dominante l’architettura del sistema globale, in quanto quello che si richiede è la possibilità di sottomettere un numero elevato di programmi in contemporanea. In questo caso quindi un’architettura che consenta di lanciare lo stesso programma in modalità multipiattaforma e che renda disponibili tutte le risorse a livello geografico è l’ideale. In questo caso un notevole valore aggiunto è la disponibilità di un file system geografico.

 

L’infrastruttura che si vuole realizzare in questo progetto non è quindi una singola piattaforma di supercalcolo, ma un sistema globale, comprendente anche una piattaforma di supercalcolo integrata in architettura Grid, in grado di rispondere automaticamente alle varie richieste di servizio. In particolare il sistema sarà dotato di un granularità di piattaforme eterogenee, che vanno dal singolo nodo di calcolo al supercalcolatore di grande dimensione in grado di affrontare efficacemente tutte le classi di problemi esaminate.

Inoltre l’infrastruttura al suo attuale stato di implementazione già integra sia strumenti di misura (ad es. un microscopio elettronico) che sistemi di visualizzazione tridimensionali; questi ultimi sono già presenti in sei centri ENEA.

L’obiettivo finale che si vuole raggiungere è fornire al ricercatore un sistema integrato che va dalla facility sperimentale, ai modelli di calcolo con relativi strumenti per l’elaborazione e visualizzazione dei dati da esso ottenuti. La Fig. 10 sintetizza quanto affermato.

 

 

 

Fig 10 Schema concettuale dell’architettura di GRID

 

 

 

 

La disposizione degli spazi dedicati ad alloggiare il sistema e le infrastrutture di servizio, nonché ad ospitare il personale coinvolto nella gestione e nell’accesso locale è illustrata schematicamente nella Fig. 3 della Sezione 2.3. Sono poi disponibili, a corredo dell’infrastruttura, una sala conferenza dotata di servizi multimediali, una sala di grafica dotata di un sistema di proiezione 3D e sistemi per la didattica. Il sistema sarà connesso direttamente al centro stella (in Gbit) del centro ENEA di Portici tramite il quale può essere integrato con connessione a larga banda nell’architettura GRID dell’ENEA. In questo quadro vengono delineati i principali componenti dell’infrastruttura.

 

I.1.1 Sistema di supercalcolo

 

L’infrastruttura che si vuole sviluppare sarà costituita dai seguenti elementi fondamentali:

·         un sistema di supercalcolo con una un’architettura interna di tipo SMP o di integrazioni di nodi SMP ed una rete di interconnessione estremamente efficiente. I nodi devono avere la peculiarità di poter montare degli acceleratori ( Field Programmable Gate Arrays, FPGA ) sui quali saranno sviluppate delle librerie dedicate. Le dimensioni del sistema, considerando lo stato attuale dell’arte, saranno dell’ordine di 3-4 TFlops, ovvero il massimo compatibile con l’impegno economico previsto. Per quanto esposto precedentemente l’evoluzione tecnologica impone estrema prudenza nella scelta dell’architettura ed in particolare va posta estrema attenzione al tempo di installazione rispetto al tempo in cui il sistema viene utilizzato a pieno. Pertanto si propone una pianificazione di  acquisto graduale e proporzionale alla capacità di utilizzo con lo scopo di avere al termine del progetto un sistema all’inizio della sua vita funzionale.

·         Un sistema di storage SAN (Storage Area Network) di ultima generazione collegato in fibra ottica con la rete di interconnessione dei nodi. La capacita di storage che si prevede connessa direttamente al sistema sarà almeno di 20 TB. Saranno effettuati dei test per la scelta al fine di confrontare le caratteristiche hardware e software dei file systems e del sistema SAN. La scelta di questo componente è estremamente importante in quanto la velocità di accesso ai dati  è parte integrante della velocità globale del sistema verso l’applicazione finale.

·         Un sistema di backup connesso alla SAN tramite un link in fibra ottica dotato del suo server ed hardware di storage. Questo componente sarà scelto in relazione alle esperienze gia presenti in ENEA e mantenendo la massima compatibilità con i sistemi esistenti. In questa fase si prevede una capacità iniziale di storage dell’ordine di 20 TB in linea.

·         Impiantistica di servizio indispensabili per tali sistemi, ovvero gruppi di continuità, condizionamento, antincendio, pavimenti flottanti e tutti gli accessori necessari al funzionamento ottimale ed al rispetto delle normative di sicurezza in materia.

 

I.1.2 Caratteristiche del sistema di networking e sicurezza; suo inserimento nel contesto ENEA

 

Elemento sottostante al sistema integrato di calcolo indicato è l'infrastruttura tecnologica di rete che nei sui diversi componenti funzionali renderà il sistema stesso fruibile ovunque ed in sicurezza.

L'attuale architettura di rete di cui si è dotato l'ENEA (rete ENET) da un lato si integra strettamente con la Rete Nazionale della Ricerca sviluppata e gestita dal “Consortium GARR”, di cui l'ENEA stesso fa parte, dall'altro si articola in 14 reti locali distribuite sul territorio nazionale (Fig. 11).

l

 

 

Fig. 11 Rete ENET – Dicembre 2004

 

In tale ambito l'obiettivo del progetto sarà quello di arricchire e potenziare le connessioni dei poli interessati (Portici, Brindisi e Trisaia) verso la rete nazionale, proporzionalmente con quanto richiesto dalla localizzazione delle risorse di calcolo e grafica.  Contemporaneamente nelle reti locali, che già aderiscono ad un modello comune di rete switched con dorsali ad 1 Gbps, verranno potenziate, adeguatamente configurate e protette le sottoreti relative ai sistemi asserviti al progetto in modo da costituire un’insieme di nodi virtualmente unico  ed ad alta velocità (10 Gbps sulla dorsale ed 1 Gbps sul singolo nodo). Dovranno essere contemporaneamente potenziati i sistemi di sicurezza perimetrale e di prevenzione delle intrusioni per evitare che, in presenza di un previsto aumento di traffico di rete, tali dispositivi possano presentarsi come colli di bottiglia prestazionali e punti unici di criticità del sistema. Infine, per garantire gli adeguati livelli di servizio degli applicativi, verranno applicate le necessarie politiche di Qualità di Servizio relativamente agli apparati di routing e switching interessati e, ove necessario, si farà ricorso a soluzioni che prevedono di riservare adeguate bande trasmissive a specifici applicativi (ad es.: grafica 3D in tempo reale). L’intera infrastruttura di rete verrà tenuta costantemente sotto controllo con un sistema di monitoraggio, integrato col resto della rete ENET, in grado di segnalare tempestivamente malfunzionamenti anche premonitori di interruzioni di servizio; lo stesso sistema potrà correlare gli eventi in corso in modo da consentire una più rapida analisi dello stato della connettività. Tutti gli interventi infrastrutturali previsti avranno quindi come obiettivo non solo quello di fornire le capacità trasmissive attese dall’intero sistema, ma anche quello di garantirne la disponibilità nel tempo in un regime di adeguata sicurezza.

 

 

I.1.4 Integrazione di sistemi HPC in ENEA-GRID

 

L'esperienza già acquisita nell'inserimento di risorse multipiattaforma nella architettura ENEA-GRID, insieme alla scelta di componenti affidabili e capaci di fornire un servizio a livello di produzione, garantisce il successo dell'integrazione  della nuova infrastruttura HPC all'interno di ENEA-GRID, permettendo un salto di qualità nel livello di prestazioni disponibili e nel contempo la loro fruibilità ad un ampio parco di utenza.

La tecnologia attualmente usata in ENEA è basata sulla condivisione a livello geografico del file system visto da tutte le risorse di calcolo. Questo metodo che rende completamente trasparente l’accesso ai dati ha una limitazione legata alla velocità di acceso ai dati. La velocità di accesso ai dati dipende essenzialmente da due fattori:

·         il primo, di tipo geografico, tiene conto della distanza tra il sistema di memorizzazione e quello di elaborazione;

·         l’altro è peculiare dell’architettura file system geografico utilizzato in ENEA.

 

L’integrazione di un sistema di calcolo della potenza di 4-5 Tflops in un sistema GRID richiede la soluzione di ambedue i problemi. Dalle analisi effettuate si sono individuate due strade, non alternative l’una rispetto all’altra, percorribili:

·         la prima riguarda l’accelerazione di del file system introducendo dei meccanismi che riducono i tempi di richiesta ai Data Base che gestiscono le informazioni; questo risolve il problema del rallentamento geografico ma non può raggiungere le velocità necessarie ad alcuni applicativi che fanno largo uso di I/O locale;

·         questo secondo aspetto può essere risolto integrando un file sistem geografico con un file system locale possibilmente parallelo.

 

L’integrazione efficiente di queste due tecnologie riveste oggi aspetti di ricerca e sviluppo. Lo stato attuale dell’arte, per l’utilizzo di grandi infrastrutture di calcolo, prevede tipicamente il trasferimento sul file system locale del supercalcolatore di tutti i file necessari all’elaborazione, ed la successiva restituzione dei risultati. La modalità integrata di file system geografico e locale, visto come un’unica entità, apre la strada anche a quella che sarà la successiva restituzione su apparati per la visualizzazione tridimensionale immersiva locale e remota.

 

 

SP I.2 Sviluppo ed integrazione dell’architettura GRID e di grafica 3D

 

In questa linea di attività è previsto lo sviluppo di tool innovativi in grado di proiettare l’utilizzo del GRID verso la Virtual Organization sia dal punto di vista dell’utente finale che della gestione e contabilizzazione delle risorse. Un particolare riguardo sarà rivolto allo sviluppo di nuove tecniche per l’integrazione fra griglie o all’inserimento dinamico di risorse nella griglia ENEA.

Il progetto prevede anche la sperimentazione dell’integrazione del supercalcolatore ENEA con i supercalcolatori installati presso il centro “Computing and Computational Sciences Directorate (CCSD )” dei laboratori Oak Ridge National Lab (ORNL) USA.

 

I.2.1  Integrazione ENEA-GRID con altre architetture di GRID computing

 

La scelta architetturale nella realizzazione di ENEA-GRID è stata basata sul criterio di utilizzare componenti maturi, sia in ambito proprietario che in ambito OpenSource, al fine di fornire funzionalità caratteristiche delle infrastrutture dedicate al calcolo in griglia ed allo stesso tempo di garantire una qualità di servizio a livello di sistema di produzione.

Con tale approccio sono stati scelti come componenti di middleware il file sistem distribuito AFS,  il gestore di risorse LSF Multicluster ed una infrastruttura di accesso remoto basato su Citrix Metaframe. Questo approccio è diverso quindi da quello basato su middleware come Globus, nelle sue varie versioni, ed in generale in quello adottato in molti progetti di GRID computing. ENEA ha partecipato e partecipa ad alcuni di essi come il progetto europeo Datagrid (concluso inizio 2004), EGEE (inizio aprile 2004  WP. SA1) ed al progetto italiano GRID.IT in cui è stato coinvolto nella implementazione relativa al Work Package 13, dedicato alla chimica computazionale. La partecipazione di ENEA in tali progetti ha come obbiettivo la realizzazione di modalità che garantiscano l'interoperabilità tra architetture di griglia e si è concretizzata nella realizzazione di componenti gateway, capaci di interfacciare i protocolli e le modalità di operazione di altre griglie con i componenti caratteristici di ENEA-GRID.

Nella partecipazione al progetto Datagrid la collaborazione con il laboratorio ESRIN (Frascati) dell’ ESA ha permesso di realizzare sul sito di ESRIN un sistema gateway capace di sottomettere eleborazioni tramite il middleware di datagrid verso il sistema di calcolo ENEA-GRID e tale gateway è stato utilizzato per l'analisi di dati satellitari dell'esperimento GOME dedicato alla misura dei livelli di Ozono.

Nella partecipazione al WP 13 di GRID.IT l'attività in ENEA si è concretizzata nella realizzazione di un gateway, questa volta localizzato al centro di Ricerche ENEA Frascati,  tramite il quale è possibile utilizzare il middleware scelto dal WL13 (Globus 3.2), per la sottomissione di job e per il trasferimento di dati verso l'infrastruttura ENEA-GRID. In tale attività sono stati risolti i problemi relativi alle diverse metodologie di autentificazione esistenti tra le due architetture (Kerberos per AFS e certificati X509 per Globus). L'insieme delle funzionalità richieste dal WP13 e realizzate nel gateway, costituiscono comunque un sottoinsieme delle possibilità offerte da Globus 3.2.

Nella partecipazione al progetto EGEE, attualmente in corso di realizzazione, l'obiettivo è di nuovo la realizzazione del massimo delle funzionalità ottenibili da un sistema di gateway, sfruttando le conoscenze ottenute nei progetti precedenti. In tale prospettiva è comunque in corso di installazione su qualcuno tra i sistemi disponibili in ENEA-GRID del middleware originale di EGEE, attualmente giunto alla versione LCG 2.3.

In questo ambito si vuole sviluppare un tool generalizzato in grado di rendere interoperabili due GRID basate su protocolli noti attraverso un gateway. La disponibilità di un tool di questo tipo rende possibile lo sviluppo di middleware di più alto livello, che fornisca servizi di accesso a risorse appartenenti a GRID diverse. Si ritiene che questo approccio costituisca il primo passo per realizzare dei servizi che vanno verso la Virtual Organization.

 

Un secondo aspetto che si vuole indagare riguarda il collegamento dinamico di una risorsa ad un sistema GRID.  Lo stato attuale delle tecnologie impone che le macchine che vogliono partecipare ad un servizio GRID debbano essere installate e mantenute operative con i servizi GRID attivi. In particolare le risorse devono essere dichiarate ai Data Base che gestiscono lo stato delle risorse e devono mantenere sempre il contatto con essi. Questa condizione non è sempre tollerata. In particolare, se si dispone di dati sensibili e riservati, si desidererebbe connettersi alla potenza di calcolo necessaria a risolvere il proprio problema, rendere accessibile, in modo dinamico, tutto il patrimonio delle informazioni necessarie all’elaborazione dei propri dati sul sistema di calcolo, ma senza trasferirli su di esso,  e scollegarsi al termine dell’elaborazione. L’implementazione di una funzionalità di questo tipo comporta la ricerca e lo sviluppo di nuove funzionalità legate all’allocazione dinamica di file system geografici. Partendo dall’implementazione ENEA che è tipicamente statica, si vogliono sperimentare delle tecniche atte a realizzare queste nuove funzionalità.

 

 

I.2.2 Tools per l’utilizzo di sistemi di Grafica Virtuale ed immersiva con sistemi di supercalcolo remoto e per il lavoro cooperativo a livello geografico

 

 

L’utilizzo di strumenti di calcolo intensivo richiede sistemi di visualizzazione adeguati al fine di rendere efficace l’elaborazione e l’interpretazione dei risultati ottenuti. A questo scopo l’ENEA si è dotato in ogni centro di sistemi di visualizzazione tridimensionale immersiva integrati nel sistema GRID. Tali sistemi saranno messi a disposizione ed integrati con l’infrastruttura che si vuole realizzare. In particolare si potenzieranno le funzionalità di fruizione da parte dell’utente remoto. Le azioni che si intendono sperimentare affrontano seguenti tematiche :

a)      la visualizzazione remota 3D con motori di calcolo in rete;

b)      lavoro collaborativo in ambiente 3D.

 

a) Le attività odierne nel campo della grafica utilizzano pesantemente i sistemi di processing e rendering. Questi vengono svolti da sistemi dislocati all’interno dei centri di calcolo, distribuiti sul territorio.  Fornire ogni utente di questi sistemi comporta un costo notevole sia in termini economici che di risorse per la gestione. La Grid ENEA è formata da vari sistemi di calcolo e di grafica connessi tra loro con rete a larga banda per la distribuzione in modalità Server/Client delle risorse Hardware e Software disponibili.

L’obiettivo che ci si propone è la possibilità di eseguire in remoto i calcoli necessari alla visualizzazione dei propri dati, e di utilizzare, per la visualizzazione qualunque dispositivo presente in rete (si veda fig. 12), dal sistema 3D, alla workstation locale, al personal computer, fino al portatile o PDA. Per conseguire tale obiettivo saranno sviluppati strumenti di allocazione dinamica della banda, compressione dati e tecniche client-server.

 

 

 

 

Fig. 12 Architettura concettuale 

 

b) Il secondo aspetto che si vuole trattare è sperimentare tools che, utilizzando gli sviluppi del punto precedente, effettuino la visualizzazione della stessa scena grafica in maniera contemporanea sui diversi sistemi di visualizzazione 3D disponibili presso i centri ENEA. La Fig. 13 mostra le istallazioni presenti in ENEA. La fig. 14 mostra lo schema concettuale della visualizzazione 3D in modalità cooperativa.

 

 

 

 

Fig. 13 Visualizzatori 3D presenti in ENEA GRID

 

 

 

Fig. 14 Schema concettuale del lavoro collaborativi 3D

 

 

 

I.2.3 Integrazione del controllo remoto di un microscopio TEM mediante visualizzazione integrata in tempo reale dei differenti aspetti legati alla determinazione delle caratteristiche locali del campione attraverso immagini e mappature ad elevata risoluzione spaziale.

 

E’ in corso presso i laboratori ENEA di Brindisi una attività che si pone come obiettivo la gestione remota di strumentazione complessa con lo scopo di favorire processi di collaborazione scientifica e di condividere con utenti esterni i costi di gestione attraverso la ottimizzazione delle condizioni di accesso e di utilizzo. In particolare, attualmente le attività sono concentrate sulla possibilità di gestire via rete un moderno microscopio elettronico in trasmissione corredato di sorgente ad alta brillanza ed una completa dotazione di accessori analitici. Il progetto si basa su di un microscopio FEI Tecnai G2 30F con tensione massima di accelerazione di 300 kV, dotato di sorgente ad emissione di campo, dispositivo di scansione in trasmissione con rivelatore anulare ad alta efficienza, sistema di microanalisi a raggi X e dispositivo per spettroscopia di elettroni trasmessi con possibilità di fornire immagini filtrate in energia, acquisito nell’ambito dei programmi di finanziamento MIUR ( Avviso 68/2002). Si tratta di uno strumento di ultima generazione in grado di accoppiare immagini strutturali con risoluzione spaziale dell’ ordine di 0,2 nm con informazioni localizzate di carattere chimico o strutturale con risoluzioni confrontabili. Le prestazioni dello strumento sono tuttavia condizionate da procedure di allineamento elettro-ottico e setting dei parametri operativi che devono essere ottimizzati dall’ operatore al momento della osservazione attraverso una valutazione della qualità delle immagini al variare dei parametri operativi.

Gli aspetti fondamentali del progetto per quanto riguarda le esigenze di natura computazionale sono due.

Il primo riguarda l’ottimizzazione della gestione remota via rete dello strumento. A tal fine occorre precisare che lo strumento fornisce output attraverso differenti canali che comprendono telecamere ambientali, telecamere CCD embedded nello strumento, stringhe di dati da differenti detector, la cui sequenza temporale consente di ricostruire immagini multiple, con la logica dei dispositivi di scansione, e spettri le cui caratteristiche vanno registrate in accoppiata con informazioni di carattere spaziale; ciò consente di elaborare successivamente mappature ad elevata risoluzione spaziale delle differenti caratteristiche chimiche e strutturali del preparato. Per una corretta impostazione dello strumento e per la conseguente realizzazione in tempo reale di osservazioni occorre che l’operatore remoto abbia accesso a tutte le informazioni disponibili in tempi confrontabili con quanto consentito all’ operatore presente sul sito. A tal fine occorre integrare la gestione del microscopio con un sistema per la visualizzazione remota di una ampia tipologia di immagini e spettri rendendo disponibili in tempo reale su un file system geografico ad accesso diretto tutti i canali di uscita di cui è dotato lo strumento. Inoltre il software di gestione remota deve consentire la regolazione dei parametri operativi dello strumento, i cui comandi meccanici sono già opportunamente motorizzati, nonché dei parametri di acquisizione sulle videocamere. Infatti, per una gestione ottimale delle procedure di allineamento e di quelle di osservazione del preparato, è necessario che la qualità delle immagini trasmesse sia del tutto confrontabile con l’ osservazione ottica diretta. A tal fine sarà necessario l’ impiego di sensori ad altissima dinamica con controllo diretto  del guadagno.

La disponibilità della rete a larga banda e la disponibilità di sistemi di calcolo parallelo rende possibile il rendering delle immagini ad alta velocità, con le caratteristiche di qualità richieste.

Il secondo aspetto è legato alla notevole mole di dati che lo strumento è in grado di generare durante una osservazione, alla loro unicità, intesa come set integrato, legato alla ridottissima dimensione della zona osservata ed alla loro labilità dovuta al danneggiamento da parte del fascio elettronico primario che molto spesso accompagna l’ osservazione medesima. Un moderno approccio alla strategia di analisi deve quindi prevedere la registrazione del maggior numero di dati possibili durante una osservazione indipendentemente da quanto richiesto dall’operatore al momento per poter poi integrare i risultati con una analisi off-line di questi dati. Come prima accennato, tutti i dati di carattere spettrale che contengono le informazioni sulla chimica e sulla struttura locale devono essere accoppiati ad informazioni di tipo spaziale in quanto l’ informazione integrata è fornita, in ultima analisi, dalla rappresentazione nello spazio, attualmente bidimensionale, ma estendibile alla terza dimensione attraverso tecniche tomografiche, di informazioni di caratteristiche chimiche e strutturali. L’ amplissimo spettro di informazioni spettrali disponibili richiede la costruzione e la gestione di spazi di informazione multidimensionali in cui ad ogni punto immagine siano associati tutti i dati analitici disponibili. Inoltre, tali dati non sono sempre gestibili come acquisiti ma necessitano di una elaborazione integrata soprattutto per quanto riguarda l’estrazione del massimo contenuto informativo di dati soggetti a rumore di carattere statistico. Infatti le efficienze di raccolta dei vari canali analitici possono variare di ordini di grandezza e le velocità di acquisizione sono spesso limitate dalla stabilità del preparato sotto irraggiamento o dalla deriva meccanica del sistema, oltre che dalle priorità stabilite dall’ operatore al momento dell’ acquisizione.

 

 

Fig 15 Struttura concettuale dell’architettura di remotizzazione del TEM

 

La disponibilità di dati digitali e l’ accesso veloce al file system (v. Fig. 15) permetterà quindi di sviluppare metodi di analisi off line che da una parte limitino le necessità di accesso operativo al sistema e dall’ altra valorizzino le procedure di  integrazione della raccolta dei dati sperimentali, consentendo inoltre di affrontare il problema della catalogazione automatica delle immagini eventualmente associabile a codici di riconoscimento automatico di caratteristiche peculiari dell’ immagine che siano di supporto alla interpretazione dei risultati soprattutto per operatori di limitata esperienza, contribuendo quindi ad allargare il potenziale spettro di utenza.

 

 

 

I.2.4  Analisi e Realizzazione di Tool innovativi a supporto delle funzionalità GRID

 

 

Analisi del contesto, attività del task e risultati attesi

L’obiettivo delle reti GRID è l’aggregazione di un vasto insieme di risorse condivise, finalizzato alla costituzione di un ambiente efficiente e con alte prestazioni per applicazioni computing-and-data–intensive. Tuttavia, le reti computazionali rappresentano un largo e complesso aggregato di domini eterogenei e pertanto richiedono un’oculata pianificazione dell’utilizzo delle risorse disponibili e la definizione di opportune strategie per la distribuzione delle elaborazioni. Solo una fase di analisi preventiva consentirebbe il raggiungimento di garanzie prestazionali sufficienti, altrimenti difficilmente controllabili in anticipo dai grid architect. Una soluzione efficace è offerta dagli emergenti modelli di comunicazione e di computing distribuito oggetto, negli ultimi tempi, di numerose ricerche accademiche. Essi si affidano al concetto di risorse paritetiche distribuite, rinunciando in tal modo a qualunque elemento di gestione centralizzata. Sistemi di questo tipo, ovviamente, richiedono di essere adattativi, autoconfiguranti, autonomi ed automatici, sollevando così utenti ed amministratori della rete dalla necessità di possedere una dettagliata conoscenza del sistema complessivo. D’altra parte con sistemi altamente eterogenei sarebbe abbastanza improponibile per un attore avere completa conoscenza e controllo dell’intero ambiente.

Nelle reti GRID le risorse possono essere di varia natura, computer, supporti di memorizzazione dati, sensori, applicazioni software e dati, tutti interconnessi attraverso Internet mediante un middleware che garantisce alcuni importanti servizi di supporto di base, al fine di gestirne caratteristiche quali la sicurezza, il monitoraggio, l’accounting. Le risorse sono mantenute da differenti organizzazioni amministrative, le Virtual Organization, e condivise attraverso policy locali che individuano sia le risorse condivise, sia le condizioni sotto le quali tali condivisioni debbano ritenersi valide. Per le reti di calcolo distribuite ed in particolar modo per un ambiente  GRID, disporre di strumenti per la gestione ed il controllo dei sistemi appare come una delle necessità primarie soprattutto in relazione alla complessità, alla eterogeneità ed alla vastità dell’infrastruttura. In particolare l’obiettivo realizzativo intende affrontare tre problematiche su cui ancora non si è arrivati ad una risposta definitiva sul piano operativo e sulle quali è molto attiva la comunità scientifica con molteplici proposte di ricerca. Le aree su cui si intende intervenire riguardano: monitoring, resource discovering, accounting.

 

Monitoring

Il termine “monitorino”, definito in genere come l’insieme di attività per il controllo e l’osservazione di un sistema, se riferito ad architetture GRID, può essere suscettibile di una interpretazione molto discutibile rispetto al suo significato usuale.  Infatti la complessità dell’infrastruttura GRID, che si sviluppa come una rete densa di risorse di elaborazione di ogni tipo, sottoposte per loro natura ad una disponibilità  aleatoria nel tempo, rendono il monitoraggio una prestazione critica. Ciò significa che rispetto alla rilevazione ed al controllo dei parametri di prestazione di un sistema tradizionale, l’infrastruttura che garantisce funzionalità quali la misura dei parametri di funzionamento delle risorse, per analizzarne l’uso, predirne il comportamento, detenerne e notificarne errori e  malfunzionamenti, deve essere progettata per essere efficiente in tutte le condizioni di esercizio dei componenti e deve essere predisposta per fornire informazioni significative in termini di  tempestività e completezza. Nel suo complesso l’attività si pone l’obiettivo di studiare l’estendibilità e sperimentare l’applicabilità di una proposta tecnologica per il monitoraggio di griglie computazionali . L’elemento tecnologico della proposta riguarda un framework, dotato di una  struttura  i cui componenti siano preposti ad erogare servizi di:  misura,  pubblicazione, raccolta, notifica e presentazione. L’organizzazione del framework è costituita da servizi. I componenti gestiscono  funzionalità stratificate in cui: sul livello iniziale sono installati opportuni sensori in grado di raccogliere i dati di misura, secondo un modello informativo che rappresenta diversi indici di prestazione delle risorse, il secondo livello è quello dove i dati vengono raccolti per essere distribuiti all’utenza, il terzo livello è costituito da servizi di ricerca che siano sensibili a fenomeni di attivazione/disattivazione di risorse, il quarto livello consiste di servizi di rilevazione di eventi e di attivazione di azioni di intervento, il quinto livello è costituito dalle funzioni di presentazione dei dati secondo viste personalizzate, dipendenti dal ruolo e dal tipo di uso.

 

Resource discovering

In un ambiente eterogeneo come le reti GRID, esistono differenti classi di risorse computazionali e la loro disponibilità non è assicurata in nessun nodo della rete. In tale contesto, infatti, una risorsa GRID può essere hardware, come la CPU, i supporti di memorizzazione e i dispositivi di rete, software, come i sistemi operativi e gli applicativi generici, oppure di altra natura. Lo stato di queste differenti tipologie di risorse evolve dinamicamente nel tempo: alcune risorse possono essere considerate quasi statiche, tali come la versione del sistema operativo e alcuni speciali dispositivi hardware, mentre altre sono molto più dinamiche, come la CPU, i dispositivi di memorizzazione e l’I/O. Risulta evidente, in tale contesto, la necessità di disporre di un servizio di base fondamentale per le reti computazionali, il resource discovery.

Gli utenti richiedono la disponibilità di risorse caratterizzate da specifiche proprietà, al fine di eseguire su di esse le proprie applicazioni. In questa ottica, il servizio di discovery si pone l’obiettivo di individuare le risorse desiderate, dovunque esse siano localizzate, e di restituire ai richiedenti i nodi della rete sui quali le risorse stesse risultano disponibili. A causa dell’elevato numero di risorse ed utenti e della considerevole eterogeneità sia delle tipologie di risorse che di richieste utente, un classico meccanismo centralizzato rappresenterebbe una inefficace soluzione al problema della individuazione delle risorse, inficiando dunque caratteristiche auspicate quali robustezza ed efficienza. Per ciò che concerne l’efficienza del servizio di resource discovery, infatti, un meccanismo non distribuito riscontrerebbe evidenti problemi di scalabilità delle performance della GRID in quanto fungerebbe da collettore delle informazioni raccolte dall’elevato numero di nodi coinvolti. D’altra parte, per ciò che riguarda la caratteristica di robustezza, un servizio di resource discovery centralizzato rappresenterebbe un “single-point of failure” per il processo stesso del discovery, qualora non fosse stato previsto nella GRID alcun principio di ridondanza.  In tutto lo spettro delle situazioni, che vanno dalla wide-area GRID al computer cluster, dunque, un protocollo distribuito può essere adoperato per fornire una caratteristica di autoorganizzazione. Un ulteriore aspetto di cui tener conto per l’individuazione di un nuovo ed efficace servizio di discovery è rappresentato dalla dinamicità della disponibilità delle risorse Grid. Quest’ultima, difatti, assunta l’intrinseca natura delle risorse considerate, può evolvere nel tempo in funzione sia dell’allocazione delle risorse e delle richieste utente, sia dello stato delle stesse. Risulta evidente, dunque, che, al fine di rendere ottimale il processo di gestione di una rete GRID, il servizio di discovery delle risorse debba essere dotato di caratteristiche di dinamicità tese, da un lato, all’ottimizzazione dell’uso dell’ambiente distribuito, garantendo così un  miglior processo di allocazione delle risorse, dall’altro, al miglioramento della resilienza e della tolleranza ai guasti della GRID.

 

Accounting

Tra le funzionalità critiche del calcolo distribuito e, più in generale, dell’elaborazione on-demand, che attualmente rappresenta uno dei paradigmi di riferimento per lo sviluppo del grid computing, c’è la necessità di disporre di un adeguata strategia di accounting e di una efficiente infrastruttura tecnologica di supporto, che siano riconosciute e condivise tra le comunità di utenti e i fornitori di servizi. Tradizionalmente all’interno delle imprese, comunque complesse, il problema è affrontato secondo schemi che ripropongono, quasi sempre, il modello della struttura organizzativa costituita da divisioni, sedi, centri di costo, risorse. Nell’ottica di GRID però tutto questo viene rivisto e rivoluzionato. Infatti la disponibilità di una rete distribuita per il calcolo e la distribuzione di servizi spinge verso una revisione dei meccanismi di rilascio degli stessi, eliminando l’onere di creare in proprio l’infrastruttura per il loro utilizzo. In questo sistema diventa fondamentale il ruolo degli intermediari e deve quindi essere sviluppato un nuovo modello di resource tracking e accountability che non tenga conto solo del consumo di risorse, ma anche del contributo di chi le rende disponibili e le distribuisce. Per di più i criteri e gli algoritmi adottati sinora risulterebbero comunque inadeguati perché poggiano sul concetto di job accounting e quindi sulla visione dell’uso delle risorse legato ad un unico corpo di richieste elaborative, il  job.  L’utilizzo di una rete distribuita è in antitesi col concetto di aggregato e richiede piuttosto un meccanismo dinamico (real time accounting) che sappia elaborare il valore del costo mano a mano che le risorse sono utilizzate. Potenzialmente, il modo in cui le risorse sono assegnate deve essere di tipo adattativo  e quindi i criteri di calcolo del costo non possono poggiare su alcun tipo di conoscenza a priori. Ne consegue la necessità di introdurre nell’ architettura GRID una serie di elementi cosiddetti virtuali.

Le VO, o Virtual Organization, ad esempio, rappresentano l’elemento che accentra un insieme di risorse di qualsivoglia tipo; esse sono responsabili di definire le politiche di accesso, sicurezza e condivisione delle risorse che ad esse affluiscono. Ancora, vengono definiti i Virtual Account, per cui un utente che avesse temporaneamente bisogno di una risorsa per un suo job, viene associato temporaneamente ad uno di questi account, gestiti dalla VO competente che si deve preoccupare e della registrazione del costo e della trasmissione all’ente incaricato del suo addebito.

Gli elementi virtuali risultano indispensabili anche e soprattutto per superare i vincoli legati alla presenza dei domini e sistemi eterogenei che devono interagire tra loro. Ancora, i domini di interesse di GRID si stanno espandendo, aggiungendo al supporto per il calcolo di grosse moli di dati la possibilità di condividere interi ambienti applicativi, database, file di vario tipo. Ne consegue che deve essere rivisto anche il concetto stesso di risorsa finora associato principalmente a componenti hardware quali: CPU, memoria, supporti di memorizzazione, etc.. La ricerca di un adeguato modello di soluzione a questi problemi è ancora in corso e richiede la definizione di nuove politiche di assegnazione dei costi, l’applicazione di nuovi criteri di tariffazione, la progettazione di sistemi per la gestione dell’accounting e la creazione di nuovi algoritmi per la contabilizzazione dei consumi.

 

Semantic & Knowledge GRID

Le attività relativa allo studio, definizione e sperimentazione dell’infrastruttura GRID presentano diversi aspetti di innovatività. In particolare tali studi consentiranno la definizione di una infrastruttura che anticiperà diversi aspetti tipici delle Next Generation GRID (ftp://ftp.cordis.lu/pub/ist/docs/ngg2_eg_final.pdf) quali gestione di dati, informazioni e conoscenza (semantic & knowledge GRID), interoperabilità tra Grid systems diversi. Tale infrastruttura inoltre presenterà una architettura altamente modulare che permetterà la realizzazione di GRID systems domain specific includendo la verticalizzazione di determinati servizi (gestione risorse, orchestrazione, ecc.) per soddisfare le esigenze di ricerca previste nel progetto ed altre connesse con iniziative future dal soggetto proponente.

 

È previsto lo svolgimento delle attività di seguito riportate.

 

v      Studio e definizione dell'architettura software dell'infrastruttura con riferimento alle Next Generation GRID. In tale ambito saranno studiati gli standards in corso di definizione nell’ambito dei diversi organismi internazionali quali: GGF (Global GRID Forum) con particolare riferimento ai research e working group nelle aree Architecture (OGSA, semantic GRID), Information Systems and performance e Scheduling e resource Management; OASIS e W3C (per la parte relativa a web services e semantic web).

v      Studio e definizione di algoritmi di ottimizzazione in architettura GRID. Tale attività mirerà alla definizione di algoritmi di ottimizzazione in grado di sfruttare le capacità e le caratteristiche dell’infrastruttura GRID con specifico riferimento alle applicazioni il cui sviluppo è previsto nell’ambito della linea di attività “Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche complesse e delle loro interdipendenze” successivamente descritta.

v       Realizzazione di un dimostratore relativo agli algoritmi di ottimizzazione in architettura GRID.

 

 

Partner

CRIAI – Consorzio Campano di Ricerca per l’Informatica e l’Automazione Industriale, Portici (NA)

Università di Salerno – Dipartimento di Ingegneria dell’Informazione e Matematica Applicata

Università di Roma “Tor Vergata”

 

                             

SP I.3 Sviluppo ed ottimizzazione di codici applicativi in settori di R&S di punta

 

I.3.1 Applicazioni nel campo della fusione nucleare controllata

 

Nell'ambito degli studi dedicati allo sviluppo della fusione nucleare controllata rivestono grande importanza le indagini numeriche capaci di individuare le caratteristiche dei fenomeni di instabilità che possono giocare un ruolo fondamentale nella realizzabilità pratica di un ipotetico reattore a fusione.

Nell'ambito delle attività orientate a tal senso all'interno della unità ENEA dedicata alla problematica della fusione controllata è stato sviluppato il codice HMGC (Hybrid Magnetohydrodinamic Gyrokinetic Code) [S. Briguglio, G. Vlad, F. Zonca, F. Fogaccia, Phys. Letters A 302 (2002) 308 e referenze ivi citate].

Nel seguito si mostra come l'accesso a risorse di calcolo significativamente più importanti di  quelle attualmente disponibili permetterebbe di aumentare in modo importante la rilevanza delle simulazioni per le applicazioni fisiche di interesse e promuoverebbe lo sviluppo di tecniche numeriche in ambiente di calcolo avanzato geograficamente distribuito.

 

Codice HMGC (Hybrid Magnetohydrodinamic Gyrokinetic Code)

Il codice HMGC è un codice "a particelle" per lo studio della turbolenza nei plasmi confinati magneticamente.

Il codice studia in modo autoconsistente l'evoluzione di una popolazione di particelle cariche nei campi elettromagnetici fluttuanti, calcolati, ad ogni istante, sulla base del contributo delle stesse particelle.

Più precisamente, ad ogni passo temporale:

-      vengono calcolati, ai vertici di un reticolo spaziale fisso, opportuni momenti della funzione di distribuzione delle particelle (es.: densità e corrente);

-      vengono risolte le equazioni di Maxwell, per i campi elettromagnetici ai vertici dello stesso reticolo spaziale, cui fanno da sorgenti i momenti calcolati al punto precedente;

-      i campi vengono interpolati alla posizione (continua e variabile) di ciascuna particella, in termini di quelli sui vertici della cella del reticolo in cui la particella si trova;

-      la posizione e la velocità di ogni particella vengono evolute in termini dei campi calcolati al punto precedente in base alle equazioni del moto.

 Le risorse di calcolo necessarie per un codice di questo tipo dipendono dal livello di risoluzione con cui si vuol riprodurre la funzione di distribuzione fisica delle particelle o - detto in altri termini - con cui si vuol discretizzare lo spazio delle fasi in cui e' definita la stessa funzione di distribuzione.

Nel caso di un plasma confinato magneticamente, lo spazio delle fasi può essere ridotto a uno spazio 5-D (tre dimensioni spaziali, due nello spazio delle velocità), dal momento che e' possibile mediare sulla dinamica veloce della girazione di Larmor, eliminando così una delle coordinate dello spazio delle velocità. Per ciascuna delle coordinate rilevanti, e' necessario avere una risoluzione sufficiente a campionare le scale più piccole di interesse.

Nel caso degli studi eseguiti con HMGC, la turbolenza considerata è quella associata ai modi di Alfven resi instabili dalle particelle alfa prodotte dalle reazioni di fusione. Questi studi sono di particolare rilievo nella ricerca sulla fusione termonucleare controllata, dal momento che questo tipo di turbolenza

-      può provocare, se non controllata opportunamente, l'espulsione delle particelle a dal plasma e precludere il raggiungimento delle condizioni di accensione del plasma stesso;

-      e' difficile da investigare empiricamente nell'ambito degli esperimenti esistenti; per essere innescata richiede infatti una significativa produzione di particelle a, propria delle condizioni reattoristiche delle macchine di prossima generazione (ITER, in particolare).

E' possibile caratterizzare i modi di Alfven mediante il numero toroidale n. Si è interessati a studiare modi con numero toroidale relativamente alto (es.: n=20).

Si può dimostrare che, nel caso del codice HMGC, la RAM richiesta da una simulazione che studi modi con numero toroidale n è data approssimativamente da

M=0.25 n_ppc n**3 (Megabytes).

In questa espressione n_ppc è il numero di particelle contenuto, in media, in ogni cella del reticolo spaziale. Corrisponde al livello di discretizzazione del sottospazio "spazio delle velocità". Dal momento che questo sottospazio ha due dimensioni, e che un numero ragionevole di punti per campionare ciascuna di queste dimensioni deve essere > 10, dovremo avere n_ppc > 100.

Sarà così, per n=20,

M = 2 10**5 Megabytes.

In mancanza di risorse di questo genere, si dovrà ripiegare su studi relativi a valori di n e/o n_ppc più bassi. Nel primo caso si perderà informazione su una porzione rilevante della fenomenologia; nel secondo si otterranno risultati più imprecisi (affetti da un alto livello di rumore numerico).

Un codice come HMGC si presta ad essere parallelizzato in modo molto efficiente. In prima approssimazione si può pensare di ripartire il reticolo spaziale fisso in porzioni da assegnare ai diversi processori disponibili (ciascuna porzione di dimensione adeguata al processore, in caso di processori sbilanciati). Le particelle che si trovano in una data porzione del reticolo saranno gestite dal processore che possiede quella porzione.

HMGC è stato, di fatto, parallelizzato utilizzando un metodo gerarchico per una ripartizione dei carichi tra nodi multi-processore, che fa uso di librerie MPI (a livello internodale) e  Open-MP (a livello intranodale).

Se n_nodi è il numero di nodi (bilanciati; ciascuno dotato di RAM pari a M_0) tra i quali viene ripartito il carico, si puo' ricavare il valore di n massimo investigabile (n_max) dall'espressione

n_max= (4. M_0 n_nodi/n_ppc)**(1/3)

Così, ad esempio, se M_0= 1 Gygabite, n_nodi=100, n_ppc=100, n_max=16.

Al momento, il codice viene fatto girare, in genere, su IBM SP4 a 32 processori, con 32 Gygabites di RAM condivisa. In queste condizioni (nota: si utilizza solo la parallelizzazione intranodale), si ha M_0=32 Gygabites, n_nodi=1. Dall'espressione per n_max si ottiene quindi approssimativamente n_max=11.

Di per sé, valori più alti di n_max (corrispondenti ad una più alta risoluzione spaziale) potrebbero essere ovviamente ottenuti a spese della risoluzione nello spazio delle velocità - vale a dire, scegliendo un valore di n_ppc più basso. Ad esempio, n_max=20 potrebbe essere ottenuto con n_ppc=16, che equivale a un campionamento di ciascuna dimensione nello spazio delle velocità con soli 4 punti.

 

Aspetti Innovativi

Nelle situazioni concrete, però, la scelta di valori così bassi di n_ppc è spesso forzata, piuttosto che dall'obiettivo di studiare casi con alto valore di n, dal fatto che solo un numero ridotto di processori della SP4 e' disponibile, o dalla necessità di ottenere i risultati delle simulazioni in tempi ragionevolmente brevi.

Oltre alla possibilità di eseguire, col codice HMGC, simulazioni significative ed accurate per lo studio dei modi di Alfven, la disponibilità di sistemi di calcolo ad alte prestazioni permetterebbe la piena utilizzazione di un codice avanzato di simulazione a particelle, attualmente in fase di sviluppo. Il codice ha una struttura simile a quella di HMGC, ma e' fondato su un modello fisico assai più ricco. Consentirà, cioè, di analizzare in modo compiuto

1)   il comportamento dei modi di Alfven in geometrie di plasma esattamente corrispondenti a quelle effettivamente realizzate negli esperimenti esistenti o programmate per quelli futuri;

2)   l'effetto, sulla turbolenza, di valori realistici (non fittiziamente bassi) del rapporto, nel plasma, tra pressione cinetica e pressione magnetica;

3)   l'effetto della girazione di Larmor sull'interazione tra campi elettromagnetici e particelle a.

La possibilità di evitare, riguardo a questi punti, l'uso di approssimazioni non adeguatamente giustificate permetterà di ottenere risultati affidabili, non solo sul piano qualitativo, ma anche su quello quantitativo.

Questo miglioramento, necessario per dare al codice di simulazione una adeguata capacità predittiva, è pagato in termini di risorse occorrenti: a parità di risoluzione desiderata, queste risulteranno essere superiori a quelle sopra descritte, per almeno un ordine di grandezza.

Occorre pertanto, per un verso, dotarsi di risorse computazionali di ultima generazione; per l'altro, utilizzare appieno le risorse di calcolo esistenti, anche quando tra le prime e le seconde possa esservi disomogeneità della potenza di calcolo e/o distanza geografica.

 

Fasi dell’attività

L'attività da sviluppare, riguardo al tema qui descritto, nell'ambito del progetto dovrebbe quindi articolarsi nelle seguenti fasi:

1.      porting del codice esistente (HMGC) su architettura parallela a memoria distribuita e/o condivisa, caratterizzate da nodi computazionali non omogenei e geograficamente distanti;

2.      completamento del codice avanzato, e analogo porting su achitettura parallela;

3.      produzione dei risultati di interesse per la fisica dei plasmi confinati magneticamente, con riferimento specifico alle condizioni che saranno realizzate negli esperimenti di prossima generazione (es.: ITER).

Si noti che la fase 1 richiederà un uso avanzato delle potenzialità dell'architettura di griglia computazionale, dal momento che avrà come obiettivo l'effettiva distribuzione di calcolo non banalmente parallelo, e non il mero accesso a strutture di dati distribuite.

Data, poi, la complessità del codice avanzato, il completamento della fase 1 dovrà essere considerato propedeutico all'attività di porting di tale codice prevista nella fase 2.

La fase 3 potrà comportare l'utilizzo di entrambi i codici, e potrà, quindi, essere in parte avviata già al termine della fase 1.

 

I.3.2  Sviluppo di modelli numerici avanzati per la simulazione dei fenomeni fisico-chimici nei processi di gassificazione di combustibili fossili

 

Tematica trattata

L’obiettivo finale dell’attività è lo sviluppo di modelli numerici avanzati per la simulazione dei fenomeni fisico-chimici nei processi di gassificazione di combustibili fossili per la produzione di combustibili gassosi ad alto tenore di H2 e nei processi di combustione turbolenta di tali combustibili in impianti avanzati di produzione di energia elettrica. L’importanza della ricerca proposta è funzionale alle scelte energetiche nazionali ed internazionali volte a soddisfare una domanda di energia sempre crescente a fronte delle previsioni di esaurimento delle risorse fossili liquide e gassose, sviluppando tecnologie in grado di impiegare i combustibili fossili in maniera ‘pulita’, cioè limitando fortemente le emissioni macro e micro inquinanti e le emissioni di CO2. Vi è un sostanziale accordo mondiale nel ritenere che ci troviamo di fronte a cambiamenti climatici globali che sono legati all’aumento della concentrazione dei gas serra in atmosfera, incrementando l’effetto serra naturale. L’anidride carbonica è il più importante dei gas serra, e la sua concentrazione è in continua crescita a partire dalla rivoluzione industriale. La domanda di energia primaria nel mondo è in continua ascesa: le previsioni della IEA fino al 2030 mostrano che la richiesta di gas naturale cresce più di tutte le altre fonti in termini assoluti, mentre le rinnovabili - con esclusione dell'idraulica - crescono più delle altre in termini %; in ogni caso il petrolio rimane la fonte dominante. La conseguenza è una crescita continua delle emissioni di CO2 in atmosfera, con un tasso previsto dell'1.8% annuo ed un incremento del 70% rispetto alle emissioni del 2000, pari a 38 miliardi di tonnellate nel 2030. La combustione di fossili è la principale causa di produzione di CO2. E’ evidente, dunque, la necessità di politiche energetiche globali atte ad assicurare consistenti riduzioni nella produzione di CO2, senza penalizzare lo sviluppo economico e industriale che nei prossimi decenni dipenderà ancora dalle fonti fossili. A tal fine è necessario un insieme di misure volte ad un incremento della efficienza, sia nella produzione che nell’uso dell’energia, ad un incremento dell’uso di fonti rinnovabili e ad un impiego pulito delle fonti fossili, compresa la cattura e neutralizzazione definitiva della CO2, sviluppando tecnologie per l’impiego pulito di combustibili fossili (CCS; Carbon Capture and Storage). Nel 2000 quasi i ¾ dell'energia elettrica richiesta in Italia sono stati prodotti in Italia con combustibili fossili, sostanzialmente mediante centrali termoelettriche di tipo tradizionale con ciclo a vapore a condensazione. L'uso dell'olio combustibile, anche se complessivamente in diminuzione, è stato ancora rilevante.

Gli scenari futuri per la generazione elettrica da combustibili fossili prevedono un crescente ricorso al gas naturale come elemento chiave per il miglioramento compatibilità ambientale. Anche per questa fonte, comunque, esistono problemi di criticità di approvvigionamento e di dinamica dei prezzi. In questo quadro si inseriscono le iniziative per l'utilizzo più efficiente e pulito del carbone, che vedono un grande interesse della industria europea che considerano tale opzione essenziale per la competitività sui mercati mondiali. A livello mondiale il ricorso al carbone è oggi rilevante, e non si prevede un sostanziale mutamento nel futuro immediato e più lontano: gli USA continuano a puntare su tale fonte, seppure con un fenomenale impegno volto allo sviluppo di tecnologie pulite, così come i Paesi del terzo Mondo e le economie in fase di sviluppo - Cina in testa. Il carbone è comunque una fonte da valorizzare, per le sue caratteristiche di ampia disponibilità nel tempo (riserve stimate per 300 – 400 anni) e sicurezza di approviggionamento (ridotti rischi geopolitici). La condizione perché ciò accada sta nello sviluppo di tecnologie pulite (CCT = Clean Coal Technologies) tali, cioè, da garantire limiti sempre più bassi - tendenzialmente zero - delle emissioni di macro e micro inquinanti (ossidi di zolfo e azoto, particolato specialmente quello di granulometria più bassa, metalli pesanti, composti clorurati, ecc..) Si fa, oggi, riferimento a tre categorie impiantistiche che vengono elencate in ordine decrescente rispetto alla maturità tecnologica:

a)   impianti termoelettrici supercritici (SC) e ultra supercritici (USC);

b)  impianti IGCC (Integrated Gasification Combined Cycles);

c)   impianti di gassificazione del carbone con sequestrazione (=separazione + stoccaggio definitivo) della CO2.

 

L’obiettivo strategico è rivolto alla terza tipologia d’impianto, che rappresenta la più valida soluzione per garantire ed accelerare la transizione verso l’economia basata sull’idrogeno: il processo di gassificazione del carbone con CO2 Capture and Storage sembra oggi quello più promettente nel lungo periodo, secondo le valutazioni della IEA sui costi di produzione dell’idrogeno. Coerentemente con questo obiettivo strategico, l’ENEA è impegnato nel progetto TEPSI, un progetto proposto da ENEA e finanziato dal MIUR nell’ambito del PNR - Fondo Integrativo Speciale per la Ricerca - che ha come obiettivo generale lo sviluppo di tecnologie, componenti e sistemi innovativi per promuovere la diffusione dell’idrogeno come vettore energetico per la produzione/conversione di energia nei diversi settori di applicazione a emissioni zero. In particolare si fa riferimento alla terza linea prevista dal progetto: produzione di idrogeno mediante idrogassificazione del carbone integrata con generazione di energia a emissioni zero (Processo innovativo denominato ZECOMIX). Questa linea comprende le attività di studio, realizzazione e sperimentazione di un processo innovativo – denominato ZECOMIX – che prevede sia la produzione di H2 mediante gassificazione del carbone, sia la contemporanea produzione di energia elettrica ‘zero emission’, con separazione della CO2 per un successivo confinamento. Le caratteristiche originali del processo permettono di ottenere, oltre all’idrogeno, una corrente di CO2 concentrata e di utilizzare parte del calore di scarto del sistema di conversione per ottenere elevatissime efficienze energetiche. Il citato progetto ha come obiettivo la realizzazione di un impianto di ricerca e studi teorici e sperimentali sul processo integrato e sui sottoprocessi che lo costituiscono: l’impianto ed i risultati della ricerca costituiranno un valido punto di partenza per la partecipazione del nostro Paese ad iniziative europee (HYPOGEN) ed  internazionali (in vari ambiti, fra cui il CSLF = Carbon Sequestration Leadership Forum) sul tema dell’impiego di combustibili fossili per la produzione di idrogeno ed elettricità.

In questo quadro è quindi di particolare interesse avviare un attività di modellistica e simulazione ad alte prestazioni che consentirà di validare i modelli sviluppati con i dati sperimentali provenienti dall’impianto ZECOMIX e residenti su basi di dati accessibili sulla GRID ENEA.

 

Aspetti innovativi

In generale il processo di gassificazione consiste nella parziale ossidazione, non catalitica, di una sostanza solida, che ha l’obiettivo finale di produrre un combustibile gassoso di sintesi, syngas,  costituito essenzialmente da una miscela di idrogeno, ossido di carbonio e da idrocarburi leggeri come il metano. Il syngas deve essere poi trattato per una sua purificazione (eliminazione di ceneri, ossidi di zolfo, ossidi di azoto, etc.) e per la separazione dell’idrogeno dalla CO2. Tali processi sono profondamente influenzati sia dalla tecnologia di gassificazione sia dalla composizione del combustibile. L’idrogeno così ottenuto può quindi essere utilizzato quale combustibile pulito ad emissioni ‘zero’, mentre la CO2 deve essere ‘sequestrata’. La combustione dell’idrogeno presenta comunque problematiche notevoli, soprattutto dovute alla sua elevata velocità di reazione, quali fenomeni di instabilità sia fluidodinamiche che termoacustiche. Al fine di poter attuare strategie attive o passive di controllo di queste instabilità e sviluppare geometrie e tecnologie di combustione efficienti è necessario riuscire a comprendere la fisica di tali processi cercando di simulare nella maniera più realistica possibile le fenomenologie fisico-chimiche.  Ambedue i processi, gassificazione e combustione, sono intrinsecamente non stazionari e per essi è necessario affrontare problematiche riguardanti, nel primo caso, lo studio accurato della cinetica chimica per la caratterizzazione del gas prodotto, nel secondo lo studio di flussi turbolenti e reattivi relativamente alle problematiche di instabilità  sia di tipo fluidodinamico (dovute a strutture coerenti)  sia di tipo termoacustico (dovute all’accoppiamento pressione-rilascio di calore).

Per molti anni gli studi di fluidodinamica computazionale (CFD) di flussi di interesse industriale sono stati basati, e lo sono ancora, su approcci che non consentono lo studio accurato di fenomeni non stazionari. D’altra parte un approccio basato sulla soluzione diretta dell’equazione di Navier-Stokes (approccio DNS) non risulta fattibile quando si deve affrontare lo studio di flussi molto complessi in geometrie di interesse industriale, sia per le ancora enormi risorse computazionali necessarie, sia per la difficoltà di analisi e gestione dell’enorme mole di dati prodotti. E’ ormai consolidata la tesi che l’approccio numerico migliore per poter affrontare questo tipo di problematiche è sicuramente la Large Eddy Simulation. Nel panorama modellistico si stanno anche affacciando approcci ibridi quali il DES (Detached Eddy Simulation), ma non sono ancora considerati una soluzione migliore della LES. L’approccio LES, pur richiedendo anch’esso capacità di calcolo notevoli, è quello che consente di catturare bene la dinamica dei flussi, in quanto risolve il moto delle scale turbolente sia nello spazio che nel tempo permettendo una predizione accurata della fluidodinamica e dell’interazione tra la turbolenza e le reazioni chimiche che consente una predizione altrettanto accurata delle fenomenologie chimiche. L’approccio LES risulta praticamente indispensabile per lo studio delle instabilità di combustione, per la caratterizzazione dei prodotti di combustione, per eseguire un’analisi in frequenza dei fenomeni coinvolti. Il costo computazionale di una simulazione LES di un flusso turbolento e reattivo è, come già detto, notevole anche se più basso di quello necessario per una DNS. Accanto alla necessità di un’accuratezza spaziale in grado di descrivere il moto delle strutture turbolente di larga scala, è importante anche un’elevata accuratezza temporale (passo del tempo di integrazione) che permetta di risolverne la dinamica. Lo spettro dei tempi di un flusso turbolento tipico va da 10-3 sec a 10-1 sec; la cinetica chimica introduce una nuova scala dei tempi che tipicamente spazia tra 10-7 sec (reazioni veloci) e 10-3 sec (reazioni lente). Inoltre ulteriori limiti sui tempi di integrazione vengono posti dalle condizioni di stabilità per le equazioni che governano l’evoluzione del campo termofluidodinamico. Poiché le fenomenologie in gioco hanno frequenze che spaziano dai 100 Hz alle migliaia di Hz, il numero di passi temporali di integrazione in gioco può essere anche dell’ordine di 100. Tutto ciò porta a dire che una simulazione LES di un flusso turbolento e reattivo richiede un tempo di calcolo tale da richiedere necessariamente l’utilizzo di piattaforme di calcolo parallele, e con le attuali piattaforme parallele oggi disponibili sulla GRID ENEA, i tempi necessari sono sempre dell’ordine di mesi. Lo sviluppo del calcolo parallelo sta sempre di più avvicinando la possibilità di adottare questo approccio per lo studio di flussi turbolenti reattivi complessi. Per questo l’ENEA ha investito sull’approccio LES, sia usando codici commerciali quali FLUENT, sia sviluppando un proprio codice denominato HeaRT (Heat Release and Turbulence). I codici commerciali che implementano modellistica LES sono basati su modelli consolidati in letteratura che però, oltre a non essere ancora adeguati allo studio di questo tipo di fenomenologie, sono poco flessibili, in quanto difficilmente modificabil, e spesso sono caratterizzati da bassa accuratezza numerica. Il codice HeaRT è un codice di ricerca in continua evoluzione per quanto riguarda la modellistica fluidodinamica e di combustione, gli schemi numerici e la struttura software. Attualmente il codice è in grado di simulare flussi turbolenti reattivi e non reattivi a bassi numeri di Mach in geometrie 3D cilindriche e cartesiane multiblocco e utilizzando griglie strutturate. A differenza di FLUENT o altri codici commerciali, HeaRT utilizza un modello di sottogriglia originale, denominato Fractal Model nato dalla collaborazione tra ENEA e Dipartimento di Meccanica ed Aeronautica dell’Università di Roma ‘La Sapienza’. Lo schema numerico adottato, formulato alle  differenze finite, è esplicito, al terzo ordine nel tempo ed al secondo nello spazio. L'integrazione delle equazioni nel tempo è stata realizzata in modo esplicito e ricorrendo al metodo di Shu-Osher, appartenente alla famiglia dei Runge-Kutta. Lo schema a tre passi ha un'accuratezza del terzo ordine ed ottime proprietà di stabilità non lineare. Le condizioni di stabilità che accompagnano lo schema esplicito impongono intervalli di integrazione temporale molto piccoli (10-7sec), indispensabili anche per il trattamento di problemi reattivi. L'integrazione nello spazio è al secondo ordine. Le derivate spaziali sono trattate con formule centrate che consentono di trattare nodi non uniformemente distribuiti. Il codice, essendo centrato, non è particolarmente robusto per cui i gradienti spaziali non possono essere intensi e ciò implica l’utilizzo di griglie molto fitte per non avere una soluzione oscillante.

L’attività di ricerca che si intende portare avanti riguarda quindi lo sviluppo della modellistica fluidodinamica e chimica relativa al processo di gassificazione di combustibili fossili e al processo di combustione di H2 con approccio LES.

 

Fasi di attività

 

1. Sviluppo di modelli per la caratterizzazione del processo di gassificazione

L’attività prevede lo sviluppo di modelli numerici e la loro implementazione software da integrare nel codice HeaRT al fine di caratterizzare la composizione del gas prodotto. In particolare sarà necessario:

-         Sviluppare opportune Boundary Condition per il trattamento di pareti dove avvengono reazioni di tipo superficiale;

-         Definire schemi cinetici appropriati per le reazioni solido-gas;

-         Sviluppare modelli di interazione turbolenza-chimica da attivare in corrispondenza di superfici reattive.

 

2. Sviluppo di modelli per lo studio di condizioni di instabilità nella combustione di H2 o miscele ad elevato contenuto di H2.

L’obiettivo consiste nello sviluppare ulteriormente la modellistica fluidodinamica e di combustione del codice HeaRT ottenendo una nuova release del codice HeaRT ; in particolare si dovrà:

-         sviluppare un nuovo tipo di ‘reattore’ di sottogriglia che tenga conto di fenomeni normalmente trascurati ma che a piccola scala diventano critici per predire più accuratamente la dinamica di fiamma; tali fenomeni includono, ad esempio, gli scambi diffusivi di massa ed energia e le perdite di calore attraverso la superficie del ‘reattore’ (sistema aperto e non adiabatico);

-         utilizzo di schemi cinetici dettagliati per la combustione di H2; ciò implicherà anche lo sviluppo di algoritmi di risoluzione ottimizzati per l’integrazione delle equazioni di bilancio energetico.

 

3. Validazione dei modelli sviluppati.

La validazione dei modelli sviluppati potrà essere condotta attraverso una campagna di simulazioni ed il confronto dei risultati ottenuti con i dati delle campagne sperimentali che verranno eseguite sull’impianto sperimentale ENEA denominato ZECOMIX (progetto TEPSI),  su altri impianti sperimentali ENEA ed anche su eventuali dati di letteratura qualora fossero disponibili.

 

4. Installazione della nuova versione del codice HeaRT sulla GRID ENEA.

La nuova release del codice eseguibile dovrà essere installata su tutte le piattaforme parallele della GRID ENEA ed integrata nel set dei codici CFD condivisi sulla rete dalla comunità scientifica ENEA.

 

 

 

 

 

 

 

SP I.2.4 Progettazione e sviluppo di librerie per l’implementazione efficiente e parallela di nuclei computazionali su dispositivi “ Field Programmable Gate Arrays” (FPGA) integrati in un ambiente GRID.

 

La realizzazione di nuovi strumenti per il calcolo avanzato passa sia attraverso l’uso di oggetti commodity (microprocessori e reti di comunicazione a bassa latenza e ampia banda) ma anche attraverso lo sviluppo di nuovi strumenti che siano in grado di rendere maggiormente efficienti gli strumenti commodity su particolari classi di applicazioni. Infatti, i microprocessori sono concepiti e disegnati per supportare classi diverse di applicazioni tra le quali non compare il calcolo scientifico avanzato (che corrisponde ad una attività di nicchia rispetto alle necessità che inducono gli alti volumi di vendita di questi strumenti). In questo senso i microprocessori (classe IA64 bit, ad esempio) sono di natura “generalistica” e mostrano efficienze computazionali ottime solo per una ristretta fascia di problemi numerici. Per altri, il ricorso ad HW dedicato è sempre più frequente, in numerosi ambiti scientifici e applicativi. Nello specifico settore delle Life Sciences, ad esempio, si è venuta a creare rapidamente una nuova generazione di strumenti appositamente disegnati per la bioinformatica basati su soluzioni a differente grado di customizzazione[6].

Anche la Biologia Sistemica computazionale deve apprestarsi a predisporre gli strumenti di Alte Prestazioni che saranno necessari in un orizzonte temporale di 5-10 anni, allorché si svilupperanno le condizioni per una descrizione di reti biochimiche complesse, di grandi dimensioni e rappresentative di interi comparti cellulari. In tale contesto dovranno essere adeguati sia le potenze di calcolo sia gli strumenti SW affinché questi modelli possano divenire a pieno titolo strumenti consolidati a disposizione della R&D industriale.

 

Dal punto di vista delle architetture di calcolo, vi sono due innovazioni tecnologiche che occorrerà seguire e considerare:

a)      la tecnologia di connessione denominata HyperTransport (HT)

b)      i dispositivi prototipali basati su logiche riprogrammabili (FPGA, Field Programmable Gate Arrays).

Per quanto riguarda (a), la tecnologia HT sarà in grado di soppiantare la tecnologia basata sul bus PCI per interconnettere, con alta banda e bassa latenza, dispositivi presenti sulle reti di comunicazione. Molte società ed un forum internazionale (www.hypertransport.org) stanno predisponendo questa tecnologia che si appresta a divenire uno standard nel settore e che è comunque già presente sui recenti microprocessori (AMD Opteron).

Per quanto riguarda il punto (b), la realizzazione di piattaforme di calcolo “eterogenee” (vale a dire formate dall’interconnessione coerente di dispositivi attivi di natura diversa come microprocessori e FPGA) è già una realtà. La società Cray Inc. e la SGI , ad esempio, hanno già lanciato sistemi commerciali dotati di board multiprocessore che supportano, sulla stessa rete di comunicazione (basata su HyperTransport), logiche riprogrammabili FPGA. La Fig. 16 illustra la soluzione CRAY.

Queste piattaforme promettono un salto qualitativo (in termini di efficienze di calcolo) rispetto alle piattaforme ad alte prestazioni finora presenti sul mercato anche se richiedono un intervento molto più complesso, non facilmente gestibile dagli utenti finali, per sfruttarne a pieno le potenzialità. Infatti le board contenenti logiche riprogrammabili devono essere programmate a basso livello (in sostanza su di loro è possibile costruire un sistema dedicato adatto a realizzare efficacemente una specifica computazione) con tecniche molto più complesse di quelle normalmente detenute dagli utenti finali (anche quelli più avanzati tecnologicamente).

 

 

Fig. 16 Schema concettuale di una piattaforma di calcolo di ultima generazione ad architettura eterogenea, contenente uno switch proprietario che lega sia processori COTS (AMD Opteron) che board con logiche programmabili (FPGA) (schema del Cray XD1© ).

 

Questa attività ha portato ENEA alla realizzazione di uno spin-off che consolida una tecnologia, sviluppata in ENEA, sulla progettazione di dispositivi dedicati da implementare su logiche riprogrammabili. La piattaforma di calcolo consentirà di effettuare design automatici di sistemi dedicati a specifiche applicazioni scientifiche.

All’interno del presente Progetto verrà definita la struttura di una libreria di moduli che realizzano nuclei computazionali di interesse comune a più discipline. Tali moduli, realizzati in maniera ottimizzata e parallela su dispositivi di tipo FPGA, consentiranno di massimizzare l’efficienza di utilizzo dei singoli nodi di calcolo: si demanderà infatti all’esecuzione di moduli di libreria le funzionalità che non sono efficientemente supportate dalle architetture di calcolo convenzionali e, allo stesso tempo, richiedono potenze di calcolo significative. A titolo esemplificativo si citano le classi di computazioni basate su elaborazione di tipi di dato non convenzionale (ad esempio caratteri) e caratterizzate da complessità più che lineari rispetto alle dimensioni dei dati di ingresso. La prima caratteristica (tipi di dato non convenzionali) fa sì che le architetture delle normali CPU non siano in grado di supportare efficientemente la computazione (eventualmente a causa di un sottoutilizzo della banda di comunicazione e/o delle unità funzionali normalmente presenti nel processore); la seconda caratteristica (complessità più che lineare rispetto alle dimensioni dei dati di ingresso) fa sì che l’implementazione della computazione non sia limitata dalla banda di I/O verso il dispositivo programmabile (si ricorda che la banda di I/O è il tipico fattore limitante nella effettiva erogazione di prestazioni da parte di un dispositivo di calcolo).

Alla luce delle precedenti considerazioni, e anche sulla base del fatto che le competenze necessarie non sono particolarmente diffuse, all’interno di questa attività verranno sviluppate alcune implementazioni parallele di soluzioni algoritmiche di interesse generale. Le implementazioni, espresse in linguaggio VHDL, descriveranno architetture di calcolo sintetizzabili all’interno di una FPGA. Tutte le realizzazioni seguiranno lo standard di interfaccia definito per la libreria in questione.

Queste funzionalità, ai fini dell’utilizzatore, saranno rese disponibili in maniera trasparente attraverso il middleware GRID.

 

Partner

Soc. Ylichron (spin-off ENEA, in via di costituzione)

 

 

SP I.5 Web archive

 

L'attività è volta a fornire un servizio alla comunità scientifica e  industriale italiana consistente in un archivio storico delle pagine  web dei domini .it.

L'interesse di disporre di una cronologia storica della struttura e dei  contenuti della rete delle pagine web del dominio italiano assolve a  molteplici compiti:

a.      dal punto di vista strettamente di ricerca, l'accesso alla dinamica  nel tempo della rete formata dalle pagine web e' di grande interesse  perché consente di studiare le proprietà di aggregazione delle pagine  in funzione della loro origine e la dinamica nel tempo di queste forme  di aggregazione;

b.      ancora sul piano teorico, l'accesso ai contenuti delle pagine web  costituirà un elemento di rilievo per studi sui contenuti (sia sulla  evoluzione della lingua, sia nella loro semantica) sia sul piano  tecnico (linguaggi e soluzioni tecnologiche adottate per la  realizzazione delle pagine)

c.      su un piano prettamente di ricerca applicata, l'archivio darà accesso alla dinamica delle differenti azioni per classi di prodotto e  merceologiche, consentendo un'analisi della dinamica dell'impatto di  specifiche classi di azioni industriali e valutarne la sostenibilità nel corso del tempo.

L'attività si appoggerà, sul piano tecnologico, sulle infrastrutture  acquisite dal progetto, nella fattispecie l'elaboratore centrale e i  sistemi di storage. La tecnica di acquisizione dei dati prevedrà la realizzazione di  istantanee mensili del dominio .it, la cui immagine di rete e i cui  contenuti saranno conservati sui device di storage del centro di  calcolo, attraverso una gerarchia di memorie che consentirà l'accesso  costante in linea delle istantanee di rete e in forma di dati disco  opportunamente compressi dei contenuti delle pagine. L'accesso ai dati  verrà fornito dal Centro sotto richiesta  (la rete delle pagine sarà  “downloadable” tramite l'interfaccia web dell'archivio, i contenuti  delle pagine sotto forma di dischi, a richiesta dell'utente). L'attività verrà svolta in collaborazione con l'Università di Roma I  (prof. Alessandro Panconesi) e il Politecnico di Milano (dr. Massimo  Santini). Le fasi dell'attività (da ripetersi mensilmente) sono le seguenti:

1.      attivazione dei programmi di "crawler" che indagheranno la rete e  estrarranno i contenuti dei siti del dominio .it. Gli stessi "crawlers"  contestualmente creeranno l'immagine relativa alle interconnessioni tra i vari siti.

2.      compressione e archiviazione dei dati dei testi; disponibilità del  file di rete sul sito web previsto per l'archivio

Questo specifico task verrà specificamente considerato per il  dimensionamento delle attrezzature di storage che verranno acquisite  dal progetto. Ciascuna immagine (compressa) del dominio .it  (comprensiva dei testi) richiederà uno storage di circa 500 GB, che  rende l'occupazione disco necessaria per il progetto a circa 6 TB/anno. Obiettivo finale sarà quello di avere, a regime, i dati disponibili e  una pagina web legata al progetto che informa la comunità scientifica  italiana di questa iniziativa, fornendo tutti i dettagli tecnici sulla  consistenza dei dati e sulle modalità operative per accedere  all'archivio.

 

Partner

Università di Roma “La Sapienza

 

 

 

 

II.      Sviluppo di tecnologie e modelli computazionali per la descrizione di sistemi complessi di origine biologica e di materiali innovativi.

 

 

La Linea di Attività II, legata alla Biologia Computazionale e Sistemica e alla Scienza dei Materiali, ha il principale obiettivo di affiancare, all’infrastruttura di calcolo acquisita nel Progetto, una dotazione progettuale di rilievo per le “Scienze della Vita” e di grande interesse per le competenze presenti in ENEA e nei partner associati.

 

L’obiettivo “complessivo” della Linea di Attività è quello di attivare sistematicamente filoni di attività computazionale nel versante biotecnologico; tale settore sta assumendo un rilievo sempre maggiore come tecnologia di punta, attraverso il quale il paese potrà fare fronte a nuove sfide, sia sul versante della ricerca che, ed in particolare, su quello industriale, cercando di favorire la competitività delle imprese in questo settore strategico.

 

Gli obiettivi parziali sono riconducibili ai risultati delle attività di ricerca dei sottoprogetti SPII.1-SPII.5 che, se da un lato avranno un interesse per se producendo risultati scientifici di rilievo, dall’altro consentiranno di mettere a fuoco e di funzionalizzare il supporto tecnologico (piattaforma di calcolo, sistemi di acrhiviazione, competenze SW, tools di management e di controllo della piattaforma, suo management complessivo etc.) implementato con i fondi del presente progetto.

 

I sottoprogetti che verranno svolti in questo ambito sono:

SP II.1: Simulazioni di reti biochimiche

SP II.2: Bioinformatica PTPS

SP II.3: Ricerca polimorfismi

SP II.4: Sviluppo di modelli numerici per analisi strutturali complesse e processi di sinterizzazione

SP II.5: Modelling molecolare

 

Le sedi di svolgimento delle attività comprendono: Portici, Napoli, Palermo, Brindisi, Roma, Heidelberg, Londra.

 

 

SP II.1 Simulazioni di reti biochimiche

 

Le cellule sono complessi reattori chimici dove reti di proteine presiedono ad una serie di compiti (dal metabolismo, alla trasduzione dei segnali provenienti da altre cellule, alla regolazione dell’espressione genica nella cellula stessa etc.).

I dati di queste molteplici reti di proteine iniziano gradatamente ad affluire (grazie alle tecniche sperimentali high-throughput) e a consentire il completamento di un quadro complessivo delle reti biochimiche all’interno dei singoli comparti e delle singole classi cellulari. Tali dati, contenuti in banche dati pubbliche (si veda, ad esempio, MINT, un database di interazioni proteiche sviluppato e curato dal Dip.to di Biologia dell’Università di Tor Vergata [7]) sono successivamente introdotti in modelli di reti biochimiche che svolgono specifiche funzioni, a loro volta oggetto di importanti banche dati pubbliche, come la Kyoto Encyclopedia of Genes and Genomes, KEGG[8]). Una tipica rete biochimica descritta in KEGG è riportata in fig.17.

 

 

 

 

 

Fig. 17. Rete biochimica del metabolismo del fruttosio/maltosio nell’uomo, descritta da KEGG.

 

 

Queste reti sono mutuamente interconnesse perché proteine coinvolte in una specifica rete possono svolgere un ruolo anche in altre reti proteiche, con funzioni completamente diverse tra loro. Il sistema biochimico che ne risulta è, dunque, un sistema altamente interconnesso dove l’interconnessione delle funzioni gioca anche un ruolo nel garantire la robustezza e la resistenza dell’intero sistema a faults e a perturbazioni esterne.

I dati sperimentali provenienti dalle branche della Proteomica, Interattomica, Metabolomica e Transcrittomica stanno aprendo la strada alla possibilità di costruire modelli quantitativi  di interi comparti cellulari, fino alla possibilità di avere modelli “in silico” di intere classi cellulari. Questa prospettiva è di enorme rilievo, sia per la ricerca di base che per quella applicata, sia in campo biotecnologico che farmacologico.

La modellistica numerica e il calcolo ad alte prestazioni giocano il ruolo di collante tra tutte queste informazioni, tipologicamente di natura diversa. Infatti le reazioni di varia natura che hanno luogo nei diversi comparti cellulari sono descrivibili da complesse ontologie: infatti di ciascuna reazione devono essere specificati una serie di elementi fondamentali:

·         la definizione della reazione stessa(classe di reazioni),

·         la descrizione dei parametri termodinamici (reagenti, condizioni termodinamiche e chimiche alle quali i dati sperimentali di cinetica si riferiscono etc.),

·         lo schema numerico per implementare il modello cinetico della reazione,

·         i dati delle cinetica chimica,

·         le osservabili macroscopiche che si riferiscono all’attività della specifica reazione…

 

Per quanto riguarda l’analisi numerica, i modelli matematici che descrivono le differenti classi di reazioni danno origine a sistemi di Equazioni Differenziali Ordinarie (ODE) che vengono risolte sia con tecniche di integrazione nel tempo (solutori classici di Eulero, Runge-Kutta oppure nuove strategie che consentono di integrare le equazioni anche in condizioni di stiffness estreme), sia con tecniche stocastiche. I progressi fatti in questo specifico settore sono molto importanti sul versante applicativo; infatti l’acquisizione di dati sperimentali sulle reazioni ha consentito sempre meglio di caratterizzare le cinetiche delle complesse reazioni proteina-proteina al fine di stabilirne i comportamenti nei transitori, negli stati di equilibrio, consentendo di affrontare per la prima volta la simulazione quantitativa del comportamento di specifici meccanismi.

La presenza di condizioni di stiffness nelle ODE (copresenza di diverse scale di tempi scandite da classi di reazioni a cinetiche molto diverse tra loro) genera pesanti instabilità numeriche nell’integrazione delle ODE, tali da richiedere l’utilizzo di integratori specifici che consentono di ottenere risultati stabili sul piano numerico a patto di introdurre un peso computazionale aggiuntivo rispetto a quello necessario con integratori più semplici ma meno stabili.

 

Un lavoro rilevante fatto negli ultimi 4-5 anni sul versante dell’espressione dei dati di descrizione delle reti biochimiche è consistito nella realizzazione di opportuni “linguaggi” per la descrizione e la classificazione delle reazioni proteina-proteina. Un contributo importante in questa direzione è stato fornito, in primo luogo, dalla comparsa di un nuovo linguaggio di mark-up, di diretta derivazione dell’XML, che consente agevolmente di descrivere questa classe di dati (a partire dalla complessa ontologia che riesce a classificarli e a descriverli correttamente) e che sta diventando uno standard de facto in questo settore. Questo linguaggio si chiama SBML (Systems Biology Mark-Up Language) ed è gestito da un organizzazione internazionale (www.sbml.org) che fa capo all’University of Hertfordshire (UK), al CalTech (USA) e alla Keyo University (Giappone).

L’SBML è un linguaggio di mark-up che permette la descrizione qualitativa e quantitativa di modelli di reazioni e reti biochimiche (una rete biochimica è un sistema che consiste di entità biochimiche legate tra loro tramite reazioni che modificano, trasformano e/o trasportano queste entità). SBML è stato disegnato per rendere possibile lo scambio di modelli di reti biochimiche tra differenti package software, per consentire una semplice integrabilità di questi moduli all’interno di software specifico.

In questo momento ci sono una grande quantità di progetti e di software tools (circa 50) che si basano su (o consentono l’integrazione di) moduli SBML.

 

Negli ultimi cinque anni, c’è stato un continuo sviluppo di progetti e la proliferazione di strumenti per la simulazione di sistemi biochimici complessi. In Italia la situazione è ancora agli inizi, in quanto esistono pochi gruppi che hanno già intrapreso attività di Systems Biology computazionale, che riassume la linea di attività descritta nel presente progetto. Sono in corso di realizzazione una serie di modelli che consentono la simulazione di queste reti, via via più complesse, che, acquisendo i dati nel formato di riferimento, consentono la realizzazione di simulazioni volte a riprodurre il comportamento chimico (variazione nel tempo delle concentrazione delle varie specie proteiche reagenti).

 

L’importanza di questi strumenti e metodologie di simulazione è evidente; a partire da questi modelli quantitativi delle varie classi di reazione e, più in avanti, dall’unificazione di tutte le reazioni chimiche presenti nelle cellule, sarà possibile avere uno strumento estremamente efficace per studiare la fisiologia, l’origine biochimica delle malattie e, soprattutto, per lo studio delle proteine target da colpire (o la cui attività deve essere ripristinata) per la soluzione di situazioni patologiche. Da qui, l’enorme interesse del settore biotecnologico e farmacologico a questi risultati.

 

Proprio per percorrere correttamente le tappe per il radicamento in ENEA di queste tematiche e di queste metodiche, il sottoprogetto SP II.1 focalizzerà inizialmente la sua proposta scientifica in questo settore collaborando allo sviluppo di SBML (con l’Università di Hertforshire (Londra), il CalTech e l’Università di Keyo (Giappone)). Il progetto SBML è prevalentemente finanziato dall’NIH americano; una specifica attività in questa direzione consentirà al Centro di acquisire eventualmente contratti all’interno di questo finanziamento e immettersi, fin dall’inizio, in un ambito scientifico di eccellenza. Questa interazione si svilupperà attraverso la formazione di personale presso quelle strutture, personale che poi rientrerà a svolgere il proprio lavoro all’interno del Centro, radicando nel Centro stesso quelle specifiche competenze. Inoltre, il gruppo ENEA collaborerà allo sviluppo, in associazione con l’European Media Laboratory (EML) di Heidelberg, di un tool per la progettazione e la simulazione di reti biochimiche (COPASI). Questo strumento è attualmente realizzato da EML  in collaborazione con il VirginiaTech (www.copasi.org). Questa attività consentirà da un lato, di operare per lo sviluppo di questo tool (open-source) e dall’altro di costituire un centro di supporto per le attività di simulazione di modelli di network biochimici complessi.

 

Le funzionalità del prodotto verranno testate attraverso benchmarks proposti dalle Unità ENEA del settore Biotecnologico che parteciperanno al progetto, oltre che dai partners “esterni”.

 

In particolare, in partnership con BioTekNet di Napoli, verrà sviluppato un caso di studio a valenza industriale riguardante la modellizzazione della rete metabolica di una specifica classe batterica che può essere adibita alla produzione di polisaccaridi di interesse biotecnologico.

 

L’attività di ricerca proposta da BioTekNet prevede l’articolazione in quattro fasi successive:

i)             l’acquisizione di dati della cinetica delle reazioni metaboliche coinvolte nella produzione di polisaccaridi in Escherichia coli e/o uno o più ceppi di lattobacilli;

ii)           la modellizzazione attraverso COPASI della dinamica della rete metabolica in condizioni fisiologiche;

iii)          la modellazione in silico, attraverso la rete simulata, degli interventi da apportare al genoma batterico per implementare varianti metaboliche atte ad incrementare l’efficienza di produzione dei polisaccaridi;

iv)         modifica, in vivo, attraverso metodiche di ingegneria genetica, del genoma batterico per l'ottenimento di una overespressione delle molecole di interesse, secondo le indicazioni ottenute attraverso le simulazioni effettuate al punto precedente.

 

Il Consorzio BioTekNet svilupperà autonomamente le parti i) e iv), mentre le parti ii) e iii) saranno svolte all’interno del presente Progetto in collaborazione con il personale ENEA.

 

Partner

Consorzio BioTekNet (Centro Regionale di Competenza in Biotecnologie Industriali), Napoli

 

Collaborazioni estere

SBML group

EML di Heidelberg

 

 

SP II.2 Sviluppo di un database e di tool per la creazione di modelli di reti metaboliche e genetiche per lo studio di batteri del genere Pseudomonas.

 

Nell’ambito delle pseudomonadi, il progetto di sequenziamento completo del genoma è stato completato per tre ceppi (P. aeruginosa PAO1, P. syringae pv. tomato DC3000, Pseudomonas putida KT2440) e sono in fase di sequenziamento altri 7 ceppi. Attualmente sono disponibili sulle banche dati 41.600 accessioni nucleotidiche, 70.000 accessioni proteiche ed è conosciuta la sequenza di 17.500 geni. Si propone di costituire un database di riferimento per le pseudomonadi, di facile ed immediata consultazione, con interfaccia web che contenga una raccolta dati per la gestione delle sequenze di DNA e proteine insieme alle annotazioni relative ai geni e alla loro funzione, nonché della letteratura di riferimento. Saranno sviluppati metodi bioinformatici e algoritmi che consentono di stabilire dei modelli di reti metaboliche e genetiche integrando i dati della sequenza genomica, dei profili di espressione genica, degli studi di proteomica e fisiologici. Ciò consentirà di concentrare tutte le informazioni sulle Pseudomonas (database), attualmente disperse in varie fonti web, in un'unica piattaforma bioinformatica integrata in una reta grid al fine di analizzare e trasferire in tempi brevi e con elevata sensibilità i dati reperiti. La creazione di tool e software potrà consentire di sfruttare le informazioni reperite nella consultazione del database al fine di generare uno strumento utile agli studi di genomica funzionale, alla progettazione di microarray, alla correlazione fra i geni, e, non ultimo, all’analisi “in silico”. Informazioni funzionali sui geni risultano essere indispensabili per la ricostruzione di vie e reti molecolari di grande interesse quali vie metaboliche, cascate di traduzione del segnale e gerarchie regolatorie. Si prospetta la disponibilità di un modello matematico capace di predire il comportamento di una via metabolica in relazione a diverse condizioni mediante un approccio di “simulazione” che sia valido per le principali attività delle pseudomonadi in relazione all’attivazione di specifici geni, indagando sulle migliori condizioni che rendono maggiormente sfruttabili tali organismi. Oltre all’obiettivo metodologico, il progetto ha lo scopo di identificare le vie metaboliche chiave specifiche per le pseudomonadi e i fattori di regolazione coinvolti nella formazione dei PHA, e di altri metaboliti utili a scopi industriali o geni coinvolti nella patogenesi e nella interazione con l’ospite nei batteri fitopatogeni.

 

Il sottoprogetto vede la partnership del Parco Scientifico e Tecnologico della Sicilia. Il Parco già opera con progetti di ricerca che hanno consentito di sequenziare geni di rilevante interesse. In particolare molto promettente appare la ricerca sui geni responsabili delle attività di sintesi e di degradazione dei poliidrossialcanoati che il Parco sta portando a termine con un finanziamento di un progetto PON che si concluderà entro l’anno. I risultati acquisiti sono particolarmente interessanti in quanto lasciano ritenere possibili applicazioni nella produzione di materiali plastici degradabili. A conclusione dell’attività sarà disponibile un database che raccoglie le informazioni biologico-molecolari relative al genere Pseudomonas con interfaccia web, tool e/o software per l’analisi bioinformatica dei genomi per lo studio approfondito della genomica funzionale.

 

Partner

Parco Scientifico e Tecnologico della Sicilia S.c.p.a., sede di Catania, Blocco Palma I z.i., Viale Lancia 57, 95131 Catania.

Università di Catania, Dipartimento di Scienze e Tecnologie Fitosanitarie (DISTEF), via S. Sofia 100, 95100 Catania

 

 

 

 

SP II.3 Analisi del polimorfismo di sequenza del DNA mitocondriale nella popolazione italiana

 

L’obiettivo di questa attività è l’identificazione di siti polimorfici distribuiti lungo l’intera sequenza nucleotidica del DNA mitocondriale di un campione rappresentativo della popolazione italiana. 

I polimorfismi di sequenza identificati saranno validati per sviluppare strumenti investigativi  ad elevato potere di discriminazione da applicare in genetica forense come anche tests diagnostici o predittivi  da utilizzare nello studio delle basi genetiche di patologie umane associate ad alterazioni del metabolismo mitocondriale.

Il DNA mitocondriale (mtDNA) umano é una molecola circolare  di circa 16.5 Kbp, la cui intera sequenza nucleotidica é nota [Anderson et al., 1981].

Sarà determinata  l’intera sequenza nucleotidica del DNA mitocondriale di  circa 200 individui non affetti da patologie  provenienti dalle 20 diverse regioni italiane.  La strategia di sequenza prevede  l’amplificazione mediante PCR di 24 distinti segmenti del genoma mitocondriale che si sovrappongono parzialmente e la diretta determinazione  in ambedue le direzioni della sequenza  nucleotidica dei prodotti di amplificazione [Rieder et al., 1998]. Nelle reazioni di sequenza sarà usata la chimica dei BigDye (Applied Biosystems) ed i loro prodotti verranno risolti utilizzando analizzatori automatizzati  di DNA (Applied Biosystems). Questa parte dell’attività, che esula dall’ambito della ricerca computazionale ma che è rilevante ai fini del progetto, verrà presa in carico da ENEA su altri fondi.

Dal punto di vista computazionale, la rilevanza di questa applicazione è contenuta nei metodi e nelle procedure usate per verificare la qualità degli elettrofrogrammi (Phred, UWSTL) e nell’assemblaggio delle sequenze parziali in un’unica sequenza continua [Phrap,  Consed,  e PolyPhred (UWSTL); AutoEditor (Gajer et al., 2004)].  Questa parte dell’attività, presa in carico dal progetto CRESCO, consisterà nell’allineamento delle sequenze del mtDNA ottenute, al fine di identificare variazioni polimorfiche fra individui diversi del campione della popolazione.  L’allineamento computerizzato  delle sequenze  farà uso di versioni parallelizzate dei software Clustal [Thompson et al., 1994] e MUMmer (v3.0, TIGR) [Kurtz et al., 2004].  La qualità dei dati di sequenza del mtDNA sarà verificata e validata mediante analisi filogenetica [Bandelt et al., 1999; Bandelt et al., 2000].

Nel futuro, saranno condotti in collaborazione  studi per verificare l’associazione fra variazioni della sequenza nucleotididica di regioni specifiche del  mtDNA e lo stato di rischio o l’insorgenza di malattie umane quali malattie cardiovascolari o il diabete di tipo II [Wallace DC, 1999; Lowell & Shulman, 2005],  patologie in cui studi epidemiologici e clinici hanno evidenziato  disfunzioni del metabolismo mitocondriale.

 

La rilevanza di questi studi risiede nel fatto che i dati di sequenza ottenuti potranno costituire la banca-dati  di riferimento delle variazioni della sequenza nucleotidica del mtDNA nella popolazione italiana. A causa dei molteplici errori  riscontrati nelle sequenze del mtDNA riportate in letteratura [Bandelt et al., 2002; Parson et al., 2004] o della paucità delle regioni del mtDNA analizzate,  si è resa necessaria la generazione di dati di sequenza  completi, solidi e validati  seguendo stringenti criteri di controllo di qualità.

L’analisi comparata delle sequenze nucleotidiche permetterà di identificare variazioni polimorfiche della sequenza  del mtDNA nella popolazione italiana e fornirà informazione sulla frequenza  di queste variazioni  e possibilmente sulla loro distribuzione relativa  nelle varie regioni. Questi dati saranno resi disponibili alla comunità scientifica e potranno essere utilizzati per studi evolutivi,  di migrazione delle popolazioni, e di antropologia culturale.

L’identificazione di variazioni polimorfiche del mtDNA permetterà di sviluppare  test multiplex che, utilizzando tecnologie già disponibili, siano in grado di determinare  simultaneamente in un’unica reazione un numero elevato  di queste variazioni,  aumentando  il potere di discriminazione del test fra individui distinti. Questa possibilità riveste una particolare importanza sociale perché renderà possibile l’applicazione della tipizzazione genetica a minute tracce biologiche soggette anche a parziale degradazione.

 

 

 

 

SP II.4 Sviluppo di modelli numerici per analisi strutturali complesse e processi di sinterizzazione

 

Il recente sviluppo delle tecnologie informatiche ha permesso in molti settori di interesse ingegneristico di affrontare problemi che venivano risolti solo a prezzo di pesanti semplificazioni.

Questa considerazione ha notevolmente influenzato i moderni approcci di progetto dei sistemi e dei componenti meccanici, rendendo possibile l'accurata valutazione delle condizioni di esercizio e delle prestazioni già in fase di simulazione, minimizzando il ricorso ai prototipi, snellendo il ciclo di progettazione e riducendo il TTM (time-to-market).

Lo sviluppo di modelli matematici e calcolatori con potenzialità spinte consente la modellazione matematica e la simulazione numerica di fenomeni fisici sempre più complessi.

In questo ambito, lo sviluppo del calcolo ad alte prestazioni si presenta come un insostituibile strumento per acquisire in tempi ridotti informazioni quantitativamente e qualitativamente accurate da utilizzare per le verifiche strutturali e le previsioni di processo, anche quando accompagnato da indagini sperimentali, che da sole, non sempre permettono di tenere conto di tutte le variabili connesse con lo studio del comportamento di materiali complessi e processi riguardanti il campo della meccanica.

Si intendono quindi potenziare le attività di ricerca per la simulazione ed il calcolo di fenomeni complessi, utilizzando strumenti di calcolo ad alte prestazioni (GRID computazionali e/o calcolo parallelo).

Si ricercheranno modelli accurati per la simulazione di fenomeni complessi. Ci si riferisce, in primo luogo, alla necessità di stimare il comportamento non lineare dei materiali compositi, ovvero di materiali con forti non linearità come le leghe a memoria di forma, per descrivere la reazione dei componenti/prodotti in condizione statiche, dinamiche e di crash. D’altro canto saranno analizzati modelli di materiali ceramici tradizionali per la previsione dei processi industriali di sinterizzazione.

In definitiva, le attività di ricerca permetteranno di sfruttare al meglio le potenze di supercalcolo, le quali consentono di studiare fenomeni sempre più complessi, di aumentarne il livello di dettaglio e quindi di pervenire a risultati simulati più realistici, oltre che di stimare l’influenza di numerosi parametri in tempi ragionevoli, analizzando il tutto in un ambiente di visualizzazione immersivo mediante l’utilizzo di idonei sistemi di visualizzazione scientifica 3D.

 

 

SP II.4.1 Simulazioni strutturali complesse

 

L’utilizzo dei materiali compositi in campo industriale è ormai una realtà consolidata grazie alle elevate prestazioni ed ai risparmi in termini energetici che possono garantire rispetto ai materiali tradizionali. In particolare, nell’ambito dei trasporti, sono ampiamente utilizzati per le elevate caratteristiche meccaniche e la potenziale maggiore capacità di assorbire energia rispetto ai metalli.

Una corretta metodologia di progettazione di componenti realizzati in composito non può ancora considerarsi sviluppata a causa della fragilità di base dei materiali polimerici termoindurenti e delle peculiari modalità di rottura che i compositi presentano rispetto ai materiali tradizionali. Inoltre il comportamento a crash dipende fortemente dall’orientazione delle fibre e dalla combinazione dei diversi strati del laminato.

Infatti, diversamente dai materiali duttili, che assorbono energia deformandosi in campo plastico, i compositi assorbono energia con differenti fenomeni di rottura (delaminazione, rottura delle fibre con conseguente crushing, attrito interno, ecc.) che possono completamente distruggere l’integrità strutturale  dell’intero componente.

La problematica si complica ulteriormente quando si vogliano studiare e modellare strutture composite con filamenti in SMA (Shape Memory Alloys) che conferiscono al composito stesso specifiche proprietà funzionali di elevato interesse (pseudoelasticità, capacità di smorzamento, possibilità di esplicare forze di attuazione).

In conseguenza di ciò, la messa a punto di strutture in materiale composito in grado di assorbire energia d’urto richiede una dettagliata campagna prove per analizzare le diverse risposte del materiale al variare dell’orientamento delle fibre (filamenti in SMA e fibre del composito) rispetto alla direzione d’urto, della tipologia e quantità dei filamenti in SMA, delle condizioni di sollecitazione termica e meccanica, con notevole dispendio in termini di tempi e costi.

L’utilizzo di pacchetti software di tipo esplicito costituisce un valido supporto alla progettazione, consentendo una significativa riduzione delle prove sperimentali.

Lo sviluppo di tecniche FEM per l’analisi a crash di strutture in materiale composito, che tenga conto del loro complesso comportamento a rottura, è un obiettivo ambizioso ma raggiungibile attraverso opportune attività di ricerca.

Le problematiche connesse a questo tipo di analisi sono da ricercarsi sia nella complessità dello stesso fenomeno fisico di crush (per le variabili aleatorie coinvolte), sia nella complessità di definizione delle proprietà del materiale, spesso grossolanamente approssimato con un materiale omogeneo equivalente.

Considerando che a tutto questo deve necessariamente sommarsi l’elevato grado di dettaglio dei modelli richiesto per l’attendibilità dei risultati, con conseguente esorbitante aumento del numero di elementi, significativi vantaggi potrebbero derivare dall’utilizzo del calcolo ad alte prestazioni.

 

Per tali motivi, risulta necessario, quando si affrontano problematiche di questo tipo, definire modelli costitutivi che tengano conto delle informazioni relative alla reale struttura di un materiale composito quali:

·         instabilità locali e globali per laminati e strutture sandwich;

·         proprietà meccaniche all’interfaccia fibra/matrice e tra i diversi strati di una struttura laminata;

·         danneggiamento e relativa evoluzione al variare della tipologia e dell’entità del carico applicato;

·         modalità di assorbimento dell’energia durante l’urto;

·         modalità di rottura.

 

Le indagini sperimentali, previste nell’attività di ricerca proposta, consentiranno di testare tali correlazioni e validare gli approcci teorico-numerici proposti.

 

 

 

SP II.4.2 Simulazione del processo di sinterizzazione di ceramici tradizionali

 

La idonea produzione di componenti di forma complessa in ceramica tradizionale richiede che a monte ci sia una progettazione capace di prevedere le deformazioni cui è soggetto il componente nelle fasi di cottura in forno.

La problematica è fortemente sentita nel settore degli idrosanitari, laddove la previsione delle deformazioni del prodotto finito rispetto al pezzo estratto dallo stampo è oggigiorno condotta mediante un processo iterativo di tipo prettamente empirico, durante il quale si ottimizzano i parametri operativi e tecnologici (forma dello stampo, posizione del pezzo in cottura) per ottenere un manufatto della forma desiderata e di buona qualità.

 

L’ambizione tecnica oggi è rappresentata dunque dalla possibilità di studiare e modellizzare correttamente le fasi di formatura, essiccamento e cottura, al fine di predire le deformazioni ed i ritiri dei manufatti in cottura e ridurre i tempi di prototipazione, minimizzando i cicli di messa a punto dei modelli dei prodotti che a tutt’oggi vengono effettuati iterativamente ed impegnano il personale del settore per circa sei mesi all’anno.

 

Il punto focale dello studio da effettuarsi è la modellizzazione della sinterizzazione dei materiali ceramici, con particolare riferimento alla valutazione dell’applicabilità dei modelli esistenti in letteratura al caso specifico del problema della cottura degli idro-sanitari e della possibilità di implementare i modelli teorici in codici di calcolo agli elementi finiti.

 

La possibilità di predire a priori mediante un modello teorico l'entità del ritiro e delle variazioni di forma che avvengono in un prodotto di ceramica tradizionale, durante il processo di sinterizzazione, dà la possibilità di verificare a monte se i criteri di tolleranza imposti da chi realizza l'oggetto possano o no essere soddisfatti, ottenendo in tal modo un miglioramento della qualità del prodotto finale e della produzione.

La possibilità di simulare il processo di sinterizzazione e di progettare a priori la forma più idonea dello stampo utilizzato durante la fase di essiccazione del verde, per il raggiungimento (alla fine del processo di sinterizzazione) della geometria voluta per l'oggetto ceramico realizzato, rappresenta una strada percorribile per ottimizzare i tempi ed i costi di produzione.

Per raggiungere tale obiettivo, lo studio da effettuare non deve limitarsi solo all'analisi delle differenti equazioni costitutive dei diversi modelli teorici che descrivono il processo di sinterizzazione vero e proprio, ma procedere con lo sviluppo delle seguenti attività di ricerca:

 

·         analisi delle fasi non isoterme del processo di sinterizzazione (rampe iniziali e finali di temperatura necessarie per raggiungere la temperatura di sinterizzazione prima e quella ambiente poi);

·         studio di situazioni complesse in cui l'entità delle deformazioni che subisce l'oggetto che sinterizza è tale da rendere non efficiente l'utilizzo di modelli di calcolo numerico di tipo convenzionale, in fase di simulazione del processo;

·         studio dell’eventuale presenza di disuniformità di densità, sorgente di ritiri anisotropi in fase di sinterizzazione che causano notevoli problemi in fase di progettazione degli stampi;

·         individuazione dei parametri fisici, caratterizzanti il comportamento del materiale ceramico soggetto a sinterizzazione, che intervengono nelle equazioni costitutive del modello teorico e che sono difficili e/o "impossibili" da valutare sperimentalmente.

 

Negli approcci teorici più recenti, il materiale poroso viene considerato come un continuo i cui punti sono volumi rappresentativi, grandi abbastanza rispetto alle dimensioni dei pori e delle particelle costituenti il materiale (microstruttura), e contemporaneamente sufficientemente piccoli paragonati alle dimensioni dell'oggetto poroso nel suo insieme (approccio reologico).

 

Inoltre, il materiale poroso viene schematizzato come se fosse costituito da due fasi, quella del materiale e quella dei pori, le quali possono muoversi l'una nell'altra, da cui la natura reologica del modello: le proprietà fisiche macroscopiche dipendono dalle leggi che regolano il flusso di materia durante il processo di sinterizzazione. A sua volta la fase cosiddetta materiale può anche essere multifasica, costituita cioè da più fasi (solide e liquide) e/o materiali, ed assimilabile in tutta generalità ad un mezzo viscoso, incomprimibile ed isotropo. La fase dei pori è assunta essere distribuita uniformemente nella fase materiale, conferendo al corpo poroso, nel suo insieme, isotropia e compressibilità.

 

In particolare, nel caso dei ceramici tradizionali, alla temperatura di sinterizzazione il materiale si comporta come essenzialmente costituito da un particolato solido in presenza di una piccola percentuale di materiale in fase liquida (fase vetrosa). La sua densificazione avviene contemporaneamente sia per processi di crescita dei grani che di riempimento dei pori da parte della fase liquida, che conferisce al materiale la sua solidità strutturale alla fine del processo di sinterizzazione.

Pur essendo la fase solida del materiale poroso costituente le ceramiche tradizionali multifasica (sia solida che liquida), essa può essere correttamente descritta durante il processo di sinterizzazione mediante un modello generale di flusso viscoso lineare. Si ritorna a sottolineare che in tale approccio teorico il termine viscoso non riguarda solo il costituente in fase liquida del materiale che subisce la sinterizzazione, ma descrive, in tutta generalità, il risultato medio dell'insieme dei processi diffusivi che contribuiscono alla compattazione del mezzo poroso.

Questo aspetto della teoria di sinterizzazione dei materiali porosi, assimilati a mezzi continui, è molto importante perché permette in prima approssimazione di non considerare dal punto di vista microscopico la complessità dei materiali multifasici, costituenti le ceramiche tradizionali, descrivendone gli effetti e i comportamenti medi mediante parametri reologici opportuni, permettendo di ottenere predizioni su alcune delle loro caratteristiche macroscopiche finali dopo il processo di sinterizzazione, quali: entità del ritiro, variazione di forma, densità e porosità media finale, eventuali disomogeneità in densità, ecc.

 

Nell’attività prevista nel progetto sarà studiato il modello costitutivo del materiale per la simulazione del processo di produzione dei manufatti ceramici. Dalla corretta definizione del modello comportamentale, dipende infatti la capacità del modello numerico di prevedere in maniera idonea le deformazioni ed i ritiri che intervengono nelle fasi del processo di produzione.

L’implementazione in codici numerici delle proprietà altamente non lineari del materiale implica lo sviluppo di modelli accurati che consentano la simulazione di fenomeni così complessi. Tale implementazione richiede elevate potenze di supercalcolo, in modo da aumentare il livello di dettaglio dei modelli comportamentali attualmente utilizzati, pervenendo così a simulazioni sempre più realistiche.

 

Sarà quindi valutata l’efficacia dei principali codici di calcolo numerico (ANSYS, ABAQUS) nel risolvere le equazioni costitutive sviluppate, al fine di effettuare le simulazioni inverse del processo produttivo di componenti in ceramica tradizionale (determinazione delle contro-deformazioni e dei contro-ritiri).

 

 

Partner

Consorzio CETMA – Cittadella della Ricerca, Brindisi

 

 

SP II.5 Modelling molecolare

 

Il modelling molecolare rappresenta, storicamente, una delle attività a maggiore impatto computazionale nell’ambito della Scienza dei materiali e della Biologia (protein structure, docking molecolare, ecc.).

In questi anni si è assistita ad una importante convergenza tra la Scienze dei materiali e la Biologia Computazionale. L’integrazione dei device (elettro-ottici, bio-elettrici etc.) per la produzione di sistemi a basso consumo, alta risoluzione e sensibilità impongono la progettazione su scala atomica; in questo senso le nuove frontiere della Scienza dei Materiali “convergono” con quelle della Biologia. I sistemi maggiormente studiati in questo settore sono sistemi puramente organici (molecole complesse, polimeri, farmaci, proteine sintetiche etc.) o sistemi organici-inorganici (le stesse molecole adsorbite su sustrati inorganici come Si o film sottili metallici per la connessione elettrica etc.).

Il modelling molecolare, nella accezione moderna, si esplica attraverso due linee metodologiche:

1.      la simulazione su scala atomica da “force fields” vale a dire a partire da una descrizione approssimata del legame atomico tra gli atomi delle molecole. Questa approssimazione consente lo studio di molecole molto complesse (migliaia fino a decine di migliaia di atomi, in soluzione) con accesso a grandezze termodinamiche e strutturali;

2.      la simulazione su scala atomica “ab initio” dove, invece, il legame chimico è riprodotto con maggiore accuratezza attraverso una corretta formulazione quantistica del sistema degli elettroni. Questa classe di modelli, se da un lato non può essere applicata a sistemi di grandi dimensione (fino al massimo a poche migliaia di atomi), consente di avere accesso oltre che a quantità termodinamiche, anche a proprietà funzionali e legate alle variabili legate al sistema degli elettroni.

Nel presente sottoprogetto, verranno portate avanti due attività.

La prima (HT-POLY) è legata alla progettazione di nuovi polimeri del gruppo delle poliammidi, per uso all’interno del Consorzio CAMPEC che ha la sua sede a Portici e che ha come core business la prototipazione rapida (rapid prototyping). Questa tecnica è essenzialmente usata per la realizzazione rapida di modelli o prototipi in plastica che possono essere utilizzati per prove e verifiche prima della realizzazione del prodotto definitivo (p.e.: verifiche di stile, prove funzionali, prove di montaggio, ecc.). E’ importante, in questa area applicativa, affiancare all’attività di natura industriale di CAMPEC una attività di ricerca per il design di nuove classi di polimeri con proprietà termodinamiche maggiormente utili al tipo di applicazione richiesta. In particolare, l’attività HT-POLY sarà mirata al design di nuovi polimeri della classe delle poliammidi con intervallo di stabilità esteso fino ai 300-400 C per consentire una maggiore compliance delle polveri nel processo di sinterizzazione, migliorando la qualità del prodotto finito e, in alcuni casi, consentendo la prototipizzazione di oggetti attualmente non facilmente lavorabili a partire dalle polveri polimeriche adottate correntemente.

La seconda attività (GAMES) è invece legata all’uso di modelli di tipo “ab-initio” .

GAMES ("Gas Adsorption at MEmbranes and Surfaces") è il nome dell’attività riguardante lo studio teorico, mediante simulazione combinata di dinamica molecolare ab initio e dinamica classica, dell’interazione tra molecole libere e superfici inorganiche. L’applicazione più diretta dei risultati di questa attività è nel campo della catalisi chimica: nel contesto del progetto “Solare Termodinamico - Produzione di idrogeno” dell’ENEA sono allo studio le proprietà di dissociazione della molecola di acqua su superfici di ossidi di cerio in presenza di difetti strutturali e drogaggio con cationi aliovalenti. I calcoli delle reaction paths vengono realizzati mediante modelli di struttura elettronica con il codice ABINIT, e richiedono una larghissima disponibilità di risorse di calcolo. Infatti, la simulazione di reazioni chimiche su superfici è uno dei settori di punta nelle applicazioni della teoria elettronica.

Più in generale, il problema della reattività di superficie e dell’interfacciamento organico-inorganico è un tema centrale e molto avanzato delle attività di teoria e modellistica dell’Unità ENEA coinvolta. In questo contesto sono stati avviati degli studi pilota in collaborazione con gruppi CNRS e di università francesi, dell’interazione tra molecole organiche e biologiche e substrati inorganici, come fullereni e nanotubi di carbonio. Nel caso dei fullereni, è stato intrapreso lo studio del drogaggio con metalli di transizione ad alto numero di ossidazione e la successiva complessazione con molecole di interesse biomedico, come cromomicina, distamicina etc., o come i composti a base di metalloceni, nel quadro di ricerche sul drug delivery mediante nanoparticelle ad azione trans-membranale. Nel caso dei nanotubi di carbonio, è in corso di definizione un programma di ricerca sull’adesione dei nanotubi alle cellule retiniche mediante interazione con la proteina NrCAM (neural cell-adhesion molecule), nel quadro di ricerche sulla nanotecnologia della visione artificiale (vision chip). Tali ricerche sono state, fino ad ora, allo stato di studi pilota. Risultati molto incoraggianti hanno avviato la definizione di obiettivi concreti, con possibili ricadute tecnologiche ed industriali a medio termine.

 

Collaborazione

Consorzio CAMPEC, Portici (NA)

 

 

 

 

III.      Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche complesse e delle loro interdipendenze.

 

 

Gli eventi di cronaca che hanno popolato il nuovo millennio appena iniziato hanno evidenziato come le diverse infrastrutture tecnologiche (energia, trasporti, comunicazioni, ecc..) su cui si basano le società industrializzate siano fortemente vulnerabili ad eventi naturali e terroristici e siano tra loro fortemente interdipendenti. Perciò è essenziale avere una comprensione profonda della struttura delle grandi reti tecnologiche, della loro dinamica e delle loro interdipendenze.

Il blackout americano del 2003 ha messo in evidenza interdipendenze prima difficilmente immaginabili. Per esempio l’interdipendenza tra sistema elettrico, sistema dei trasporti  e sistema di raccolta e smaltimento dei rifiuti. La mancata fornitura di energia elettrica ha prodotto una crescita abnorme di rifiuti dovuti a prodotti avariati, con conseguente problema nello smaltimento. Lo stesso problema delle interdipendenze è stato messo in evidenza dai black out nelle diverse capitali europee, con un impatto crescente al crescere del tempo di disservizio. Allo stato attuale l’unico strumento in grado di aiutare a fare delle valutazioni sulle possibili conseguenze di possibili scenari incidentali che coinvolgano, con un effetto domino, due o più infrastrutture è quello simulativo. Ciò fa nascere l’esigenza di poter disporre di un Centro di analisi e simulazione, anche distribuito su più nodi di calcolo ad elevata capacità computazionale e in grado di integrare modelli sviluppati per studiare il problema da diverse prospettive e di favorire lo sviluppo di modelli unitari del sistema infrastrutturale del Paese.

La realizzazione del Centro di simulazione consentirebbe, pertanto, uno studio dettagliato del sistema infrastrutturale nel suo complesso, ed in particolare, favorirebbe l’analisi di quegli aspetti di vulnerabilità indotti dalla presenza delle interdipendenze nonché l’impatto che i diversi malfunzionamenti potrebbero avere e come gli stessi si diffondano attraverso le diverse infrastrutture. Tali tipi di analisi sono di interesse sia nei confronti dell’attuale situazione infrastrutturale che in relazione ai possibili sviluppi della stessa al fine di prevedere quelli che potrebbero essere le conseguenze indotte sull’intero sistema infrastruturale del paese, e  specificatamente per quel che riguarda gli aspetti di sicurezza e continuità di servizio, da innovazioni adottate nelle singole infrastrutture.

La disponibilità di un tale ambiente consentirà inoltre la  valutazione, e la verifica della correttezza e dell’efficacia delle procedure previste per la gestione di eventi di crisi.

Parallelamente allo studio  della situazione nazionale, il Centro di simulazione consentirà la verifica dell’efficacia di soluzioni architetturali e di controllo innovative.

La Linea di Attività si articolerà in sei sottoprogetti, citatamente:

SP III.1            Fisica delle Reti Complesse

SP III.2            Analisi di Vulnerabilità delle Reti Complesse

SP III.3            Modelli e Strumenti di Supporto alla Ottimizzazione e  Riconfigurazione delle Reti

SP III.4            Modellistica delle Reti Complesse viste come aggregati Socio-Tecnologici

SP III.5            Interdipendenza tra Reti Complesse

SP III.6            Sistema Informativo per la Salvaguardia delle Infrastrutture e della Popolazione

 

La Linea di Attività  nella sua globalità intende rispondere alle seguenti domande:

·         Quali modelli sono usati o dovrebbero essere sviluppati per rappresentare la complessità delle grandi reti tecnologiche formate da diverse migliaia di nodi e link tra i nodi.

·         Come modellare l’interazione tra i diversi componenti di una rete complessa per catturarne gli aspetti dinamici.

·         Come modellare l’interazione tra diverse reti per valutare gli effetti di interdipendenza e il conseguente effetto domino.

·         Come realizzare un sistema informativo per la Salvaguardia delle grandi infrastrutture.

·         Quale è la complessità computazionale posta dai quesiti precedenti.

 

Nel seguito una descrizione di maggior dettaglio delle sei direttrici di ricerca proposte.

 

SP III.1 Fisica delle Reti Complesse

Si pone l’obiettivo di studiare le proprietà di robustezza e di vulnerabilità delle reti complesse in base alla loro struttura topologica. Come la rete si degrada conseguentemente alla perdita di alcune sue parti. Negli ultimi anni questo tema ha attratto l’attenzione di una vasta comunità di fisici, che partendo dalla disponibilità di grandi banche dati hanno messo in evidenza un fattor comune tra reti tecnologiche, reti biologiche, rete sociali, ecc. Questa attività intende rispondere alle domande:

·         Come quantificare i parametri di robustezza, vulnerabilità, connettività, ecc. di una rete in modo da essere misurabili attraverso un’attività di modellazione e analisi.

·         Come varia la connettività, vulnerabilità, robustezza, ecc., alla perdita e/o rimozione di alcuni parti della rete.

·         Come cambia la performance della rete al variare del carico, sia in modo intenzionale che in modo malevolo, di alcuni cammini della rete.

·         Quale può essere il risultato dell’adozione di algoritmi di riconfigurazione per far fronte a certe modifiche topologiche della rete.

L’obiettivo sarà perseguito attraverso la realizzazione di un analizzatore delle proprietà (statiche e dinamiche) prodotte su una rete dalla sua topologia. Studi effettuati su modelli sviluppati di recente hanno mostrato che la topologia della rete, indipendentemente dalla sua natura (elettrica, comunicazione, trasporti etc.) consente la predizione di una serie di proprietà che hanno profondi riflessi su alcune funzionalità rilevanti della rete, quali la robustezza ai guasti, la sua efficienza, la velocità di propagazione dei transitori etc.

Queste analisi si basano, da un lato, sullo studio delle proprietà topologiche e spettrali del grafo che descrive la rete, dall'altro sulla simulazione di modelli dinamici sul grafo che ne mettono in evidenza le caratteristiche in condizioni di carico dinamico.

L'analizzatore da produrre e utilizzare consisterà nei seguenti moduli:

1.      un parser per l’esame delle configurazioni di reti complesse (le reti saranno descritte in opportuni linguaggi formali)

2.      un analizzatore di proprietà statiche legate alla topologia della rete

3.      un analizzatore spettrale delle matrici associate al grafo rappresentante la rete

4.      un simulatore del comportamento dinamico del grafo in condizioni di carico.

 

L’obiettivo prevede la realizzazione ex-novo di un package SW; questo strumento beneficerebbe dell'utilizzo di routine matematiche disponibili sia su librerie di public domain che su librerie proprietarie, associate in genere a tutte le grandi installazioni dei maggiori vendors. Questo consente di non imporre vincoli severi sul OS della piattaforma ma solo la presenza di opportuni compilatori e delle librerie matematiche di cui sopra.

I problemi computazionali maggiori che si incontreranno nell'utilizzo del package riguardano i punti 2-4 sopra illustrati. In questi casi la piattaforma HW dovrebbe essere strutturata per supportare l'analisi di reti anche di dimensioni elevate tenendo conto dei dati riportati nella Tabella 4, riguardanti l'occupazione di memoria e l'impegno delle risorse di calcolo associate ad analisi di matrici di dimensioni date.

 

 

N

memoria (I) (MB)

memoria (R) (MB)

tD(N)/tD (100)

100

0.04

0.08

1

1000

4

8

1000

10000

400

800

106

50000

104

4 ·104

1.25·108

 

Tab.4. Caratteristiche di occupazione di memoria, espressa in Megabytes per matrici intere (I) e reali (R) di dimensione N data (colonne 2 e 3); legge di scala temporale per operazioni di analisi spettrali complete delle matrici di dimensioni date (colonna 4). In quest'ultimo caso i valori sono in unità arbitrarie, relative al costo temporale dell'analisi spettrale di una matrice N=100. Il valore stimato dell'ultima riga di questa colonna é da considerarsi solo indicativo perché calcolato sulla base di una eventuale analisi su un singolo processore, cosa non verosimile sia per l'occupazione di memoria, sia per l'occupazione in tempo.

 

Per quanto riguarda le analisi spettrali, matrici di dimensioni superiori a quelle descritte in Tab.1 possono essere trattate tramite l'uso di algorimi approssimati che consentono l'accesso a regioni parziali dello spettro (metodo di Lanczos, ad esempio). In questi casi, e limitatamente a matrici sparse, sia l'occupazione di memoria che lo scaling dei tempi non sono direttamente riconducibili ai dati presentati nella tabella 1 ma devono essere riconsiderati sulla base della specifica implementazione dell'algoritmo sulla piattaforma di calcolo.

La libreria public domain PSBLAS sviluppata dalla Università di Roma Tor Vergata fornisce le strutture dati e le funzionalità necessarie per la analisi di matrici sparse di grandi dimensioni; il package è stato sviluppato con particolare attenzione alla soluzione di sistemi linerari con algoritmi di Krylov. Risutla quindi naturale la estensione agli algoritmi di tipo Lanczos-Arnoldi per il calcolo degli autovalori dominanti, esattamente in linea con le necessità del progetto.

Il package PSBLAS è stato svilupptato per consentire un utilizzo efficiente su calcolatori paralleli sia a memoria distribuita che condivisa; è stato inoltre già collaudato in applicazioni industriali, in cui la taglia dei problemi analizzato raggiunge facilmente i 10^6 gradi di libertà.

E' pertanto perfettamente naturale considerare la integrazione e lo sviluppo di questo pacchetto nell'ambito applicativo considerato, e la sua ottimizzazione sulla piattaforma di calcolo di riferimento.

 

In sintesi, la piattaforma di riferimento potrebbe essere  un cluster di nodi shared memory (con 16-32 processori per nodo e una memoria di nodo di qualche decina di GB), che sarebbe adeguata per l'esecuzione di questa classe di analisi. E' possibile studiare sia strategie di parallelizzazione a memoria distribuita “extra-nodo” che strategie di “batch processing” che analizzino contemporaneamente diverse configurazioni di rete. La taglia delle matrici dell'ordine di grandezza di quelle presentate nella tabella, od anche molto superiori, consentirebbe la presa in carico di reti anche molto complesse, di qualunque topologia, o di frazioni rilevanti di reti di dimensioni maggiori.

 

Partner

·         Università di Catania Dipartimento di Fisica

·         Università di Roma “Tor Vergata” - Dipartimento di Informatica, Sistemi e Produzione

 

SP III.2 Analisi di Vulnerabilità delle Reti Complesse

 

Si pone l’obiettivo di studiare la vulnerabilità di reti complesse in termini di  affidabilità, sicurezza, qualità di servizio e prestazioni, con particolare riferimento alle reti di regolazione, controllo ed automazione, globalmente e comunemente indicate con il nome di cyber layer.  Il cuore del cyber layer sono le reti di telecomunicazione, anche “multi-hops” e  pubbliche e le reti informatiche. Questa attività, intende rispondere alle seguenti domande:

·         Quali sono gli indicatori di vulnerabilità delle reti e di interconnessione tra reti.

·         Quali sono gli indicatori di interconnessione e vulnerabilità delle reti di telecomunicazione che meglio caratterizzano le loro proprietà di sicurezza, prestazioni e qualità di servizio

·         Qual è l’interazione delle possibili vulnerabilità delle reti di telecomunicazione sulle altre reti tecnologiche che le includono.

L’obiettivo dell’attività sarà perseguito attraverso:

 

1.      La formulazione di nuove teorie, l’investigazione di codici di analisi e la costruzione di modelli funzionali  alla predizione della vulnerabilità  di reti complesse e delle loro reti di comunicazione nelle possibili condizioni di funzionamento normale, oppure degradato e/o riconfigurato a seguito di eventi avversi (i.e. guasti, anomalie, intrusioni). 

2.      La realizzazione di un ambiente di modellazione, costituito da un insieme di codici di analisi funzionali alla predizione di  indicatori di interconnessione e di vulnerabilità di reti complesse, con particolare riferimento alle loro reti di comunicazione. L’ambiente di modellazione consentirà di costruire modelli compositi, costituiti da  una gerarchia di sotto modelli eterogenei, seguendo le tre direttrici principali:

 

a)      Verifica formale automatica tramite model checking, per l’analisi funzionale ed esaustiva delle proprietà desiderate/indesiderate.

b)      Predizione stocastica degli  indicatori di vulnerabilità tramite formalismi stocastici (i.e. Alberi di guasto, Reti di Bayes, Catene di Markov,  Reti di Petri), per  l’analisi stocastica, analitica e/o simulativa delle proprietà di sicurezza, prestazioni e qualità di servizio.

c)      Analisi degli indicatori di interconnessione mediante metodi e strumenti basati sulla  teoria dei grafi.

 

3.      La valutazione dei limiti e delle potenzialità dell’ambiente di modellazione come strumento di supporto alle decisioni in tempo reale.

 

La  Verifica Formale Automatica (Model Checking) ha lo scopo di controllare la correttezza di un sistema rispetto a una specifica data. La verifica automatica implica (e spesso e' equivalente a) l'esplorazione (visita) di tutti gli stati raggiungibili a partire da uno stato iniziale dato ed il controllo che ogni stato raggiungibile soddisfi una specifica data (invariante). Quindi, gli algoritmi di esplorazione dello spazio degli stati (analisi di raggiungibilita') sono il cuore di tutte le tecniche di Model Checking. Osserviamo che la verifica formale e' equivalente a un testing con una copertura del 100% (cioe' che analizza tutti i casi possibili). Se la dimensione del programma che definisce il sistema S da verificare e' n allora S puo' avere al piu' 2^n stati raggiungibili (state explosion). Ad esempio un circuito con n flip-flops puo' avere 2^n configurazioni (stati) possibili per i flip-flops. Il grafo di transizione G(S) del sistema S ha come vertici i possibili stati di S e come archi le coppie di stati (x, x') tali che S ha una transizione dallo stato x allo stato x'. Se la descrizione di S ha size n allora G(S) ha O(2^n) vertici. Il model checking corrisponde alla visita (reachability) di G(S). Quindi (assumendo che il numero di archi in G(S) sia proporzionale al numero di nodi) il model checking richiede spazio O(2^n) e tempo O(2^n). Reachability e' un problema PSPACE completo, quindi nel caso peggiore effettivamente richiede memoria O(2^n).

 

 

 

Fig. 18 Ambiente di modellazione per l’Analisi di Vulnerabilità di Reti Complesse

 

 

Gli analizzatori  stocastici (i.e. Fault Trees,  Reti di Bayes, Catene di Markov e Reti di Petri) sono tra gli strumenti più adeguati  per la predizione quantitativa degli indicatori di vulnerabilità (indisponibilità, indaffidabilità, degradazione della qualità di servizio in presenza di eventi indesiderati) dei sistemi complessi. Il tasso di crescita dello spazio degli stati di una Rete di Petri, un esempio di analizzatore stocastico di elevata complessità, e’ funzione dalla quantità di parallelismo della rete che a sua volta dipendente dal numero delle transizioni che possono essere contemporaneamente abilitate. Se le transizioni sono temporizzate secondo una variabile casuale distribuita esponenzialmente, la Rete di Petri risulta isomorfa ad una catena di Markov. Ciò consente di utilizzare le tecniche messe a punto per le catene di Markov nell’analisi delle Peti di Petri. Il numero delle marcature della rete e di conseguenza della catena di Markov può essere molto elevato ponendo seri limiti alla computazione. Mentre la soluzione analitica delle Reti di Petri e’ qualche volta possibile, la simulazione ad eventi discreti nella maggior parte dei casi e’ la tecnica generale più adatta per valutare il comportamento dei modelli. La simulazione ad eventi discreti richiede un grande sforzo computazionale.

 

Articolazione delle attività

 

Per la formulazione di nuove teorie ed investigazione di  codici di analisi funzionali  alla predizione della vulnerabilità sono previsti i seguenti passi realizzativi:  

 

  1. Esportazione della   conoscenza dai metodi di modellazione che hanno già provato la loro efficienza per l’analisi della vulnerabilità  di sistemi più semplici verso metodi in grado di affrontare la nuova scala e complessità
  2. Composizione di differenti metodi di modellazione che implementano paradigmi di modellazione eterogenei (stocastico e deterministico, continuo e discreto, simulazione ed esplorazione esaustiva)
  3. Guadagnare cross-fertilization da differenti campi (i.e  Teoria dei grafi, Scienza della complessità, Teoria del Caos, Biologia dei Sistemi)

 

Per la realizzazione dell’ambiente di modellazione che ospita i  codici, le ostruzioni principali per le tre direttrici di analisi (verifica formale automatica, analisi stocastica per la predizione degli indicatori di vulnerabilità e analisi degli indicatori di interconnessione) riguardano l'occupazione di memoria statica ed il tempo di calcolo. Ad esempio, per quanto riguarda la verifica formale automatica tramite model checking, 4G di RAM si riempiono rapidamente a causa della state explosion e nella verifica di uno degli ultimi cache coherence protocols, INTEL ha riportato 40 (quaranta!) giorni calcolo.  I codici di analisi saranno ospitati su nodi di calcolo  con architetture multiprocessore con memoria  condivisa e con la coesistenza di differenti sistemi operativi.  Tali nodi di calcolo  potrebbero  fronteggiare l’occupazione di memoria statica ed il tempo di calcolo, diventati ormai  grossi colli di bottiglia. E’ necessario:

 

1.      Investigare codici di analisi distribuibili ed eseguibili su nodi di calcolo  collegati in GRID.  Tali codici devono tener conto del partizionamento del modello tra le varie macchine. Un evento eseguito da un processore può influenzare un sotto modello assegnato ad un altro processore. Ove possibile, i codici permetteranno di disegnare i modelli mediante  strumenti grafici e poi di eseguire automaticamente, in modo trasparente all’utente tutti gli steps per la modellizzazione.

2.      Evidenziare i limiti e le potenzialità dell’ambiente di modellazione come strumento distribuito, multi utente per il supporto alle decisioni in tempo reale.  

 

Partner:

Università di Lecce – Dipartimento di Matematica

Università del Piemonte Orientale – Dipartimento di Informatica

 

SP III.3 Modelli e Strumenti di supporto alla Ottimizzazione e Riconfigurazione delle Reti

Si pone l’obiettivo di realizzare un Sistema di Supporto alle Decisioni avente lo scopo di suggerire in tempo reale una strategia di riconfigurazione di reti tecnologiche complesse, in particolare reti elettriche, nelle quali uno o più dei suoi componenti siano stati danneggiati per cause naturali, attacchi terroristici o guasti. Pur essendo già disponibili agli operatori procedure che prevedono l’attuazione di interventi di recupero in caso di perdita di parti della rete, esse sono per forza di cose limitate ad un numero finito di condizioni di guasto e di stati di funzionamento. Il sistema proposto vuole generalizzare questo tipo di soluzione consentendo di generare una risposta rispetto al set praticamente infinito di stati di funzionamento in cui la rete potrebbe trovarsi. Questa attività intende rispondere alle seguenti domande:

·         Quale è il modello di rete più appropriato per l’ottimizzazione delle politiche di riconfigurazione

·         Quale è l’algoritmo di ottimizzazione in grado di ricercare nello spazio delle possibili configurazioni di rete quelle che favoriscono la sostenibilità del servizio a parità di costo.

·         Quale è la complessità computazionale per avere soluzioni faster-than-real-time

 

La  caduta di uno dei componenti della rete elettrica, è una situazione che viene definita come stato di funzionamento “n-1” della rete, situazione cioè nella quale occorre mettere in atto delle strategie di recupero che consentano alla rete di continuare ad operare in sicurezza anche con un elemento mancate.

Una ulteriore difficoltà è anche rappresentata dal fatto che le suddette azioni di recupero debbono essere in molti casi eseguite da operatori diversi, come è successo nell’ultimo black-out del settembre 2003 in Italia, nel quale, pur essendo caduta un linea elettrica sotto la responsabilità dell’operatore svizzero, le strategie di recupero dovevano essere attuate a cura dell’operatore italiano. Il sistema proposto vuole fornire un aiuto alla ricerca di soluzioni di recupero favorendo la co-operazione fra operatori diversi e consentendo di generare una risposta rispetto ad un set praticamente infinito di stati di funzionamento in cui la rete elettrica potrebbe trovarsi.

 

Si prevedono le seguenti attività di analisi e specificazione del problema:

 

·         definizione del guasto e riproduzione ed analisi della configurazione della rete al momento del guasto; in questa configurazione saranno presenti elementi essenziali (di configurazione, non suscettibili di variazioni) ed altri, modificabili, sui quali può essere imperniata una procedura di ottimizzazione

·         definizione della suddetta procedura, basata su un loop genetico ottimizzante, che dovrà essere in grado di ricercare, nello spazio delle possibili configurazioni di rete ottenibili agendo sugli elementi modificabili, quelle che più favoriscono la sostenibilità del servizio e che abbiano un ragionevole costo di attuazione.

·         la bontà di ciascuna configurazione (funzione di “fitness”) viene valutata attraverso il comportamento di parametri caratteristici della rete che dovranno essere individuati (quali i profili di tensione, gli sfasamenti etc.) e generati mediante un simulatore di “load-flow” della rete elettrica.

 

Le soluzioni trovate dovranno contemperare la presenza del guasto (che viene immesso nelle configurazioni come elemento essenziale) con quella di una serie di modifiche agli elementi modificabili che, se adottate dall'operatore, potranno consentire di mantenere la funzionalità della rete.

 

L’obiettivo sarà realizzato attraverso le seguenti attività:

 

1.      acquisizione di un simulatore elettrico di calcolo dei “load-flow” della rete elettrica e definizione di un modello di rete elettrica sufficientemente esteso incluso in un file di configurazione di tipo PSS, integrabile nel simulatore.

2.      progettazione e sviluppo di uno o più algoritmi per l'ottimizzazione delle azioni di configurazione in presenza del guasto attraverso la valutazione della loro capacità di incrementare la sostenibilità del servizio compatibilmente con i costi di attuazione.

 

Il simulatore in (1) é un SW proprietario, al quale dovranno essere interfacciati gli algoritmi in (2).

 

Se per quanto riguarda la memoria, attualmente è possibile disporre di memorie di nodo sulle principali architetture fino a qualche GB, per quanto riguarda la seconda richiesta sarebbe auspicabile far ricorso ad un simulatore elettrico il cui file eseguibile sia disponibile su molte piattaforme (OS) diverse. Il ricorso ad un codice open-source potrebbe essere auspicabile, qualora esso mostrasse caratteristiche di affidabilità e di robustezza tipici di codici commerciali. Inoltre il codice open-source, consentendo l'accesso diretto al sorgente, potrebbe favorire l'interconnessione tra gli elementi (1) e (2). Questo requisito non è, tuttavia, prioritario; l'interfacciamento sarebbe comunque realizzabile attraverso la realizzazione di un parser per la lettura/scrittura di files xml (i files PSS/E) che verrebbe fornito al simulatore come input.

 

Uno degli algoritmi in (2) verrà messo a punto, in collaborazione con l'Università di Palermo e sarà costituito da un loop ottimizzante, basato su un algoritmo genetico eventualmente supportato anche da altri metodi di ricerca operativa, che produrrà generazioni successive configurazioni ottime, attraverso la "valutazione" della loro qualità come precedentemente descritto.

 

Lo studio della parte (1), e la interazione con la parte (2)  verranno condotti in collaborazione con L’Università di Salerno, che, facendo uso di competenze di ingegneria elettrica delle reti, si occuperà anche di proporre e sperimentare uno o più algoritmi alternativi rispetto a quelli basati su tecniche evolutive in modo tale da poter fare dei confronti in termini di efficacia ed efficienza.

 

Per una efficace soluzione del problema la piattaforma HW per il test degli algoritmi dovrà disporre di un numero di nodi almeno pari al numero k dei file di configurazioni che costituiscono una generazione dell'algoritmo genetico. Come é noto, dato un problema di ottimizzazione, il numero degli elementi delle popolazioni di soluzioni che costituiscono una "generazione"  é un parametro che, in genere, viene empiricamente determinato cercando di ottimizzare la "varietà" delle soluzioni evitando la difficoltà, che interviene quando la varietà é eccessiva, nella convergenza stessa dell'algoritmo. Questo ed altri parametri verranno stabiliti anche in funzione della dimensione del problema.

 

Partner

Università di Palermo – Dipartimento di Ingegneria Informatica

Università di Salerno – Dipartimento di Ingegneria dell’Informazione e Matematica Applicata

 

 

III.4 Modellistica delle Reti Complesse viste come aggregati Socio-Tecnologici

Si pone l’obiettivo di studiare come dal punto di visto formale, teorico  e di modellazione si possa rappresentare un sistema socio-tecnologico composto da reti organizzative che gestiscono reti tecnologiche. Esso è un ulteriore livello di difficoltà rispetto alla modellistica della componente fisica in quanto comporta la necessità di modellare sistemi di natura ibrida, cioè consistenti da elementi fisici ed elementi umani, ognuno dei quali con le proprie leggi di relazione. Questa attività intende rispondere alle domande:

·         Come si può modellare un sistema Socio-Tecnologico e in particolare le interazioni tra la rete sociale di governo e la rete tecnologica usata per fornire il servizio.

·         Quali sono gli elementi fondamentali da considerare per valutare le interazioni tra i diversi strati di una rete complessa.

·         Esiste un formalismo comune che permette di modellare i diversi aspetti.

Come confermano gli ultimi blackout elettrici italiani e americani, gli errori umani svolgono un ruolo essenziale nei processi decisionali e nella conseguente pianificazione delle procedure da adottare. La simulazione è uno strumento necessario per la valutazione dell’efficacia delle strutture organizzative, delle reti di  competenze richieste e dell’acceso all’ informazioni.

I modelli socio-cognitivi  sono elementi cruciali per il supporto decisionale di operatori e di manager in diversi domini reali, come per esempio, gestione delle emergenze territoriali, di impianti industriali o complesse infrastrutture critiche per la società, come le reti energetiche e le reti di comunicazione

In questo contesto sono richiesti strumenti e tecnologie avanzate di simulazione ad alte prestazioni, per esempio piattaforme di calcolo parallelo. Solo in un tale ambiente si può realizzare il cosi detto “emergency game” che permette di analizzare delle varianti decisionali  per pianificare interventi “what-if analysis” , anche nel tempo reale.

L’obiettivo principale di questa attività è quello di identificazione e di sviluppo dei modelli di simulazione di processi cognitivi e decisionali nelle reti socio-cognitive, cioè diverse organizzazioni e comunità umane che gestiscono le grandi Reti Tecnologiche o ne sono utenti. Tale obiettivo richiede studi teorici e lo sviluppo di ontologie e metodologie integrate per la modellazione dei sistemi complessi eterogenei che comprendano al proprio interno entità decisionali (un manager o una unità manageriale).

 

La Figura 19 è una illustrazione dal punto di vista socio-cognitivo dell’interazione tra organizzazioni umane e infrastrutture tecnologiche complesse, mettendo in evidenza le reti complesse dei processi decisionali nell’organizzazione umana.


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Fig.19 Schema di interazione tra organizzazioni umane e infrastrutture tecnologiche complesse

 

 

 

La modellazione e simulazione dell’aggregato socio-tecnologico prevede la comprensione della dinamica delle organizzazioni e il confronto tra strutture organizzative e loro meccanismi decisionali. Per tale scopo sono particolarmente adatti la modellazione e le tecnologie basate sulle organizzazioni ad agenti intelligenti distribuiti. Le tecnologie ad agenti intelligenti  (Intelligent Agent Technologies and Web Intelligence) forniscono strumenti  concettuali e pratici per modellare e costruire sistemi software sempre più  articolati, più autonomi e potenti. Per esempio, con astrazioni espressive come agenti intelligenti cognitivi,   società  di agenti e loro ambiente, infrastrutture distribuite ad agenti,  piattaforme di Agent-Oriented  Software  Engineering.

Per una efficacia simulazione del funzionamento dell’organizzazione umana e della sua interazione con le infrastrutture tecnologiche, è necessario l’uso delle capacità di calcolo parallelo del Centro di Simulazione.  Il parallelismo è richiesto per la simulazione dei singoli processi decisionali di agenti cognitivi, “autonomus decision-making” (D-M autonomo)  sul livello conscio e subconscio (con componente emozionale), e per l’integrazione dei singoli processi durante processi di “cooperative decision-making” (D-M collaborativi) nella gestione di eventi che coinvolgono diverse reti complesse in cascata.

 

Pianificazione delle attività

 

Identificazione e tassonomia della vulnerabilità dei processi decisionali nell'ambiente socio-tecnologico

 L’attività si svilupperà attraverso:

  • la definizione dell’ ontologia socio-cognitivo-tecnologica,
  • lo sviluppo di un framework per l’osservabilità  e la misurazione degli errori umani,
  • una prima simulazione strutturale del modello decisionale.

 

Modellazione computazionale della rete socio-cognitiva

L’attività comprende:

  • la costruzione della rete  socio-cognitiva,
  • lo sviluppo di un modello gerarchico delle interazioni degli agenti intelligenti che costituiscono le reti sociali e loro organizzazioni,
  • un raffinamento del modello e del codice di simulazione.

                

Modellazione socio-cognitivo-tecnologica di  reti cooperanti

L’attività si svilupperà attraverso l’integrazione dei modelli socio-cognitivi e socio-tecnologici in una rete complessa multi-strato, e un dimostratore di simulazione integrata tipo “what-if” su piattaforma di calcolo ad alte prestazioni.

 

Partner

 

·         Università di Roma “Tor Vergata”, (Dip.to di Ingegneria dell’Impresa

·         ECONA (Centro Interuniversitario per Processi Cognitivi nel Sistemi Naturali e Artificiali)

 

 

III.5 Interdipendenza tra Reti Complesse

Si pone l’obiettivo di studiare il fenomeno delle interdipendenze con un approccio di tipo What if e con una visualizzazione dei risultati il più possibile aderente alla realtà, facendo anche uso di tecnologie di realtà virtuale. Esso è un ulteriore livello di difficoltà rispetto alla modellistica di una sola rete in tutte le sue componenti in quanto comporta la modellistica di tutte le interazioni prevedibili tra diverse infrastrutture. Questa attività intende rispondere alle domande:

·         Come modellare un insieme di reti complesse tra loro interdipendenti.

·         Quale è il peso dei parametri spaziali ed economici sul fenomeno delle interdipendenze, ossia come si possono progettare reti assolutamente autonome.

·         Quale è il contributo del cyber layer alla interdipendenza delle reti e come valutare i rischi ad esso legati.

 

 Lo scopo dell’attività di ricerca è sviluppare una metodologia e alcuni codici di integrazione dei  modelli di simulazione con una visione unitaria rivolta non tanto a fare delle previsioni di settore ma a studiare le interdipendenze tra le varie infrastrutture e fornire delle indicazioni ai decisori responsabili della gestione delle situazioni di crisi. Lasciando quindi le responsabilità di sviluppo dei modelli di settore ai gestori e/o proprietari delle infrastrutture di settore, il Centro di Simulazione si prende cura soltanto delle attività di analisi delle interdipendenze, con un approccio di tipo What if.

 

 

 

Fig. 20 Schema delle interdipendenze di infrastrutture critiche

 

Data la complessità del problema e la molteplicità degli operatori in gioco va pensata una soluzione distribuita in cui i vari operatori possono far girare i loro codici mettendo a disposizione i risultati.  Non è nemmeno ipotizzabile una standardizzazione del software e dei sistemi operativi in quanto molti dei codici che dovranno essere messi insieme saranno codici proprietari sviluppati in epoche diverse, basta pensare ai codici di simulazione del comportamento della rete elettrica o del comportamento del traffico in presenza di eventi esterni. Bisognerà quindi pensare ad una soluzione in cui ogni operatore metterà a disposizione sia i propri codici di simulazione sia i risultati su nodi proprietari particolarmente dotati in termini di capacità di calcolo. Il Centro di Simulazione dovrà quindi realizzare un Application Server, che risiederà nel Centro di Simulazione stesso,  mediante il quale fornirà una serie di servizi agli utenti finali. Tali servizi verranno erogati sia sfruttando le capacità di calcolo proprie del Centro di Simulazione sia sfruttando, in maniera trasparente all’utente, le capacità di simulazione derivanti dall’utilizzo dei vari codici di simulazione messi a disposizione degli operatori. Per quanto riguarda l’interfacciamento tra l’Application Server e i codici di simulazione, poiché quest’ultimi, come già detto, rappresentano delle strutture di tipo “legacy”, è pensabile la realizzazione di moduli “wrapper” che da una parte colloquiano con il codice di simulazione in maniera tradizionale e dall’altra comunicano con l’Application Server utilizzando, ad esempio, la tecnologia dei Web Services che sfrutta XML come per la rappresentazione dei dati e HTTP/SOAP come protocollo per il trasferimento delle informazioni; in questo modo l’interazione tra il Centro di Simulazione e i nodi in cui risiedono i codici di simulazione avverrà, ovunque essi risiedano, senza problemi e/ostacoli derivanti da eventuali firewall e protezioni particolari. In tale scenario un modulo dell’Application Server può sia richiedere dei semplici dati ad un nodo in cui risiede un codice di simulazione sia richiedere l’esecuzione del codice stesso con un particolare input. Tale richiesta di esecuzione potrebbe essere sia sincrona che asincrona. Nel primo caso il modulo richiedente invia la richiesta di esecuzione e attende gli eventuali risultati per proseguire la propria elaborazione. Nel secondo caso il modulo richiedente invia la richiesta ma non attende il termine dell’esecuzione del codice di simulazione e degli eventuali risultati; prosegue la sua elaborazione e solo in seguito richiederà i risultati derivanti dall’esecuzione del codice di simulazione.

Lo scenario finale che si potrebbe ipotizzare è il seguente: utenti provenienti da varie organizzazioni potrebbero, tramite Internet, accedere ai servizi del Centro di Simulazione previa registrazione e creazione di un account personale. Tali servizi sarebbero comunque legati ai temi derivanti dall’utilizzo dei codici di simulazione di cui sopra per cui gli utenti non sarebbero utenti generici bensì utenti specializzati su questo tipo di tematiche. Gli utenti, una volta registrati, potrebbero quindi impostare le proprie richieste e mandarle in esecuzione, anche queste, come detto sopra, sia in modalità sincrona che asincrona. Terminata l’esecuzione gli utenti potrebbero visualizzare gli eventuali  risultati.

In un contesto in cui modelli e simulatori specializzati sono messi a disposizione da diverse organizzazioni, sia come forma di servizi, sia come componenti software che andranno ad utilizzare le risorse di calcolo di una rete grid, ha senso andare ad introdurre dei concetti di qualità del servizio offerto e garantito. In un contesto come quello dell’analisi delle interdipendenze per la predizione di catastrofi o situazioni critiche, gli utenti possono richiedere servizi a basso costo e senza stringenti vincoli sul tempo di risposta, oppure richiedere servizi con stringenti vincoli sul tempo di risposta “soft real-time” ma senza limitazioni sul costo del servizio. Inoltre i risultati delle simulazioni saranno indubbiamente dati estremamente sensibili. Ha quindi senso introdurre il concetto di Service Level Agreement stabilito tra chi richiede il servizio ed il Centro di Simulazione. Ad esempio possono essere previsti servizi, a basso costo, per chi deve realizzare una semplice fase di studio preventivo e quindi non ha stringenti vincoli sul tempo di esecuzione della propria simulazione; al contrario, per chi si trova in una fase di allerta o critica possono essere offerti sevizi, ad costo più elevato, ma con tempi di risposta “soft real-time”, compatibilmente con il tempo minimo di simulazione.

Quello della qualità del servizio nelle reti grid è un problema aperto, sempre più ricorrente, ed è stato recentemente affrontato in diversi lavori di ricerca. Il Centro di Simulazione quindi, nella realizzazione del front-end per l’accesso ai servizi di modellistica e simulazione per le interdipendenze dovrà considerare il concetto di SLA (contrattato tra l’entità che si registra al servizio ed il centro di simulazione stesso) nella fase di registrazione al servizio, ed inoltre dovranno essere introdotti, nella rete di accesso alle risorse, meccanismi di scheduling delle applicazioni tali da poter garantire i SLA contrattati.

 

Pianificazione delle attività

 

L’obiettivo del sotto-progetto sarà realizzato attraverso le seguenti attività, per alcuni aspetti complementari e mirate ad esplorare diversi approcci alla risoluzione di un problema ad oggi intrattabile con gli strumenti concettuali e tecnologici disponibili..

 

Modellistica e simulazione di reti complesse eterogenee, dinamiche ed a struttura variabile

 

L’obiettivo di questa attività è quello di riuscire a descrivere in maniera formale e/o comportamentale la struttura ed il funzionamento di reti complesse ed eterogenee, costituite da sottoreti di natura diversa (reti elettriche, reti di telecomunicazioni, ecc.) che possibilmente interagiscono tra di loro tramite lo scambio di informazioni e tramite interdipendenze tra le proprietà delle sottoreti.

Le reti considerate avranno caratteristiche dinamiche ed in particolare i nodi costituenti le reti potranno essere descritti come sistemi che evolvono nel tempo in base ad ingressi esterni asincroni ed in base alle interrelazioni con gli altri nodi.

La topologia delle sottoreti sarà anche essa di natura dinamica ed eventualmente dipendente dallo stato dei nodi e delle sottoreti.

In questo scenario appare evidente come un approccio metodologico e formale per la modellizzazione di tali sistemi complessi sia di per sé interessante per la risoluzione non solo di problemi di analisi ma anche per la messa a punto di tecniche di simulazione dedicate.

 

Analisi del comportamento dinamico della rete in seguito a situazioni di riconfigurazione interna e/o esterna ed in seguito ad eventuali guasti e malfunzionamenti di sottoparti della rete

 

I risultati della precedente attività verranno impiegati per poter “prevedere” in qualche maniera il comportamento nel tempo delle reti soggette ad azioni esterne e/o ad eventi legati allo stato stesso della rete e delle sue sottoparti. La modifica della topologia della rete, lo scambio di informazioni, l’interdipendenza tra le varie sottoreti rendono estremamente complicato lo studio dinamico di tutto il sistema complesso. Questa attività cercherà di fornire delle metodologie che consentano di predire al meglio l’evoluzione temporale della rete anche in presenza di eventi atipici, quali guasti e malfunzionamenti di sottoparti. E’ plausibile che un buon modello della rete ricavato durante l’attività precedente, possa consentire una buona predizione degli effetti che un malfunzionamento può indurre su tutto il sistema. Raggiungere questo obiettivo rappresenta senz’altro un significativo apporto alla Ricerca foriero di numerose ricadute applicative.

 

Tecniche di ottimizzazione statica e dinamica applicate alla progettazione ed alla gestione delle reti complesse

 

Saranno definite tecniche per l’ottimizzazione di reti e delle loro sottoparti. I modelli formali consentiranno l’utilizzo di tecniche analitiche di ottimizzazione basate sulla programmazione nonlineare (continua, intera e/o mista) mentre eventuali modelli comportamentali verranno impiegati per mettere a punto tecniche di ottimizzazione più euristiche che sfruttino anche la potenza di calcolo fornita dall’infrastruttura computazionale oggetto del progetto di Ricerca.

I problemi di ottimizzazione considerati saranno sia di tipo statico che dinamico e consentiranno tanto di risolvere problemi di design della rete quanto di determinare le “migliori” strategie possibili di gestione della rete tenendo conto del comportamento temporale della stessa.

 

Modellistica e Simulazione ad Agenti

Uno degli approcci più promettenti per l’analisi delle interdipendenze tra reti complesse è quello della così detta modellistica ad agenti (Agent-based). L’idea fondamentale che guida questi modelli è che comportamenti complessi possano essere il frutto delle interazioni tra agenti che operano sulla base di regole semplici che, nel loro interagire fanno emergere quelle caratteristiche comportamentali che caratterizzano il comportamento collettivo del sistema. Ciò non è altro che la trasposizione degli approcci comportamentali biologici o sociologici che enfatizzano come l’aggregazione ordinata di individui di una determinata specie comporta l’insorgenza di comportamenti non “prevedibili” a partire dallo studio del singolo individuo isolato, ad esempio si pensi a come l’aggregazione di milioni di api comporti la creazione del soggetto alveare con dinamiche e proprietà non derivabili dalla semplice aggregazione.

L’idea è quella di studiare le infrastrutture critiche utilizzando un approccio bottom-up: cioè a dire modellare l’intero sistema partendo dalle componenti individuali (modellate mediante agenti). Un modello dell’intero sistema è quindi ottenuto inter-connettendo agenti, ossia sistemi indipendenti che elaborano, autonomamente, risorse e informazioni, producendo degli output, i quali a loro volta diventano input per altri agenti, e così via.

Per l’implementazione del modello di interazione si farà uso di ambienti di modellazione e simulazione ad agenti, come ad esempio SWARM (http://wiki.swarm.org/wiki/Main_Page ) o RePast (http://repast.sourceforge.net/ ).

 

Integrazione di simulatori già disponibili

In questo caso si seguirà un approccio ibrido in cui vengono utilizzati più strumenti (simulatori basati su diverse metodologie), ognuno specializzato nella simulazione del comportamento di uno o più componenti (infrastrutture) del sistema. Ciascun simulatore è dunque visto come un agente che interagisce, mediante scambio dei risultati parziali o totali con gli altri simulatori. Rientra in questa categoria il Sistema EPOCHS: Electric Power and Communication SyncHronizing Simulator sviluppato alla Cornell University. Esso è un simulatore nato per studiare l’interazione diretta fra rete di trasporto dell’energia elettrica e la rete di comunicazione. In particolare il sistema integra, ricorrendo ad un approccio multi-agente, alcuni dei simulatori più diffusi nei diversi ambiti e più specificatamente: PSCAD/EMTDC per l’analisi dei transienti elettromagnetici, PSLF per l’analisi dei transienti elettromeccanici e Network Simulator 2 (NS2) per l’analisi delle comunicazioni di rete tramite protocolli TCP e UDP. Ognuno di questi simulatori viene visto come un agente che interagisce con gli altri comunicando i risultati delle diverse simulazioni tramite un agente che opera come un proxy. Il tutto grazie alla presenza di una Runtime Infrastructure (RTI) che ha il compito di gestire la sincronizzazione e il routine delle comunicazioni fra i diversi agenti. Operando i diversi simulatori su differenti scale temporali è compito del RTI far si che nessuno dei simulatori possa processare eventi con time-stamp successivo ad almeno uno che sia ancora in fase di elaborazione.

 

Partner

 

CRIAI – Consorzio Campano di Ricerca per l’Informatica e l’Automazione Industriale, Portici (NA)

Università di Salerno - Dipartimento di Ingegneria dell’Informazione e Matematica Applicata

Università di Roma “Tor Vergata” - Dipartimento di Informatica, Sistemi e Produzione

Università del Sannio, Benevento – Dipartimento di Ingegneria

 

III.6 Sistema Informativo per la Salvaguardia delle Infrastrutture e della popolazione

L’obiettivo principale delle attività condotte dall’Unità CLIM-OSTES nell’ambito del progetto è quello di progettare e realizzare un innovativo sistema informativo geografico per la salvaguardia e la sicurezza della popolazione, delle infrastrutture e del territorio.

La effettiva possibilità di prevenire situazioni potenziali di crisi sul territorio, dovute a fattori antropici (atti terroristici o cause accidentali) o naturali, nonché la capacità di reagire tempestivamente a crisi già in atto diventano, in tal modo, risultati raggiungibili mediante i seguenti fattori:

1)   La disponibilità di informazioni geografico-territoriali che forniscano una descrizione “virtuale” del territorio dettagliata ed aggiornata;

2)   La disponibilità di sistemi informativi tecnologicamente allo stato dell’arte e dotati anche di capacità di elaborazione e restituzione 3D nonché di prestazioni tali da elaborare in tempo reale una enorme mole di dati;

3)   La progettazione e l’implementazione di algoritmi e processi di analisi delle informazioni territoriali dedicati alla specifica esigenza.

 

L’obiettivo finale è, dunque, quello di realizzare strumenti e sistemi informatici, mai finora realizzati, che, sfruttando le informazioni ricevute da sensori al suolo e satellitari, aiutino a definire e adottare misure idonee a contrastare le situazioni di crisi o di pericolo e a migliorare la salvaguardia della popolazione. Per raggiungere tale obiettivo, si rende necessaria la presenza di elaboratori particolarmente dotati in termini di capacità di calcolo ed in grado di processare e gestire l’enorme mole di dati necessari allo scopo.

 

Le informazioni geografico-territoriali necessarie al fine di conseguire i risultati descritti al punto 3.4 non sono attualmente disponibili in Italia, almeno in forma diretta ed esplicita nonché direttamente utilizzabile per processi elaborativi. Tuttavia, i sistemi di osservazione aerospaziale offrono un concreto contributo per ottenerle, con l’adeguato dettaglio, e, soprattutto, con l’aggiornamento temporale necessario.

La progettazione e la realizzazione di un sistema per la salvaguardia della popolazione comporta una forte attività di R&ST in quanto, attualmente, non sono note iniziative italiane relative a progetti analoghi.

Sino ad ora le informazioni geografiche, in senso lato, sono state processate soprattutto a fini di studio e pianificazione del territorio e quindi per la sua salvaguardia e/o il suo sfruttamento sostenibile. Si tratta ora di cambiare prospettiva e di osservarlo con un’ottica, per così dire, di tipo diagnostico. In tal senso occorre, innanzitutto, progettare e sviluppare processi di elaborazione e procedure di analisi incrociate che pongano in evidenza i siti di vulnerabilità, soprattutto rispetto ad attacchi terroristici e catastrofi naturali. Per siti di vulnerabilità possono essere intesi singoli elementi quali ospedali, ponti, industrie ovvero aree in cui si concentrano più elementi sensibili o, al limite, interi abitati. A tale scopo sarà necessario sviluppare processi simulativi con cui stimare, in quei siti, gli effetti, i danni e le conseguenze sulla popolazione e sulle infrastrutture di comunicazione dovuti ad ipotetici attacchi o eventi disastrosi naturali.

 

Sul piano delle azioni/attività da svolgere per arrivare, dapprima, alla progettazione e, successivamente, alla realizzazione del sistema informativo geografico per la salvaguardia e la sicurezza della popolazione, delle infrastrutture e del territorio, va sottolineato che occorre fare ricorso alla organica integrazione dei contenuti di due vasti settori disciplinari tecnico-scientifici quali l’osservazione aerospaziale e i GIS (Geographic Information Systems). Le tecniche ed i sistemi della prima disciplina sono necessari come base di conoscenza per ottenere la ricostruzione tridimensionale del territorio in modo rapido, efficace ed a costi molto ridotti rispetto alle tecniche usuali; i metodi e gli strumenti della seconda sono essenziali per la realizzazione dello strumento di analisi e previsione dei fenomeni sopra descritti.

Pertanto, le attività progettuali necessarie per la realizzazione operativa di uno sistema informativo così innovativo si articolano in due macro-linee di ricerca, strettamente interconnesse ai fini del conseguimento del risultato finale. Tali linee di attività si identificano rispettivamente, sia dal punto di vista logico che da quello temporale, nei seguenti obiettivi:

a.    studio e sviluppo di metodi elaborativi, che partendo da rilevamenti aerospaziali consentano la ricostruzione di un modello geometrico tridimensionale del tessuto del territorio, in modo automatico ed escludendo l’intervento dell’operatore umano.

b.    studio e sviluppo di un sistema informativo geografico che consente di effettuare analisi e/o previsioni sulle situazioni potenziali di crisi sul territorio, nonché le loro conseguenze non solo sulla popolazione ma anche sulle strutture fisiche ed infrastrutture presenti sul territorio medesimo.

Una terza linea di attività complementare ad entrambe le suddette azioni di ricerca è rivolta alla progettazione ed esecuzione di specifiche campagne di rilievo e di misurazione sul campo. Saranno, infatti, pianificate e condotte delle campagne di rilevamento punti (mediante GPS) allo scopo di ottenere Punti di Controllo a Terra necessari per la triangolazione delle immagini telerilevate e la georeferenziazione con elevato livello di dettaglio di tutti i risultati conseguiti.

Avere a disposizione in formato digitale i parametri geografici necessari per descrivere a grande scala la geometria 3D del territorio (fino al dettaglio del singolo edificio) costituisce il punto di partenza basilare per lo sviluppo delle applicazioni in oggetto.

Sarà, pertanto, necessario sviluppare innovativi e originali algoritmi e metodologie elaborative, finalizzati alla produzione automatica di modelli digitali di aree densamente urbanizzate, a partire da rilevamenti aerospaziali, i quali dovranno essere integrati con altri dati di natura geografica e cartografica. In tal modo si otterranno le informazioni geografico-territoriali necessarie allo scopo: esse possono essere raggruppate secondo tematismi ben definiti, detti anche strati informativi, in funzione del particolare obiettivo da raggiungere. Nel caso in esame un possibile insieme di raggruppamenti potrà essere il seguente:

 

-                     Mappatura geografica dettagliata della zona territoriale di interesse e sua ricostruzione tridimensionale.

-                     Mappatura dettagliata, aggiornata e aggiornabile degli insediamenti urbani.

-                     Mappatura delle diverse categorie di infrastrutture sul territorio potenzialmente soggette ad attacchi terroristici e/o situazioni accidentali. Per esempio, Strade; Autostrade; Ponti; Ferrovie; Aeroporti; Riserve d’acqua; Invasi e Dighe; Depositi di petrolio; ecc.

-                     Mappatura delle strutture “sensibili” specificatamente presenti nelle aree urbane. Ad esempio, Grandi edifici, Infrastrutture, Monumenti, Luoghi per spettacoli, ecc.

-                     Mappatura della distribuzione della popolazione anche in relazione alla sua prossimità con le strutture sensibili. Questo tipo di informazione è correlabile col primo e riguarda fattori chiave come la numerosità e la distribuzione della popolazione, per esempio, a valle di una diga ovvero nelle aree immediatamente limitrofe a tratti ferroviari.

-                     Individuazione e mappatura delle aree soggette a degradazione del territorio (ad es., erosione delle coste), ovvero a potenziali rischi provenienti da “eventi estremi” di origine naturale.

-                     Individuazione e mappatura delle aree con elevato grado di criticità in termini di rischio di desertificazione.

 

 

Fig. 21 – Esempio di mappatura dei siti sensibili sul territorio nazionale

 

Diviene, pertanto, importante la localizzazione di siti in cui il singolo elemento o la prossimità di due o più di questi elementi risultino tali da costituire una situazione di particolare pericolo e criticità sia in caso di “eventi estremi” causati da fattori naturali, sia in caso di situazioni di crisi derivanti azioni terroristiche o accidentali. Ad esempio, una ferrovia che passi in prossimità di un nodo autostradale che, a sua volta, sia contiguo ad un deposito di carburante o ad un grande edificio costituiscono chiaramente un sito altamente vulnerabile.

Una volta localizzate queste situazioni di criticità si può ipotizzare e simulare un certo tipo di evento (ad esempio deragliamento del treno) e procedere alla valutazione degli effetti ed alla conseguente stima dei danni, tenendo in debito conto la distribuzione della popolazione intorno al sito.

 

 

Fig. 22 – Esempio di individuazione di elementi sensibili sul territorio (ricostruzione tridimensionale)

      

La presenza di elaboratori potenti e lo sviluppo di specifici algoritmi di elevate prestazioni è un requisito fondamentale per la realizzazione di procedure di calcolo innovative atte ad elaborare le informazioni geografiche e tematiche, al fine di fornire rapidamente indicazioni utili in risposta agli eventi presentatisi, naturali o innescati dall’uomo.

 

 

 

3.5    Innovatività e originalità delle attività di ricerca

Fornire elementi finalizzati a dimostrare il grado di innovatività delle attività di ricerca previste con riferimento sia ai contenuti sia alle metodologie proposte rispetto a quanto attualmente offerto dal contesto nazionale.

 

Nota Bene: per necessità di chiarezza nell’esposizione, in questo paragrafo ci si limita a riportare le principali considerazioni relative all’innovatività del Centro Computazionale nel suo insieme. Considerazioni più puntuali sull’innovatività degli interventi proposti nei singoli Sottoprogetti sono contenute nelle descrizioni fornite al § 3.4.

 

Negli ultimi anni è avvenuta una naturale convergenza tra svariate aree applicative; interi domini delle scienze, inizialmente distinti e scarsamente comunicanti, hanno iniziato ad integrarsi fortemente, spesso a tal punto da essere assimilabili ad un unico corpo di metodologie, finalmente trasversali e multidisciplinari, finalizzate ad un reale avanzamento della conoscenza. Questo trend è il frutto di un nuovo paradigma della scienza che inizia a trovare interazioni e regolarità all’interno di modelli con cui essa cerca di spiegare il reale. Questa regolarità non è percepita come una casualità ma, piuttosto, come il segno di una unitarietà profonda che esula dall’origine dei modelli ma emerge da motivazioni più fondamentali.

 

La comunità scientifica internazionale ha iniziato, da diversi anni ormai, a cercare di guidare questa nuova tendenza delle discipline scientifiche; le “vecchie” discipline tendono a scomparire e fare posto a nuove ontologie che classificano ambiti storicamente lontani entro nuove classi. Un caso tra tutti è la Biologia che, dopo una breve speciazione in ambiti riduzionistici come la “Biologia Molecolare”, la “Genomica e Proteomica”, la “Biologia Computazionale”, ha riunificato molti di questi ambiti entro la “Biologia Sistemica” all’interno della quale gli oggetti biologici vengono analizzati alla luce della Teoria dei Sistemi e integrati con strumenti mutuati da altre realtà (l’ingegneria, l’informatica, la matematica e la fisica).

 

Molti sono i segni tangibili di questa rivoluzione del paradigma scientifico. Oltre alla vera e propria emersione di nuovi punti di vista che assorbono l’interesse di nuove aree della ricerca, sono sorte (e continuano a sorgere) molte iniziative, sia in Italia che all’estero, che testimoniano questo “nuovo corso”:

-          si è recentemente svolto a Trento un interessante convegno (sponsorizzato da quella Università, dalla Microsoft e da alcune aziende high-tech della regione) dal titolo “Converging Sciences”  nel quale è emersa questa nuova visione della scienza come “integrazione” di dicipline diverse (in particolare la fisica, la biologia, la matematica e l’informatica avanzata) piuttosto che come “frammentazione” e “speciazione”. L’interesse di questo segnale è costituito dal fatto che esso proviene non solo dal mondo culturale accademico ma, e soprattutto, da quello dell’industria tecnologicamente avanzata che spesso riesce a cogliere ed amplificare le istanze più interessanti provenienti  dai vari ambiti della cultura;

-          la nascita di numerosi organismi e istituti di ricerca multidisciplinare, legati a questo filone “costruzionista” , dove, all’osservazione di similitudini e complementarietà tra sistemi di diversa origine (da quelli naturali e biologici a quelli tecnologici e sociali), si affianca lo sviluppo di metodologie che mutuano acquisizioni prese dai vari domini, dalla biologia alla fisica, dalla matematica alle scienze sociali. Il maggiore e forse più importante di questi centri, nati di recente sotto la spinta di questo nuovo paradigma della scienza, è il “New England Complex Systems Institute” (NECSI) presso il MIT di Boston. Nella descrizione delle sue finalità troviamo le seguenti argomentazioni:” Complex Systems is a new field of science studying how parts of a system give rise to the collective behaviors of the system, and how the system interacts with its environment. Social systems formed (in part) out of people, the brain formed out of neurons, molecules formed out of atoms, the weather formed out of air flows are all examples of complex systems. The field of complex systems cuts across all traditional disciplines of science, as well as engineering, management, and medicine. It focuses on certain questions about parts, wholes and relationships. These questions are relevant to all traditional fields. Why Complex Systems? The study of complex systems is about understanding indirect effects. Problems that are difficult to solve are often hard to understand because the causes and effects are not obviously related. Pushing on a complex system "here" often has effects "over there" because the parts are interdependent. This has become more and more apparent in our efforts to solve societal problems or avoid ecological disasters caused by our own actions. The field of complex systems provides a number of sophisticated tools, some of them concepts that help us think about these systems, some of them analytical for studying these systems in greater depth, and some of them computer based for describing, modeling or simulating these systems. Three approaches to the study of complex systems: There are three interrelated approaches to the modern study of complex systems, (1) how interactions give rise to patterns of behavior, (2) understanding the ways of describing complex systems, and (3) the process of formation of complex systems through pattern formation and evolution 

-          in Italia, il CNR, nella sua attività di riorganizzazione, ha recentemente istituito un Istituto dei Sistemi Complessi (ISC) che integra personale CNR, INOA, INFM ed Universitario ed è basato su varie sedi  a Roma e Firenze; anche questo Istituto ha nella sua propria missione, lo studio della fenomenologia che emerge dalla complessità, sia in sistemi tecnologici che in quelli naturali [9]; la focalizzazione dell’Istituto é su attività prettamente teoriche, legate alle conoscenze di base;

-          alla integrazione dei paradigmi scientifici viene associata una enorme potenzialità, sia ai fini dello sviluppo di nuove conoscenze in aree “difficili” (quali le scienze sociali, la biologia sistemica etc.), sia per la realizzazione di “nuovi prodotti e servizi” industriali. In questo senso, ad esempio, l’Università di Cambridge ha realizzato, tramite il proprio Dipartimento di Matematica, un Istituto per la trasformazione di nuove idee e nuove proposte scientifiche in ambiti applicativi e industriali, realizzato con fondi pubblici (cento milioni di euro provenienti dal Ministero della Ricerca dell’UK) e privati (provenienti dal MIT di Boston) (si veda il sito www.cambridge-mit.org);

-          la creazione in numerose università europee, di classi di studi avanzati (Master, prevalentemente) focalizzati sulle tematiche e sulle metodologie cross-disciplinari (si vedano ad esempio, i corsi di Master attivati in alcune importanti università inglesi [10]).

 

L’integrazione in atto è profonda e comprende aree disciplinari un tempo ritenute e trattate come totalmente disgiunte, sia nelle finalità che nei metodi. L’avvento di una serie di interessanti osservazioni, fatte nell’ultimo decennio, relative alla sostanziale equivalenza della struttura di una serie di sistemi complessi di svariata natura (dalle reti di interazioni proteiche cellulari a quelle dei rapporti sociali, dalla rete mondiale del web alle reti linguistiche delle principali lingue mondiali) ha suggerito come al raggiungimento di una qualche soglia di complessità corrisponda l’emergenza di una serie di comportamenti che accomunano, in maniera stupefacente, sistemi di diversissime origini. La complessità sembra essere, dunque, una proprietà al cui sviluppo si associ non il caos ma piuttosto una necessità all’ordine che, sebbene non in maniera diretta, consenta la realizzazione di metafore differenti dello stesso disegno funzionale verso il quale tutti i sistemi (sia quelli viventi che quelli tecnologici) vengono ineludibilmente spinti.

 

ENEA intende raccogliere queste indicazioni anche perché, in alcune aree nelle quali è storicamente presente con attività scientifiche di rilievo, ha spontaneamente recepito questa tendenza e, da qualche anno, svolge attività scientifiche rivolte a mutuare metodologie operative tra aree disciplinari diverse. Ad esempio, è’ questo il caso del Servizio di Calcolo e Modellistica all’interno della quale coesistono ed interagiscono aree disciplinari differenti quali quella della Biologia Sistemica e quella dello studio dei sistemi tecnologici complessi.

 

 

 

3.6    Obiettivi intermedi, attività, fasi della ricerca interessate e soggetti attuatori

Descrivere  gli obiettivi realizzativi intermedi necessari al perseguimento dell’obiettivo finale, indicando per ciascuno obiettivo intermedio le attività necessarie al suo perseguimento e specificando a quale fase della ricerca (fondamentale, industriale, sviluppo precompetitivo) dette attività vanno ricondotte, nonché il  soggetto attuatore e la sede di svolgimento delle stesse.)

      

 

La notevole articolazione della proposta consiglia di individuare, in questa fase, un numero contenuto di Obiettivi Intermedi “macroscopici”, rinviando alla descrizione di ciascun Sottoprogetto, al paragrafo 3.4, per la definizione di milestones più puntuali.

Sono quindi individuate 2 tipologie di O. I., una relativa al solo Sottoprogetto SP I.1 “Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID Computing” (Ob. Int. A), e l’altra a tutti gli altri Sottoprogetti, che riguardano le diverse problematiche applicative affrontate dal Progetto (Ob. Int. B).

Le attività saranno condotte da ENEA nelle sue sedi dell’Obiettivo