Dipartimento
per l’Università, l’Alta Formazione artistica, musicale e coreutica e per
Direzione Generale per il Coordinamento e lo Sviluppo della Ricerca
Ufficio VII - UPOC
UNIONE
EUROPEA |
|
Avviso n.
1575/2004
Programma Operativo Nazionale
2000-2006
“Ricerca Scientifica, Sviluppo Tecnologico,
Alta Formazione”
Misura II.2 “Società
dell’Informazione per il Sistema Scientifico Meridionale”
Azione a – Sistemi di calcolo e
simulazione ad alte prestazioni
Il presente elaborato progettuale si
compone di n 108
pagine comprensive della copertina e degli allegati.
Sezioni compilate:
Sezione |
Allegato |
X Sezione 1 |
q
Allegato 1 |
X Sezione 2.1 |
q
Allegato 2 |
q
Sezione 2.2 |
X Allegato A: curricula |
X Sezione 2.3 |
X Allegato B: lettere di intenti |
X Sezione 3 |
q
|
X Sezione 4 |
q
|
(Firma del Legale Rappresentante o
di suo delegato)
________________________________________
Il presente documento costituisce lo schema per la formulazione degli elaborati progettuali da presentare in risposta al presente avviso.
Le sezioni che compongono la struttura contengono tutte le informazioni indispensabili per una corretta valutazione dei progetti e debbono pertanto essere correttamente compilate.
Sezione 4 – Piano
finanziario del progetto
Allegato 1 – Dichiarazione dei requisiti di PMI
Allegato 2 - Elementi per la valutazione
dell’effetto incentivante dell’intervento cofinanziato
Allegato 3 – Note per la redazione della documentazione
1.1. Soggetto proponente[1]
Dati
identificativi del soggetto proponente
|
|||
Denominazione :
ENEA - Ente per le Nuove Tecnologie, l' Energia e l' Ambiente
|
|||
Indirizzo :
Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA
|
|||
Tel.
|
06-30486155
|
Fax
|
06-30484290
|
e-mail
|
taglienti@casaccia.enea.it
|
Rappresentante
legale
|
|
|||
Nominativo
|
Prof. Carlo
Rubbia
|
|||
Indirizzo :
Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA
|
||||
Tel.
|
06-36272294
|
Fax
|
06-36272640
|
|
e-mail
|
carlo.rubbia@enea.it
|
|||
|
|
|||
|
|
|||
Persona
delegata dal Rappresentante legale[2]
|
|
|||
Nominativo
|
Ing. Sandro
Taglienti
|
|||
Ente e
struttura di appartenenza
|
ENEA
|
|||
Indirizzo :
Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA
|
||||
Tel.
|
06-30486155
|
Fax
|
06-30484290
|
|
e-mail
|
taglienti@casaccia.enea.it
|
|||
|
|
|||
Responsabile scientifico/tecnico
del progetto
|
||||
Nominativo
|
Ing. Silvio
Migliori
|
|||
Ente e
struttura di appartenenza
|
ENEA
|
|||
Indirizzo
|
Lungotevere Grande
Ammiraglio Thaon di Revel, 76 - 00196 ROMA
|
|||
Tel.
|
06-36272232
|
Fax
|
06-36272640
|
|
e-mail
|
migliori@enea.it
|
|||
|
|
|||
Responsabile
amministrativo del progetto
|
|
|||
Nominativo
|
Dr. Andrea
Quintiliani
|
|||
Ente e struttura
di appartenenza
|
ENEA
|
|||
Indirizzo
|
CR Casaccia Via
Anguillarese 301 00060
S. Maria di
Galeria ROMA
|
|||
Tel.
|
06-30486134
|
Fax
|
06-30484290
|
|
e-mail
|
quintiliani@casaccia.enea.it
|
|||
Denominazione del soggetto consorziato |
Sede legale[3] |
Natura giuridica[4] |
Quota di partecipazione al Fondo consortile[5] (valore %) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
TOTALE |
|
|
|
1.3 Data di costituzione e di scadenza del
Consorzio.
Data di costituzione __ __/__ __/__ __
__ __ Data di scadenza __ __/__ __/__
__ __ __
1.4
Dimensione del Consorzio
q
PMI
q
GI
(In caso di PMI la
dichiarazione di cui all’Allegato 1 è parte integrante dell’elaborato
progettuale)
1.5
. Tipologia di attività di riferimento (barrare la tipologia di riferimento, ogni proposta
progettuale potrà fare riferimento a più ’
tipologie di attività)
Azione a della Misura II.2 Tipologia di attività |
|
Nuovi sistemi di calcolo ad alte prestazioni orientati alla modellistica
computazionale per la ricerca fondamentale e per le applicazioni tecnologiche
in campi quali ad esempio la fisica, la chimica, le nanoscienze, le
bioscienze, la farmaceutica, l’ambiente, l’ingegneria; con particolare
riferimento allo sviluppo di codici originali (I.) |
X |
Nuovi sistemi per la gestione
e l’elaborazione di grandi banche dati in settori strategici della ricerca
(quali ad esempio bioscienze, nanoscienze) (II.) |
X |
Nuovi sistemi orientati alla
simulazione multimediale anche di tipo immersivo, e/o con interazione
multimodale, per applicazioni in settori prioritari quali ad esempio
l’ingegneria, la struttura della materia, la progettazione ambientale (III.) |
X |
1. 6. Titolo del progetto
Centro Computazionale di RicErca sui Sistemi COmplessi - CRESCO |
1.7 . Obiettivo finale del progetto
e risultati disponibili a conclusione delle attività
(max 20 righe)
Il progetto ha come obiettivo la realizzazione, presso il Centro Ricerche ENEA di Portici (NA), di un importante Polo di calcolo multidisciplinare per lo studio dei sistemi complessi di natura biologica e tecnologica, collegato con facilities di elaborazione, archiviazione e visualizzazione 3D di dati ubicate presso i Centri ENEA di Brindisi e Trisaia (MT). Sul versante infrastrutturale il
Progetto prevede la realizzazione di una piattaforma di calcolo di assoluta
eccellenza in grado di erogare una potenza dell’ordine del Teraflop,
corredata di una nuova classe di funzionalità GRID innovative. Sul piano delle applicazioni e dei contenuti scientifici,
il Centro si focalizza sui seguenti ambiti principali: ·
lo studio di oggetti biologici dal punto di vista “sistemico” (in
silico cell) e lo studio di sistemi naturali (comunità animali) secondo il
paradigma dei sistemi complessi ·
lo studio di sistemi tecnologici e sociali complessi e delle loro
mutue interazioni, e la realizzazione di opportuni strumenti per il
modelling, la simulazione e il controllo di questi sistemi e di quelle
interazioni; ·
l’implementazione di soluzioni innovative di GRID computing per le
attività di R&S di punta dell’ENEA che richiedano l’utilizzo di risorse
computazionali estremamente importanti. |
1.8. Fasi della ricerca e sviluppo
interessate dall’intervento
X Ricerca Fondamentale
X Ricerca Industriale
q
Sviluppo Precompetitivo
......................................................................................................................................................................................................................................................................................................................................................................................
Attività |
Quota
di attività (%) (*) |
Valore
in Euro |
% su costo
totale |
Ricerca
Fondamentale |
79,3 |
8.022.000 |
86,3 |
Ricerca
Industriale |
20,7 |
1.270.000 |
13,7 |
Sviluppo
Precompetitivo |
|
|
|
(*) Calcolata sulla base dell’impegno di personale.
p
PMI
p
Aree 87 3a
p
Partners UE
p
Cooperazione con imprese produttrici di beni e servizi
p
Ampia diffusione e pubblicazione dei risultati, concessione di brevetti,
etc (art. 167 già art. 130 del trattato CE)
(Sezione Riservata ai soggetti di
cui ai sub A) e B) del punto 4 dell’Avviso)
Informazioni
anagrafiche
Denominazione,
sede legale, codice fiscale
ENEA
– Ente per le Nuove Tecnologie, l’Energia e l’Ambiente
Lungotevere Grande Ammiraglio Thaon di Revel, 76 - 00196 ROMA
Cod. Fiscale: 01320740580
P. IVA: 00985801000
Codice di iscrizione all’Anagrafe Nazionale della Ricerche: 10002
L'ENEA,
Ente per le Nuove tecnologie, l’Energia e l’Ambiente, è un ente pubblico che
opera nei settori dell'energia, dell'ambiente e delle nuove tecnologie a
supporto delle politiche di competitività e di sviluppo sostenibile del Paese.
I
suoi compiti principali sono:
·
promuovere e svolgere attività di ricerca di base ed applicata e
di innovazione tecnologica, anche mediante la realizzazione di prototipi e
l'industrializzazione di prodotti;
·
diffondere e trasferire i risultati ottenuti, favorendone la
valorizzazione a fini produttivi e sociali;
·
fornire a soggetti pubblici e privati servizi ad alto contenuto
tecnologico, studi, ricerche, misure, prove e valutazioni.
Con
queste finalità e nei settori di competenza, l'ENEA:
·
conduce progetti complessi di ricerca, sviluppo e dimostrazione, a
prevalente contenuto ingegneristico e tecnologico, realizza e gestisce grandi
attrezzature scientifiche;
·
valuta il grado di sviluppo di tecnologie avanzate, nonché i loro
impatti economici e sociali, anche su richiesta delle pubbliche
amministrazioni;
·
promuove la collaborazione con enti ed istituzioni di altri Paesi,
anche per la definizione della normativa tecnica e la partecipazione ai grandi
programmi di ricerca e agli organismi internazionali, fornendo competenze
specifiche;
·
promuove, favorisce e sostiene processi di innovazione tecnologica
del sistema produttivo nazionale, in particolare delle piccole e medie imprese;
·
collabora con le regioni e con le amministrazioni locali per
promuovere, attraverso iniziative congiunte, lo sviluppo delle realtà
produttive del territorio;
·
promuove la formazione e la crescita tecnico professionale dei
ricercatori, anche attraverso apposite convenzioni con università nazionali ed
internazionali.
L’ENEA svolge attività di ricerca scientifica e sviluppo
tecnologico avvalendosi di competenze ad ampio spettro e di avanzate
infrastrutture impiantistiche e strumentali dislocate presso i propri Centri di
Ricerca.
L’Ente è dotato anche di una rete di sedi periferiche,
distribuita su tutto il territorio nazionale, che promuove le attività
dell’Ente e fornisce servizi di informazione e consulenza alle amministrazioni
pubbliche e alle realtà produttive locali.
Fig. 1 Dislocazione dei principali Centri di
Ricerca ENEA
Il Progetto è coordinato dal Servizio
Centralizzato Informatica e Reti – INFO, ma vede la partecipazione di
personale appartenente alle seguenti Unità dell’Ente:
·
Unità
Tecnico-scientifica Materiali e Nuove Tecnologie – MAT
·
Unità
Tecnico-scientifica Biotecnologie, protezione della Salute e degli Ecosistemi –
BIOTEC
·
Unità
Tecnico-scientifica Protezione e sviluppo dell’Ambiente e del Territorio – PROT
·
Unità
Tecnico-scientifica Fonti rinnovabili e Cicli energetici innovativi – ENE
·
Progetto
Speciale Clima Globale – CLIM
·
Servizio Calcolo e Modellistica – CAMO
·
Unità
Tecnico-scientifica Fusione - FUS
Attività del Servizio Centralizzato Informatica e Reti –
INFO
Il
Servizio Centralizzato Informatica e Reti è in primo luogo responsabile, in
ENEA, di tutti i servizi di elaborazione e trasmissione dei dati e di sviluppo
di applicazioni informatiche. In questo ambito coopera con gli utenti, in tutte
le fasi dei processi: sviluppo di tecnologie ICT, sviluppo di modelli,
definizione procedure, messa a punto codici, scelta di ambienti operativi,
personalizzazione di ambienti operativi per l’impiego dei sistemi e delle reti,
gestione di sistemi. Il campo di intervento è estremamente ampio, toccando
settori scientifici, ingegneristici, gestionali ed
amministrativi.
In effetti, le tecnologie dell’informazione e delle comunicazioni ed il
calcolo scientifico forniscono alimento sia alle attività di Ricerca e Sviluppo
Tecnologico, sia alla gestione dei processi interni connessi con il
funzionamento di un’organizzazione complessa.
L’attività di ricerca scientifica
vede ormai sempre più frequentemente, in supporto allo studioso della specifica
disciplina (energetica, scienza dei materiali, scienze ambientali e
climatologia, termofluidodinamica, analisi di sistemi, genomica, fisica ed
ingegneria nucleare ecc.), l’esperto di calcolo e di tecnologie informatiche
che a tali fini mette a punto strumenti di elaborazione ed interpretazione dei
dati.
In entrambi i casi citati il
contributo sul fronte del calcolo e dello sviluppo delle ICT è, in buona
misura, trasversale rispetto al dominio applicativo e si concentra su
competenze (sistemi informativi aziendali e sistemi di supporto alle decisioni;
elaborazione, interpretazione e presentazione dati; sistemi per la
comunicazione e la formazione, interfacce avanzate uomo-macchina) che, per
l’intrinseca complessità e per la rapida evoluzione di metodi e tecnologie,
possono essere adeguatamente presidiate solo da personale dedicato in possesso
di elevato grado di specializzazione.
Le architetture di calcolo, a loro
volta, evolvono, con il progresso tecnologico nella microelettronica e nelle
telecomunicazioni, verso configurazioni a rete che, per essere sfruttate al
meglio delle loro potenzialità, vengono progettate, aggiornate e gestite da
specialisti informatici operanti a stretto contatto con gli utenti, siano essi
ricercatori, modellisti o responsabili di processi amministrativi e gestionali.
per l’area
gestionale.
Negli ultimi anni ENEA-INFO ha
investito fortemente in progetti di sviluppo di nuove soluzioni tecnologiche e
di intervento strategico sulle infrastrutture dell’Ente, concretizzatisi
nell’acquisizione di importanti progetti a finanziamento esterno.
Il Servizio INFO è presente con
proprie risorse in tutti i principali Centri di ricerca dell’Ente, ivi compresi
i 3 Centri ubicati nell’Obiettivo 1 interessati dal presente progetto.
Complessivamente, INFO dispone di 76 unità di
personale a tempo indeterminato, di cui 31 con profilo tecnico-scientifico ed
il rimanente con funzione tecnica e/o amministrativa.
Come già accennato, il Servizio INFO ha il ruolo di coordinatore del progetto e di leadership nella Linea di Attività I “Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID Computing”, ma una parte sostanziale delle attività scientifiche previste sono svolte da personale appartenente ad altre Unità dell’Ente. La tabella che segue fornisce alcuni dati sulla consistenza del personale ENEA in generale e nei Centri ubicati nelle regioni dell’Obiettivo 1.
Unità Organizzativa ENEA |
Personale totale |
Di cui nelle sedi dell’Ob. 1 |
Serv. Centralizzato Informatica e Reti – INFO |
76 |
6 |
Unità Materiali e Nuove Tecnologie – MAT |
237 |
87 |
Unità Biotecnologie, protezione della Salute e degli Ecosistemi – BIOTEC |
226 |
32 |
Unità Protezione e sviluppo dell’Ambiente e del Territorio – PROT |
334 |
57 |
Unità Fonti rinnovabili e Cicli energetici innovativi – ENE |
193 |
56 |
Progetto Speciale Clima Globale – CLIM |
95 |
7 |
Servizio Calcolo e Modellistica – CAMO |
28 |
- |
Unità Fusione - FUS |
219 |
- |
Totale
Unità ENEA interessate |
1.408 |
245 |
Totale
ENEA |
3.107 |
390 |
Tab. 1 Dati sulla numerosità del personale
ENEA (al 31.12.2003)
Nel seguito una breve descrizione delle altre Unità ENEA interessate dal progetto.
Unità Materiali e Nuove
Tecnologie – MAT
La missione della Unità Tecnico Scientifica Materiali e Nuove Tecnologie è la produzione di conoscenze, realizzazioni di materiali prototipali ed elaborazione, coordinamento di progetti complessi nel campo dei materiali innovativi, dei servizi metrologici, dei controlli e dei sistemi di qualità, a sostegno della competitività della produzione industriale, di nuova e qualificata occupazione e della sostenibilità dello sviluppo del Paese. Le principali aree di intervento sono:
·
Materiali Funzionali e loro Tecnologie d'Integrazione
·
Qualificazione di Materiali e Componenti, Metodologie
di Misura e Metrologia
·
Sviluppo di Modellazione e di Metodi di Sintesi e
Caratterizzazione di Materiali Nanofasici e Nanostrutturati
·
Sviluppo di Tecnologie e Processi di Sintesi,
Trattamento di Superfici
·
Materiali Strutturati, Monoliti e Compositi
·
Manutenzione e Potenziamento del Patrimonio
Strumentale e delle Tecnostrutture
·
Sviluppo di Competenze e di Nuova Progettualità
·
Servizi Tecnico Scientifici, Consulenze e Formazione
Specialistica
·
Integrazione della Rete Materiale e Nuove Tecnologie
nella Realtà Tecnico Scientifica Nazionale
Unità Biotecnologie, protezione della Salute e degli Ecosistemi – BIOTEC
Le attività dell’Unità Tecnico-Scientifica Biotecnologie,
Protezione della Salute e degli Ecosistemi (BIOTEC) dell’ENEA sono relative ai
settori agroalimentare e agroindustriale, sanitario e ambientale, con
riferimento alle priorità del VI Programma Quadro dell'Unione Europea, nonché
ai quattro assi strategici individuati dal Piano Nazionale delle Ricerche 2002.
In accordo con i quattro assi, vengono svolte attività di ricerca di base per
l'avanzamento delle frontiere della conoscenza, attività di ricerca e sviluppo
di tecnologie "abilitanti" a carattere multisettoriale (le
biotecnologie in primis), di potenziamento della ricerca industriale e relativo
sviluppo tecnologico e, infine, di innovazione in definiti contesti
territoriali (come ad esempio aspetti specifici della gestione integrata del
territorio e della tutela degli ecosistemi).
Le grandi tematiche di riferimento sono:
1. Protezione della salute
2.
Sviluppo di prodotti/processi a base biologica
3.
Sicurezza alimentare e ambientale
4.
Sviluppo del sistema agro-industriale
5.
Studio e tutela degli ecosistemi
Unità Fonti rinnovabili e Cicli
energetici innovativi – ENE
Le attività dell’Unità
Tecnico-Scientifica Fonti rinnovabili e cicli energetici innovativi dell’ENEA
sono orientate alla ricerca e allo sviluppo tecnologico negli ambiti della
produzione di energia da fonti rinnovabili e del miglioramento dell’efficienza
energetica nei settori industriale, civile e dei trasporti.
L’Unità
esercita nei confronti del mondo industriale e dei servizi un incisivo ruolo di
stimolo all’innovazione di prodotto e di processo nel settore delle tecnologie
energetiche strategiche e ambientalmente compatibili e partecipa alla nascita
di nuove iniziative imprenditoriali in comparti innovativi mediante la
realizzazione di prototipi pre-industriali.
Le
attività dell’Unità, che consistono in sviluppo tecnologico, realizzazione di
progetti strategici d’interesse nazionale e servizi di qualificazione
energetica, riguardano prevalentemente i seguenti settori:
·
Fonti rinnovabili, in particolare fotovoltaico e biomasse. I principali obiettivi
che si vogliono conseguire sono: lo sviluppo del fotovoltaico a concentrazione
e delle tecnologie di produzione di celle a film sottili ad elevata efficienza;
lo sviluppo della tecnologia della gassificazione delle biomasse e di processi
innovativi per la produzione di nuovi vettori energetici. L’Unità partecipa,
inoltre, alle attività del Grande Progetto ENEA "Solare
Termodinamico", finalizzate allo sviluppo di impianti solari a
concentrazione per la produzione di energia ad alta temperatura;
·
Cicli energetici innovativi. L’Unità opera per lo sviluppo di
nuovi sistemi di produzione dell’energia caratterizzati dall’abbattimento quasi
completo delle emissioni, basati su nuove tecnologie di combustione (mild
combustion), sull’utilizzo di combustibili ricchi di idrogeno e su sistemi
ibridi tipo celle a combustibile e microturbine a gas. Particolare rilevanza
rivestono le attività volte a favorire lo sviluppo e la diffusione
dell’idrogeno come il "combustibile del futuro", pulito ed economicamente
compatibile per la produzione di energia elettrica; alcune delle attività in
questo ambito sono condotte in collaborazione con il Grande Progetto ENEA
"Idrogeno e celle a combustibile";
·
Usi finali dell’energia, in particolare nel settore trasporti. Gli
interventi riguardano lo sviluppo di tecnologie per la gestione e il controllo
della mobilità e del traffico e la sperimentazione di nuovi sistemi per
autoveicoli innovativi a ridotto impatto ambientale (principalmente veicoli
ibridi) destinati alle aree urbane.
Progetto Speciale Clima Globale –
CLIM
Il Progetto ha la missione di
fornire un contributo italiano, nel panorama delle ricerche internazionali sui
cambiamenti globali, alla comprensione del clima e dei cambiamenti climatici,
con una particolare attenzione all’area sud-europea e mediterranea, e di
fornire consulenza qualificata alla Pubblica Amministrazione per far fronte
agli impegni assunti dal Paese nell'ambito delle Convenzioni internazionali
(clima, desertificazione, ozono stratosferico).
Tale missione può essere sintetizzata nei seguenti punti:
a)
concorrere,
nell'ambito degli sforzi internazionali sulle ricerche relative ai cambiamenti
globali, a ridurre le incertezze scientifiche sulle conoscenze dei processi
climatici ed ambientali globali, con particolare riferimento all'area
mediterranea ed alla prevedibilità dell'evoluzione del clima e delle dinamiche
ambientali complessive, sia nel breve che nel lungo termine;
b)
effettuare
studi, analisi e valutazioni, in collaborazione con altri Enti ed Istituti di
ricerca nazionali o internazionali, sulle conseguenze ambientali e
socio-economiche, in area mediterranea ed in Italia, dei possibili o
prevedibili cambiamenti globali, con particolare attenzione alle problematiche
della siccità;
c)
fornire, in collaborazione con altre competenze ENEA, il supporto
scientifico alla Pubblica Amministrazione per la individuazione delle
iniziative di prevenzione e tutela ambientale che possano essere intraprese
attraverso collaborazioni ed accordi a livello internazionale, nonché per la
definizione delle azioni operative, in attuazione degli impegni assunti
dall'Italia nelle convenzioni a carattere globale.
Servizio Calcolo e Modellistica – CAMO
Unità Fusione – FUS
Il ruolo dell’Unità si articola
sulle seguenti tematiche:
·
creazione
di conoscenze nel campo della fusione termonucleare controllata mediante
ricerche teoriche e sperimentali in
fisica del plasma per lo sfruttamento dell’energia da fusione;
·
sviluppo
di sistemi, impianti e tecnologie,
·
definizione
di scenari ed obiettivi in ambito internazionale;
·
valutazione
di potenzialità ed applicazioni;
·
sviluppo
delle ricadute tecnologiche connesse alla realizzazione delle macchine per la
fusione con particolare riferimento alla superconduttività e alla
telemanipolazione e robotica.
Fisica del
confinamento magnetico
Il Progetto JET comprende le
attività condotte sul JET (Joint European Torus) da personale dell’ENEA nel
quadro dello European Fusion Development Agreement (EFDA) e il contributo
finanziario italiano alla gestione della macchina.
Analogamente il Progetto RFX
(Reversed Field Pinch) include i finanziamenti Euratom per il Consorzio RFX e
l’apporto di personale ENEA alla gestione di RFX.
Il
Progetto Ignitor
Il Progetto Ignitor prevede a medio
termine la costruzione di una macchina ad alto campo magnetico estremamente
compatta, che mira a esplorare plasmi in regime di ignizione.
Il progetto è inserito in un
contesto di attività di ricerca più ampio che prevede, tra l’altro,
l’istituzione di una infrastruttura sperimentale (una scuola e una struttura di
formazione sulla fisica dei plasmi di livello internazionale) con il compito di
produrre e studiare, per la prima volta al mondo, l’accensione controllata di
plasmi termonucleari, impossibile sulle macchine attuali. Questo è il primo e
fondamentale passo per lo sviluppo dell’energia nucleare da fusione, una nuova
fonte energetica con notevole grado di compatibilità ambientale.
Fisica e
tecnologia del confinamento inerziale
Sperimentazione con gli impianti di
ricerca esistenti (ABC) nell’ambito della fisica del confinamento inerziale.
Sviluppo e mantenimento di capacità
di valutazione critica nel campo della fusione a confinamento inerziale (watching-brief,
secondo le indicazioni comunitarie) attraverso attività teorica esplorativa di
schemi avanzati di fusione inerziale e attività sperimentale con l’impianto ABC.
Attività di watching-brief relativa
alla realizzazione di un driver laser ad alta efficienza e frequenza di
ripetizione mediante progetto e costruzione di moduli amplificatori pompati a
diodi.
Nuova
energia da idrogeno (Fusione fredda)
Questa attività consiste in ricerche
sperimentali e tecniche riguardanti la produzione anomala di calore in reticoli
metallici caricati con isotopi di idrogeno. In particolare si studia il sistema
palladio-idrogeno. In questo contesto, si sviluppano: tecnologie di misura calorimetriche
affidabili atte a misurare anche piccoli eccessi di calore, tecniche per la
rivelazione di prodotti di reazione nucleare (elio) e studi teorici di base.
Si tratta di ricerche che hanno
potenziali sviluppi conoscitivi e nelle quali l’ENEA ha acquisito esperienza e know-how.
La collaborazione con LEDA ha ampliato tali caratteristiche e ha permesso di
collocare le ricerche in un quadro teorico coerente. Si tratta comunque di
ricerche alla frontiera della conoscenza, con l’alto rischio che alcuni obiettivi
non vengano raggiunti in tempi stabiliti.
Radiofrequenza
Con la realizzazione degli impianti
di riscaldamento ausiliario, per FT prima e FTU poi, si è costituita una
notevole competenza nella realizzazione e gestione di impianti a RF di alta potenza
(nel campo del MW) in un campo di frequenze da 0,5 GHz a 140 GHz. Essendo
destinati alla sperimentazione su FTU, gli impianti sono soggetti a frequenti
aggiornamenti e rifacimenti per garantire flessibilità operativa.
Gli obiettivi principali del progetto
sono:
·
la
comprensione teorica e sperimentale dei processi fisici di base dei plasmi
confinati magneticamente e lo sviluppo tecnologico, in vista della
realizzazione di un esperimento internazionale per lo studio di un burning
plasma;
·
sviluppo
del progetto Ignitor;
·
studi
sulla fisica del confinamento inerziale in vista della partecipazione a
programmi internazionali;
·
studi
su approcci alternativi come quelli derivanti dai cosiddetti processi di
“fusione fredda”.
(Sezione riservata ai soggetti di cui al sub C) del punto 4
dell’Avviso)
Informazioni
anagrafiche
o
Ragione/denominazione sociale e forma
giuridica, sede legale, estremi di iscrizione alla CCIAA e all’INPS (ramo di
attività)
o Capitale
Sociale, soci e relative quote
o Gruppo
di appartenenza e suoi settori di attività (solo se la richiedente non
ha i requisiti di PMI)
o
Codice di iscrizione all’Anagrafe Nazionale
della Ricerche (se già posseduto dalla richiedente)
Attività
o Ramo
di attività (indicare le attività del Consorzio come da atto costitutivo
e/o statuto; principali attività produttive; ricavi dell’ultimo esercizio per
vendite suddivisi per beni e/o servizi; collocazione
nel mercato))
o Risorse
umane (numero di dipendenti a data recente e sua ripartizione per
funzione aziendale: direzione, amministrazione, produzione, ricerca e sviluppo,
marketing, altre funzioni)
o Sede
di attività (ubicazione e principali linee di attività)
o Rapporti
sistematici con organizzazioni esterne di ricerca
o
Strutture di ricerca e sviluppo, di
progettazione da impiegare per l’esecuzione del progetto (laboratori e
relative superfici; organico suddiviso in personale di ricerca, tecnico e amministrativo
e relative qualifiche e profili professionali e sua compatibilità con gli
impegni richiesti dal progetto proposto e dagli altri in contemporaneo
svolgimento; attrezzature di particolare rilievo. )
L’ENEA, a seguito degli investimenti e
delle recenti realizzazioni effettuate, è attualmente uno degli Enti pubblici
maggiormente presenti sul territorio meridionale e opera in modo fortemente
integrato con una pluralità di soggetti scientifici ed economici, pubblici e
privati, attraverso una rete molto articolata di relazioni e progetti
congiunti. L’Ente ha già realizzato una sperimentazione GRID al livello
geografico che consente di condividere tutte le risorse informatiche presenti
nei centri. Il “sistema virtuale” delle risorse informatiche distribuite per il
calcolo scientifico e grafica avanzata dell’ENEA si pone ad un livello di
assoluto rilievo nel panorama nazionale ed internazionale. Esso consente
all’utente di utilizzare, in modo completamente automatico, qualunque
calcolatore del sistema per eseguire i propri programmi ed elaborare i propri
dati. E’ compito del sistema risolvere tutte le operazioni legate alla
localizzazione fisica dei calcolatori, alla loro architettura e ai diversi
sistemi operativi. Si ha quindi a disposizione un ambiente unico dove la scelta
della stazione di lavoro da parte dell'utente è dipendente unicamente dalla
portabilità dell'applicazione. L’attuale sistema integra le sedi ENEA di
Bologna, Casaccia, Frascati Portici
(Fig. 2), Trisaia e Brindisi ove sono collocate le potenze di calcolo più
rilevanti, per un totale di circa 500 GigaFlops.
Fig 2 Sala Calcolo Attuale del
Centro ENEA Portici
I principali sistemi di supercalcolo
vettoriali e paralleli che forniscono tali potenze, basati su architetture
eterogenee (SIMD, MIMD, SMP), sono sistemi Quadrics/LinuxAlpha (100GigaFlops),
sistemi IBM SP (300 GigaFlops), un sistema Cray SV1 (39 GigaFlops), oltre
sistemi SGI e SUN e Cluster Linux per un totale di circa 100 GigaFlops,
dislocati nei diversi Centri. Tali sistemi sono affiancati con strumenti di
grafica avanzata immersivi ed interattivi. Tale potenza di calcolo è utilizzata
da molteplici applicazioni scientifiche in diversi campi applicativi quali:
reti neurali, scienza dei materiali, biotecnologie e genomica, chimica
computazionale, elaborazione immagini, nuovi materiali, combustione,
turbolenza, modelli climatologici, anche in collaborazioni con Università e
Organizzazioni nazionali di ricerca. Negli attuali programmi ENEA si prevede il
mantenimento e lo sviluppo di tali sistemi con particolare riguardo ai centri
di Trisaia, Brindisi e Portici. Attività in tal senso sono già state
effettuate. La totalità delle
infrastrutture delle infrastrutture sarà messa a disposizione per lo sviluppo e
la realizzazione degli obiettivi del presente Progetto. In particolare presso
il centro di Portici saranno messe a
disposizione :
v un’area per
l’installazione del sistema di supercalcolo di circa 250 mq (Fig. 3).
Fig. 3. Area prevista per
l’installazione delle infrastrutture relative al supercalcolatore
v Un sistema per la
visualizzazione tridimensionale immersiva (Fig. 4)
Fig. 4 Sala di Grafica 3D del
centro di Portici
v Una sala
conferenza attrezzata con sistemi di videoconfrenza (Fig 5)
Fig 5 Sala conferenze Centro ENEA
Portici
Le infrastrutture citate sono
state progettate e realizzate dal personale tecnico scientifico dell’ENEA che
quindi ha acquisito un’esperienza pluriennale nella progettazione,
realizzazione e gestione di sistemi ICT complessi ed a livello geografico. In particolare si è realizzata
un’infrastruttura che integra software commerciali, software provenienti dal
modo della ricerca e software utente.
Le
attività di sviluppo ed implementazione sono state condotte in collaborazione
con organismi nazionali ed internazionali, in particolare esiste una stretta
collaborazione con il CERN ed ESA per lo sviluppo di griglie computazionali.
L’ENEA è partner dei progetti GRID.it Wp 13 ed EGEE ( SA1). In questo ambito si
stanno sviluppando tools innovativi di integrazione fra GRID. Inoltre è in
corso di definizione sugli stessi temi un accordo di collaborazione con i
laboratori USA Oak Ridge National Laboratories con cui l’ENEA ha rapporti di
collaborazione storici.
Per quanto riguarda le attività ricomprese nella Linea
di Attività II “Sviluppo di tecnologie e
modelli computazionali per la descrizione di sistemi
complessi di origine biologica e di materiali innovativi” meglio
descritta più avanti, le competenze ENEA
sono legate all'area del Calcolo ad Alte Prestazioni, in particolare alle
applicazioni di calcolo scientifico da effettuare sulle piattaforme di
calcolo parallele. L'ENEA ha una lunga esperienza in attività
scientifiche, in differenti settori applicativi, dove il calcolo ad alte
prestazioni risulta essere un elemento abilitante, ed in passato, ha
anche collaborato al design e alla realizzazione di una piattaforma di
calcolo eterogenea (PQE1) che è stata successivamente utilizzata in
diverse aree applicative (scienza dei materiali, astrofisica,
simulazioni elettromagnetiche, bioinformatica etc.). Da diversi anni, si
e' sviluppata una competenza nella progettazione di hardware, a
livello di VHDL: è stato sviluppato un tool per la progettazione di
microprocessori che implementano specifiche funzionalità, implementabili
su logiche riprogrammabili. Questa attività ha anche generato uno
spin-off che ha ricevuto il finanziamento MIUR nell'ambito del DL 297/99.
L'Unità Calcolo e Modellistica svolge attività di consulenza a favore delle
altre unità operative dell'ente, mettendo a disposizione il proprio know-how
per la soluzione di problematiche computazionali complesse in settori quali
l'analisi numerica, le tecniche di ottimizzazione, il trattamento di segnali e
immagini etc. In questo senso, l'unità svolge un ruolo trasversale, di grande
utilità a favore di aree disciplinari nelle quali le potenzialità offerte
dall'approccio computazionale sono notevoli (si veda, come caso di rilievo, il
settore della Biologia Computazionale e della Bioinformatica) ma rischiano di
essere poco utilizzate per la difficoltà nel reperire specifiche competenze
informatiche e di calcolo numerico a tale livello. L'unità Calcolo e
Modellistica coordina inoltre un progetto FIRB (E-GEN) che mira ad integrare,
attraverso le tecnologie informatiche, una serie di Laboratori tematici
(Genomica, Proteomica, Profili Molecolari, Bioinformatica) che costituiscono
una facility nazionale. Il Progetto CRESCO avrà, come suo ulteriore punto di
forza, l'interconnessione di questa facility (con le infrastrutture sia HW che
SW a disposizione) con l'elaboratore centrale previsto dal Progetto, in maniera
da integrare efficacemente quanto già realizzato e disponibile dal progetto
E-GEN con le attività previste dal progetto CRESCO.
Per quanto riguarda
In particolare nell’ambito del V Programma Quadro della EU il Gruppo
proponente ha partecipato ai Progetti EU-IST SAFEGUARD, EU-IST ACIP ed EU-IST
SAFETUNNEL, tutti mirati allo sviluppo di modelli e tecnologie per valutare la
vulnerabilità di reti tecnologiche complesse, in particolare reti di
telecomunicazioni, reti elettriche e loro interdipendenze. In ambito VI
Programma Quadro ENEA ha già ricevuto l’approvazione per due Progetti del tipo Coordinated Action nel settore specifico
(CI2RCO e GIACS) e si appresta a presentare un Integrated Project. Tutto questo insieme di attività colloca ENEA
dentro una vasta rete di collaborazioni nazionali e internazionali nel settore
specifico, tanto da farne l’attore di riferimento nel panorama degli Enti di
ricerca italiani. Beneficiando di tutta l’esperienza sopra descritta ENEA
dispone di figure professionali di alto profilo a livello di gestione dei
progetti e di modellistica e progettazione hardware e software che lavoreranno
per il Progetto CRESCO. Al contrario, difetta di figure giovani per lo sviluppo
del software e di alcune competenze specialistiche che saranno rese disponibili
attraverso delle collaborazioni mirate con delle Università italiane. In
aggiunta ENEA partecipa con un ruolo attivo ai lavori del Gruppo di Lavoro
sulla Protezione delle Infrastrutture Critiche Informatizzate, presso
Con riferimento al soggetto della Linea di Attività Sviluppo di
Modelli di Simulazione ed Analisi delle Reti Tecnologiche Complesse e delle
loro Interdipendenze il Progetto CRESCO potrà beneficiare della
partecipazione ENEA a reti di collaborazioni scientifica già stabilite in
ambito di Progetti nazionali ed internazionali. Tra questi si cita la
partecipazione ENEA ai Progetti EU di seguito elencati:
EU-FP5 IST-2001-32685
SAFEGUARD (Intelligent Agents Organisation to Enhance Dependability and
Survivability of Large Complex Critical Infrastructures)
EU-FP5 IST-2001-37257
ACIP (Analysis & Assessment for Critical Infrastructure Protection)
EU-FP5 IST-2001-28099 SAFETUNNEL (Innnovative
systems and frameworks for enhancing of
traffic safety in road tunnels)
EU-FP6
NEST-2003-12380 GIACS (General Integration of the Applications of Complexity in
Sciences)
EU-FP6 IST-2004-15818 CI2RCO (Critical Information Infrastructure
Research Coordination)
La collaborazioni con l’analoga iniziativa degli Stati Uniti denominata NISAC (National Infrastructure Simulation and Analysis Center). Il NISAC è una iniziativa congiunta tra Los Alamos National Labs, Livermore National Labs e Sandia National Labs, sponsorizzata dal Governo degli Stati Uniti. ENEA ha già, da diversi anni, intrapreso uno scambio di informazioni, soprattutto di carattere metodologico, attraverso il Dipartimento di Stato degli Stati Uniti (vedere lettera in Allegato A).
La partecipazione ENEA al Gruppo di Lavoro della Presidenza del Consiglio
dei Ministri, Dipartimento per l’Innovazione e le Tecnologie, denominato
“Protezione delle Infrastrutture Critiche Informatizzate”.
Relativamente
in particolare al Sotto prgetto III.6 “Sistema Informativo per
Le attività svolte affrontano organicamente tutte le problematiche
connesse con il processo di mutua integrazione delle tecnologie citate, in modo
che esso risulti funzionale rispetto ai differenti obiettivi da conseguire.
Tali problematiche includono, tra l'altro, lo sviluppo di algoritmi di
elaborazione delle immagini di OT nonché la progettazione strutturale dei SIT e
la loro coerente ed efficiente implementazione.
È utilizzato il Sistema EDI (ENEA Digital Imagery), iscritto all’Albo dei
Laboratori di Ricerca Scientifica e Tecnologica del MIUR al n.° 64, e dedicato
alla elaborazione delle informazioni geografiche, in formato raster (immagine)
e vettoriale. È costituito da sistemi HW e SW allo stato dell'arte tecnologico.
Le moderne tecnologie dell'Osservazione Aerospaziale della Terra e dei
Sistemi Informativi Territoriali offrono straordinari mezzi di monitoraggio, di
conoscenza e di analisi dell'ambiente che risultano utilissimi in una vasta
gamma di discipline scientifiche (geologia, idrologia, oceanografia, ecc…) e di
problematiche territoriali (discariche, urbanizzazione e trasporti,
pianificazione territoriale, inquinamento chimico e termico, clima globale,
gestione di parchi ed aree protette, biodiversità, agricoltura ecocompatibile,
emergenze ambientali, ecc). Tuttavia il reale fattore del successo applicativo
di queste due tecnologie risiede nella capacità di svilupparle e di integrarle
mutuamente per realizzare strumenti operativi con cui far fronte alle più
diversificate esigenze.
I principali committenti dell’Unità appartengono alla Pubblica
Amministrazione e tra essi compaiono: il Segretariato Generale della Presidenza
della Repubblica,
Tra le principali attività di R&ST svolte negli ultimi anni
dall’Unità CLIM su progetti nazionali e comunitari, si segnalano le seguenti:
·
GIS-ILA.
Geographic Information System for Italian Logistics in Antartica, utilizzato
principalmente dall’attuatore delle attività logistiche (Consorzio P.N.R.A) che
si svolgono nell’area antartica di interesse italiano.
·
SIMU
(Sistema di acquisizione ed analisi di Immagini per lo studio della Mobilità
Urbana), finalizzato alla stima della quantità di autoveicoli presenti nel
sistema viario di una città mediate tecniche di aerofotogrammetria digitale.
·
TRIDENT
(Three-dimensional Restitution via Internet of Digital Elevation Networks in
Towns), ricostruzione di modelli tridimensionali di edifici in aree urbane
tramite metodologie di aerofotogrammetria digitale.
·
EOBEM
(Earth Observation for woodlands, shrublands and grassland Biomass Estimate and
Management), per studio della distribuzione della vegetazione e della biomassa
vegetale ai fini della gestione del Parco Nazionale dei Monti Sibillini.
·
SIMMI,
Sistema Integrato per il Monitoraggio e
·
SITAC,
Il Sistema Informativo Territoriale Ambientale della tenuta Presidenziale di
Castelporziano.
Alcune attività di ricerca saranno sviluppate da partner qualificati
operanti nelle aree dell’obiettivo 1 e da Università anch’esse per la maggior
parte operanti in tali aree (v. più avanti per la descrizione dei Sottoprogetti
in riferimento):
PARTNER |
Sottoprogetti di
interesse |
Università di Salerno |
I.2, III.3, III.5 |
Università di Roma “Tor
Vergata” |
I.2, III.1, III.4, III.5 |
Università di Roma “La Sapienza” |
I.5 |
Università di Catania |
II.2, III.1 |
Università di Lecce |
III.2 |
Università del Piemonte Orientale |
III.2 |
Università di Palermo |
III.3 |
Università del Sannio |
III.5 |
Cons. Interuniversitario ECONA |
III.4 |
CRIAI – Consorzio Campano
di Ricerca per l’Informatica e l’Automazione Industriale |
I.2, III.5 |
Consorzio BioTekNet (Centro Regionale di Competenza in Biotecnologie Industriali) |
II.1 |
Parco Scientifico e Tecnologico della Sicilia |
I.2, II.2 |
Consorzio CETMA |
II.4 |
Soc. Ylichron (spin-off ENEA) |
I.4 |
Per
maggiore informazione, si riportano le caratteristiche dei principali partner non
universitari coinvolti.
CETMA
Il CETMA
nell’ambito dei progetti svolti, ha sviluppato know-how nel settore della
modellistica, simulazione e metodi di progettazione. Le conoscenze acquisite
sono continuamente valorizzate ed approfondite attraverso lo sviluppo di nuovi
progetti che utilizzano strumenti con elevata potenza di calcolo. Gli ambiti
applicativi riguardano la modellazione e simulazione numerica di sistemi
complessi quali il crashworthiness, la termofluidodimanica, l’interazione
fluido-struttura, l’acustica, processi produttivi, ecc..
Nell’ambito del Progetto TECPO
“Metodologie e TEcniche di progettazione di componenti Ceramici tradizionali e
componenti a base di POlimeri e loro compositi” cofinanziato dal MURST e dall’
UE (periodo 1998-2001), è stato condotto uno studio finalizzato allo sviluppo
di metodi e tecniche di progettazione innovativi per prodotti ceramici
tradizionali (TECPO-CER). I settori analizzati sono stati quello delle
piastrelle, delle stoviglie e degli idrosanitari.
In sostanza,
il risultato principale del progetto TECPO è stato quello di dimostrare quanto
sia importante lo sviluppo di metodologie che consentano di calcolare le
deformazioni che subisce un pezzo durante tutto il processo produttivo
arrivando a prevedere in maniera affidabile la forma dello stampo.
Nell’ambito
del Progetto MAVET (Moduli Avanzati per vettori di trasporto
collettivo), attualmente in fase di sviluppo, si stanno realizzando una serie
di metodologie di progettazione attraverso un approccio cooperativo e
multidisciplinare che utilizzano le più avanzate tecnologie informatiche; in
particolare ci si riferisce a tecniche di simulazione avanzata per la
progettazione strutturale di sistemi complessi e per lo studio virtuale
dell’interior design di vettori ferrotranviari.
Nel
progetto SIDART (Sistema Integrato per la diagnostica dei beni artistici) il
consorzio ha sviluppato librerie software e strumenti per l’acquisizione,
processing e visualizzazione di dati diagnostici nel settore dei beni
culturali. La tematica dei Virtual Set in real-time è stata affrontata in
LIVEART, in cui la realtà virtuale è stata utilizzata per la ricostruzione di
ambientazioni storiche con complesse funzionalità di interazione. Modelli di
simulazione complessi, sono stati sviluppati dal consorzio nel progetto ICIV,
il cui obiettivo è stato quello di integrare tecniche di visualizzazione
avanzata nella pianificazione urbanistica.
Infine,
il Progetto PROCETMA, attualmente in fase finale di sviluppo, prevede la
realizzazione di un sistema informatico/informativo distribuito per la
simulazione e visualizzazione interattiva di fenomeni complessi nel settore dei
trasporti, che si avvalga della potenza di calcolo della GRID computazionale
SPACI. Questa struttura permetterà di potenziare ulteriormente il calcolo
ingegneristico con codici applicativi già in uso presso i laboratori del CETMA.
Si tratta di codici agli elementi finiti quali Ansys, Patran/Nastran, LSDyna,
Gambit/Fluent, LMS Sysnoise.
Collaborazioni
scientifiche in ambito nazionale e internazionale
Tra le
collaborazioni scientifiche del CETMA si citano le seguenti:
-
Vetrotex Saint-Gobain (Paris – France), per lo
sviluppo di tecniche per la trasformazione di materiali compositi a matrice
termoplastica ;
-
CILEA (Milano), per lo sviluppo di tecniche di
analisi CFD mediante il calcolo parallelo
-
Engine Soft srl (Bergamo), per lo sviluppo di
modelli numerici relativi al comportamento a crash di componenti in composito
-
BIESSE (Pesaro), per la progettazione di componenti
strutturali in composito per macchine per la lavorazione del legno
-
ALSTOM Ferroviaria SpA (Savigliano – CN), per la
progettazione di un albero cardanico in materiale composito
-
ORAD (Realizzazione del Virtual Reality Theatre del
Consorzio mediante cluster di PC)
-
SGI (sviluppo di applicazioni in Realtà Virtuale con
tecnologie OpenGL Performe)
-
Centro di eccellenza per il Supercalcolo
dell’università della Calabria (Collaborazioni Scientifiche)
-
Collaborazioni tecnico-scientifiche con il Distretto
di Civita Castellana per l’individuazione di metodologie e strumenti innovativi
di progettazione di modelli e stampi per la produzione di idrosanitari.
CRIAI
Il CRIAI Scarl, Consorzio Campano
di Ricerca per l’Informatica e l’Automazione Industriale, è un Centro di
ricerca e formazione sulle tecnologie dell’Informatica e delle
Telecomunicazioni promosso dall'Università degli Studi di Napoli “Federico II”
in collaborazione con altri partner industriali. E' un’esperienza
pubblico/privato nata per svolgere programmi di ricerca di respiro nazionale ed
europeo che coinvolgono realtà accademiche ed industriali.
Il CRIAI vanta una storia quasi
ventennale di ricerca e di produzione scientifica nell’Informatica e
nell’Automazione Industriale che testimonia il ruolo di primo piano avuto dal
consorzio tra le istituzioni scientifiche meridionali e nazionali. Il CRIAI fu costituito in data 15.12.1980 per
iniziativa dell'Università degli Studi di Napoli e di soggetti industriali. Il
CRIAI fu tra i promotori dei Consorzi IATIN, SOFTIN, Napoli Ricerche.
Avvalendosi di una nuova compagine
societaria, attualmente il centro di ricerca si è posto l’obiettivo di aprirsi
verso programmi di ricerca che coinvolgano realtà accademiche ed industriali di
respiro europeo e, al tempo stesso, garantire ricadute tecnologiche a favore
del territorio campano.
Il CRIAI è:
·
Centro di Ricerca iscritto all'Albo dei Laboratori
di Ricerca accreditati della Regione Campania.
·
Organismo formativo accreditato dalla Regione
Campania relativamente agli Ambiti Formazione Superiore e Formazione continua.
·
Ente certificato UNI EN ISO 9001:2000 per la
realizzazione di progetti di ricerca scientifica e tecnologica (sett. EA35) e
per l'erogazione di corsi di formazione (sett. EA37).
Il Consorzio CRIAI ha lo scopo di effettuare Ricerca Scientifica e
Tecnologica, Trasferimento delle tecnologie, Formazione di nuove figure
professionali ed erogazione di servizi avanzati nei settori dell'Informatica e
delle Telecomunicazioni.
Il CRIAI è strutturato in dipartimenti corrispondenti ad aree tematiche
identificate come centrali e di riferimento per le attività di ricerca e
formazione. Tale organizzazione tiene conto del carattere fortemente
interdisciplinare dei campi di ricerca più innovativi, che possono essere trasversali
anche alle suddette aree. In particolare le aree identificate sono le seguenti:
Area Telecomunicazioni, che
riguarda applicazioni che sfruttano prevalentemente i canali di TLC a larga
banda, come quello satellitare, il supporto per la formazione a distanza, il
content delivery, la telemedicina; realizzazioni di sistemi di localizzazione,
rivolti, ad esempio, al mercato dei trasporti, che sfruttino le ultime
tecnologie del settore, come i terminali e le reti wireless: sistemi di
telefonia su reti di trasmissione dati ed innovazioni legate al business dei
call e contact centers
Area Multimedialità, che riguarda applicazioni web based interattive, i
servizi erogabili tramite web television, la formazione a distanza, la
fruizione dei beni culturali mediante tecnologie avanzate
Area Realtà Virtuale, che tratta la sperimentazione e la realizzazione di
tecniche orientate agli ambienti virtuali ed alla interazione uomo macchina.
Area Formazione, che ha l’obiettivo di promuovere interventi volti sia
alla qualificazione ed al rafforzamento del potenziale umano nella ricerca,
nella scienza e nella tecnologia, sia alla promozione ed al miglioramento della
formazione superiore ed universitaria, sia alla promozione della partecipazione
delle donne con formazione universitaria e/o post-universitaria al mercato del
lavoro. Gli argomenti oggetto degli interventi saranno strettamente connessi al
know-how interno del CRIAI ed in particolare alle attività di ricerca dei
singoli dipartimenti.
Osservatorio e Trasferimento Tecnologico, con il compito di sondare
costantemente i trend di mercato e gli orientamenti della comunità scientifica
al fine di anticiparne la domanda e di tenere costantemente aggiornato il piano
di ricerca. Tale area avrà anche il compito di facilitare il processo di
trasferimento del know-how del CRIAI verso il mondo dell’industria.
Competenze
GRID
IL CRIAI è da tempo impegnato
sulla problematica GRID in collaborazione l’Università Federico II e con i
Centri di Ricerca del territorio. In particolare è stata avviato un protocollo
di intesa con
Per il Centro di Ricerche ENEA di
Portici, il CRIAI è impegnato in attività di consulenza ed assistenza
specialistica in ambiente AFS su sistemi operativi UNIX/Linux, dei prodotti GIS
afferenti al progetto ENEA Tele-Grid.
E’ stata inoltre avviata una
collaborazione
Parco Scientifico e Tecnologico della
Sicilia
Il Parco Scientifico e
Tecnologico della Sicilia (PSTS) è una società consortile per azioni nata nel
1991 che associa centri di ricerca ed aziende operanti in diversi settori dell’economia
siciliana, il cui socio di maggioranza (88%) è l’Assessorato Regionale
all’Industria.
Coerentemente
alla sua missione, il PST Sicilia si propone di sviluppare la cultura
dell’innovazione e della qualità nelle imprese regionali attraverso azioni di
trasferimento tecnologico e di accompagnamento mirate ad accrescerne la
competitività, di stimolare l’avvio di nuove attività produttive, di favorire
l’insediamento in Sicilia di imprese hi-tech. Tutto ciò al fine di contribuire
allo sviluppo economico del tessuto produttivo.
A tale
scopo - utilizzando le agevolazioni nazionali (L.297/99,PON 2000-2006),
regionali (POR Sicilia 2000-2006) e comunitarie (Interreg) - sviluppa progetti
di ricerca, di innovazione e di trasferimento tecnologico, e progetti di alta
formazione in collaborazione con strutture pubbliche di ricerca,
amministrazioni, grandi e piccole imprese. In tal modo ha realizzato un sistema
di relazioni articolato a vari livelli che gli consente di affrontare problemi
di ricerca complessi e di assicurare il trasferimento alle PMI locali.
In linea
con le ricadute attese da diversi
progetti di innovazione e ricerca già avviati, il Parco ha iniziato a predisporre negli ultimi anni la propria struttura per potersi configurare
anche come centro di servizi.
Il Parco Scientifico e Tecnologico della Sicilia dispone nelle province
di Catania e di Palermo, anche tramite il suo aggregato consortile, di una rete
di laboratori di ricerca e sviluppo che afferiscono ai settori dei beni culturali
ed ambientali, della microelettronica e delle tecnologie della comunicazione,
della qualità e della sicurezza delle produzioni alimentari (inclusa la
maricoltura) e che è in corso di ampliamento e di potenziamento con l’obiettivo
di organizzare servizi avanzati per le PMI (analisi avanzate, testing,
addestramento tecnologico, noleggio di piattaforme attrezzate,accompagnamento
tecnologico). Il programma è sviluppato
permette all’azienda di acquisire ulteriori asset innovativi sui quali puntare
nel trasferimento tecnologico e nel fornire i servizi al tessuto
imprenditoriale siciliano.
In particolare, sulla base di analisi di mercato e dei contatti con imprese e centri di ricerca del
territorio siciliano, si stanno realizzando:
·
a Catania, il potenziamento del
laboratorio per la sicurezza dei prodotti agro-alimentari e del laboratorio di
prova sui materiali, nonché l’implementazione del laboratorio per la validazione del software, già
progettato mediante un precedente finanziamento MIUR ;
·
a Palermo, l’ampliamento dei
servizi di analisi e testing per il
restauro dei beni culturali, le terrecotte e le malte e il laboratorio per la biologia marina e la
maricoltura .
Un’adeguata
azione di marketing territoriale, il portale e i siti istituzionali del Parco e
dei Soci contribuiscono alla promozione dei servizi offerti dalla rete.
Le competenze
dimostrate nella creazione delle condizioni più favorevoli per la realizzazione
di nuovi prodotti, per l’innovazione dei processi produttivi, per l’innovazione
dei modelli organizzativi e la creazione di nuova impresa, fanno del PSTS un
punto di riferimento per gli attori del sistema economico, uno strumento a
disposizione delle PMI ai fini della loro crescita e del miglioramento della
loro competitività e visibilità internazionale.
Il modello operativo estremamente flessibile, basato sulla costante
interazione e cooperazione con le realtà istituzionali ed imprenditoriali,
anche a livello internazionale, e la strettissima relazione con il mondo
accademico e della ricerca in generale, determinano una massa critica di
relazioni e sinergie utili all’acquisizione di nuove conoscenze ed alla creazione di competenze
nel campo della ricerca per l’innovazione, in quello dei servizi alle PMI, del
trasferimento tecnologico e della diffusione e disseminazione dei risultati.
L’organizzazione ha moltiplicato gli sforzi per una più intensa attività
di animazione territoriale stimolando, da un lato, la partecipazione del
tessuto imprenditoriale nei percorsi di sviluppo del territorio e, dall’altro,
mettendo a disposizione degli attori territoriali pubblici il proprio know how
e le competenze del sistema di relazioni che rappresenta, per l’ideazione e la
realizzazione di servizi per lo sviluppo.
La qualificata rete di collaborazioni ed il sostegno
delle Università consentono di esportare modelli operativi collaudati e
realizzare, in partenariato con strutture locali, centri operativi decentrati,
caratterizzati da spiccate specificità. In questa prospettiva è stato avviato
un programma di comunicazione verso le imprese, gli Enti, le Amministrazioni e
i Centri Ricerca realizzato attraverso il sito web, il notiziario, la
partecipazione a fiere, convegni e seminari; l’adesione al Partenariato della
Comunicazione, istituito dal Dipartimento alla Programmazione della Regione
Sicilia.
Il maggiore azionista del Parco è
3.1 Titolo del progetto
Centro Computazionale di RicErca sui Sistemi COmplessi - CRESCO
3.2 Durata
del progetto (in mesi)
36
3.3 Sede di
svolgimento delle attività di progetto (indicare l’indirizzo della sede,
nel caso in cui siano previste più sedi indicare l’indirizzo di ciascuna.
Specificare, altresì, se la/e sede/i è/sono già disponibili e utilizzabili alla
data di presentazione della proposta. Nel caso in cui ciò non si verifichi,
specificare i tempi necessari a rendere disponibili le sedi individuate, nonché
le azioni poste in essere al fine di garantire il rispetto dei termini previsti)
Centro Ricerche ENEA Portici
Località Granatello
Portici (NA)
Centro Ricerche ENEA Brindisi
S.S. 7 Appia, km 713,700
Brindisi
Centro Ricerche ENEA Trisaia
S.S. 106 Ionica, km 419,500
Rotondella (MT)
Le sedi sono tutte disponibili e normalmente in uso
alla data presente.
3.4 Obiettivo finale del progetto e risultati
attesi
Descrivere
l’obiettivo finale del progetto e i risultati attesi in modo da rendere
evidente la coerenza del progetto con le azioni previste dall’Avviso al punto 3.
Il Progetto ha come obiettivo la realizzazione, presso il Centro Ricerche ENEA di Portici (NA), di un importante Polo di calcolo multidisciplinare per lo studio dei sistemi complessi di natura biologica e tecnologica, collegato con facilities di elaborazione, archiviazione e visualizzazione 3D di dati ubicate presso i Centri ENEA di Brindisi e Trisaia (MT).
Sul versante infrastrutturale il
Progetto prevede la realizzazione di una piattaforma di calcolo di assoluta
eccellenza in grado di erogare una potenza dell’ordine del Teraflop, corredata
di una nuova classe di funzionalità GRID innovative.
Sul piano delle applicazioni e dei contenuti scientifici, il
Centro si focalizza sui seguenti ambiti principali:
·
lo
studio di oggetti biologici dal punto di vista “sistemico” (in silico cell) e
lo studio di sistemi naturali (comunità animali e sociali) secondo il paradigma
dei sistemi complessi
·
lo
studio di sistemi tecnologici complessi e delle loro mutue interazioni, e la
realizzazione di opportuni strumenti per il modelling, la simulazione e il
controllo;
·
l’implementazione
di soluzioni innovative in tema di architetture di sistemi di calcolo e di GRID
computing per le attività di R&S di punta dell’ENEA che richiedano
l’utilizzo di risorse computazionali estremamente importanti.
In particolare, il progetto si articola sulle seguenti tre
Linee di Attività:
I. Realizzazione del Polo di calcolo e
sviluppo di nuove funzionalità di GRID Computing.
II.
Sviluppo di tecnologie e modelli computazionali per
la descrizione di sistemi complessi di origine biologica e di materiali
innovativi.
III.
Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche
complesse e delle loro interdipendenze.
La realizzazione dell’infrastruttura porterà inoltre allo
sviluppo ed al potenziamento di alcune importanti funzioni tradizionalmente
svolte dall’ENEA. In particolare:
·
la ricerca – sarà fornito
supporto (di tipo sia capacity che capability), attraverso l’utilizzo
dell’infrastruttura di calcolo, ad attività di
ricerca già in corso di svolgimento nell’Ente nell’ambito delle linee
programmatiche esistenti; tali attività potranno anche avere una focalizzazione
di natura industriale;
·
la formazione – potranno
essere potenziate le attività di formazione, in collaborazione con alcune sedi
universitarie, al fine di supportare la diffusione delle metodologie sviluppate
all’interno del Polo Multidisciplinare negli ambiti tematici oggetto di studio
e ricerca, con positive ricadute anche nella creazione di percorsi formativi
adatti al successivo reclutamento di personale;
·
il trasferimento
tecnologico – verranno istituiti percorsi ed attivati idonei strumenti
per favorire l’applicazione industriale delle tecnologie sviluppate, anche
ricorrendo alla collaborazione di idonei partner (“industrial-exploitation partner”).
Lo schema logico
dell’infrastruttura proposta è riportato nella figura seguente.
Fig. 6 Schema concettuale del Centro Computazionale
CRESCO
Questa
struttura funzionale può essere realizzata costituendo, attorno ad una facility di calcolo ad alte prestazioni
(HPC), un insieme di “laboratori virtuali” ciascuno dei quali, in una specifica
area disciplinare, vede cooperare ricercatori dell’ENEA, del sistema
universitario e di altri enti di ricerca, con esperti e tecnologi del mondo delle
imprese per lo sviluppo e la messa a punto di metodologie di simulazione,
controllo e visualizzazione (si veda in proposito la fig. 7).
Imprese ENEA Università e altri Enti
di ricerca Li
Fig. 7 Schema concettuale dei Laboratori Virtuali di CRESCO
Nel seguito è riportata una descrizione di
maggiore dettaglio delle linee di attività più sopra citate.
I.
Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di
GRID Computing.
Recenti
sviluppi nel settore del High-End Computing (HEC) hanno
stimolato un riesame delle politiche internazionali, in particolare quelle
degli USA, con un effetto di accelerazione dello sviluppo in questo settore.
Gli eventi che hanno influito in modo significativo al rilancio dei HEC sono
stati:
1.
lo
sviluppo da parte del Giappone di un sistema di supercalcolo denominato “ Earth Simulator” che ha dominato la
classifica dei Top500 fino al Novembre 2004;
2.
la forte
richiesta di potenza di calcolo dedicata sia a problematiche civili, talvolta
con ricadute strategiche (ad es. applicazioni di geofisica e prospezione
petrolifera) nonché di area militare.
Nello stesso
tempo si sono evidenziati aspetti che richiedono ancora attività di ricerca e
sviluppo delle infrastrutture HEC, come ad esempio:
1.
la
difficoltà di utilizzare una frazione significativa della potenza di picco
disponibile su tali infrastrutture;
2.
la
problematica relativa alla diagnostica sia di sistema che degli applicativi che
utilizzano tali infrastrutture.
Affrontare
l’insieme di queste problematiche impone un investimento e richiede lo sviluppo
per quello che concerne sia le architetture hardware e software sia gli
applicativi. Un forte interesse nello sviluppo di applicativi che siano in
grado di utilizzare a pieno le risorse disponibili è nel settore della difesa e
dei grandi eventi naturali. Queste tematiche hanno dato al settore HEC la
priorità di finanziamento in molti paesi ed in particolare negli USA. E’ ormai
di dominio pubblico ritenere che le infrastrutture HEC sono abilitanti per lo
sviluppo tecnologico e la competitività di ogni paese industrializzato.
Dall’analisi
del contesto internazionale emerge che tutti i paesi industrializzati pongono particolare
attenzione nei programmi ITC con particolare riguardo all’HEC e al Networking.
La parte dominante in questo settore è tenuta dagli USA e Giappone come
illustrato dalla Fig 8.
Quadro di
riferimento top 500
Relazione
Problema-Potenza
Piattaforma
ENEA
Rete Attuale
Rete e
sicurezza
Sito
Fig.8 Distribuzione percentuale per Paese
della potenza di calcolo relativa alla lista Top 500 (giugno 2004)
L’Europa in questo contesto svolge un ruolo marginale e l’Italia,
in particolare, segue a rilento l’evoluzione della stessa Europa. Nel contesto
italiano l’infrastruttura ENEA riveste un ruolo di rilievo, almeno
limitatamente all’ambito del sistema degli Enti di Ricerca. La tab. 2 dettaglia
le potenze disponibili nei diversi Centri ENEA (alcune implementazioni sono
frutto di precedenti interventi dei Fondi Strutturali).
Tab. 2 Principali risorse computazionali del
GRID ENEA
Da quanto esposto emerge il fatto che ENEA è privo di un polo
di eccellenza in grado di affrontare e risolvere i problemi di classe superiore
oggetto della presente proposta. La presente proposta prevede di realizzare
tale polo di eccellenza e di inserirlo in un’architettura GRID già operativa da
anni. Questo consentirà di rendere immediatamente fruibile il nuovo polo come
strumento abilitante per la ricerca di base che si vuole affrontare con il
presente progetto.
La
disponibilità di sistemi di calcolo potenti, distribuiti su vaste aree
geografiche ma connessi tra loro da reti ad alta velocità, ha portato in questi
anni allo sviluppo del concetto di griglia computazionale.
Il concetto
di griglia (GRID) scaturisce dal tentativo di fornire una visione unitaria ad
un insieme eterogeneo di risorse informatiche sparse tra siti distanti
appartenenti, nel caso più generale, ad istituzioni anche molto diverse tra
loro. La realizzazione concreta di una griglia computazionale richiede la
definizione di un insieme di strumenti standard capaci di realizzare in modo
uniforme l'accesso alle risorse informatiche disponibili, sia in termini di
sistemi di calcolo che di archiviazione di dati. Inoltre tali strumenti devono
essere in grado di garantire la sicurezza di operazione della griglia e fornire
la possibilità di monitorare in ogni istante il suo funzionamento.
L'approccio
basato sul concetto di griglia computazionale ha permesso di delineare un
quadro unitario per l'insieme dei sistemi di calcolo di alte prestazioni
disponibili all'interno dell'ENEA, al fine di ottimizzare il loro utilizzo
all'interno di un ente distribuito sul tutto il territorio nazionale.
L'attività
dell'ENEA infatti si svolge in 12 centri situati in Italia settentrionale,
centrale e meridionale. Le sedi maggiori sono dotate ognuna di un centro di
calcolo che gestisce le risorse installate localmente e che coprono esigenze di
calcolo seriale, calcolo parallelo e richieste di grafica avanzata. Il sistema
ENEA GRID permette accedere all'insieme di tali risorse distribuite
geograficamente, come ad un unico sistema virtuale, con una capacità integrata
globale di varie centinaia di Gflops, distribuita su sistemi paralleli (IBM SP,
cluster Linux, Cray SV1 e macchine SGI). I componenti principali che permettono
ad ENEA GRID di fornire all'utente questo unico sistema virtuale sono
essenzialmente tre: una interfaccia grafica che consente un immediato ed
amichevole accesso alla griglia, un sistema di supervisione e gestione che
rende disponibile all’utente le risorse più idonee alla specifica applicazione
tra quelle al momento disponibili, e una struttura dati distribuita.
La scelta
dei componenti dell’attuale architettura di ENEA GRID si è rivolta ove
possibile all'ambito OpenSource e solo limitatamente a prodotti proprietari.
Apartire da
questa base operativa, tramite il presente progetto si vogliono sviluppare
metodologie e soluzioni innovative, rispetto a quelle già in essere, al fine
porre le basi e sperimentare nuove soluzioni GRID che superino i problemi che
attualmente sono irrisolti o hanno una carente soluzione.
SP I.1 Realizzazione dell’infrastruttura HPCN.
SP I.2 Sviluppo ed integrazione dell’architettura
GRID e di grafica 3D.
SP I.3 Sviluppo ed ottimizzazione di codici
applicativi in settori di R&S di punta.
SP I.4 Progettazione e sviluppo di librerie per
l’implementazione efficiente e parallela di nuclei computazionali su
dispositivi “Field Programmable Gate Arrays” (FPGA) integrati in un ambiente
GRID.
SP I.5 Web archivi.
SP I.1 Realizzazione dell’infrastruttura HPCN
Il settore tecnologico in esame è in rapida evoluzione a partire dagli anni 80. Da quella data il trend di crescita è rimasto costante, come si evince dalla Fig. 9 (da uno studio di Jack Dongarra, professore di Computer Science presso l’Università del Tennessee e ricercatore presso i Laboratori Nazionali di Oak Ridge, riconosciuto uno dei massimi esperti mondiali nel settore HPCN).
Fig.9 Evoluzione nel tempo dei computer ad alte prestazioni
Dalla figura si evince che nell’intorno del 2010 saranno
disponibili supercalcolatori con capacità di elaborazione dell’ordine di 1 PetaFlops. Stante la dinamica estremamente vivace che
domina nel campo delle architetture e della componentistica, per quanto
riguarda la scelta del sistema di HPC nell’ambito del presente Progetto, si
ritiene opportuno in questa fase limitarsi a definire le caratteristiche
funzionali del sistema che si desidera realizzare, lasciando aperta la
definizione dei dettagli del sistema fino al momento della scelta conclusiva.
Questo approccio consentirà di accedere al meglio delle tecnologie disponibili
in quel momento.
Una possibile proiezione a medio termine su quelle che
potrebbero essere le configurazioni per un sistema da 100 TFlops è ripotato in
Tab. 3
Tab. 3 Possibili configurazioni di un sistema da 100
Tflops (J. Dongarra Giugno 2004)
I modelli computazionali che si vogliono usare sono
costituiti, come descritto nei paragrafi dedicati, da modelli aventi le
seguenti caratteristiche:
Per ogni classe di problemi si richiedono caratteristiche
differenti della piattaforma di calcolo. In particolare:
a.
la
classe 1 richiede sistemi con una rete di intercomunicazione fra processori
efficiente ed a bassa latenza (minore di 3 microsec rispetto alle librerie
standard di “message passing”), possibilmente con memoria condivisa fra i
processori nonché la disponibilità di un file system parallelo ed efficiente;
b.
per
la classe di tipo 2 è sufficiente avere un numero elevato di processori a
disposizione con una rete di interconnessione sufficiente a non rallentare la
fase di raccolta dati fra gruppi di elaborazioni indipendenti;
c.
per
la classe di tipo 3 è dominante l’architettura del sistema globale, in quanto
quello che si richiede è la possibilità di sottomettere un numero elevato di
programmi in contemporanea. In questo caso quindi un’architettura che consenta
di lanciare lo stesso programma in modalità multipiattaforma e che renda
disponibili tutte le risorse a livello geografico è l’ideale. In questo caso un
notevole valore aggiunto è la disponibilità di un file system geografico.
L’infrastruttura che si vuole realizzare in questo progetto
non è quindi una singola piattaforma di supercalcolo, ma un sistema globale,
comprendente anche una piattaforma di supercalcolo integrata in architettura
Grid, in grado di rispondere automaticamente alle varie richieste di servizio.
In particolare il sistema sarà dotato di un granularità di piattaforme
eterogenee, che vanno dal singolo nodo di calcolo al supercalcolatore di grande
dimensione in grado di affrontare efficacemente tutte le classi di problemi
esaminate.
Inoltre l’infrastruttura al suo attuale stato di
implementazione già integra sia strumenti di misura (ad es. un microscopio
elettronico) che sistemi di visualizzazione tridimensionali; questi ultimi sono
già presenti in sei centri ENEA.
L’obiettivo finale che si vuole raggiungere è fornire al
ricercatore un sistema integrato che va dalla facility sperimentale, ai modelli
di calcolo con relativi strumenti per l’elaborazione e visualizzazione dei dati
da esso ottenuti.
Fig
10 Schema concettuale dell’architettura di GRID
La disposizione degli spazi dedicati ad alloggiare il sistema e le infrastrutture di servizio, nonché ad ospitare il personale coinvolto nella gestione e nell’accesso locale è illustrata schematicamente nella Fig. 3 della Sezione 2.3. Sono poi disponibili, a corredo dell’infrastruttura, una sala conferenza dotata di servizi multimediali, una sala di grafica dotata di un sistema di proiezione 3D e sistemi per la didattica. Il sistema sarà connesso direttamente al centro stella (in Gbit) del centro ENEA di Portici tramite il quale può essere integrato con connessione a larga banda nell’architettura GRID dell’ENEA. In questo quadro vengono delineati i principali componenti dell’infrastruttura.
L’infrastruttura che si vuole sviluppare sarà costituita dai seguenti elementi fondamentali:
· un sistema di supercalcolo con una un’architettura interna di tipo SMP o di integrazioni di nodi SMP ed una rete di interconnessione estremamente efficiente. I nodi devono avere la peculiarità di poter montare degli acceleratori ( Field Programmable Gate Arrays, FPGA ) sui quali saranno sviluppate delle librerie dedicate. Le dimensioni del sistema, considerando lo stato attuale dell’arte, saranno dell’ordine di 3-4 TFlops, ovvero il massimo compatibile con l’impegno economico previsto. Per quanto esposto precedentemente l’evoluzione tecnologica impone estrema prudenza nella scelta dell’architettura ed in particolare va posta estrema attenzione al tempo di installazione rispetto al tempo in cui il sistema viene utilizzato a pieno. Pertanto si propone una pianificazione di acquisto graduale e proporzionale alla capacità di utilizzo con lo scopo di avere al termine del progetto un sistema all’inizio della sua vita funzionale.
· Un sistema di storage SAN (Storage Area Network) di ultima generazione collegato in fibra ottica con la rete di interconnessione dei nodi. La capacita di storage che si prevede connessa direttamente al sistema sarà almeno di 20 TB. Saranno effettuati dei test per la scelta al fine di confrontare le caratteristiche hardware e software dei file systems e del sistema SAN. La scelta di questo componente è estremamente importante in quanto la velocità di accesso ai dati è parte integrante della velocità globale del sistema verso l’applicazione finale.
· Un sistema di backup connesso alla SAN tramite un link in fibra ottica dotato del suo server ed hardware di storage. Questo componente sarà scelto in relazione alle esperienze gia presenti in ENEA e mantenendo la massima compatibilità con i sistemi esistenti. In questa fase si prevede una capacità iniziale di storage dell’ordine di 20 TB in linea.
· Impiantistica di servizio indispensabili per tali sistemi, ovvero gruppi di continuità, condizionamento, antincendio, pavimenti flottanti e tutti gli accessori necessari al funzionamento ottimale ed al rispetto delle normative di sicurezza in materia.
I.1.2 Caratteristiche del sistema di
networking e sicurezza; suo inserimento nel contesto ENEA
Elemento sottostante al sistema integrato di calcolo indicato è l'infrastruttura tecnologica di rete che nei sui diversi componenti funzionali renderà il sistema stesso fruibile ovunque ed in sicurezza.
L'attuale architettura di rete di cui si è dotato
l'ENEA (rete ENET) da un lato si integra strettamente con
l
Fig. 11 Rete
ENET – Dicembre 2004
In tale ambito l'obiettivo del progetto sarà quello di arricchire e potenziare le connessioni dei poli interessati (Portici, Brindisi e Trisaia) verso la rete nazionale, proporzionalmente con quanto richiesto dalla localizzazione delle risorse di calcolo e grafica. Contemporaneamente nelle reti locali, che già aderiscono ad un modello comune di rete switched con dorsali ad 1 Gbps, verranno potenziate, adeguatamente configurate e protette le sottoreti relative ai sistemi asserviti al progetto in modo da costituire un’insieme di nodi virtualmente unico ed ad alta velocità (10 Gbps sulla dorsale ed 1 Gbps sul singolo nodo). Dovranno essere contemporaneamente potenziati i sistemi di sicurezza perimetrale e di prevenzione delle intrusioni per evitare che, in presenza di un previsto aumento di traffico di rete, tali dispositivi possano presentarsi come colli di bottiglia prestazionali e punti unici di criticità del sistema. Infine, per garantire gli adeguati livelli di servizio degli applicativi, verranno applicate le necessarie politiche di Qualità di Servizio relativamente agli apparati di routing e switching interessati e, ove necessario, si farà ricorso a soluzioni che prevedono di riservare adeguate bande trasmissive a specifici applicativi (ad es.: grafica 3D in tempo reale). L’intera infrastruttura di rete verrà tenuta costantemente sotto controllo con un sistema di monitoraggio, integrato col resto della rete ENET, in grado di segnalare tempestivamente malfunzionamenti anche premonitori di interruzioni di servizio; lo stesso sistema potrà correlare gli eventi in corso in modo da consentire una più rapida analisi dello stato della connettività. Tutti gli interventi infrastrutturali previsti avranno quindi come obiettivo non solo quello di fornire le capacità trasmissive attese dall’intero sistema, ma anche quello di garantirne la disponibilità nel tempo in un regime di adeguata sicurezza.
I.1.4 Integrazione di sistemi HPC in ENEA-GRID
L'esperienza già acquisita nell'inserimento di risorse multipiattaforma nella architettura ENEA-GRID, insieme alla scelta di componenti affidabili e capaci di fornire un servizio a livello di produzione, garantisce il successo dell'integrazione della nuova infrastruttura HPC all'interno di ENEA-GRID, permettendo un salto di qualità nel livello di prestazioni disponibili e nel contempo la loro fruibilità ad un ampio parco di utenza.
La tecnologia attualmente usata in ENEA è basata sulla condivisione a livello geografico del file system visto da tutte le risorse di calcolo. Questo metodo che rende completamente trasparente l’accesso ai dati ha una limitazione legata alla velocità di acceso ai dati. La velocità di accesso ai dati dipende essenzialmente da due fattori:
· il primo, di tipo geografico, tiene conto della distanza tra il sistema di memorizzazione e quello di elaborazione;
· l’altro è peculiare dell’architettura file system geografico utilizzato in ENEA.
L’integrazione di un sistema di calcolo della potenza di 4-5 Tflops in un sistema GRID richiede la soluzione di ambedue i problemi. Dalle analisi effettuate si sono individuate due strade, non alternative l’una rispetto all’altra, percorribili:
· la prima riguarda l’accelerazione di del file system introducendo dei meccanismi che riducono i tempi di richiesta ai Data Base che gestiscono le informazioni; questo risolve il problema del rallentamento geografico ma non può raggiungere le velocità necessarie ad alcuni applicativi che fanno largo uso di I/O locale;
· questo secondo aspetto può essere risolto integrando un file sistem geografico con un file system locale possibilmente parallelo.
L’integrazione efficiente di queste due tecnologie riveste oggi aspetti di ricerca e sviluppo. Lo stato attuale dell’arte, per l’utilizzo di grandi infrastrutture di calcolo, prevede tipicamente il trasferimento sul file system locale del supercalcolatore di tutti i file necessari all’elaborazione, ed la successiva restituzione dei risultati. La modalità integrata di file system geografico e locale, visto come un’unica entità, apre la strada anche a quella che sarà la successiva restituzione su apparati per la visualizzazione tridimensionale immersiva locale e remota.
SP I.2
Sviluppo ed integrazione dell’architettura GRID e di grafica 3D
In questa linea di
attività è previsto lo sviluppo di tool innovativi in grado di proiettare
l’utilizzo del GRID verso
Il progetto prevede anche la
sperimentazione dell’integrazione del supercalcolatore ENEA con i
supercalcolatori installati presso il centro “Computing and Computational
Sciences Directorate (CCSD )” dei laboratori Oak Ridge National Lab (ORNL) USA.
I.2.1 Integrazione ENEA-GRID con altre architetture
di GRID computing
La scelta architetturale nella realizzazione di ENEA-GRID è stata basata sul criterio di utilizzare componenti maturi, sia in ambito proprietario che in ambito OpenSource, al fine di fornire funzionalità caratteristiche delle infrastrutture dedicate al calcolo in griglia ed allo stesso tempo di garantire una qualità di servizio a livello di sistema di produzione.
Con tale approccio sono stati scelti come componenti di middleware il file sistem distribuito AFS, il gestore di risorse LSF Multicluster ed una infrastruttura di accesso remoto basato su Citrix Metaframe. Questo approccio è diverso quindi da quello basato su middleware come Globus, nelle sue varie versioni, ed in generale in quello adottato in molti progetti di GRID computing. ENEA ha partecipato e partecipa ad alcuni di essi come il progetto europeo Datagrid (concluso inizio 2004), EGEE (inizio aprile 2004 WP. SA1) ed al progetto italiano GRID.IT in cui è stato coinvolto nella implementazione relativa al Work Package 13, dedicato alla chimica computazionale. La partecipazione di ENEA in tali progetti ha come obbiettivo la realizzazione di modalità che garantiscano l'interoperabilità tra architetture di griglia e si è concretizzata nella realizzazione di componenti gateway, capaci di interfacciare i protocolli e le modalità di operazione di altre griglie con i componenti caratteristici di ENEA-GRID.
Nella partecipazione al progetto Datagrid la collaborazione con il laboratorio ESRIN (Frascati) dell’ ESA ha permesso di realizzare sul sito di ESRIN un sistema gateway capace di sottomettere eleborazioni tramite il middleware di datagrid verso il sistema di calcolo ENEA-GRID e tale gateway è stato utilizzato per l'analisi di dati satellitari dell'esperimento GOME dedicato alla misura dei livelli di Ozono.
Nella partecipazione al WP 13 di GRID.IT l'attività in ENEA si è concretizzata nella realizzazione di un gateway, questa volta localizzato al centro di Ricerche ENEA Frascati, tramite il quale è possibile utilizzare il middleware scelto dal WL13 (Globus 3.2), per la sottomissione di job e per il trasferimento di dati verso l'infrastruttura ENEA-GRID. In tale attività sono stati risolti i problemi relativi alle diverse metodologie di autentificazione esistenti tra le due architetture (Kerberos per AFS e certificati X509 per Globus). L'insieme delle funzionalità richieste dal WP13 e realizzate nel gateway, costituiscono comunque un sottoinsieme delle possibilità offerte da Globus 3.2.
Nella partecipazione al progetto EGEE, attualmente in corso di realizzazione, l'obiettivo è di nuovo la realizzazione del massimo delle funzionalità ottenibili da un sistema di gateway, sfruttando le conoscenze ottenute nei progetti precedenti. In tale prospettiva è comunque in corso di installazione su qualcuno tra i sistemi disponibili in ENEA-GRID del middleware originale di EGEE, attualmente giunto alla versione LCG 2.3.
In questo ambito si vuole
sviluppare un tool generalizzato in grado di rendere interoperabili due GRID
basate su protocolli noti attraverso un gateway. La disponibilità di un tool di
questo tipo rende possibile lo sviluppo di middleware di più alto livello, che
fornisca servizi di accesso a risorse appartenenti a GRID diverse. Si ritiene
che questo approccio costituisca il primo passo per realizzare dei servizi che
vanno verso
Un secondo aspetto che si
vuole indagare riguarda il collegamento dinamico di una risorsa ad un sistema
GRID. Lo stato attuale delle tecnologie
impone che le macchine che vogliono partecipare ad un servizio GRID debbano
essere installate e mantenute operative con i servizi GRID attivi. In
particolare le risorse devono essere dichiarate ai Data Base che gestiscono lo
stato delle risorse e devono mantenere sempre il contatto con essi. Questa
condizione non è sempre tollerata. In particolare, se si dispone di dati
sensibili e riservati, si desidererebbe connettersi alla potenza di calcolo
necessaria a risolvere il proprio problema, rendere accessibile, in modo
dinamico, tutto il patrimonio delle informazioni necessarie all’elaborazione
dei propri dati sul sistema di calcolo, ma senza trasferirli su di esso, e scollegarsi al termine dell’elaborazione.
L’implementazione di una funzionalità di questo tipo comporta la ricerca e lo
sviluppo di nuove funzionalità legate all’allocazione dinamica di file system
geografici. Partendo dall’implementazione ENEA che è tipicamente statica, si
vogliono sperimentare delle tecniche atte a realizzare queste nuove
funzionalità.
I.2.2 Tools per l’utilizzo di sistemi di Grafica Virtuale ed immersiva con
sistemi di supercalcolo remoto e per il lavoro cooperativo a livello geografico
L’utilizzo di strumenti di calcolo
intensivo richiede sistemi di visualizzazione adeguati al fine di rendere
efficace l’elaborazione e l’interpretazione dei risultati ottenuti. A questo scopo
l’ENEA si è dotato in ogni centro di sistemi di visualizzazione tridimensionale
immersiva integrati nel sistema GRID. Tali sistemi saranno messi a disposizione
ed integrati con l’infrastruttura che si vuole realizzare. In particolare si
potenzieranno le funzionalità di fruizione da parte dell’utente remoto. Le
azioni che si intendono sperimentare affrontano seguenti tematiche :
a)
la
visualizzazione remota 3D con motori di calcolo in rete;
b)
lavoro
collaborativo in ambiente 3D.
a) Le attività odierne nel campo
della grafica utilizzano pesantemente i sistemi di processing e rendering.
Questi vengono svolti da sistemi dislocati all’interno dei centri di calcolo,
distribuiti sul territorio. Fornire ogni
utente di questi sistemi comporta un costo notevole sia in termini economici
che di risorse per la gestione.
L’obiettivo che ci si propone è la
possibilità di eseguire in remoto i calcoli necessari alla visualizzazione dei
propri dati, e di utilizzare, per la visualizzazione qualunque dispositivo
presente in rete (si veda fig. 12), dal sistema 3D, alla workstation locale, al
personal computer, fino al portatile o PDA. Per conseguire tale obiettivo
saranno sviluppati strumenti di allocazione dinamica della banda, compressione
dati e tecniche client-server.
Fig. 12 Architettura
concettuale
b) Il secondo aspetto che
si vuole trattare è sperimentare tools che, utilizzando gli sviluppi del punto
precedente, effettuino la visualizzazione della stessa scena grafica in maniera
contemporanea sui diversi sistemi di visualizzazione 3D disponibili presso i
centri ENEA.
Fig. 13 Visualizzatori 3D
presenti in ENEA GRID
Fig. 14 Schema concettuale
del lavoro collaborativi 3D
I.2.3 Integrazione del controllo
remoto di un microscopio TEM mediante visualizzazione integrata in tempo reale
dei differenti aspetti legati alla determinazione delle caratteristiche locali
del campione attraverso immagini e mappature ad elevata risoluzione spaziale.
E’ in corso presso i laboratori ENEA
di Brindisi una attività che si pone come obiettivo la gestione remota di
strumentazione complessa con lo scopo di favorire processi di collaborazione
scientifica e di condividere con utenti esterni i costi di gestione attraverso
la ottimizzazione delle condizioni di accesso e di utilizzo. In particolare,
attualmente le attività sono concentrate sulla possibilità di gestire via rete
un moderno microscopio elettronico in trasmissione corredato di sorgente ad
alta brillanza ed una completa dotazione di accessori analitici. Il progetto si
basa su di un microscopio FEI Tecnai G2
Gli aspetti fondamentali del
progetto per quanto riguarda le esigenze di natura computazionale sono due.
Il primo riguarda l’ottimizzazione
della gestione remota via rete dello strumento. A tal fine occorre precisare
che lo strumento fornisce output attraverso differenti canali che comprendono
telecamere ambientali, telecamere CCD embedded nello strumento, stringhe di
dati da differenti detector, la cui sequenza temporale consente di ricostruire
immagini multiple, con la logica dei dispositivi di scansione, e spettri le cui
caratteristiche vanno registrate in accoppiata con informazioni di carattere
spaziale; ciò consente di elaborare successivamente mappature ad elevata
risoluzione spaziale delle differenti caratteristiche chimiche e strutturali
del preparato. Per una corretta impostazione dello strumento e per la
conseguente realizzazione in tempo reale di osservazioni occorre che
l’operatore remoto abbia accesso a tutte le informazioni disponibili in tempi
confrontabili con quanto consentito all’ operatore presente sul sito. A tal
fine occorre integrare la gestione del microscopio con un sistema per la
visualizzazione remota di una ampia tipologia di immagini e spettri rendendo
disponibili in tempo reale su un file system geografico ad accesso diretto
tutti i canali di uscita di cui è dotato lo strumento. Inoltre il software di
gestione remota deve consentire la regolazione dei parametri operativi dello
strumento, i cui comandi meccanici sono già opportunamente motorizzati, nonché
dei parametri di acquisizione sulle videocamere. Infatti, per una gestione
ottimale delle procedure di allineamento e di quelle di osservazione del
preparato, è necessario che la qualità delle immagini trasmesse sia del tutto
confrontabile con l’ osservazione ottica diretta. A tal fine sarà necessario l’
impiego di sensori ad altissima dinamica con controllo diretto del guadagno.
La disponibilità della rete a larga
banda e la disponibilità di sistemi di calcolo parallelo rende possibile il
rendering delle immagini ad alta velocità, con le caratteristiche di qualità
richieste.
Il secondo aspetto è legato alla
notevole mole di dati che lo strumento è in grado di generare durante una
osservazione, alla loro unicità, intesa come set integrato, legato alla
ridottissima dimensione della zona osservata ed alla loro labilità dovuta al
danneggiamento da parte del fascio elettronico primario che molto spesso
accompagna l’ osservazione medesima. Un moderno approccio alla strategia di
analisi deve quindi prevedere la registrazione del maggior numero di dati
possibili durante una osservazione indipendentemente da quanto richiesto
dall’operatore al momento per poter poi integrare i risultati con una analisi
off-line di questi dati. Come prima accennato, tutti i dati di carattere
spettrale che contengono le informazioni sulla chimica e sulla struttura locale
devono essere accoppiati ad informazioni di tipo spaziale in quanto l’
informazione integrata è fornita, in ultima analisi, dalla rappresentazione
nello spazio, attualmente bidimensionale, ma estendibile alla terza dimensione
attraverso tecniche tomografiche, di informazioni di caratteristiche chimiche e
strutturali. L’ amplissimo spettro di informazioni spettrali disponibili
richiede la costruzione e la gestione di spazi di informazione
multidimensionali in cui ad ogni punto immagine siano associati tutti i dati
analitici disponibili. Inoltre, tali dati non sono sempre gestibili come acquisiti
ma necessitano di una elaborazione integrata soprattutto per quanto riguarda
l’estrazione del massimo contenuto informativo di dati soggetti a rumore di
carattere statistico. Infatti le efficienze di raccolta dei vari canali
analitici possono variare di ordini di grandezza e le velocità di acquisizione
sono spesso limitate dalla stabilità del preparato sotto irraggiamento o dalla
deriva meccanica del sistema, oltre che dalle priorità stabilite dall’
operatore al momento dell’ acquisizione.
Fig 15 Struttura concettuale dell’architettura di
remotizzazione del TEM
La disponibilità di dati digitali e
l’ accesso veloce al file system (v. Fig. 15) permetterà quindi di sviluppare
metodi di analisi off line che da una parte limitino le necessità di accesso
operativo al sistema e dall’ altra valorizzino le procedure di integrazione della raccolta dei dati
sperimentali, consentendo inoltre di affrontare il problema della catalogazione
automatica delle immagini eventualmente associabile a codici di riconoscimento
automatico di caratteristiche peculiari dell’ immagine che siano di supporto
alla interpretazione dei risultati soprattutto per operatori di limitata
esperienza, contribuendo quindi ad allargare il potenziale spettro di utenza.
I.2.4 Analisi e Realizzazione di Tool innovativi a
supporto delle funzionalità GRID
Analisi del contesto, attività
del task e risultati attesi
L’obiettivo delle reti GRID è
l’aggregazione di un vasto insieme di risorse condivise, finalizzato alla
costituzione di un ambiente efficiente e con alte prestazioni per applicazioni
computing-and-data–intensive. Tuttavia, le reti computazionali rappresentano un
largo e complesso aggregato di domini eterogenei e pertanto richiedono
un’oculata pianificazione dell’utilizzo delle risorse disponibili e la
definizione di opportune strategie per la distribuzione delle elaborazioni.
Solo una fase di analisi preventiva consentirebbe il raggiungimento di garanzie
prestazionali sufficienti, altrimenti difficilmente controllabili in anticipo
dai grid architect. Una soluzione efficace è offerta dagli emergenti modelli di
comunicazione e di computing distribuito oggetto, negli ultimi tempi, di
numerose ricerche accademiche. Essi si affidano al concetto di risorse
paritetiche distribuite, rinunciando in tal modo a qualunque elemento di
gestione centralizzata. Sistemi di questo tipo, ovviamente, richiedono di
essere adattativi, autoconfiguranti, autonomi ed automatici, sollevando così
utenti ed amministratori della rete dalla necessità di possedere una
dettagliata conoscenza del sistema complessivo. D’altra parte con sistemi
altamente eterogenei sarebbe abbastanza improponibile per un attore avere
completa conoscenza e controllo dell’intero ambiente.
Nelle reti GRID le risorse possono
essere di varia natura, computer, supporti di memorizzazione dati, sensori,
applicazioni software e dati, tutti interconnessi attraverso Internet mediante
un middleware che garantisce alcuni importanti servizi di supporto di base, al
fine di gestirne caratteristiche quali la sicurezza, il monitoraggio,
l’accounting. Le risorse sono mantenute da differenti organizzazioni
amministrative, le Virtual Organization, e condivise attraverso
policy locali che individuano sia le risorse condivise, sia le condizioni sotto
le quali tali condivisioni debbano ritenersi valide. Per le reti di calcolo
distribuite ed in particolar modo per un ambiente GRID, disporre di strumenti per la gestione
ed il controllo dei sistemi appare come una delle necessità primarie
soprattutto in relazione alla complessità, alla eterogeneità ed alla vastità
dell’infrastruttura. In particolare l’obiettivo realizzativo intende affrontare
tre problematiche su cui ancora non si è arrivati ad una risposta definitiva
sul piano operativo e sulle quali è molto attiva la comunità scientifica con
molteplici proposte di ricerca. Le aree su cui si intende intervenire
riguardano: monitoring, resource
discovering, accounting.
Monitoring
Il termine “monitorino”, definito in
genere come l’insieme di attività per il controllo e l’osservazione di un
sistema, se riferito ad architetture GRID, può essere suscettibile di una
interpretazione molto discutibile rispetto al suo significato usuale. Infatti la complessità dell’infrastruttura
GRID, che si sviluppa come una rete densa di risorse di elaborazione di ogni
tipo, sottoposte per loro natura ad una disponibilità aleatoria nel tempo, rendono il monitoraggio
una prestazione critica. Ciò significa che rispetto alla rilevazione ed al
controllo dei parametri di prestazione di un sistema tradizionale,
l’infrastruttura che garantisce funzionalità quali la misura dei parametri di
funzionamento delle risorse, per analizzarne l’uso, predirne il comportamento,
detenerne e notificarne errori e
malfunzionamenti, deve essere progettata per essere efficiente in tutte
le condizioni di esercizio dei componenti e deve essere predisposta per fornire
informazioni significative in termini di
tempestività e completezza. Nel suo complesso l’attività si pone
l’obiettivo di studiare l’estendibilità e sperimentare l’applicabilità di una
proposta tecnologica per il monitoraggio di griglie computazionali . L’elemento
tecnologico della proposta riguarda un framework, dotato di una struttura
i cui componenti siano preposti ad erogare servizi di: misura,
pubblicazione, raccolta, notifica e presentazione. L’organizzazione del
framework è costituita da servizi. I componenti gestiscono funzionalità stratificate in cui: sul livello
iniziale sono installati opportuni sensori in grado di raccogliere i dati di
misura, secondo un modello informativo che rappresenta diversi indici di
prestazione delle risorse, il secondo livello è quello dove i dati vengono
raccolti per essere distribuiti all’utenza, il terzo livello è costituito da
servizi di ricerca che siano sensibili a fenomeni di attivazione/disattivazione
di risorse, il quarto livello consiste di servizi di rilevazione di eventi e di
attivazione di azioni di intervento, il quinto livello è costituito dalle
funzioni di presentazione dei dati secondo viste personalizzate, dipendenti dal
ruolo e dal tipo di uso.
Resource discovering
In un ambiente eterogeneo come le reti GRID, esistono differenti
classi di risorse computazionali e la loro disponibilità non è assicurata in
nessun nodo della rete. In tale contesto, infatti, una risorsa GRID può essere
hardware, come
Gli utenti richiedono la disponibilità di risorse
caratterizzate da specifiche proprietà, al fine di eseguire su di esse le
proprie applicazioni. In questa ottica, il servizio di discovery si pone
l’obiettivo di individuare le risorse desiderate, dovunque esse siano
localizzate, e di restituire ai richiedenti i nodi della rete sui quali le
risorse stesse risultano disponibili. A causa dell’elevato numero di risorse ed
utenti e della considerevole eterogeneità sia delle tipologie di risorse che di
richieste utente, un classico meccanismo centralizzato rappresenterebbe una
inefficace soluzione al problema della individuazione delle risorse, inficiando
dunque caratteristiche auspicate quali robustezza ed efficienza. Per ciò che concerne
l’efficienza del servizio di resource discovery, infatti, un meccanismo non
distribuito riscontrerebbe evidenti problemi di scalabilità delle performance
della GRID in quanto fungerebbe da collettore delle informazioni raccolte
dall’elevato numero di nodi coinvolti. D’altra parte, per ciò che riguarda la
caratteristica di robustezza, un servizio di resource discovery centralizzato
rappresenterebbe un “single-point of failure” per il processo stesso del
discovery, qualora non fosse stato previsto nella GRID alcun principio di
ridondanza. In tutto lo spettro delle
situazioni, che vanno dalla wide-area GRID al computer cluster, dunque, un
protocollo distribuito può essere adoperato per fornire una caratteristica di
autoorganizzazione. Un ulteriore aspetto di cui tener conto per
l’individuazione di un nuovo ed efficace servizio di discovery è rappresentato
dalla dinamicità della disponibilità delle risorse Grid. Quest’ultima, difatti,
assunta l’intrinseca natura delle risorse considerate, può evolvere nel tempo
in funzione sia dell’allocazione delle risorse e delle richieste utente, sia
dello stato delle stesse. Risulta evidente, dunque, che, al fine di rendere
ottimale il processo di gestione di una rete GRID, il servizio di discovery
delle risorse debba essere dotato di caratteristiche di dinamicità tese, da un
lato, all’ottimizzazione dell’uso dell’ambiente distribuito, garantendo così
un miglior processo di allocazione delle
risorse, dall’altro, al miglioramento della resilienza e della tolleranza ai guasti
della GRID.
Accounting
Tra le funzionalità critiche del
calcolo distribuito e, più in generale, dell’elaborazione on-demand, che
attualmente rappresenta uno dei paradigmi di riferimento per lo sviluppo del
grid computing, c’è la necessità di disporre di un adeguata strategia di
accounting e di una efficiente infrastruttura tecnologica di supporto, che
siano riconosciute e condivise tra le comunità di utenti e i fornitori di
servizi. Tradizionalmente all’interno delle imprese, comunque complesse, il problema
è affrontato secondo schemi che ripropongono, quasi sempre, il modello della
struttura organizzativa costituita da divisioni, sedi, centri di costo,
risorse. Nell’ottica di GRID però tutto questo viene rivisto e rivoluzionato.
Infatti la disponibilità di una rete distribuita per il calcolo e la
distribuzione di servizi spinge verso una revisione dei meccanismi di rilascio
degli stessi, eliminando l’onere di creare in proprio l’infrastruttura per il
loro utilizzo. In questo sistema diventa fondamentale il ruolo degli
intermediari e deve quindi essere sviluppato un nuovo modello di resource
tracking e accountability che non tenga conto solo del consumo di risorse, ma
anche del contributo di chi le rende disponibili e le distribuisce. Per di più
i criteri e gli algoritmi adottati sinora risulterebbero comunque inadeguati
perché poggiano sul concetto di job accounting e quindi sulla visione dell’uso
delle risorse legato ad un unico corpo di richieste elaborative, il job.
L’utilizzo di una rete distribuita è in antitesi col concetto di
aggregato e richiede piuttosto un meccanismo dinamico (real time accounting)
che sappia elaborare il valore del costo mano a mano che le risorse sono
utilizzate. Potenzialmente, il modo in cui le risorse sono assegnate deve
essere di tipo adattativo e quindi i
criteri di calcolo del costo non possono poggiare su alcun tipo di conoscenza a
priori. Ne consegue la necessità di introdurre nell’ architettura GRID una
serie di elementi cosiddetti virtuali.
Le VO, o Virtual Organization, ad
esempio, rappresentano l’elemento che accentra un insieme di risorse di
qualsivoglia tipo; esse sono responsabili di definire le politiche di accesso,
sicurezza e condivisione delle risorse che ad esse affluiscono. Ancora, vengono
definiti i Virtual Account, per cui un utente che avesse temporaneamente
bisogno di una risorsa per un suo job, viene associato temporaneamente ad uno
di questi account, gestiti dalla VO competente che si deve preoccupare e della
registrazione del costo e della trasmissione all’ente incaricato del suo
addebito.
Gli elementi virtuali risultano
indispensabili anche e soprattutto per superare i vincoli legati alla presenza
dei domini e sistemi eterogenei che devono interagire tra loro. Ancora, i
domini di interesse di GRID si stanno espandendo, aggiungendo al supporto per
il calcolo di grosse moli di dati la possibilità di condividere interi ambienti
applicativi, database, file di vario tipo. Ne consegue che deve essere rivisto
anche il concetto stesso di risorsa finora associato principalmente a
componenti hardware quali: CPU, memoria, supporti di memorizzazione, etc.. La
ricerca di un adeguato modello di soluzione a questi problemi è ancora in corso
e richiede la definizione di nuove politiche di assegnazione dei costi, l’applicazione
di nuovi criteri di tariffazione, la progettazione di sistemi per la gestione
dell’accounting e la creazione di nuovi algoritmi per la contabilizzazione dei
consumi.
Semantic & Knowledge GRID
Le attività relativa allo studio,
definizione e sperimentazione dell’infrastruttura GRID presentano diversi
aspetti di innovatività. In particolare tali studi consentiranno la definizione
di una infrastruttura che anticiperà diversi aspetti tipici delle Next
Generation GRID (ftp://ftp.cordis.lu/pub/ist/docs/ngg2_eg_final.pdf)
quali gestione di dati, informazioni e conoscenza (semantic & knowledge
GRID), interoperabilità tra Grid systems diversi. Tale infrastruttura inoltre
presenterà una architettura altamente modulare che permetterà la realizzazione
di GRID systems domain specific includendo la verticalizzazione di determinati
servizi (gestione risorse, orchestrazione, ecc.) per soddisfare le esigenze di
ricerca previste nel progetto ed altre connesse con iniziative future dal
soggetto proponente.
È previsto lo svolgimento delle
attività di seguito riportate.
v
Studio
e definizione dell'architettura software dell'infrastruttura con riferimento
alle Next Generation GRID. In tale ambito saranno studiati gli standards in
corso di definizione nell’ambito dei diversi organismi internazionali quali:
GGF (Global GRID Forum) con particolare riferimento ai research e working group
nelle aree Architecture (OGSA, semantic GRID), Information Systems and performance
e Scheduling e resource Management; OASIS e W3C (per la parte relativa a web
services e semantic web).
v
Studio
e definizione di algoritmi di ottimizzazione in architettura GRID. Tale
attività mirerà alla definizione di algoritmi di ottimizzazione in grado di
sfruttare le capacità e le caratteristiche dell’infrastruttura GRID con
specifico riferimento alle applicazioni il cui sviluppo è previsto nell’ambito
della linea di attività “Sviluppo di
modelli di simulazione ed analisi delle Reti Tecnologiche complesse e delle
loro interdipendenze” successivamente descritta.
v
Realizzazione di un dimostratore relativo agli
algoritmi di ottimizzazione in architettura GRID.
Partner
CRIAI – Consorzio Campano di Ricerca
per l’Informatica e l’Automazione Industriale, Portici (NA)
Università di Salerno – Dipartimento
di Ingegneria dell’Informazione e Matematica Applicata
Università di Roma “Tor Vergata”
SP I.3 Sviluppo ed ottimizzazione di codici applicativi in settori di R&S di
punta
I.3.1 Applicazioni nel campo
della fusione nucleare controllata
Nell'ambito degli studi dedicati allo sviluppo della fusione nucleare controllata rivestono grande importanza le indagini numeriche capaci di individuare le caratteristiche dei fenomeni di instabilità che possono giocare un ruolo fondamentale nella realizzabilità pratica di un ipotetico reattore a fusione.
Nell'ambito delle attività orientate a tal senso all'interno della unità ENEA dedicata alla problematica della fusione controllata è stato sviluppato il codice HMGC (Hybrid Magnetohydrodinamic Gyrokinetic Code) [S. Briguglio, G. Vlad, F. Zonca, F. Fogaccia, Phys. Letters A 302 (2002) 308 e referenze ivi citate].
Nel seguito si mostra come l'accesso a risorse di calcolo significativamente più importanti di quelle attualmente disponibili permetterebbe di aumentare in modo importante la rilevanza delle simulazioni per le applicazioni fisiche di interesse e promuoverebbe lo sviluppo di tecniche numeriche in ambiente di calcolo avanzato geograficamente distribuito.
Codice
HMGC (Hybrid Magnetohydrodinamic Gyrokinetic Code)
Il codice HMGC è un codice "a particelle" per lo
studio della turbolenza nei plasmi confinati magneticamente.
Il codice studia in modo autoconsistente l'evoluzione di una
popolazione di particelle cariche nei campi elettromagnetici fluttuanti,
calcolati, ad ogni istante, sulla base del contributo delle stesse particelle.
Più precisamente, ad ogni passo temporale:
- vengono calcolati, ai vertici di un
reticolo spaziale fisso, opportuni momenti della funzione di distribuzione
delle particelle (es.: densità e corrente);
- vengono risolte le equazioni di
Maxwell, per i campi elettromagnetici ai vertici dello stesso reticolo
spaziale, cui fanno da sorgenti i momenti calcolati al punto precedente;
- i campi vengono interpolati alla
posizione (continua e variabile) di ciascuna particella, in termini di quelli
sui vertici della cella del reticolo in cui la particella si trova;
- la posizione e la velocità di ogni
particella vengono evolute in termini dei campi calcolati al punto precedente
in base alle equazioni del moto.
Le risorse di calcolo
necessarie per un codice di questo tipo dipendono dal livello di risoluzione
con cui si vuol riprodurre la funzione di distribuzione fisica delle particelle
o - detto in altri termini - con cui si vuol discretizzare lo spazio delle fasi
in cui e' definita la stessa funzione di distribuzione.
Nel caso di un plasma confinato magneticamente, lo spazio
delle fasi può essere ridotto a uno spazio 5-D (tre dimensioni spaziali, due
nello spazio delle velocità), dal momento che e' possibile mediare sulla
dinamica veloce della girazione di Larmor, eliminando così una delle coordinate
dello spazio delle velocità. Per ciascuna delle coordinate rilevanti, e'
necessario avere una risoluzione sufficiente a campionare le scale più piccole
di interesse.
Nel caso degli studi eseguiti con HMGC, la turbolenza
considerata è quella associata ai modi di Alfven resi instabili dalle
particelle alfa prodotte dalle reazioni di fusione. Questi studi sono di
particolare rilievo nella ricerca sulla fusione termonucleare controllata, dal
momento che questo tipo di turbolenza
- può provocare, se non controllata
opportunamente, l'espulsione delle particelle a dal plasma e precludere il
raggiungimento delle condizioni di accensione del plasma stesso;
- e' difficile da investigare
empiricamente nell'ambito degli esperimenti esistenti; per essere innescata
richiede infatti una significativa produzione di particelle a, propria delle condizioni reattoristiche
delle macchine di prossima generazione (ITER, in particolare).
E' possibile caratterizzare i modi di Alfven mediante il
numero toroidale n. Si è interessati a studiare modi con numero toroidale
relativamente alto (es.: n=20).
Si può
dimostrare che, nel caso del codice HMGC,
M=0.25 n_ppc n**3 (Megabytes).
In questa espressione n_ppc è il numero di particelle
contenuto, in media, in ogni cella del reticolo spaziale. Corrisponde al
livello di discretizzazione del sottospazio "spazio delle velocità".
Dal momento che questo sottospazio ha due dimensioni, e che un numero
ragionevole di punti per campionare ciascuna di queste dimensioni deve essere
> 10, dovremo avere n_ppc > 100.
Sarà così, per n=20,
M = 2 10**5 Megabytes.
In mancanza di risorse di questo genere, si dovrà ripiegare
su studi relativi a valori di n e/o n_ppc più bassi. Nel primo caso si perderà
informazione su una porzione rilevante della fenomenologia; nel secondo si
otterranno risultati più imprecisi (affetti da un alto livello di rumore
numerico).
Un codice come HMGC si presta ad essere parallelizzato in
modo molto efficiente. In prima approssimazione si può pensare di ripartire il
reticolo spaziale fisso in porzioni da assegnare ai diversi processori
disponibili (ciascuna porzione di dimensione adeguata al processore, in caso di
processori sbilanciati). Le particelle che si trovano in una data porzione del
reticolo saranno gestite dal processore che possiede quella porzione.
HMGC è stato, di fatto, parallelizzato utilizzando un metodo
gerarchico per una ripartizione dei carichi tra nodi multi-processore, che fa
uso di librerie MPI (a livello internodale) e
Open-MP (a livello intranodale).
Se n_nodi è il numero di nodi (bilanciati; ciascuno dotato
di RAM pari a M_0) tra i quali viene ripartito il carico, si puo' ricavare il
valore di n massimo investigabile (n_max) dall'espressione
n_max= (4. M_0 n_nodi/n_ppc)**(1/3)
Così, ad esempio, se M_0= 1 Gygabite, n_nodi=100, n_ppc=100,
n_max=16.
Al momento, il codice viene fatto girare, in genere, su IBM
SP4 a 32 processori, con 32 Gygabites di RAM condivisa. In queste condizioni
(nota: si utilizza solo la parallelizzazione intranodale), si ha M_0=32 Gygabites,
n_nodi=1. Dall'espressione per n_max si ottiene quindi approssimativamente
n_max=11.
Di per sé, valori più alti di n_max (corrispondenti ad una
più alta risoluzione spaziale) potrebbero essere ovviamente ottenuti a spese
della risoluzione nello spazio delle velocità - vale a dire, scegliendo un
valore di n_ppc più basso. Ad esempio, n_max=20 potrebbe essere ottenuto con
n_ppc=16, che equivale a un campionamento di ciascuna dimensione nello spazio
delle velocità con soli 4 punti.
Aspetti Innovativi
Nelle situazioni concrete, però, la scelta di valori così
bassi di n_ppc è spesso forzata, piuttosto che dall'obiettivo di studiare casi
con alto valore di n, dal fatto che solo un numero ridotto di processori della
SP4 e' disponibile, o dalla necessità di ottenere i risultati delle simulazioni
in tempi ragionevolmente brevi.
Oltre alla possibilità di eseguire, col codice HMGC,
simulazioni significative ed accurate per lo studio dei modi di Alfven, la disponibilità
di sistemi di calcolo ad alte prestazioni permetterebbe la piena utilizzazione
di un codice avanzato di simulazione a particelle, attualmente in fase di
sviluppo. Il codice ha una struttura simile a quella di HMGC, ma e' fondato su
un modello fisico assai più ricco. Consentirà, cioè, di analizzare in modo
compiuto
1)
il
comportamento dei modi di Alfven in geometrie di plasma esattamente
corrispondenti a quelle effettivamente realizzate negli esperimenti esistenti o
programmate per quelli futuri;
2)
l'effetto,
sulla turbolenza, di valori realistici (non fittiziamente bassi) del rapporto,
nel plasma, tra pressione cinetica e pressione magnetica;
3)
l'effetto
della girazione di Larmor sull'interazione tra campi elettromagnetici e
particelle a.
La possibilità di evitare, riguardo a questi punti, l'uso di
approssimazioni non adeguatamente giustificate permetterà di ottenere risultati
affidabili, non solo sul piano qualitativo, ma anche su quello quantitativo.
Questo miglioramento, necessario per dare al codice di
simulazione una adeguata capacità predittiva, è pagato in termini di risorse
occorrenti: a parità di risoluzione desiderata, queste risulteranno essere
superiori a quelle sopra descritte, per almeno un ordine di grandezza.
Occorre pertanto, per un verso, dotarsi di risorse
computazionali di ultima generazione; per l'altro, utilizzare appieno le
risorse di calcolo esistenti, anche quando tra le prime e le seconde possa
esservi disomogeneità della potenza di calcolo e/o distanza geografica.
Fasi dell’attività
L'attività da sviluppare, riguardo al tema qui descritto,
nell'ambito del progetto dovrebbe quindi articolarsi nelle seguenti fasi:
1.
porting
del codice esistente (HMGC) su architettura parallela a memoria distribuita e/o
condivisa, caratterizzate da nodi computazionali non omogenei e geograficamente
distanti;
2.
completamento
del codice avanzato, e analogo porting su achitettura parallela;
3.
produzione
dei risultati di interesse per la fisica dei plasmi confinati magneticamente,
con riferimento specifico alle condizioni che saranno realizzate negli
esperimenti di prossima generazione (es.: ITER).
Si noti che la fase 1 richiederà un uso avanzato delle
potenzialità dell'architettura di griglia computazionale, dal momento che avrà
come obiettivo l'effettiva distribuzione di calcolo non banalmente parallelo, e
non il mero accesso a strutture di dati distribuite.
Data, poi, la complessità del codice avanzato, il
completamento della fase 1 dovrà essere considerato propedeutico all'attività
di porting di tale codice prevista nella fase 2.
La fase 3 potrà comportare l'utilizzo di entrambi i codici,
e potrà, quindi, essere in parte avviata già al termine della fase 1.
I.3.2 Sviluppo di modelli numerici avanzati per la simulazione dei fenomeni
fisico-chimici nei processi di gassificazione di combustibili fossili
Tematica trattata
L’obiettivo finale dell’attività è
lo sviluppo di modelli numerici avanzati per la simulazione dei fenomeni
fisico-chimici nei processi di gassificazione di combustibili fossili per la
produzione di combustibili gassosi ad alto tenore di H2 e nei
processi di combustione turbolenta di tali combustibili in impianti avanzati di
produzione di energia elettrica. L’importanza della ricerca proposta è
funzionale alle scelte energetiche nazionali ed internazionali volte a
soddisfare una domanda di energia sempre crescente a fronte delle previsioni di
esaurimento delle risorse fossili liquide e gassose, sviluppando tecnologie in
grado di impiegare i combustibili fossili in maniera ‘pulita’, cioè limitando
fortemente le emissioni macro e micro inquinanti e le emissioni di CO2.
Vi è un sostanziale accordo mondiale nel ritenere che ci troviamo di fronte a
cambiamenti climatici globali che sono legati all’aumento della concentrazione
dei gas serra in atmosfera, incrementando l’effetto serra naturale. L’anidride
carbonica è il più importante dei gas serra, e la sua concentrazione è in
continua crescita a partire dalla rivoluzione industriale. La domanda di
energia primaria nel mondo è in continua ascesa: le previsioni della IEA fino
al 2030 mostrano che la richiesta di gas naturale cresce più di tutte le altre
fonti in termini assoluti, mentre le rinnovabili - con esclusione
dell'idraulica - crescono più delle altre in termini %; in ogni caso il
petrolio rimane la fonte dominante. La conseguenza è una crescita continua
delle emissioni di CO2 in atmosfera, con un tasso previsto dell'1.8%
annuo ed un incremento del 70% rispetto alle emissioni del 2000, pari a 38
miliardi di tonnellate nel 2030. La combustione di fossili è la principale
causa di produzione di CO2. E’ evidente, dunque, la necessità di
politiche energetiche globali atte ad assicurare consistenti riduzioni nella
produzione di CO2, senza penalizzare lo sviluppo economico e
industriale che nei prossimi decenni dipenderà ancora dalle fonti fossili.
A tal fine è necessario un
insieme di misure volte ad un incremento della efficienza, sia nella produzione
che nell’uso dell’energia, ad un incremento dell’uso di fonti rinnovabili e ad
un impiego pulito delle fonti fossili, compresa la cattura e neutralizzazione
definitiva della CO2, sviluppando tecnologie per l’impiego pulito di
combustibili fossili (CCS; Carbon Capture and Storage). Nel 2000 quasi i ¾
dell'energia elettrica richiesta in Italia sono stati prodotti in Italia con
combustibili fossili, sostanzialmente mediante centrali termoelettriche di tipo
tradizionale con ciclo a vapore a condensazione. L'uso dell'olio combustibile,
anche se complessivamente in diminuzione, è stato ancora rilevante.
Gli scenari futuri per la generazione elettrica da
combustibili fossili prevedono un crescente ricorso al gas naturale come
elemento chiave per il miglioramento compatibilità ambientale. Anche per questa
fonte, comunque, esistono problemi di criticità di approvvigionamento e di
dinamica dei prezzi. In questo quadro si inseriscono le iniziative per
l'utilizzo più efficiente e pulito del carbone, che vedono un grande interesse
della industria europea che considerano tale opzione essenziale per la
competitività sui mercati mondiali. A livello mondiale il ricorso al carbone è
oggi rilevante, e non si prevede un sostanziale mutamento nel futuro immediato
e più lontano: gli USA continuano a puntare su tale fonte, seppure con un
fenomenale impegno volto allo sviluppo di tecnologie pulite, così come i Paesi
del terzo Mondo e le economie in fase di sviluppo - Cina in testa. Il carbone è
comunque una fonte da valorizzare, per le sue caratteristiche di ampia
disponibilità nel tempo (riserve stimate per 300 – 400 anni) e sicurezza di
approviggionamento (ridotti rischi geopolitici). La condizione perché ciò accada sta nello sviluppo di
tecnologie pulite (CCT = Clean Coal Technologies) tali, cioè, da garantire
limiti sempre più bassi - tendenzialmente zero - delle emissioni di macro e
micro inquinanti (ossidi di zolfo e azoto, particolato specialmente quello di
granulometria più bassa, metalli pesanti, composti clorurati, ecc..) Si fa,
oggi, riferimento a tre categorie impiantistiche che vengono elencate in ordine
decrescente rispetto alla maturità tecnologica:
a) impianti termoelettrici
supercritici (SC) e ultra supercritici (USC);
b) impianti
IGCC (Integrated Gasification Combined Cycles);
c) impianti
di gassificazione del carbone con sequestrazione (=separazione + stoccaggio definitivo)
della CO2.
L’obiettivo strategico è rivolto alla terza tipologia
d’impianto, che rappresenta la più valida soluzione per garantire ed accelerare
la transizione verso l’economia basata sull’idrogeno: il processo di
gassificazione del carbone con CO2 Capture and Storage sembra oggi
quello più promettente nel lungo periodo, secondo le valutazioni della IEA sui
costi di produzione dell’idrogeno. Coerentemente con questo obiettivo
strategico, l’ENEA è impegnato nel progetto TEPSI, un progetto proposto da ENEA
e finanziato dal MIUR nell’ambito del PNR - Fondo Integrativo Speciale per
In questo
quadro è quindi di particolare interesse avviare un attività di modellistica e
simulazione ad alte prestazioni che consentirà di validare i modelli sviluppati
con i dati sperimentali provenienti dall’impianto ZECOMIX e residenti su basi
di dati accessibili sulla GRID ENEA.
Aspetti
innovativi
In
generale il processo di gassificazione consiste nella parziale ossidazione, non
catalitica, di una sostanza solida, che ha l’obiettivo finale di produrre un
combustibile gassoso di sintesi, syngas,
costituito essenzialmente da una miscela di idrogeno, ossido di carbonio
e da idrocarburi leggeri come il metano. Il syngas deve essere poi trattato per
una sua purificazione (eliminazione di ceneri, ossidi di zolfo, ossidi di
azoto, etc.) e per la separazione dell’idrogeno dalla CO2. Tali
processi sono profondamente influenzati sia dalla tecnologia di gassificazione
sia dalla composizione del combustibile.
L’idrogeno così ottenuto può quindi essere utilizzato quale combustibile
pulito ad emissioni ‘zero’, mentre
Per molti
anni gli studi di fluidodinamica computazionale (CFD) di flussi di interesse
industriale sono stati basati, e lo sono ancora, su approcci che non consentono
lo studio accurato di fenomeni non stazionari. D’altra parte un approccio
basato sulla soluzione diretta dell’equazione di Navier-Stokes (approccio DNS)
non risulta fattibile quando si deve affrontare lo studio di flussi molto
complessi in geometrie di interesse industriale, sia per le ancora enormi
risorse computazionali necessarie, sia per la difficoltà di analisi e gestione
dell’enorme mole di dati prodotti. E’ ormai consolidata la tesi che l’approccio
numerico migliore per poter affrontare questo tipo di problematiche è
sicuramente
L’attività di ricerca che si
intende portare avanti riguarda quindi lo sviluppo della modellistica
fluidodinamica e chimica relativa al processo di gassificazione di combustibili
fossili e al processo di combustione di H2 con approccio LES.
Fasi di attività
1. Sviluppo di modelli per la
caratterizzazione del processo di gassificazione
L’attività prevede lo
sviluppo di modelli numerici e la loro implementazione software da integrare
nel codice HeaRT al fine di caratterizzare la composizione del gas prodotto. In
particolare sarà necessario:
-
Sviluppare opportune Boundary Condition per il
trattamento di pareti dove avvengono reazioni di tipo superficiale;
-
Definire schemi cinetici appropriati per le reazioni
solido-gas;
-
Sviluppare modelli di interazione turbolenza-chimica
da attivare in corrispondenza di superfici reattive.
2. Sviluppo di modelli per lo
studio di condizioni di instabilità nella combustione di H2 o
miscele ad elevato contenuto di H2.
L’obiettivo consiste nello
sviluppare ulteriormente la modellistica fluidodinamica e di combustione del
codice HeaRT ottenendo una nuova release del codice HeaRT ; in particolare si
dovrà:
-
sviluppare un nuovo tipo di ‘reattore’ di sottogriglia
che tenga conto di fenomeni normalmente trascurati ma che a piccola scala
diventano critici per predire più accuratamente la dinamica di fiamma; tali
fenomeni includono, ad esempio, gli scambi diffusivi di massa ed energia e le
perdite di calore attraverso la superficie del ‘reattore’ (sistema aperto e non
adiabatico);
-
utilizzo di schemi cinetici dettagliati per la
combustione di H2; ciò implicherà anche lo sviluppo di algoritmi di
risoluzione ottimizzati per l’integrazione delle equazioni di bilancio
energetico.
3. Validazione dei modelli
sviluppati.
La validazione dei modelli
sviluppati potrà essere condotta attraverso una campagna di simulazioni ed il
confronto dei risultati ottenuti con i dati delle campagne sperimentali che
verranno eseguite sull’impianto sperimentale ENEA denominato ZECOMIX (progetto
TEPSI), su altri impianti sperimentali
ENEA ed anche su eventuali dati di letteratura qualora fossero disponibili.
4. Installazione della nuova
versione del codice HeaRT sulla GRID ENEA.
La nuova release del codice
eseguibile dovrà essere installata su tutte le piattaforme parallele della GRID
ENEA ed integrata nel set dei codici CFD condivisi sulla rete dalla comunità scientifica
ENEA.
SP I.2.4 Progettazione e sviluppo di librerie per l’implementazione
efficiente e parallela di nuclei computazionali su dispositivi “ Field
Programmable Gate Arrays” (FPGA) integrati in un ambiente GRID.
La
realizzazione di nuovi strumenti per il calcolo avanzato passa sia attraverso
l’uso di oggetti commodity
(microprocessori e reti di comunicazione a bassa latenza e ampia banda) ma
anche attraverso lo sviluppo di nuovi strumenti che siano in grado di rendere
maggiormente efficienti gli strumenti commodity
su particolari classi di applicazioni. Infatti, i microprocessori sono
concepiti e disegnati per supportare classi diverse di applicazioni tra le
quali non compare il calcolo scientifico avanzato (che corrisponde ad una
attività di nicchia rispetto alle necessità che inducono gli alti volumi di
vendita di questi strumenti). In questo senso i microprocessori (classe IA64
bit, ad esempio) sono di natura “generalistica” e mostrano efficienze
computazionali ottime solo per una ristretta fascia di problemi numerici. Per
altri, il ricorso ad HW dedicato è sempre più frequente, in numerosi ambiti
scientifici e applicativi. Nello specifico settore delle Life Sciences, ad
esempio, si è venuta a creare rapidamente una nuova generazione di strumenti
appositamente disegnati per la bioinformatica basati su soluzioni a differente
grado di customizzazione[6].
Anche
Dal punto di
vista delle architetture di calcolo, vi sono due innovazioni tecnologiche che
occorrerà seguire e considerare:
a) la tecnologia di connessione denominata HyperTransport (HT)
b) i dispositivi prototipali basati su logiche riprogrammabili (FPGA, Field
Programmable Gate Arrays).
Per quanto
riguarda (a), la tecnologia HT sarà in grado di soppiantare la tecnologia basata
sul bus PCI per interconnettere, con alta banda e bassa latenza, dispositivi
presenti sulle reti di comunicazione. Molte società ed un forum internazionale
(www.hypertransport.org)
stanno predisponendo questa tecnologia che si appresta a divenire uno standard
nel settore e che è comunque già presente sui recenti microprocessori (AMD
Opteron).
Per quanto
riguarda il punto (b), la realizzazione di piattaforme di calcolo “eterogenee”
(vale a dire formate dall’interconnessione coerente di dispositivi attivi di
natura diversa come microprocessori e FPGA) è già una realtà. La società Cray
Inc. e
Queste
piattaforme promettono un salto qualitativo (in termini di efficienze di
calcolo) rispetto alle piattaforme ad alte prestazioni finora presenti sul
mercato anche se richiedono un intervento molto più complesso, non facilmente
gestibile dagli utenti finali, per sfruttarne a pieno le potenzialità. Infatti
le board contenenti logiche riprogrammabili devono essere programmate a basso
livello (in sostanza su di loro è possibile costruire un sistema dedicato
adatto a realizzare efficacemente una specifica computazione) con tecniche
molto più complesse di quelle normalmente detenute dagli utenti finali (anche
quelli più avanzati tecnologicamente).
Fig. 16
Schema concettuale di una piattaforma di calcolo di ultima generazione ad
architettura eterogenea, contenente uno switch proprietario che lega sia
processori COTS (AMD Opteron) che board con logiche programmabili (FPGA)
(schema del Cray XD1© ).
Questa attività
ha portato ENEA alla realizzazione di uno spin-off che consolida una
tecnologia, sviluppata in ENEA, sulla progettazione di dispositivi dedicati da
implementare su logiche riprogrammabili. La piattaforma di calcolo consentirà
di effettuare design automatici di sistemi dedicati a specifiche applicazioni
scientifiche.
All’interno del presente Progetto verrà definita la
struttura di una libreria di moduli che realizzano nuclei computazionali di
interesse comune a più discipline. Tali moduli, realizzati in maniera
ottimizzata e parallela su dispositivi di tipo FPGA, consentiranno di
massimizzare l’efficienza di utilizzo dei singoli nodi di calcolo: si demanderà
infatti all’esecuzione di moduli di libreria le funzionalità che non sono
efficientemente supportate dalle architetture di calcolo convenzionali e, allo
stesso tempo, richiedono potenze di calcolo significative. A titolo
esemplificativo si citano le classi di computazioni basate su elaborazione di
tipi di dato non convenzionale (ad esempio caratteri) e caratterizzate da
complessità più che lineari rispetto alle dimensioni dei dati di ingresso. La
prima caratteristica (tipi di dato non convenzionali) fa sì che le architetture
delle normali CPU non siano in grado di supportare efficientemente la
computazione (eventualmente a causa di un sottoutilizzo della banda di
comunicazione e/o delle unità funzionali normalmente presenti nel processore);
la seconda caratteristica (complessità più che lineare rispetto alle dimensioni
dei dati di ingresso) fa sì che l’implementazione della computazione non sia
limitata dalla banda di I/O verso il dispositivo programmabile (si ricorda che
la banda di I/O è il tipico fattore limitante nella effettiva erogazione di
prestazioni da parte di un dispositivo di calcolo).
Alla luce delle precedenti considerazioni, e anche sulla
base del fatto che le competenze necessarie non sono particolarmente diffuse,
all’interno di questa attività verranno sviluppate alcune implementazioni
parallele di soluzioni algoritmiche di interesse generale. Le implementazioni,
espresse in linguaggio VHDL, descriveranno architetture di calcolo
sintetizzabili all’interno di una FPGA. Tutte le realizzazioni seguiranno lo
standard di interfaccia definito per la libreria in questione.
Queste funzionalità, ai fini dell’utilizzatore, saranno rese
disponibili in maniera trasparente attraverso il middleware GRID.
Partner
Soc. Ylichron (spin-off ENEA, in via di costituzione)
SP I.5 Web
archive
L'attività è volta a fornire un
servizio alla comunità scientifica e industriale italiana consistente in
un archivio storico delle pagine web dei domini .it.
L'interesse di disporre di una
cronologia storica della struttura e dei contenuti della rete delle
pagine web del dominio italiano assolve a molteplici compiti:
a.
dal
punto di vista strettamente di ricerca, l'accesso alla dinamica nel tempo
della rete formata dalle pagine web e' di grande interesse perché
consente di studiare le proprietà di aggregazione delle pagine in funzione
della loro origine e la dinamica nel tempo di queste forme di
aggregazione;
b.
ancora
sul piano teorico, l'accesso ai contenuti delle pagine web costituirà un
elemento di rilievo per studi sui contenuti (sia sulla evoluzione della
lingua, sia nella loro semantica) sia sul piano tecnico (linguaggi e
soluzioni tecnologiche adottate per la realizzazione delle pagine)
c.
su
un piano prettamente di ricerca applicata, l'archivio darà accesso alla
dinamica delle differenti azioni per classi di prodotto e merceologiche,
consentendo un'analisi della dinamica dell'impatto di specifiche classi
di azioni industriali e valutarne la sostenibilità nel corso del tempo.
L'attività si appoggerà, sul piano
tecnologico, sulle infrastrutture acquisite dal progetto, nella
fattispecie l'elaboratore centrale e i sistemi di storage. La tecnica di
acquisizione dei dati prevedrà la realizzazione di istantanee mensili del
dominio .it, la cui immagine di rete e i cui contenuti saranno conservati
sui device di storage del centro di calcolo, attraverso una gerarchia di
memorie che consentirà l'accesso costante in linea delle istantanee di
rete e in forma di dati disco opportunamente compressi dei contenuti
delle pagine. L'accesso ai dati verrà fornito dal Centro sotto richiesta
(la rete delle pagine sarà “downloadable” tramite l'interfaccia web
dell'archivio, i contenuti delle pagine sotto forma di dischi, a
richiesta dell'utente). L'attività verrà svolta in collaborazione con
l'Università di Roma I (prof. Alessandro Panconesi) e il Politecnico di
Milano (dr. Massimo Santini). Le fasi dell'attività (da ripetersi
mensilmente) sono le seguenti:
1.
attivazione
dei programmi di "crawler" che indagheranno la rete e
estrarranno i contenuti dei siti del dominio .it. Gli stessi "crawlers"
contestualmente creeranno l'immagine relativa alle interconnessioni tra i vari
siti.
2.
compressione
e archiviazione dei dati dei testi; disponibilità del file di rete sul
sito web previsto per l'archivio
Questo specifico task verrà
specificamente considerato per il dimensionamento delle attrezzature di
storage che verranno acquisite dal progetto. Ciascuna immagine
(compressa) del dominio .it (comprensiva dei testi) richiederà uno
storage di circa 500 GB, che rende l'occupazione disco necessaria per il
progetto a circa 6 TB/anno. Obiettivo finale sarà quello di avere, a regime, i
dati disponibili e una pagina web legata al progetto che informa la
comunità scientifica italiana di questa iniziativa, fornendo tutti i
dettagli tecnici sulla consistenza dei dati e sulle modalità operative
per accedere all'archivio.
Partner
Università di Roma “
II. Sviluppo
di tecnologie e modelli computazionali per la descrizione di sistemi complessi
di origine biologica e di materiali innovativi.
L’obiettivo “complessivo” della
Linea di Attività è quello di attivare sistematicamente filoni di attività
computazionale nel versante biotecnologico; tale settore sta assumendo un
rilievo sempre maggiore come tecnologia di punta, attraverso il quale il paese
potrà fare fronte a nuove sfide, sia sul versante della ricerca che, ed in
particolare, su quello industriale, cercando di favorire la competitività delle
imprese in questo settore strategico.
Gli obiettivi parziali sono
riconducibili ai risultati delle attività di ricerca dei sottoprogetti
SPII.1-SPII.5 che, se da un lato avranno un interesse per se producendo risultati scientifici di rilievo, dall’altro
consentiranno di mettere a fuoco e di funzionalizzare il supporto tecnologico
(piattaforma di calcolo, sistemi di acrhiviazione, competenze SW, tools di
management e di controllo della piattaforma, suo management complessivo etc.)
implementato con i fondi del presente progetto.
I sottoprogetti che verranno
svolti in questo ambito sono:
SP II.1: Simulazioni di reti biochimiche
SP II.2: Bioinformatica PTPS
SP II.3: Ricerca polimorfismi
SP II.4: Sviluppo
di modelli numerici per analisi strutturali complesse e processi di
sinterizzazione
SP II.5: Modelling molecolare
Le sedi
di svolgimento delle attività comprendono: Portici, Napoli, Palermo, Brindisi,
Roma, Heidelberg, Londra.
Le cellule sono complessi reattori
chimici dove reti di proteine presiedono ad una serie di compiti (dal
metabolismo, alla trasduzione dei segnali provenienti da altre cellule, alla
regolazione dell’espressione genica nella cellula stessa etc.).
I dati di queste molteplici reti
di proteine iniziano gradatamente ad affluire (grazie alle tecniche
sperimentali high-throughput) e a
consentire il completamento di un quadro complessivo delle reti biochimiche
all’interno dei singoli comparti e delle singole classi cellulari. Tali dati,
contenuti in banche dati pubbliche (si veda, ad esempio, MINT, un database di
interazioni proteiche sviluppato e curato dal Dip.to di Biologia
dell’Università di Tor Vergata [7])
sono successivamente introdotti in modelli di reti biochimiche che svolgono
specifiche funzioni, a loro volta oggetto di importanti banche dati pubbliche,
come
Fig.
17. Rete biochimica del metabolismo del fruttosio/maltosio nell’uomo, descritta
da KEGG.
Queste reti sono mutuamente
interconnesse perché proteine coinvolte in una specifica rete possono svolgere
un ruolo anche in altre reti proteiche, con funzioni completamente diverse tra
loro. Il sistema biochimico che ne risulta è, dunque, un sistema altamente
interconnesso dove l’interconnessione delle funzioni gioca anche un ruolo nel
garantire la robustezza e la resistenza dell’intero sistema a faults e a perturbazioni esterne.
I dati sperimentali provenienti
dalle branche della Proteomica, Interattomica, Metabolomica e Transcrittomica
stanno aprendo la strada alla possibilità di costruire modelli quantitativi di interi comparti cellulari, fino alla possibilità
di avere modelli “in silico” di intere classi cellulari. Questa prospettiva è
di enorme rilievo, sia per la ricerca di base che per quella applicata, sia in
campo biotecnologico che farmacologico.
La modellistica numerica e il
calcolo ad alte prestazioni giocano il ruolo di collante tra tutte queste
informazioni, tipologicamente di natura diversa. Infatti le reazioni di varia
natura che hanno luogo nei diversi comparti cellulari sono descrivibili da
complesse ontologie: infatti di ciascuna reazione devono essere specificati una
serie di elementi fondamentali:
·
la definizione della reazione stessa(classe di
reazioni),
·
la descrizione dei parametri termodinamici (reagenti,
condizioni termodinamiche e chimiche alle quali i dati sperimentali di cinetica
si riferiscono etc.),
·
lo schema numerico per implementare il modello
cinetico della reazione,
·
i dati delle cinetica chimica,
·
le osservabili macroscopiche che si riferiscono
all’attività della specifica reazione…
Per quanto riguarda l’analisi numerica,
i modelli matematici che descrivono le differenti classi di reazioni danno
origine a sistemi di Equazioni Differenziali Ordinarie (ODE) che vengono
risolte sia con tecniche di integrazione nel tempo (solutori classici di
Eulero, Runge-Kutta oppure nuove strategie che consentono di integrare le
equazioni anche in condizioni di stiffness estreme), sia con tecniche
stocastiche. I progressi fatti in questo specifico settore sono molto
importanti sul versante applicativo; infatti l’acquisizione di dati
sperimentali sulle reazioni ha consentito sempre meglio di caratterizzare le
cinetiche delle complesse reazioni proteina-proteina al fine di stabilirne i
comportamenti nei transitori, negli stati di equilibrio, consentendo di
affrontare per la prima volta la simulazione quantitativa del comportamento di
specifici meccanismi.
La presenza di condizioni di stiffness nelle ODE (copresenza di
diverse scale di tempi scandite da classi di reazioni a cinetiche molto diverse
tra loro) genera pesanti instabilità numeriche nell’integrazione delle ODE,
tali da richiedere l’utilizzo di integratori specifici che consentono di
ottenere risultati stabili sul piano numerico a patto di introdurre un peso
computazionale aggiuntivo rispetto a quello necessario con integratori più
semplici ma meno stabili.
Un lavoro rilevante fatto negli
ultimi 4-5 anni sul versante dell’espressione dei dati di descrizione delle
reti biochimiche è consistito nella realizzazione di opportuni “linguaggi” per
la descrizione e la classificazione delle reazioni proteina-proteina. Un
contributo importante in questa direzione è stato fornito, in primo luogo,
dalla comparsa di un nuovo linguaggio di mark-up, di diretta derivazione
dell’XML, che consente agevolmente di descrivere questa classe di dati (a
partire dalla complessa ontologia che riesce a classificarli e a descriverli
correttamente) e che sta diventando uno standard de facto in questo settore.
Questo linguaggio si chiama SBML (Systems Biology Mark-Up Language) ed è
gestito da un organizzazione internazionale (www.sbml.org)
che fa capo all’University of Hertfordshire (UK), al CalTech (USA) e alla Keyo
University (Giappone).
L’SBML è un linguaggio di mark-up
che permette la descrizione qualitativa e quantitativa di modelli di reazioni e
reti biochimiche (una rete biochimica è un sistema che consiste di entità
biochimiche legate tra loro tramite reazioni che modificano, trasformano e/o
trasportano queste entità). SBML è stato disegnato per rendere possibile lo scambio
di modelli di reti biochimiche tra differenti package software, per consentire una semplice integrabilità di
questi moduli all’interno di software specifico.
In questo momento ci sono una
grande quantità di progetti e di software tools (circa 50) che si basano su (o
consentono l’integrazione di) moduli SBML.
Negli ultimi cinque anni, c’è
stato un continuo sviluppo di progetti e la proliferazione di strumenti per la
simulazione di sistemi biochimici complessi. In Italia la situazione è ancora
agli inizi, in quanto esistono pochi gruppi che hanno già intrapreso attività
di Systems Biology computazionale, che riassume la linea di attività descritta
nel presente progetto. Sono in corso di realizzazione una serie di modelli che
consentono la simulazione di queste reti, via via più complesse, che,
acquisendo i dati nel formato di riferimento, consentono la realizzazione di
simulazioni volte a riprodurre il comportamento chimico (variazione nel tempo
delle concentrazione delle varie specie proteiche reagenti).
L’importanza di questi strumenti e metodologie di
simulazione è evidente; a partire da questi modelli quantitativi delle varie
classi di reazione e, più in avanti, dall’unificazione di tutte le reazioni
chimiche presenti nelle cellule, sarà possibile avere uno strumento
estremamente efficace per studiare la fisiologia, l’origine biochimica delle
malattie e, soprattutto, per lo studio delle proteine target da colpire (o la
cui attività deve essere ripristinata) per la soluzione di situazioni patologiche.
Da qui, l’enorme interesse del settore biotecnologico e farmacologico a questi
risultati.
Proprio per percorrere correttamente le tappe per il
radicamento in ENEA di queste tematiche e di queste metodiche, il sottoprogetto
SP II.1 focalizzerà inizialmente la sua proposta scientifica in questo settore
collaborando allo sviluppo di SBML (con l’Università di Hertforshire (Londra),
il CalTech e l’Università di Keyo (Giappone)). Il progetto SBML è
prevalentemente finanziato dall’NIH americano; una specifica attività in questa
direzione consentirà al Centro di acquisire eventualmente contratti all’interno
di questo finanziamento e immettersi, fin dall’inizio, in un ambito scientifico
di eccellenza. Questa interazione si svilupperà attraverso la formazione di personale
presso quelle strutture, personale che poi rientrerà a svolgere il proprio
lavoro all’interno del Centro, radicando nel Centro stesso quelle specifiche
competenze. Inoltre, il gruppo ENEA collaborerà allo sviluppo, in associazione
con l’European Media Laboratory (EML) di Heidelberg, di un tool per la
progettazione e la simulazione di reti biochimiche (COPASI). Questo strumento è
attualmente realizzato da EML in
collaborazione con il VirginiaTech (www.copasi.org).
Questa attività consentirà da un lato, di operare per lo sviluppo di questo
tool (open-source) e dall’altro di costituire un centro di supporto per le
attività di simulazione di modelli di network biochimici complessi.
Le funzionalità del prodotto verranno testate
attraverso benchmarks proposti dalle Unità ENEA del settore Biotecnologico che
parteciperanno al progetto, oltre che dai partners “esterni”.
In particolare, in partnership con BioTekNet di
Napoli, verrà sviluppato un caso di studio a valenza industriale riguardante la
modellizzazione della rete metabolica di una specifica classe batterica che può
essere adibita alla produzione di polisaccaridi di interesse biotecnologico.
L’attività di ricerca proposta da BioTekNet prevede
l’articolazione in quattro fasi successive:
i)
l’acquisizione di dati della cinetica delle reazioni
metaboliche coinvolte nella produzione di polisaccaridi in Escherichia coli e/o uno o più ceppi di lattobacilli;
ii)
la modellizzazione attraverso COPASI della dinamica
della rete metabolica in condizioni fisiologiche;
iii)
la modellazione in silico, attraverso la rete
simulata, degli interventi da apportare al genoma batterico per implementare
varianti metaboliche atte ad incrementare l’efficienza di produzione dei
polisaccaridi;
iv)
modifica, in vivo, attraverso metodiche di ingegneria
genetica, del genoma batterico per l'ottenimento di una overespressione delle
molecole di interesse, secondo le indicazioni ottenute attraverso le simulazioni
effettuate al punto precedente.
Il Consorzio BioTekNet svilupperà autonomamente le
parti i) e iv), mentre le parti ii) e iii) saranno svolte all’interno del
presente Progetto in collaborazione con il personale ENEA.
Partner
Consorzio BioTekNet (Centro
Regionale di Competenza in Biotecnologie Industriali), Napoli
Collaborazioni estere
SBML
group
EML di
Heidelberg
SP II.2 Sviluppo di un database e
di tool per la creazione di modelli di reti metaboliche e genetiche per lo
studio di batteri del genere Pseudomonas.
Nell’ambito delle pseudomonadi, il
progetto di sequenziamento completo del genoma è stato completato per tre ceppi
(P. aeruginosa PAO1, P. syringae pv. tomato DC3000, Pseudomonas putida
KT2440) e sono in fase di sequenziamento altri 7 ceppi. Attualmente sono
disponibili sulle banche dati 41.600 accessioni nucleotidiche, 70.000
accessioni proteiche ed è conosciuta la sequenza di 17.500 geni. Si propone di
costituire un database di riferimento per le pseudomonadi, di facile ed
immediata consultazione, con interfaccia web che contenga una raccolta dati per
la gestione delle sequenze di DNA e proteine insieme alle annotazioni relative
ai geni e alla loro funzione, nonché della letteratura di riferimento. Saranno
sviluppati metodi bioinformatici e algoritmi che consentono di stabilire dei
modelli di reti metaboliche e genetiche integrando i dati della sequenza
genomica, dei profili di espressione genica, degli studi di proteomica e fisiologici.
Ciò consentirà di concentrare tutte le informazioni sulle Pseudomonas (database), attualmente disperse in varie fonti web, in
un'unica piattaforma bioinformatica integrata in una reta grid al fine di
analizzare e trasferire in tempi brevi e con elevata sensibilità i dati
reperiti. La creazione di tool e software potrà consentire di sfruttare le
informazioni reperite nella consultazione del database al fine di generare uno
strumento utile agli studi di genomica funzionale, alla progettazione di microarray,
alla correlazione fra i geni, e, non ultimo, all’analisi “in silico”.
Informazioni funzionali sui geni risultano essere indispensabili per la
ricostruzione di vie e reti molecolari di grande interesse quali vie
metaboliche, cascate di traduzione del segnale e gerarchie regolatorie. Si
prospetta la disponibilità di un modello matematico capace di predire il
comportamento di una via metabolica in relazione a diverse condizioni mediante
un approccio di “simulazione” che sia valido per le principali attività delle
pseudomonadi in relazione all’attivazione di specifici geni, indagando sulle
migliori condizioni che rendono maggiormente sfruttabili tali organismi. Oltre
all’obiettivo metodologico, il progetto ha lo scopo di identificare le vie
metaboliche chiave specifiche per le pseudomonadi e i fattori di regolazione
coinvolti nella formazione dei PHA, e di altri metaboliti utili a scopi
industriali o geni coinvolti nella patogenesi e nella interazione con l’ospite
nei batteri fitopatogeni.
Il sottoprogetto vede la
partnership del Parco Scientifico e Tecnologico della Sicilia. Il Parco già
opera con progetti di ricerca che hanno consentito di sequenziare geni di
rilevante interesse. In particolare molto promettente appare la ricerca sui geni
responsabili delle attività di sintesi e di degradazione dei
poliidrossialcanoati che il Parco sta portando a termine con un finanziamento
di un progetto PON che si concluderà entro l’anno. I risultati acquisiti sono
particolarmente interessanti in quanto lasciano ritenere possibili applicazioni
nella produzione di materiali plastici degradabili. A conclusione dell’attività
sarà disponibile un database che raccoglie le informazioni biologico-molecolari
relative al genere Pseudomonas con
interfaccia web, tool e/o software per l’analisi bioinformatica dei genomi per
lo studio approfondito della genomica funzionale.
Partner
Parco
Scientifico e Tecnologico della Sicilia S.c.p.a., sede di Catania, Blocco Palma
I z.i., Viale Lancia 57, 95131 Catania.
Università di Catania,
Dipartimento di Scienze e Tecnologie Fitosanitarie (DISTEF), via S. Sofia 100,
95100 Catania
L’obiettivo di questa attività è
l’identificazione di siti polimorfici distribuiti lungo l’intera sequenza
nucleotidica del DNA mitocondriale di un campione rappresentativo della
popolazione italiana.
I polimorfismi di sequenza identificati saranno validati per sviluppare strumenti investigativi ad elevato potere di discriminazione da applicare in genetica forense come anche tests diagnostici o predittivi da utilizzare nello studio delle basi genetiche di patologie umane associate ad alterazioni del metabolismo mitocondriale.
Il DNA mitocondriale (mtDNA) umano
é una molecola circolare di circa 16.5
Kbp, la cui intera sequenza nucleotidica é nota [Anderson et al., 1981].
Sarà determinata l’intera sequenza nucleotidica del DNA
mitocondriale di circa 200 individui non
affetti da patologie provenienti dalle
20 diverse regioni italiane. La
strategia di sequenza prevede
l’amplificazione mediante PCR di 24 distinti segmenti del genoma
mitocondriale che si sovrappongono parzialmente e la diretta
determinazione in ambedue le direzioni
della sequenza nucleotidica dei prodotti
di amplificazione [Rieder et al., 1998]. Nelle reazioni di sequenza sarà usata
la chimica dei BigDye (Applied Biosystems) ed i loro prodotti verranno risolti
utilizzando analizzatori automatizzati
di DNA (Applied Biosystems). Questa parte dell’attività, che esula
dall’ambito della ricerca computazionale ma che è rilevante ai fini del
progetto, verrà presa in carico da ENEA su altri fondi.
Dal punto di vista computazionale,
la rilevanza di questa applicazione è contenuta nei metodi e nelle procedure
usate per verificare la qualità degli elettrofrogrammi (Phred, UWSTL) e
nell’assemblaggio delle sequenze parziali in un’unica sequenza continua
[Phrap, Consed, e PolyPhred (UWSTL); AutoEditor (Gajer et
al., 2004)]. Questa parte dell’attività,
presa in carico dal progetto CRESCO, consisterà nell’allineamento delle
sequenze del mtDNA ottenute, al fine di identificare variazioni polimorfiche
fra individui diversi del campione della popolazione. L’allineamento computerizzato delle sequenze farà uso di versioni parallelizzate dei
software Clustal [Thompson et al., 1994] e MUMmer (v3.0, TIGR) [Kurtz et al.,
2004]. La qualità dei dati di sequenza
del mtDNA sarà verificata e validata mediante analisi filogenetica [Bandelt et
al., 1999; Bandelt et al., 2000].
Nel futuro, saranno condotti in
collaborazione studi per verificare
l’associazione fra variazioni della sequenza nucleotididica di regioni
specifiche del mtDNA e lo stato di rischio
o l’insorgenza di malattie umane quali malattie cardiovascolari o il diabete di
tipo II [Wallace DC, 1999; Lowell & Shulman, 2005], patologie in cui studi epidemiologici e
clinici hanno evidenziato disfunzioni
del metabolismo mitocondriale.
La
rilevanza di questi studi risiede nel fatto che i dati di sequenza ottenuti
potranno costituire la banca-dati di
riferimento delle variazioni della sequenza nucleotidica del mtDNA nella
popolazione italiana. A causa dei molteplici errori riscontrati nelle sequenze del mtDNA
riportate in letteratura [Bandelt et al., 2002; Parson et al., 2004] o della
paucità delle regioni del mtDNA analizzate,
si è resa necessaria la generazione di dati di sequenza completi, solidi e validati seguendo stringenti criteri di controllo di
qualità.
L’analisi
comparata delle sequenze nucleotidiche permetterà di identificare variazioni
polimorfiche della sequenza del mtDNA
nella popolazione italiana e fornirà informazione sulla frequenza di queste variazioni e possibilmente sulla loro distribuzione
relativa nelle varie regioni. Questi dati
saranno resi disponibili alla comunità scientifica e potranno essere utilizzati
per studi evolutivi, di migrazione delle
popolazioni, e di antropologia culturale.
L’identificazione
di variazioni polimorfiche del mtDNA permetterà di sviluppare test multiplex che, utilizzando tecnologie
già disponibili, siano in grado di determinare
simultaneamente in un’unica reazione un numero elevato di queste variazioni, aumentando
il potere di discriminazione del test fra individui distinti. Questa
possibilità riveste una particolare importanza sociale perché renderà possibile
l’applicazione della tipizzazione genetica a minute tracce biologiche soggette
anche a parziale degradazione.
SP II.4 Sviluppo di modelli numerici per analisi strutturali complesse e processi
di sinterizzazione
Il recente
sviluppo delle tecnologie informatiche ha permesso in molti settori di
interesse ingegneristico di affrontare problemi che venivano risolti solo a
prezzo di pesanti semplificazioni.
Questa
considerazione ha notevolmente influenzato i moderni approcci di progetto dei
sistemi e dei componenti meccanici, rendendo possibile l'accurata valutazione
delle condizioni di esercizio e delle prestazioni già in fase di simulazione,
minimizzando il ricorso ai prototipi, snellendo il ciclo di progettazione e
riducendo il TTM (time-to-market).
Lo sviluppo di
modelli matematici e calcolatori con potenzialità spinte consente la
modellazione matematica e la simulazione numerica di fenomeni fisici sempre più
complessi.
In questo ambito, lo sviluppo del calcolo ad alte
prestazioni si presenta come un insostituibile strumento per
acquisire in tempi ridotti informazioni quantitativamente e qualitativamente accurate
da utilizzare per le verifiche strutturali e le previsioni di processo, anche
quando accompagnato da indagini sperimentali, che da sole, non sempre
permettono di tenere conto di tutte le variabili connesse con lo studio del
comportamento di materiali complessi e processi riguardanti il campo della
meccanica.
Si intendono quindi potenziare
le attività di ricerca per la simulazione ed il calcolo di fenomeni complessi,
utilizzando strumenti di calcolo ad alte prestazioni (GRID computazionali e/o
calcolo parallelo).
Si ricercheranno modelli
accurati per la simulazione di fenomeni complessi. Ci si riferisce, in primo
luogo, alla necessità di stimare il comportamento non lineare dei materiali
compositi, ovvero di materiali con forti non linearità come le leghe a memoria
di forma, per descrivere la reazione dei componenti/prodotti in condizione
statiche, dinamiche e di crash. D’altro canto saranno analizzati modelli di
materiali ceramici tradizionali per la previsione dei processi industriali di
sinterizzazione.
In definitiva, le attività di
ricerca permetteranno di sfruttare al meglio le potenze di supercalcolo, le
quali consentono di studiare fenomeni sempre più complessi, di aumentarne il
livello di dettaglio e quindi di pervenire a risultati simulati più realistici,
oltre che di stimare l’influenza di numerosi parametri in tempi ragionevoli,
analizzando il tutto in un ambiente di visualizzazione immersivo mediante
l’utilizzo di idonei sistemi di visualizzazione scientifica 3D.
L’utilizzo
dei materiali compositi in campo industriale è ormai una realtà consolidata
grazie alle elevate prestazioni ed ai risparmi in termini energetici che
possono garantire rispetto ai materiali tradizionali. In particolare, nell’ambito dei trasporti, sono ampiamente
utilizzati per le elevate caratteristiche meccaniche e la potenziale maggiore capacità di assorbire
energia rispetto ai metalli.
Una corretta metodologia di progettazione di componenti realizzati in
composito non può ancora considerarsi sviluppata a causa della fragilità di base dei materiali polimerici
termoindurenti e delle peculiari
modalità di rottura che i compositi presentano rispetto ai materiali
tradizionali. Inoltre il comportamento a crash dipende fortemente dall’orientazione
delle fibre e dalla combinazione dei diversi strati del laminato.
Infatti, diversamente dai
materiali duttili, che assorbono energia deformandosi in campo plastico, i compositi assorbono energia con differenti
fenomeni di rottura (delaminazione, rottura delle fibre con conseguente crushing, attrito interno, ecc.) che
possono completamente distruggere l’integrità strutturale dell’intero componente.
La problematica si complica
ulteriormente quando si vogliano studiare e modellare strutture composite con filamenti in SMA (Shape Memory Alloys) che
conferiscono al composito stesso specifiche proprietà funzionali di elevato
interesse (pseudoelasticità, capacità
di smorzamento, possibilità di esplicare forze di attuazione).
In conseguenza di ciò, la messa a punto di strutture in materiale
composito in grado di assorbire energia d’urto richiede una dettagliata campagna prove per analizzare le diverse
risposte del materiale al variare dell’orientamento delle fibre (filamenti in
SMA e fibre del composito) rispetto alla direzione d’urto, della tipologia e
quantità dei filamenti in SMA, delle condizioni di sollecitazione termica e
meccanica, con notevole dispendio in
termini di tempi e costi.
L’utilizzo di pacchetti software di tipo esplicito costituisce un
valido supporto alla progettazione, consentendo una significativa riduzione delle prove
sperimentali.
Lo sviluppo di tecniche FEM per l’analisi a crash di strutture in
materiale composito, che tenga conto del loro complesso comportamento a
rottura, è un obiettivo ambizioso ma raggiungibile
attraverso opportune attività di ricerca.
Le problematiche connesse a questo
tipo di analisi sono da ricercarsi sia nella
complessità dello stesso fenomeno
fisico di crush (per le variabili aleatorie coinvolte), sia nella complessità di definizione delle proprietà del materiale, spesso
grossolanamente approssimato con un materiale omogeneo equivalente.
Considerando che a tutto questo
deve necessariamente sommarsi l’elevato
grado di dettaglio dei modelli richiesto per l’attendibilità dei
risultati, con conseguente esorbitante aumento del numero di elementi,
significativi vantaggi potrebbero
derivare dall’utilizzo del calcolo ad alte prestazioni.
Per tali motivi, risulta
necessario, quando si affrontano problematiche di questo tipo, definire modelli
costitutivi che tengano conto delle informazioni relative alla reale struttura di un materiale composito
quali:
·
instabilità locali e
globali per laminati e strutture sandwich;
·
proprietà
meccaniche all’interfaccia fibra/matrice
e tra i diversi strati di una struttura laminata;
·
danneggiamento e relativa
evoluzione al variare della tipologia e dell’entità del carico
applicato;
·
modalità di assorbimento
dell’energia durante l’urto;
·
modalità di rottura.
Le indagini sperimentali,
previste nell’attività di ricerca proposta, consentiranno di testare tali
correlazioni e validare gli approcci teorico-numerici proposti.
La idonea produzione di componenti
di forma complessa in ceramica tradizionale richiede che a monte ci sia una
progettazione capace di prevedere le
deformazioni cui è soggetto il componente nelle fasi di cottura in forno.
La problematica è fortemente sentita nel settore degli
idrosanitari, laddove la previsione delle deformazioni del prodotto finito
rispetto al pezzo estratto dallo stampo è oggigiorno condotta mediante un
processo iterativo di tipo prettamente empirico, durante il quale si
ottimizzano i parametri operativi e tecnologici (forma dello stampo, posizione
del pezzo in cottura) per ottenere un manufatto della forma desiderata e di
buona qualità.
L’ambizione tecnica oggi è
rappresentata dunque dalla possibilità di studiare e modellizzare correttamente le fasi di formatura, essiccamento
e cottura, al fine di predire le deformazioni ed i ritiri dei manufatti
in cottura e ridurre i tempi di
prototipazione, minimizzando i cicli di messa a punto dei modelli dei
prodotti che a tutt’oggi vengono effettuati iterativamente ed impegnano il
personale del settore per circa sei mesi all’anno.
Il punto focale dello studio da
effettuarsi è la modellizzazione della
sinterizzazione dei materiali ceramici, con particolare riferimento alla
valutazione dell’applicabilità dei modelli esistenti in letteratura al caso
specifico del problema della cottura degli idro-sanitari e della possibilità di
implementare i modelli teorici in codici di calcolo agli elementi finiti.
La possibilità di predire a priori
mediante un modello teorico l'entità del ritiro e delle variazioni di forma che
avvengono in un prodotto di ceramica tradizionale, durante il processo di
sinterizzazione, dà la possibilità di verificare a monte se i criteri di
tolleranza imposti da chi realizza l'oggetto possano o no essere soddisfatti,
ottenendo in tal modo un miglioramento della qualità del prodotto finale e
della produzione.
La possibilità di simulare il
processo di sinterizzazione e di progettare a priori la forma più idonea dello
stampo utilizzato durante la fase di essiccazione del verde, per il
raggiungimento (alla fine del processo di sinterizzazione) della geometria
voluta per l'oggetto ceramico realizzato, rappresenta una strada percorribile
per ottimizzare i tempi ed i costi di produzione.
Per raggiungere tale obiettivo, lo
studio da effettuare non deve limitarsi solo all'analisi delle differenti
equazioni costitutive dei diversi modelli teorici che descrivono il processo di
sinterizzazione vero e proprio, ma procedere con lo sviluppo delle seguenti
attività di ricerca:
·
analisi
delle fasi non isoterme del processo di
sinterizzazione (rampe
iniziali e finali di temperatura necessarie per raggiungere la temperatura di
sinterizzazione prima e quella ambiente poi);
·
studio
di situazioni complesse in cui l'entità delle deformazioni che subisce
l'oggetto che sinterizza è tale da rendere non efficiente l'utilizzo di modelli
di calcolo numerico di tipo convenzionale, in fase di simulazione del processo;
·
studio
dell’eventuale presenza di disuniformità di densità, sorgente di ritiri anisotropi in fase di
sinterizzazione che causano notevoli problemi in fase di progettazione degli
stampi;
·
individuazione dei parametri
fisici,
caratterizzanti il comportamento del materiale ceramico soggetto a
sinterizzazione, che intervengono nelle equazioni costitutive del modello
teorico e che sono difficili e/o "impossibili" da valutare
sperimentalmente.
Negli approcci teorici più
recenti, il materiale poroso viene considerato come un continuo i cui punti
sono volumi rappresentativi, grandi abbastanza rispetto alle dimensioni dei
pori e delle particelle costituenti il materiale (microstruttura), e
contemporaneamente sufficientemente piccoli paragonati alle dimensioni
dell'oggetto poroso nel suo insieme (approccio
reologico).
Inoltre, il materiale poroso viene schematizzato come se fosse costituito da due
fasi, quella del materiale e quella dei pori, le quali possono muoversi
l'una nell'altra, da cui la natura reologica del modello: le proprietà fisiche
macroscopiche dipendono dalle leggi che regolano il flusso di materia durante il processo di sinterizzazione. A sua
volta la fase cosiddetta materiale può anche essere multifasica, costituita
cioè da più fasi (solide e liquide) e/o materiali, ed assimilabile in tutta
generalità ad un mezzo viscoso, incomprimibile ed isotropo. La fase dei pori è
assunta essere distribuita uniformemente nella fase materiale, conferendo al
corpo poroso, nel suo insieme, isotropia
e compressibilità.
In particolare, nel caso dei
ceramici tradizionali, alla temperatura di sinterizzazione il materiale si
comporta come essenzialmente costituito da un particolato solido in presenza di
una piccola percentuale di materiale in fase liquida (fase vetrosa). La sua
densificazione avviene contemporaneamente sia per processi di crescita dei
grani che di riempimento dei pori da parte della fase liquida, che conferisce
al materiale la sua solidità strutturale alla fine del processo di
sinterizzazione.
Pur essendo la fase solida del
materiale poroso costituente le ceramiche tradizionali multifasica (sia solida
che liquida), essa può essere correttamente descritta durante il processo di
sinterizzazione mediante un modello generale di flusso viscoso lineare. Si ritorna a sottolineare che
in tale approccio teorico il termine viscoso non riguarda solo il costituente
in fase liquida del materiale che subisce la sinterizzazione, ma descrive, in
tutta generalità, il risultato medio
dell'insieme dei processi diffusivi che contribuiscono alla compattazione del
mezzo poroso.
Questo aspetto della teoria di
sinterizzazione dei materiali porosi, assimilati a mezzi continui, è molto
importante perché permette in prima approssimazione di non considerare dal
punto di vista microscopico la complessità dei materiali multifasici, costituenti
le ceramiche tradizionali, descrivendone gli effetti e i comportamenti medi
mediante parametri reologici opportuni, permettendo di ottenere predizioni su
alcune delle loro caratteristiche macroscopiche
finali dopo il processo di sinterizzazione, quali: entità del ritiro,
variazione di forma, densità e porosità media finale, eventuali disomogeneità
in densità, ecc.
Nell’attività prevista nel
progetto sarà studiato il modello
costitutivo del materiale per la simulazione del processo di produzione dei manufatti
ceramici. Dalla corretta definizione del modello comportamentale,
dipende infatti la capacità del modello numerico di prevedere in maniera idonea
le deformazioni ed i ritiri che intervengono nelle fasi del processo di
produzione.
L’implementazione
in codici numerici delle proprietà altamente non lineari del materiale implica
lo sviluppo di modelli accurati che consentano la simulazione di fenomeni così
complessi. Tale implementazione richiede elevate potenze di supercalcolo, in
modo da aumentare il livello di dettaglio dei modelli comportamentali
attualmente utilizzati, pervenendo così a simulazioni sempre più realistiche.
Sarà
quindi valutata l’efficacia dei principali codici di calcolo numerico (ANSYS,
ABAQUS) nel risolvere le equazioni costitutive sviluppate, al fine di
effettuare le simulazioni inverse del processo produttivo di componenti in
ceramica tradizionale (determinazione
delle contro-deformazioni e dei contro-ritiri).
Partner
Consorzio CETMA – Cittadella della Ricerca, Brindisi
SP II.5 Modelling molecolare
Il modelling molecolare rappresenta, storicamente, una delle
attività a maggiore impatto computazionale nell’ambito della Scienza dei
materiali e della Biologia (protein structure, docking molecolare, ecc.).
In questi anni si è assistita ad
una importante convergenza tra
Il modelling molecolare, nella
accezione moderna, si esplica attraverso due linee metodologiche:
1.
la simulazione su scala atomica da “force fields”
vale a dire a partire da una descrizione approssimata del legame atomico tra
gli atomi delle molecole. Questa approssimazione consente lo studio di molecole
molto complesse (migliaia fino a decine di migliaia di atomi, in soluzione) con
accesso a grandezze termodinamiche e strutturali;
2.
la simulazione su scala atomica “ab initio” dove,
invece, il legame chimico è riprodotto con maggiore accuratezza attraverso una
corretta formulazione quantistica del sistema degli elettroni. Questa classe di
modelli, se da un lato non può essere applicata a sistemi di grandi dimensione
(fino al massimo a poche migliaia di atomi), consente di avere accesso oltre
che a quantità termodinamiche, anche a proprietà funzionali e legate alle
variabili legate al sistema degli elettroni.
Nel
presente sottoprogetto, verranno portate avanti due attività.
La prima
(HT-POLY) è legata alla progettazione di nuovi polimeri del gruppo delle
poliammidi, per uso all’interno del Consorzio CAMPEC che ha la sua sede a
Portici e che ha come core business la prototipazione rapida (rapid prototyping). Questa tecnica è
essenzialmente usata per la realizzazione rapida di modelli o prototipi in
plastica che possono essere utilizzati per prove e verifiche prima della
realizzazione del prodotto definitivo (p.e.: verifiche di stile, prove
funzionali, prove di montaggio, ecc.). E’ importante, in questa area
applicativa, affiancare all’attività di natura industriale di CAMPEC una
attività di ricerca per il design di nuove classi di polimeri con proprietà
termodinamiche maggiormente utili al tipo di applicazione richiesta. In
particolare, l’attività HT-POLY sarà mirata al design di nuovi polimeri della
classe delle poliammidi con intervallo di stabilità esteso fino ai 300-
La seconda attività (GAMES) è
invece legata all’uso di modelli di tipo “ab-initio” .
GAMES ("Gas Adsorption at MEmbranes
and Surfaces") è il nome
dell’attività riguardante lo studio teorico, mediante simulazione combinata di
dinamica molecolare ab initio e
dinamica classica, dell’interazione tra molecole libere e superfici
inorganiche. L’applicazione più diretta dei risultati di questa attività è nel
campo della catalisi chimica: nel contesto del progetto “Solare Termodinamico -
Produzione di idrogeno” dell’ENEA sono allo studio le proprietà di
dissociazione della molecola di acqua su superfici di ossidi di cerio in
presenza di difetti strutturali e drogaggio con cationi aliovalenti. I calcoli
delle reaction paths vengono
realizzati mediante modelli di struttura elettronica con il codice ABINIT, e
richiedono una larghissima disponibilità di risorse di calcolo. Infatti, la
simulazione di reazioni chimiche su superfici è uno dei settori di punta nelle
applicazioni della teoria elettronica.
Più in generale, il problema della
reattività di superficie e dell’interfacciamento organico-inorganico è un tema
centrale e molto avanzato delle attività di teoria e modellistica dell’Unità
ENEA coinvolta. In questo contesto sono stati avviati degli studi pilota in
collaborazione con gruppi CNRS e di università francesi, dell’interazione tra
molecole organiche e biologiche e substrati inorganici, come fullereni e
nanotubi di carbonio. Nel caso dei fullereni, è stato intrapreso lo studio del
drogaggio con metalli di transizione ad alto numero di ossidazione e la
successiva complessazione con molecole di interesse biomedico, come
cromomicina, distamicina etc., o come i composti a base di metalloceni, nel
quadro di ricerche sul drug delivery
mediante nanoparticelle ad azione trans-membranale. Nel caso dei nanotubi di
carbonio, è in corso di definizione un programma di ricerca sull’adesione dei
nanotubi alle cellule retiniche mediante interazione con la proteina NrCAM (neural cell-adhesion molecule), nel
quadro di ricerche sulla nanotecnologia della visione artificiale (vision chip). Tali ricerche sono state,
fino ad ora, allo stato di studi pilota. Risultati molto incoraggianti hanno
avviato la definizione di obiettivi concreti, con possibili ricadute
tecnologiche ed industriali a medio termine.
Collaborazione
Consorzio CAMPEC, Portici (NA)
III.
Sviluppo di modelli di simulazione ed analisi delle Reti Tecnologiche
complesse e delle loro interdipendenze.
Gli eventi di cronaca che hanno popolato il nuovo millennio
appena iniziato hanno evidenziato come le diverse infrastrutture tecnologiche
(energia, trasporti, comunicazioni, ecc..) su cui si basano le società
industrializzate siano fortemente vulnerabili ad eventi naturali e terroristici
e siano tra loro fortemente interdipendenti. Perciò è essenziale avere una
comprensione profonda della struttura delle grandi reti tecnologiche, della
loro dinamica e delle loro interdipendenze.
Il blackout americano del
La realizzazione del Centro di simulazione consentirebbe,
pertanto, uno studio dettagliato del sistema infrastrutturale nel suo
complesso, ed in particolare, favorirebbe l’analisi di quegli aspetti di
vulnerabilità indotti dalla presenza delle interdipendenze nonché l’impatto che
i diversi malfunzionamenti potrebbero avere e come gli stessi si diffondano
attraverso le diverse infrastrutture. Tali tipi di analisi sono di interesse
sia nei confronti dell’attuale situazione infrastrutturale che in relazione ai
possibili sviluppi della stessa al fine di prevedere quelli che potrebbero
essere le conseguenze indotte sull’intero sistema infrastruturale del paese, e specificatamente per quel che riguarda gli
aspetti di sicurezza e continuità di servizio, da innovazioni adottate nelle
singole infrastrutture.
La disponibilità di un tale ambiente consentirà inoltre
la valutazione, e la verifica della
correttezza e dell’efficacia delle procedure previste per la gestione di eventi
di crisi.
Parallelamente allo studio
della situazione nazionale, il Centro di simulazione consentirà la
verifica dell’efficacia di soluzioni architetturali e di controllo innovative.
SP III.1
Fisica delle Reti Complesse
SP III.2
Analisi di Vulnerabilità delle Reti
Complesse
SP III.3
Modelli e Strumenti di Supporto alla
Ottimizzazione e Riconfigurazione delle
Reti
SP III.4
Modellistica delle Reti Complesse
viste come aggregati Socio-Tecnologici
SP III.5
Interdipendenza tra Reti Complesse
SP III.6
Sistema Informativo per
·
Quali
modelli sono usati o dovrebbero essere sviluppati per rappresentare la
complessità delle grandi reti tecnologiche formate da diverse migliaia di nodi
e link tra i nodi.
·
Come
modellare l’interazione tra i diversi componenti di una rete complessa per
catturarne gli aspetti dinamici.
·
Come
modellare l’interazione tra diverse reti per valutare gli effetti di
interdipendenza e il conseguente effetto domino.
·
Come
realizzare un sistema informativo per
·
Quale
è la complessità computazionale posta dai quesiti precedenti.
Nel seguito una descrizione di maggior dettaglio delle sei
direttrici di ricerca proposte.
SP III.1 Fisica delle Reti Complesse
Si pone l’obiettivo di studiare le proprietà di robustezza e
di vulnerabilità delle reti complesse in base alla loro struttura topologica.
Come la rete si degrada conseguentemente alla perdita di alcune sue parti.
Negli ultimi anni questo tema ha attratto l’attenzione di una vasta comunità di
fisici, che partendo dalla disponibilità di grandi banche dati hanno messo in
evidenza un fattor comune tra reti tecnologiche, reti biologiche, rete sociali,
ecc. Questa attività intende rispondere alle domande:
·
Come
quantificare i parametri di robustezza, vulnerabilità, connettività, ecc. di
una rete in modo da essere misurabili attraverso un’attività di modellazione e
analisi.
·
Come
varia la connettività, vulnerabilità, robustezza, ecc., alla perdita e/o
rimozione di alcuni parti della rete.
·
Come
cambia la performance della rete al variare del carico, sia in modo
intenzionale che in modo malevolo, di alcuni cammini della rete.
·
Quale
può essere il risultato dell’adozione di algoritmi di riconfigurazione per far
fronte a certe modifiche topologiche della rete.
L’obiettivo sarà perseguito attraverso la realizzazione di
un analizzatore delle proprietà (statiche e dinamiche) prodotte su una rete dalla sua topologia. Studi effettuati su
modelli sviluppati di recente hanno mostrato che la topologia della rete,
indipendentemente dalla sua natura (elettrica, comunicazione, trasporti etc.)
consente la predizione di una serie di proprietà che hanno profondi riflessi su
alcune funzionalità rilevanti della rete, quali la robustezza ai guasti, la sua
efficienza, la velocità di propagazione dei transitori etc.
Queste analisi si basano, da un lato, sullo studio delle
proprietà topologiche e spettrali del grafo che descrive la rete, dall'altro
sulla simulazione di modelli dinamici sul grafo che ne mettono in evidenza le
caratteristiche in condizioni di carico dinamico.
L'analizzatore da produrre e utilizzare consisterà nei
seguenti moduli:
1.
un
parser per l’esame delle configurazioni di reti complesse (le reti saranno
descritte in opportuni linguaggi formali)
2.
un
analizzatore di proprietà statiche legate alla topologia della rete
3.
un
analizzatore spettrale delle matrici associate al grafo rappresentante la rete
4.
un
simulatore del comportamento dinamico del grafo in condizioni di carico.
L’obiettivo prevede la realizzazione ex-novo di un package
SW; questo strumento beneficerebbe dell'utilizzo di routine matematiche disponibili sia su librerie di public domain che su librerie
proprietarie, associate in genere a tutte le grandi installazioni dei maggiori vendors. Questo consente di non imporre
vincoli severi sul OS della piattaforma ma solo la presenza di opportuni
compilatori e delle librerie matematiche di cui sopra.
I problemi computazionali maggiori che si incontreranno
nell'utilizzo del package riguardano i punti 2-4 sopra illustrati. In questi casi
la piattaforma HW dovrebbe essere strutturata per supportare l'analisi di reti
anche di dimensioni elevate tenendo conto dei dati riportati nella Tabella 4,
riguardanti l'occupazione di memoria e l'impegno delle risorse di calcolo
associate ad analisi di matrici di dimensioni date.
N |
memoria (I) (MB) |
memoria (R) (MB) |
tD(N)/tD
(100) |
100 |
0.04 |
0.08 |
1 |
1000 |
4 |
8 |
1000 |
10000 |
400 |
800 |
106 |
50000 |
104 |
4 ·104 |
1.25·108 |
Tab.4. Caratteristiche
di occupazione di memoria, espressa in Megabytes per matrici intere (I) e reali
(R) di dimensione N data (colonne 2 e 3); legge di scala temporale per
operazioni di analisi spettrali complete delle matrici di dimensioni date
(colonna 4). In quest'ultimo caso i valori sono in unità arbitrarie, relative
al costo temporale dell'analisi spettrale di una matrice N=100. Il valore
stimato dell'ultima riga di questa colonna é da considerarsi solo indicativo
perché calcolato sulla base di una eventuale analisi su un singolo processore,
cosa non verosimile sia per l'occupazione di memoria, sia per l'occupazione in
tempo.
Per quanto riguarda le analisi
spettrali, matrici di dimensioni superiori a quelle descritte in Tab.1 possono
essere trattate tramite l'uso di algorimi approssimati che consentono l'accesso
a regioni parziali dello spettro (metodo di Lanczos, ad esempio). In questi
casi, e limitatamente a matrici sparse, sia l'occupazione di memoria che lo
scaling dei tempi non sono direttamente riconducibili ai dati presentati nella
tabella 1 ma devono essere riconsiderati sulla base della specifica
implementazione dell'algoritmo sulla piattaforma di calcolo.
La libreria public domain PSBLAS sviluppata
dalla Università di Roma Tor Vergata fornisce le strutture dati e le
funzionalità necessarie per la analisi di matrici sparse di grandi dimensioni;
il package è stato sviluppato con particolare attenzione alla soluzione di
sistemi linerari con algoritmi di Krylov. Risutla quindi naturale la estensione
agli algoritmi di tipo Lanczos-Arnoldi per il calcolo degli autovalori
dominanti, esattamente in linea con le necessità del progetto.
Il package PSBLAS è stato
svilupptato per consentire un utilizzo efficiente su calcolatori paralleli sia
a memoria distribuita che condivisa; è stato inoltre già collaudato in
applicazioni industriali, in cui la taglia dei problemi analizzato raggiunge
facilmente i 10^6 gradi di libertà.
E' pertanto perfettamente naturale
considerare la integrazione e lo sviluppo di questo pacchetto nell'ambito
applicativo considerato, e la sua ottimizzazione sulla piattaforma di calcolo
di riferimento.
In sintesi, la piattaforma di
riferimento potrebbe essere un cluster di nodi shared memory (con 16-32 processori per nodo e una memoria di nodo
di qualche decina di GB), che sarebbe adeguata per l'esecuzione di questa
classe di analisi. E' possibile studiare sia strategie di parallelizzazione a
memoria distribuita “extra-nodo” che strategie di “batch processing” che
analizzino contemporaneamente diverse configurazioni di rete. La taglia delle
matrici dell'ordine di grandezza di quelle presentate nella tabella, od anche
molto superiori, consentirebbe la presa in carico di reti anche molto
complesse, di qualunque topologia, o di frazioni rilevanti di reti di
dimensioni maggiori.
Partner
·
Università
di Catania Dipartimento di Fisica
·
Università
di Roma “Tor Vergata” - Dipartimento di Informatica, Sistemi e Produzione
SP III.2 Analisi di Vulnerabilità delle Reti Complesse
Si pone
l’obiettivo di studiare la vulnerabilità di reti complesse in termini di affidabilità, sicurezza, qualità di servizio
e prestazioni, con particolare riferimento alle reti di regolazione, controllo
ed automazione, globalmente e comunemente indicate con il nome di cyber layer. Il cuore del cyber layer sono le reti di telecomunicazione, anche “multi-hops”
e pubbliche e le reti informatiche.
Questa attività, intende rispondere alle seguenti domande:
·
Quali
sono gli indicatori di vulnerabilità delle reti e di interconnessione tra reti.
·
Quali
sono gli indicatori di interconnessione e vulnerabilità delle reti di
telecomunicazione che meglio caratterizzano le loro proprietà di sicurezza,
prestazioni e qualità di servizio
·
Qual
è l’interazione delle possibili vulnerabilità delle reti di telecomunicazione
sulle altre reti tecnologiche che le includono.
L’obiettivo dell’attività sarà perseguito attraverso:
1.
La
formulazione di nuove teorie, l’investigazione di codici di analisi e la
costruzione di modelli funzionali alla
predizione della vulnerabilità di reti
complesse e delle loro reti di comunicazione nelle possibili condizioni di
funzionamento normale, oppure degradato e/o riconfigurato a seguito di eventi
avversi (i.e. guasti, anomalie, intrusioni).
2.
La
realizzazione di un ambiente di modellazione, costituito da un insieme di
codici di analisi funzionali alla predizione di
indicatori di interconnessione e di vulnerabilità di reti complesse, con
particolare riferimento alle loro reti di comunicazione. L’ambiente di
modellazione consentirà di costruire modelli compositi, costituiti da una gerarchia di sotto modelli eterogenei,
seguendo le tre direttrici principali:
a)
Verifica
formale automatica tramite model checking, per l’analisi funzionale ed
esaustiva delle proprietà desiderate/indesiderate.
b)
Predizione
stocastica degli indicatori di
vulnerabilità tramite formalismi stocastici (i.e. Alberi di guasto, Reti di Bayes,
Catene di Markov, Reti di Petri),
per l’analisi stocastica, analitica e/o
simulativa delle proprietà di sicurezza, prestazioni e qualità di servizio.
c)
Analisi
degli indicatori di interconnessione mediante metodi e strumenti basati
sulla teoria dei grafi.
3.
La
valutazione dei limiti e delle potenzialità dell’ambiente di modellazione come
strumento di supporto alle decisioni in tempo reale.
Fig. 18 Ambiente di
modellazione per l’Analisi di Vulnerabilità di Reti Complesse
Gli analizzatori
stocastici (i.e. Fault Trees,
Reti di Bayes, Catene di Markov e Reti di Petri) sono tra gli strumenti
più adeguati per la predizione
quantitativa degli indicatori di vulnerabilità (indisponibilità,
indaffidabilità, degradazione della qualità di servizio in presenza di eventi indesiderati)
dei sistemi complessi. Il tasso di crescita dello spazio degli stati di una
Rete di Petri, un esempio di analizzatore stocastico di elevata complessità, e’
funzione dalla quantità di parallelismo della rete che a sua volta dipendente
dal numero delle transizioni che possono essere contemporaneamente abilitate.
Se le transizioni sono temporizzate secondo una variabile casuale distribuita
esponenzialmente,
Articolazione delle attività
Per la formulazione di nuove teorie
ed investigazione di codici di analisi
funzionali alla predizione della
vulnerabilità sono previsti i seguenti passi realizzativi:
Per la realizzazione dell’ambiente di
modellazione che ospita i codici, le
ostruzioni principali per le tre direttrici di analisi (verifica formale
automatica, analisi stocastica per la predizione degli indicatori di
vulnerabilità e analisi degli indicatori di interconnessione) riguardano l'occupazione
di memoria statica ed il tempo di calcolo. Ad esempio, per quanto riguarda la
verifica formale automatica tramite model checking, 4G di RAM si riempiono
rapidamente a causa della state explosion e nella verifica di uno degli ultimi
cache coherence protocols, INTEL ha riportato 40 (quaranta!) giorni
calcolo. I codici di analisi saranno
ospitati su nodi di calcolo con
architetture multiprocessore con memoria
condivisa e con la coesistenza di differenti sistemi operativi. Tali nodi di calcolo potrebbero
fronteggiare l’occupazione di memoria statica ed il tempo di calcolo,
diventati ormai grossi colli di
bottiglia. E’ necessario:
1.
Investigare
codici di analisi distribuibili ed eseguibili su nodi di calcolo collegati in GRID. Tali codici devono tener conto del
partizionamento del modello tra le varie macchine. Un evento eseguito da un
processore può influenzare un sotto modello assegnato ad un altro processore.
Ove possibile, i codici permetteranno di disegnare i modelli mediante strumenti grafici e poi di eseguire
automaticamente, in modo trasparente all’utente tutti gli steps per la
modellizzazione.
2.
Evidenziare
i limiti e le potenzialità dell’ambiente di modellazione come strumento
distribuito, multi utente per il supporto alle decisioni in tempo reale.
Partner:
Università di Lecce – Dipartimento di Matematica
Università del Piemonte Orientale – Dipartimento di
Informatica
SP III.3 Modelli e
Strumenti di supporto alla Ottimizzazione e Riconfigurazione delle Reti
Si pone l’obiettivo di realizzare un Sistema di Supporto
alle Decisioni avente lo scopo di suggerire in tempo reale una strategia di
riconfigurazione di reti tecnologiche complesse, in particolare reti
elettriche, nelle quali uno o più dei suoi componenti siano stati danneggiati
per cause naturali, attacchi terroristici o guasti. Pur essendo già disponibili
agli operatori procedure che prevedono l’attuazione di interventi di recupero
in caso di perdita di parti della rete, esse sono per forza di cose limitate ad
un numero finito di condizioni di guasto e di stati di funzionamento. Il
sistema proposto vuole generalizzare questo tipo di soluzione consentendo di
generare una risposta rispetto al set praticamente infinito di stati di
funzionamento in cui la rete potrebbe trovarsi. Questa attività intende
rispondere alle seguenti domande:
·
Quale
è il modello di rete più appropriato per l’ottimizzazione delle politiche di
riconfigurazione
·
Quale
è l’algoritmo di ottimizzazione in grado di ricercare nello spazio delle
possibili configurazioni di rete quelle che favoriscono la sostenibilità del
servizio a parità di costo.
·
Quale
è la complessità computazionale per avere soluzioni faster-than-real-time
La caduta di uno dei
componenti della rete elettrica, è una situazione che viene definita come stato
di funzionamento “n-
Una ulteriore difficoltà è anche rappresentata dal fatto che
le suddette azioni di recupero debbono essere in molti casi eseguite da
operatori diversi, come è successo nell’ultimo black-out del settembre
Si prevedono le seguenti attività di analisi e
specificazione del problema:
·
definizione
del guasto e riproduzione ed analisi della configurazione della rete al momento
del guasto; in questa configurazione saranno presenti elementi essenziali (di configurazione, non
suscettibili di variazioni) ed altri, modificabili,
sui quali può essere imperniata una procedura di ottimizzazione
·
definizione
della suddetta procedura, basata su un loop
genetico ottimizzante, che dovrà essere in grado di ricercare, nello spazio
delle possibili configurazioni di rete ottenibili agendo sugli elementi
modificabili, quelle che più favoriscono la sostenibilità del servizio e che
abbiano un ragionevole costo di attuazione.
·
la
bontà di ciascuna configurazione (funzione di “fitness”) viene valutata
attraverso il comportamento di parametri caratteristici della rete che dovranno
essere individuati (quali i profili di tensione, gli sfasamenti etc.) e
generati mediante un simulatore di “load-flow” della rete elettrica.
Le soluzioni trovate dovranno contemperare la presenza del
guasto (che viene immesso nelle configurazioni come elemento essenziale) con quella di una serie di
modifiche agli elementi modificabili che, se adottate dall'operatore, potranno
consentire di mantenere la funzionalità della rete.
L’obiettivo sarà realizzato attraverso le seguenti attività:
1.
acquisizione
di un simulatore elettrico di calcolo dei “load-flow” della rete elettrica e
definizione di un modello di rete elettrica sufficientemente esteso incluso in
un file di configurazione di tipo PSS, integrabile nel simulatore.
2.
progettazione
e sviluppo di uno o più algoritmi per l'ottimizzazione delle azioni di
configurazione in presenza del guasto attraverso la valutazione della loro
capacità di incrementare la sostenibilità del servizio compatibilmente con i
costi di attuazione.
Il simulatore in (1) é un SW proprietario, al quale dovranno
essere interfacciati gli algoritmi in (2).
Se per quanto riguarda la memoria, attualmente è possibile
disporre di memorie di nodo sulle principali architetture fino a qualche GB,
per quanto riguarda la seconda richiesta sarebbe auspicabile far ricorso ad un
simulatore elettrico il cui file eseguibile sia disponibile su molte
piattaforme (OS) diverse. Il ricorso ad un codice open-source potrebbe essere auspicabile, qualora esso mostrasse
caratteristiche di affidabilità e di robustezza tipici di codici commerciali.
Inoltre il codice open-source,
consentendo l'accesso diretto al sorgente, potrebbe favorire l'interconnessione
tra gli elementi (1) e (2). Questo requisito non è, tuttavia, prioritario;
l'interfacciamento sarebbe comunque realizzabile attraverso la realizzazione di
un parser per la lettura/scrittura di
files xml (i files PSS/E) che verrebbe fornito al simulatore come input.
Uno degli algoritmi in (2) verrà messo a punto, in
collaborazione con l'Università di
Palermo e sarà costituito da un loop ottimizzante, basato su un
algoritmo genetico eventualmente supportato anche da altri metodi di ricerca
operativa, che produrrà generazioni successive configurazioni ottime,
attraverso la "valutazione" della loro qualità come precedentemente
descritto.
Lo studio della parte (1), e la interazione con la parte
(2) verranno condotti in collaborazione
con L’Università di Salerno,
che, facendo uso di competenze di ingegneria elettrica delle reti, si occuperà
anche di proporre e sperimentare uno o più algoritmi alternativi rispetto a
quelli basati su tecniche evolutive in modo tale da poter fare dei confronti in
termini di efficacia ed efficienza.
Per una efficace soluzione del problema la piattaforma HW
per il test degli algoritmi dovrà disporre di un numero di nodi almeno pari al
numero k dei file di configurazioni che costituiscono una generazione
dell'algoritmo genetico. Come é noto, dato un problema di ottimizzazione, il numero
degli elementi delle popolazioni di soluzioni che costituiscono una
"generazione" é un parametro
che, in genere, viene empiricamente determinato cercando di ottimizzare la
"varietà" delle soluzioni evitando la difficoltà, che interviene
quando la varietà é eccessiva, nella convergenza stessa dell'algoritmo. Questo
ed altri parametri verranno stabiliti anche in funzione della dimensione del
problema.
Partner
Università di Palermo – Dipartimento
di Ingegneria Informatica
Università di Salerno – Dipartimento
di Ingegneria dell’Informazione e Matematica Applicata
III.4 Modellistica delle Reti
Complesse viste come aggregati Socio-Tecnologici
Si pone l’obiettivo di studiare come dal punto di visto
formale, teorico e di modellazione si
possa rappresentare un sistema socio-tecnologico composto da reti organizzative
che gestiscono reti tecnologiche. Esso è un ulteriore livello di difficoltà
rispetto alla modellistica della componente fisica in quanto comporta la
necessità di modellare sistemi di natura ibrida, cioè consistenti da elementi
fisici ed elementi umani, ognuno dei quali con le proprie leggi di relazione.
Questa attività intende rispondere alle domande:
·
Come
si può modellare un sistema Socio-Tecnologico e in particolare le interazioni
tra la rete sociale di governo e la rete tecnologica usata per fornire il
servizio.
·
Quali
sono gli elementi fondamentali da considerare per valutare le interazioni tra i
diversi strati di una rete complessa.
·
Esiste
un formalismo comune che permette di modellare i diversi aspetti.
Come confermano gli ultimi blackout elettrici italiani e
americani, gli errori umani svolgono un ruolo essenziale nei processi
decisionali e nella conseguente pianificazione delle procedure da adottare. La
simulazione è uno strumento necessario per la valutazione dell’efficacia delle
strutture organizzative, delle reti di
competenze richieste e dell’acceso all’ informazioni.
I modelli socio-cognitivi
sono elementi cruciali per il supporto decisionale di operatori e di
manager in diversi domini reali, come per esempio, gestione delle emergenze
territoriali, di impianti industriali o complesse infrastrutture critiche per
la società, come le reti energetiche e le reti di comunicazione
In questo contesto sono richiesti strumenti e tecnologie avanzate di
simulazione ad alte prestazioni, per esempio piattaforme di calcolo parallelo.
Solo in un tale ambiente si può realizzare il cosi detto “emergency game” che permette di analizzare delle varianti
decisionali per pianificare interventi “what-if analysis” , anche nel tempo
reale.
L’obiettivo principale di questa attività è quello di identificazione e
di sviluppo dei modelli di simulazione di processi cognitivi e decisionali
nelle reti socio-cognitive, cioè diverse organizzazioni e comunità umane che
gestiscono le grandi Reti Tecnologiche o ne sono utenti. Tale obiettivo
richiede studi teorici e lo sviluppo di ontologie e metodologie integrate per
la modellazione dei sistemi complessi eterogenei che comprendano al proprio interno
entità decisionali (un manager o una unità manageriale).
Fig.19
Schema di interazione tra organizzazioni umane e infrastrutture tecnologiche
complesse
La modellazione e simulazione dell’aggregato
socio-tecnologico prevede la comprensione della dinamica delle organizzazioni e
il confronto tra strutture organizzative e loro meccanismi decisionali. Per
tale scopo sono particolarmente adatti la modellazione e le tecnologie basate
sulle organizzazioni ad agenti intelligenti distribuiti. Le tecnologie ad
agenti intelligenti (Intelligent Agent Technologies and Web Intelligence) forniscono
strumenti concettuali e pratici per modellare e costruire sistemi
software sempre più articolati, più autonomi e potenti. Per esempio, con
astrazioni espressive come agenti intelligenti cognitivi, società di agenti e loro ambiente,
infrastrutture distribuite ad agenti, piattaforme di Agent-Oriented
Software Engineering.
Per una efficacia simulazione del
funzionamento dell’organizzazione umana e della sua interazione con le
infrastrutture tecnologiche, è necessario l’uso delle capacità di calcolo
parallelo del Centro di Simulazione. Il
parallelismo è richiesto per la simulazione dei singoli processi decisionali di
agenti cognitivi, “autonomus
decision-making” (D-M autonomo) sul
livello conscio e subconscio (con componente emozionale), e per l’integrazione
dei singoli processi durante processi di “cooperative
decision-making” (D-M collaborativi) nella gestione di eventi che
coinvolgono diverse reti complesse in cascata.
Pianificazione
delle attività
Identificazione e tassonomia della vulnerabilità dei processi
decisionali nell'ambiente socio-tecnologico
L’attività
si svilupperà attraverso:
Modellazione computazionale della rete socio-cognitiva
L’attività comprende:
Modellazione socio-cognitivo-tecnologica di reti cooperanti
L’attività si svilupperà
attraverso l’integrazione dei modelli socio-cognitivi e socio-tecnologici in
una rete complessa multi-strato, e un dimostratore di simulazione integrata
tipo “what-if” su piattaforma di
calcolo ad alte prestazioni.
Partner
·
Università di Roma “Tor Vergata”, (Dip.to di
Ingegneria dell’Impresa
·
ECONA (Centro Interuniversitario per Processi
Cognitivi nel Sistemi Naturali e Artificiali)
III.5 Interdipendenza tra Reti
Complesse
Si pone l’obiettivo di studiare il fenomeno delle
interdipendenze con un approccio di tipo What
if e con una visualizzazione dei risultati il più possibile aderente alla
realtà, facendo anche uso di tecnologie di realtà virtuale. Esso è un ulteriore
livello di difficoltà rispetto alla modellistica di una sola rete in tutte le
sue componenti in quanto comporta la modellistica di tutte le interazioni
prevedibili tra diverse infrastrutture. Questa attività intende rispondere alle
domande:
·
Come
modellare un insieme di reti complesse tra loro interdipendenti.
·
Quale
è il peso dei parametri spaziali ed economici sul fenomeno delle
interdipendenze, ossia come si possono progettare reti assolutamente autonome.
·
Quale
è il contributo del cyber layer alla
interdipendenza delle reti e come valutare i rischi ad esso legati.
Lo scopo
dell’attività di ricerca è sviluppare una metodologia e alcuni codici di
integrazione dei modelli di simulazione
con una visione unitaria rivolta non tanto a fare delle previsioni di settore
ma a studiare le interdipendenze tra le varie infrastrutture e fornire delle
indicazioni ai decisori responsabili della gestione delle situazioni di crisi.
Lasciando quindi le responsabilità di sviluppo dei modelli di settore ai
gestori e/o proprietari delle infrastrutture di settore, il Centro di
Simulazione si prende cura soltanto delle attività di analisi delle
interdipendenze, con un approccio di tipo What
if.
Fig. 20 Schema delle interdipendenze di
infrastrutture critiche
Data la complessità del problema e la molteplicità degli
operatori in gioco va pensata una soluzione distribuita in cui i vari operatori
possono far girare i loro codici mettendo a disposizione i risultati. Non è nemmeno ipotizzabile una
standardizzazione del software e dei sistemi operativi in quanto molti dei
codici che dovranno essere messi insieme saranno codici proprietari sviluppati
in epoche diverse, basta pensare ai codici di simulazione del comportamento
della rete elettrica o del comportamento del traffico in presenza di eventi
esterni. Bisognerà quindi pensare ad una soluzione in cui ogni operatore
metterà a disposizione sia i propri codici di simulazione sia i risultati su
nodi proprietari particolarmente dotati in termini di capacità di calcolo. Il
Centro di Simulazione dovrà quindi realizzare un Application Server, che risiederà nel Centro di Simulazione stesso,
mediante il quale fornirà una serie di servizi agli utenti finali. Tali
servizi verranno erogati sia sfruttando le capacità di calcolo proprie del
Centro di Simulazione sia sfruttando, in maniera trasparente all’utente, le
capacità di simulazione derivanti dall’utilizzo dei vari codici di simulazione
messi a disposizione degli operatori. Per quanto riguarda l’interfacciamento
tra l’Application Server e i codici di simulazione, poiché quest’ultimi, come
già detto, rappresentano delle strutture di tipo “legacy”, è pensabile la
realizzazione di moduli “wrapper” che da una parte colloquiano con il codice di
simulazione in maniera tradizionale e dall’altra comunicano con l’Application
Server utilizzando, ad esempio, la tecnologia dei Web Services che sfrutta XML
come per la rappresentazione dei dati e HTTP/SOAP come protocollo per il
trasferimento delle informazioni; in questo modo l’interazione tra il Centro di
Simulazione e i nodi in cui risiedono i codici di simulazione avverrà, ovunque
essi risiedano, senza problemi e/ostacoli derivanti da eventuali firewall e
protezioni particolari. In tale scenario un modulo dell’Application Server può sia
richiedere dei semplici dati ad un nodo in cui risiede un codice di simulazione
sia richiedere l’esecuzione del codice stesso con un particolare input. Tale
richiesta di esecuzione potrebbe essere sia sincrona che asincrona. Nel primo
caso il modulo richiedente invia la richiesta di esecuzione e attende gli
eventuali risultati per proseguire la propria elaborazione. Nel secondo caso il
modulo richiedente invia la richiesta ma non attende il termine dell’esecuzione
del codice di simulazione e degli eventuali risultati; prosegue la sua
elaborazione e solo in seguito richiederà i risultati derivanti dall’esecuzione
del codice di simulazione.
Lo scenario finale che si potrebbe
ipotizzare è il seguente: utenti provenienti da varie organizzazioni
potrebbero, tramite Internet, accedere ai servizi del Centro di Simulazione
previa registrazione e creazione di un account personale. Tali servizi
sarebbero comunque legati ai temi derivanti dall’utilizzo dei codici di
simulazione di cui sopra per cui gli utenti non sarebbero utenti generici bensì
utenti specializzati su questo tipo di tematiche. Gli utenti, una volta
registrati, potrebbero quindi impostare le proprie richieste e mandarle in
esecuzione, anche queste, come detto sopra, sia in modalità sincrona che asincrona.
Terminata l’esecuzione gli utenti potrebbero visualizzare gli eventuali risultati.
In un contesto in cui modelli e
simulatori specializzati sono messi a disposizione da diverse organizzazioni,
sia come forma di servizi, sia come componenti software che andranno ad
utilizzare le risorse di calcolo di una rete grid, ha senso andare ad
introdurre dei concetti di qualità del servizio offerto e garantito. In un
contesto come quello dell’analisi delle interdipendenze per la predizione di
catastrofi o situazioni critiche, gli utenti possono richiedere servizi a basso
costo e senza stringenti vincoli sul tempo di risposta, oppure richiedere
servizi con stringenti vincoli sul tempo di risposta “soft real-time” ma senza
limitazioni sul costo del servizio. Inoltre i risultati delle simulazioni
saranno indubbiamente dati estremamente sensibili. Ha quindi senso introdurre
il concetto di Service Level Agreement stabilito tra chi richiede il servizio
ed il Centro di Simulazione. Ad esempio possono essere previsti servizi, a
basso costo, per chi deve realizzare una semplice fase di studio preventivo e
quindi non ha stringenti vincoli sul tempo di esecuzione della propria
simulazione; al contrario, per chi si trova in una fase di allerta o critica
possono essere offerti sevizi, ad costo più elevato, ma con tempi di risposta
“soft real-time”, compatibilmente con il tempo minimo di simulazione.
Quello della qualità del servizio
nelle reti grid è un problema aperto, sempre più ricorrente, ed è stato
recentemente affrontato in diversi lavori di ricerca. Il Centro di Simulazione
quindi, nella realizzazione del front-end per l’accesso ai servizi di
modellistica e simulazione per le interdipendenze dovrà considerare il concetto
di SLA (contrattato tra l’entità che si registra al servizio ed il centro di
simulazione stesso) nella fase di registrazione al servizio, ed inoltre
dovranno essere introdotti, nella rete di accesso alle risorse, meccanismi di
scheduling delle applicazioni tali da poter garantire i SLA contrattati.
L’obiettivo del sotto-progetto sarà realizzato attraverso le
seguenti attività, per alcuni aspetti complementari e mirate ad esplorare
diversi approcci alla risoluzione di un problema ad oggi intrattabile con gli
strumenti concettuali e tecnologici disponibili..
L’obiettivo di questa attività è quello di riuscire a
descrivere in maniera formale e/o comportamentale la struttura ed il funzionamento
di reti complesse ed eterogenee, costituite da sottoreti di natura diversa
(reti elettriche, reti di telecomunicazioni, ecc.) che possibilmente
interagiscono tra di loro tramite lo scambio di informazioni e tramite
interdipendenze tra le proprietà delle sottoreti.
Le reti considerate avranno caratteristiche dinamiche ed in
particolare i nodi costituenti le reti potranno essere descritti come sistemi
che evolvono nel tempo in base ad ingressi esterni asincroni ed in base alle
interrelazioni con gli altri nodi.
La topologia delle sottoreti sarà anche essa di natura
dinamica ed eventualmente dipendente dallo stato dei nodi e delle sottoreti.
In questo scenario appare evidente come un approccio
metodologico e formale per la modellizzazione di tali sistemi complessi sia di
per sé interessante per la risoluzione non solo di problemi di analisi ma anche
per la messa a punto di tecniche di simulazione dedicate.
Analisi del comportamento dinamico della rete in seguito a situazioni
di riconfigurazione interna e/o esterna ed in seguito ad eventuali guasti e
malfunzionamenti di sottoparti della rete
I risultati
della precedente attività verranno impiegati per poter “prevedere” in qualche
maniera il comportamento nel tempo delle reti soggette ad azioni esterne e/o ad
eventi legati allo stato stesso della rete e delle sue sottoparti. La modifica
della topologia della rete, lo scambio di informazioni, l’interdipendenza tra
le varie sottoreti rendono estremamente complicato lo studio dinamico di tutto
il sistema complesso. Questa attività cercherà di fornire delle metodologie che
consentano di predire al meglio l’evoluzione temporale della rete anche in
presenza di eventi atipici, quali guasti e malfunzionamenti di sottoparti. E’
plausibile che un buon modello della rete ricavato durante l’attività
precedente, possa consentire una buona predizione degli effetti che un
malfunzionamento può indurre su tutto il sistema. Raggiungere questo obiettivo
rappresenta senz’altro un significativo apporto alla Ricerca foriero di
numerose ricadute applicative.
Tecniche di ottimizzazione statica e
dinamica applicate alla progettazione ed alla gestione delle reti complesse
Saranno definite tecniche per l’ottimizzazione di reti e
delle loro sottoparti. I modelli formali consentiranno l’utilizzo di tecniche
analitiche di ottimizzazione basate sulla programmazione nonlineare (continua,
intera e/o mista) mentre eventuali modelli comportamentali verranno impiegati
per mettere a punto tecniche di ottimizzazione più euristiche che sfruttino
anche la potenza di calcolo fornita dall’infrastruttura computazionale oggetto
del progetto di Ricerca.
I problemi di ottimizzazione considerati saranno sia di tipo
statico che dinamico e consentiranno tanto di risolvere problemi di design
della rete quanto di determinare le “migliori” strategie possibili di gestione
della rete tenendo conto del comportamento temporale della stessa.
Modellistica e
Simulazione ad Agenti
Uno degli approcci più promettenti per l’analisi delle interdipendenze
tra reti complesse è quello della così detta modellistica ad agenti (Agent-based).
L’idea fondamentale che guida questi modelli è che comportamenti complessi
possano essere il frutto delle interazioni tra agenti che operano sulla base di
regole semplici che, nel loro interagire fanno emergere quelle caratteristiche
comportamentali che caratterizzano il comportamento collettivo del sistema. Ciò
non è altro che la trasposizione degli approcci comportamentali biologici o
sociologici che enfatizzano come l’aggregazione ordinata di individui di una
determinata specie comporta l’insorgenza di comportamenti non “prevedibili” a
partire dallo studio del singolo individuo isolato, ad esempio si pensi a come
l’aggregazione di milioni di api comporti la creazione del soggetto alveare con
dinamiche e proprietà non derivabili dalla semplice aggregazione.
L’idea è quella di studiare le infrastrutture critiche utilizzando un approccio bottom-up: cioè a dire
modellare l’intero sistema partendo dalle componenti individuali (modellate
mediante agenti). Un modello dell’intero sistema è quindi ottenuto
inter-connettendo agenti, ossia sistemi indipendenti che elaborano,
autonomamente, risorse e informazioni, producendo degli output, i quali a loro
volta diventano input per altri agenti, e così via.
Per l’implementazione
del modello di interazione si farà uso di ambienti di modellazione e simulazione ad agenti, come ad esempio SWARM
(http://wiki.swarm.org/wiki/Main_Page
) o RePast (http://repast.sourceforge.net/
).
Integrazione di simulatori già disponibili
In questo
caso si seguirà un approccio ibrido in cui vengono utilizzati più strumenti
(simulatori basati su diverse metodologie), ognuno specializzato nella
simulazione del comportamento di uno o più componenti (infrastrutture) del
sistema. Ciascun simulatore è dunque visto come un agente che interagisce,
mediante scambio dei risultati parziali o totali con gli altri simulatori.
Rientra in questa categoria il Sistema EPOCHS:
Electric Power and Communication SyncHronizing Simulator sviluppato alla
Cornell University. Esso è un simulatore nato per studiare l’interazione
diretta fra rete di trasporto dell’energia elettrica e la rete di
comunicazione. In particolare il sistema integra, ricorrendo ad un approccio
multi-agente, alcuni dei simulatori più diffusi nei diversi ambiti e più
specificatamente: PSCAD/EMTDC per l’analisi dei transienti elettromagnetici,
PSLF per l’analisi dei transienti elettromeccanici e Network Simulator 2 (NS2)
per l’analisi delle comunicazioni di rete tramite protocolli TCP e UDP. Ognuno
di questi simulatori viene visto come un agente che interagisce con gli altri
comunicando i risultati delle diverse simulazioni tramite un agente che opera
come un proxy. Il tutto grazie alla presenza di una Runtime
Infrastructure (RTI) che ha il compito di gestire la sincronizzazione e il
routine delle comunicazioni fra i diversi agenti. Operando i diversi simulatori
su differenti scale temporali è compito del RTI far si che nessuno dei
simulatori possa processare eventi con time-stamp successivo ad almeno
uno che sia ancora in fase di elaborazione.
Partner
CRIAI – Consorzio Campano di Ricerca per l’Informatica e
l’Automazione Industriale, Portici (NA)
Università di Salerno - Dipartimento di Ingegneria
dell’Informazione e Matematica Applicata
Università di Roma “Tor Vergata” - Dipartimento di Informatica, Sistemi e Produzione
Università del Sannio,
Benevento – Dipartimento di Ingegneria
III.6
Sistema Informativo per
L’obiettivo principale delle attività condotte dall’Unità CLIM-OSTES nell’ambito del progetto è quello di progettare e realizzare un innovativo sistema informativo geografico per la salvaguardia e la sicurezza della popolazione, delle infrastrutture e del territorio.
La effettiva possibilità di prevenire situazioni potenziali di crisi sul territorio, dovute a fattori antropici (atti terroristici o cause accidentali) o naturali, nonché la capacità di reagire tempestivamente a crisi già in atto diventano, in tal modo, risultati raggiungibili mediante i seguenti fattori:
1) La disponibilità di informazioni geografico-territoriali che forniscano una descrizione “virtuale” del territorio dettagliata ed aggiornata;
2) La disponibilità di sistemi informativi tecnologicamente allo stato dell’arte e dotati anche di capacità di elaborazione e restituzione 3D nonché di prestazioni tali da elaborare in tempo reale una enorme mole di dati;
3) La progettazione e l’implementazione di algoritmi e processi di analisi delle informazioni territoriali dedicati alla specifica esigenza.
L’obiettivo finale è, dunque, quello di realizzare strumenti e sistemi informatici, mai finora realizzati, che, sfruttando le informazioni ricevute da sensori al suolo e satellitari, aiutino a definire e adottare misure idonee a contrastare le situazioni di crisi o di pericolo e a migliorare la salvaguardia della popolazione. Per raggiungere tale obiettivo, si rende necessaria la presenza di elaboratori particolarmente dotati in termini di capacità di calcolo ed in grado di processare e gestire l’enorme mole di dati necessari allo scopo.
Le informazioni geografico-territoriali necessarie al fine di conseguire i risultati descritti al punto 3.4 non sono attualmente disponibili in Italia, almeno in forma diretta ed esplicita nonché direttamente utilizzabile per processi elaborativi. Tuttavia, i sistemi di osservazione aerospaziale offrono un concreto contributo per ottenerle, con l’adeguato dettaglio, e, soprattutto, con l’aggiornamento temporale necessario.
La progettazione e la realizzazione di un sistema per la salvaguardia della popolazione comporta una forte attività di R&ST in quanto, attualmente, non sono note iniziative italiane relative a progetti analoghi.
Sino ad ora le informazioni geografiche, in senso lato, sono state processate soprattutto a fini di studio e pianificazione del territorio e quindi per la sua salvaguardia e/o il suo sfruttamento sostenibile. Si tratta ora di cambiare prospettiva e di osservarlo con un’ottica, per così dire, di tipo diagnostico. In tal senso occorre, innanzitutto, progettare e sviluppare processi di elaborazione e procedure di analisi incrociate che pongano in evidenza i siti di vulnerabilità, soprattutto rispetto ad attacchi terroristici e catastrofi naturali. Per siti di vulnerabilità possono essere intesi singoli elementi quali ospedali, ponti, industrie ovvero aree in cui si concentrano più elementi sensibili o, al limite, interi abitati. A tale scopo sarà necessario sviluppare processi simulativi con cui stimare, in quei siti, gli effetti, i danni e le conseguenze sulla popolazione e sulle infrastrutture di comunicazione dovuti ad ipotetici attacchi o eventi disastrosi naturali.
Sul piano delle azioni/attività da svolgere per arrivare, dapprima, alla progettazione e, successivamente, alla realizzazione del sistema informativo geografico per la salvaguardia e la sicurezza della popolazione, delle infrastrutture e del territorio, va sottolineato che occorre fare ricorso alla organica integrazione dei contenuti di due vasti settori disciplinari tecnico-scientifici quali l’osservazione aerospaziale e i GIS (Geographic Information Systems). Le tecniche ed i sistemi della prima disciplina sono necessari come base di conoscenza per ottenere la ricostruzione tridimensionale del territorio in modo rapido, efficace ed a costi molto ridotti rispetto alle tecniche usuali; i metodi e gli strumenti della seconda sono essenziali per la realizzazione dello strumento di analisi e previsione dei fenomeni sopra descritti.
Pertanto, le attività progettuali necessarie per la realizzazione operativa di uno sistema informativo così innovativo si articolano in due macro-linee di ricerca, strettamente interconnesse ai fini del conseguimento del risultato finale. Tali linee di attività si identificano rispettivamente, sia dal punto di vista logico che da quello temporale, nei seguenti obiettivi:
a. studio e sviluppo di metodi elaborativi, che partendo da rilevamenti aerospaziali consentano la ricostruzione di un modello geometrico tridimensionale del tessuto del territorio, in modo automatico ed escludendo l’intervento dell’operatore umano.
b. studio e sviluppo di un sistema informativo geografico che consente di effettuare analisi e/o previsioni sulle situazioni potenziali di crisi sul territorio, nonché le loro conseguenze non solo sulla popolazione ma anche sulle strutture fisiche ed infrastrutture presenti sul territorio medesimo.
Una terza linea di attività complementare ad entrambe le suddette azioni di ricerca è rivolta alla progettazione ed esecuzione di specifiche campagne di rilievo e di misurazione sul campo. Saranno, infatti, pianificate e condotte delle campagne di rilevamento punti (mediante GPS) allo scopo di ottenere Punti di Controllo a Terra necessari per la triangolazione delle immagini telerilevate e la georeferenziazione con elevato livello di dettaglio di tutti i risultati conseguiti.
Avere a disposizione in formato digitale i parametri geografici necessari per descrivere a grande scala la geometria 3D del territorio (fino al dettaglio del singolo edificio) costituisce il punto di partenza basilare per lo sviluppo delle applicazioni in oggetto.
Sarà, pertanto, necessario sviluppare innovativi e originali algoritmi e metodologie elaborative, finalizzati alla produzione automatica di modelli digitali di aree densamente urbanizzate, a partire da rilevamenti aerospaziali, i quali dovranno essere integrati con altri dati di natura geografica e cartografica. In tal modo si otterranno le informazioni geografico-territoriali necessarie allo scopo: esse possono essere raggruppate secondo tematismi ben definiti, detti anche strati informativi, in funzione del particolare obiettivo da raggiungere. Nel caso in esame un possibile insieme di raggruppamenti potrà essere il seguente:
- Mappatura geografica dettagliata della zona territoriale di interesse e sua ricostruzione tridimensionale.
- Mappatura dettagliata, aggiornata e aggiornabile degli insediamenti urbani.
- Mappatura delle diverse categorie di infrastrutture sul territorio potenzialmente soggette ad attacchi terroristici e/o situazioni accidentali. Per esempio, Strade; Autostrade; Ponti; Ferrovie; Aeroporti; Riserve d’acqua; Invasi e Dighe; Depositi di petrolio; ecc.
- Mappatura delle strutture “sensibili” specificatamente presenti nelle aree urbane. Ad esempio, Grandi edifici, Infrastrutture, Monumenti, Luoghi per spettacoli, ecc.
- Mappatura della distribuzione della popolazione anche in relazione alla sua prossimità con le strutture sensibili. Questo tipo di informazione è correlabile col primo e riguarda fattori chiave come la numerosità e la distribuzione della popolazione, per esempio, a valle di una diga ovvero nelle aree immediatamente limitrofe a tratti ferroviari.
- Individuazione e mappatura delle aree soggette a degradazione del territorio (ad es., erosione delle coste), ovvero a potenziali rischi provenienti da “eventi estremi” di origine naturale.
- Individuazione e mappatura delle aree con elevato grado di criticità in termini di rischio di desertificazione.
Fig. 21 – Esempio di mappatura dei siti sensibili sul territorio
nazionale
Diviene, pertanto, importante la localizzazione di siti in cui il singolo elemento o la prossimità di due o più di questi elementi risultino tali da costituire una situazione di particolare pericolo e criticità sia in caso di “eventi estremi” causati da fattori naturali, sia in caso di situazioni di crisi derivanti azioni terroristiche o accidentali. Ad esempio, una ferrovia che passi in prossimità di un nodo autostradale che, a sua volta, sia contiguo ad un deposito di carburante o ad un grande edificio costituiscono chiaramente un sito altamente vulnerabile.
Una volta localizzate queste situazioni di criticità si può ipotizzare e simulare un certo tipo di evento (ad esempio deragliamento del treno) e procedere alla valutazione degli effetti ed alla conseguente stima dei danni, tenendo in debito conto la distribuzione della popolazione intorno al sito.
Fig. 22 – Esempio di individuazione di elementi sensibili sul
territorio (ricostruzione tridimensionale)
La
presenza di elaboratori potenti e lo sviluppo di specifici algoritmi di elevate
prestazioni è un requisito fondamentale per la realizzazione di procedure di
calcolo innovative atte ad elaborare le informazioni geografiche e tematiche,
al fine di fornire rapidamente indicazioni utili in risposta agli eventi
presentatisi, naturali o innescati dall’uomo.
3.5 Innovatività
e originalità delle attività di ricerca
Fornire
elementi finalizzati a dimostrare il grado di innovatività delle attività di
ricerca previste con riferimento sia ai contenuti sia alle metodologie proposte
rispetto a quanto attualmente offerto dal contesto nazionale.
Nota Bene: per necessità di chiarezza
nell’esposizione, in questo paragrafo ci si limita a riportare le principali
considerazioni relative all’innovatività del Centro Computazionale nel suo
insieme. Considerazioni più puntuali sull’innovatività degli interventi
proposti nei singoli Sottoprogetti sono contenute nelle descrizioni fornite al
§ 3.4.
Negli ultimi
anni è avvenuta una naturale convergenza tra svariate aree applicative; interi
domini delle scienze, inizialmente distinti e scarsamente comunicanti, hanno
iniziato ad integrarsi fortemente, spesso a tal punto da essere assimilabili ad
un unico corpo di metodologie, finalmente trasversali e multidisciplinari,
finalizzate ad un reale avanzamento della conoscenza. Questo trend è il frutto di un nuovo paradigma
della scienza che inizia a trovare interazioni e regolarità all’interno di
modelli con cui essa cerca di spiegare il reale. Questa regolarità non è
percepita come una casualità ma, piuttosto, come il segno di una unitarietà
profonda che esula dall’origine dei modelli ma emerge da motivazioni più
fondamentali.
La comunità
scientifica internazionale ha iniziato, da diversi anni ormai, a cercare di
guidare questa nuova tendenza delle discipline scientifiche; le “vecchie”
discipline tendono a scomparire e fare posto a nuove ontologie che classificano
ambiti storicamente lontani entro nuove classi. Un caso tra tutti è
Molti sono i segni
tangibili di questa rivoluzione del paradigma scientifico. Oltre alla vera e
propria emersione di nuovi punti di vista che assorbono l’interesse di nuove
aree della ricerca, sono sorte (e continuano a sorgere) molte iniziative, sia
in Italia che all’estero, che testimoniano questo “nuovo corso”:
-
si è recentemente svolto a Trento
un interessante convegno (sponsorizzato da quella Università, dalla Microsoft e
da alcune aziende high-tech della regione) dal titolo “Converging
Sciences” nel quale è emersa questa
nuova visione della scienza come “integrazione” di dicipline diverse (in
particolare la fisica, la biologia, la matematica e l’informatica avanzata)
piuttosto che come “frammentazione” e “speciazione”. L’interesse di questo
segnale è costituito dal fatto che esso proviene non solo dal mondo culturale
accademico ma, e soprattutto, da quello dell’industria tecnologicamente
avanzata che spesso riesce a cogliere ed amplificare le istanze più
interessanti provenienti dai vari ambiti
della cultura;
-
la nascita di numerosi organismi
e istituti di ricerca multidisciplinare, legati a questo filone
“costruzionista” , dove, all’osservazione di similitudini e complementarietà
tra sistemi di diversa origine (da quelli naturali e biologici a quelli
tecnologici e sociali), si affianca lo sviluppo di metodologie che mutuano
acquisizioni prese dai vari domini, dalla biologia alla fisica, dalla
matematica alle scienze sociali. Il maggiore e forse più importante di questi
centri, nati di recente sotto la spinta di questo nuovo paradigma della
scienza, è il “New England Complex Systems Institute” (NECSI) presso il MIT di
Boston. Nella
descrizione delle sue finalità troviamo le seguenti argomentazioni:” Complex Systems is a new field of science studying how parts of a system
give rise to the collective behaviors of the system, and how the system
interacts with its environment. Social systems formed (in part) out of people,
the brain formed out of neurons, molecules formed out of atoms, the weather
formed out of air flows are all examples of complex systems. The field of
complex systems cuts across all traditional disciplines of science, as well as
engineering, management, and medicine. It focuses on certain questions about
parts, wholes and relationships. These questions are relevant to all
traditional fields. Why
Complex Systems? The study of complex systems is
about understanding indirect effects. Problems that are difficult to solve are
often hard to understand because the causes and effects are not obviously
related. Pushing on a complex system "here" often has effects
"over there" because the parts are interdependent. This has become
more and more apparent in our efforts to solve societal problems or avoid
ecological disasters caused by our own actions. The field of complex systems
provides a number of sophisticated tools, some of them concepts that help us
think about these systems, some of them analytical for studying these systems
in greater depth, and some of them computer based for describing, modeling or
simulating these systems. Three
approaches to the study of complex systems: There are three interrelated approaches to the modern study of complex
systems, (1) how interactions give rise to patterns of behavior, (2) understanding
the ways of describing complex systems, and (3) the process of formation of
complex systems through pattern formation and evolution”
-
in Italia, il CNR, nella sua
attività di riorganizzazione, ha recentemente istituito un Istituto dei Sistemi
Complessi (ISC) che integra personale CNR, INOA, INFM ed Universitario ed è
basato su varie sedi a Roma e Firenze;
anche questo Istituto ha nella sua propria missione, lo studio della
fenomenologia che emerge dalla complessità, sia in sistemi tecnologici che in
quelli naturali [9]; la focalizzazione dell’Istituto é su attività prettamente teoriche,
legate alle conoscenze di base;
-
alla integrazione dei paradigmi
scientifici viene associata una enorme potenzialità, sia ai fini dello sviluppo
di nuove conoscenze in aree “difficili” (quali le scienze sociali, la biologia
sistemica etc.), sia per la realizzazione di “nuovi prodotti e servizi”
industriali. In questo senso, ad esempio, l’Università di Cambridge ha
realizzato, tramite il proprio Dipartimento di Matematica, un Istituto per la
trasformazione di nuove idee e nuove proposte scientifiche in ambiti
applicativi e industriali, realizzato con fondi pubblici (cento milioni di euro
provenienti dal Ministero della Ricerca dell’UK) e privati (provenienti dal MIT
di Boston) (si veda il sito www.cambridge-mit.org);
-
la creazione in numerose
università europee, di classi di studi avanzati (Master, prevalentemente)
focalizzati sulle tematiche e sulle metodologie cross-disciplinari (si vedano
ad esempio, i corsi di Master attivati in alcune importanti università inglesi [10]).
L’integrazione
in atto è profonda e comprende aree disciplinari un tempo ritenute e trattate
come totalmente disgiunte, sia nelle finalità che nei metodi. L’avvento di una
serie di interessanti osservazioni, fatte nell’ultimo decennio, relative alla
sostanziale equivalenza della struttura di una serie di sistemi complessi di
svariata natura (dalle reti di interazioni proteiche cellulari a quelle dei
rapporti sociali, dalla rete mondiale del web alle reti linguistiche delle
principali lingue mondiali) ha suggerito come al raggiungimento di una qualche
soglia di complessità corrisponda l’emergenza di una serie di comportamenti che
accomunano, in maniera stupefacente, sistemi di diversissime origini. La complessità
sembra essere, dunque, una proprietà al cui sviluppo si associ non il caos ma
piuttosto una necessità all’ordine che, sebbene non in maniera diretta,
consenta la realizzazione di metafore differenti dello stesso disegno
funzionale verso il quale tutti i sistemi (sia quelli viventi che quelli
tecnologici) vengono ineludibilmente spinti.
ENEA intende
raccogliere queste indicazioni anche perché, in alcune aree nelle quali è
storicamente presente con attività scientifiche di rilievo, ha spontaneamente
recepito questa tendenza e, da qualche anno, svolge attività scientifiche
rivolte a mutuare metodologie operative tra aree disciplinari diverse. Ad
esempio, è’ questo il caso del Servizio di Calcolo e Modellistica all’interno
della quale coesistono ed interagiscono aree disciplinari differenti quali
quella della Biologia Sistemica e quella dello studio dei sistemi tecnologici
complessi.
3.6 Obiettivi
intermedi, attività, fasi della ricerca interessate e soggetti attuatori
Descrivere gli obiettivi realizzativi intermedi
necessari al perseguimento dell’obiettivo finale, indicando per ciascuno
obiettivo intermedio le attività necessarie al suo perseguimento e specificando
a quale fase della ricerca (fondamentale, industriale, sviluppo precompetitivo)
dette attività vanno ricondotte, nonché il
soggetto attuatore e la sede di svolgimento delle stesse.)
La notevole
articolazione della proposta consiglia di individuare, in questa fase, un
numero contenuto di Obiettivi Intermedi “macroscopici”, rinviando alla
descrizione di ciascun Sottoprogetto, al paragrafo 3.4, per la definizione di
milestones più puntuali.
Sono quindi
individuate 2 tipologie di O. I., una relativa al solo Sottoprogetto SP I.1
“Realizzazione del Polo di calcolo e sviluppo di nuove funzionalità di GRID
Computing” (Ob. Int. A), e l’altra a tutti gli altri Sottoprogetti, che
riguardano le diverse problematiche applicative affrontate dal Progetto (Ob.
Int. B).
Le attività saranno condotte da ENEA nelle sue sedi
dell’Obiettivo