Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
 
banner_slinca

 

AMBITO: Chimica
STATO:  ATTIVO 
ATTACH: http://dg.imp.kiev.ua/slinca/
VOTO: ( N.P. )

 

SLinCA (Scaling Laws in Cluster Aggregation) è un progetto di ricerca nel campo della scienza dei materiali.
I processi di aggregazione di singoli agenti (monomeri nel caso dei materiali, individui nel caso della società) sono studiati in molte branche della scienza: l'aggregazione dei difetti nella scienza dei materiali, la dinamica di una popolazione in biologia, la crescita delle città o l'evoluzione in sociologia.

 

L'applicazione SLinCA simula diversi scenari di aggregazione dei monomeri (semplici molecole) considerando diverse configurazioni iniziali (regolare, casuale, etc..), diverse leggi cinetiche (arbitrarie, diffusive, balistiche, etc..) e diverse leggi di correlazione (elastiche, non elastiche, arbitrarie, etc..).
La simulazione di un tipico scenario di aggregazione richiede diversi giorni su un unico moderno processore, a seconda del numero di passi Monte Carlo (MCS). Tuttavia, per ottenere risultati statisticamente affidabili, si devono simulare migliaia di scenari con diverse configurazioni iniziali. La parallelizzazione del calcolo permette di ridurre i tempi di elaborazione ed inoltre permette di lavorare su valori sufficientemente realistici della scala del sistema simulato.

 

Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.

Il progetto ha come sede il G.V.Kurdyumov Institute for Metal Physics (National Academy of Sciences of Ukraine - NASU) ed è supportato dalle agenzie europee DEGISCO e IDGF. In un quadro di integrazione europea dei progetti, allo scopo di ottenere la maggior potenza di calcolo possibile, la stessa applicazione viene distribuita anche da EDGeS@home.

banner_slinca




I processi di aggregazione monomera nei gruppi sono studiati in diversi rami della scienza: difetti di aggregazione nella scienza dei materiali, dinamica della popolazione in biologia, crescita delle città ed evoluzione nella sociologia, ecc. La simulazione tipica di uno scenario di aggregazione di gruppo richiede diversi giorni su un singolo processore moderno, dipendente dal numero di passi Monte Carlo (MCS - Monte Carlo Steps). Tuttavia, migliaia di scenari devono essere simulati con diverse configurazioni iniziali per avere dei risultati statisticamente affidabili. L'ambiente di esecuzione parallela può ridurre i tempi di attesa e scala il sistema di simulazione a dei valori realisticamente interessanti.

 

La sfida
Ci sono dati sperimentali che confermano che processi di aggregazione possono evolvere le strutture, che sono gerarchiche su molte scale, e potrebbero portare a catastrofici eventi (sfondamento, valanga, frattura, ecc.). Le teorie disponibili danno molti scenari di aggregazione di gruppo, formazioni di strutture gerarchiche e le loro proprietà di scala. Ma queste richiedono potenti risorse di calcolo per l'elaborazione gerarchica degli enormi database di dati sperimentali. La nostra applicazione SLinCA (Scaling Laws in Cluster Aggregation (Leggi di Scala nell'aggregazione di gruppo) simula diversi scenari generali di aggregazione monomera nei gruppi con molte configurazioni iniziali di monomeri (casuale, regolare, ecc... ), diversa legge cinetica (arbitraria, diffusiva, balistica, ecc...), diverse leggi d'interazione (arbitraria, elastica, non elastica, ecc...). La simulazione tipica di un processo di aggregazione di gruppo con 106 monomeri richiede, approssimativamente, 1-7 giorni su un singolo processore moderno, dipendentemente dal numero di passi Monte Carlo (MCS).
Tuttavia, migliaia di scenari devono essere simulati con differenti a) parametri di input (perlustramento parametro fisico), (b) dimensioni dei sistemi simulati (per indagare un effetto scala), (c) file di configurazione iniziale con gli stessi parametri di input (perlustrare le realizzazioni statistiche).

 

slinca_material_structureNella figura a lato un esempio di struttura gerarchica nella scienza dei materiali: microscopica trasmissione degli elettroni di una struttura a cella di Cu (rame) dislocata gerarchicamente dopo una trazione.

 

Il porting della versione sequenziale di SLinCA in un ambiente ad esecuzione parallela può ridurre i tempi di attesa e scala il sistema di simulazione ad una grandezza realisticamente interessante con l'utilizzo di configurazioni iniziali tipiche non perfette (non solo teoriche).

 

Soluzione
Il calcolo dei parametri degli aggregati in evoluzione (momenti delle distribuzioni delle densità di probabilità, densità distribuzioni cumulative, esponenti di scala, ecc... ) con precisione appropriata (104-108 esecuzioni di diverse realizzazioni statistiche di insiemi di aggregazione) che saranno comparabili con le stesse precisioni statistiche dei dati sperimentali disponibili. I percorsi separati di simulazione per i differenti parametri fisici, configurazioni iniziali e realizzazioni statistiche sono completamente indipendenti e possono essere facilmente divise tra le CPU disponibili in un modo di "perlustramento parametrico" parallelo. Un grande numero di esecuzioni, necessarie per ridurre la deviazione standard nelle simulazioni Monte Carlo, sono distribuite equamente tra i processori disponibili e sono combinate alla fine per calcolare il risultato finale.

 

slinca_schemeNell'immagine a sinistra uno schema semplificato del decremento/aumento della dimensione di un aggregato di gruppo simulato (esempio di un insieme di dislocazione).

 

Recentemente, il modello del calcolo distribuito è diventato veramente popolare per la sua flessibilità nell'uso delle risorse di calcolo donate dai pc inattivi per mezzo del Berkeley Open Infrastructure for Network Computing (BOINC) (http://boinc.berkeley.edu/). La piattaforma software BOINC è un middleware libero per il grid computing su computer desktop distribuiti volontari. In origine era stato progettato per eseguire applicazioni in molti campi della scienza: dalla matematica alla biologia molecolare, da climatologia alla astrofisica.
La disponibilità di una semplice ed intuitiva Applicazione Interfaccia di Programmazione per Distributed Computing (Distributed Computing Application Programming Interface DC-API) di SZTAKI ci permette anche (scienzati dei materiali e sviluppatori non professionisti) leggere modifiche nel codice della versione sequenziale di SLinCA e portarlo alla versione parallela. A causa dell'utilizzo del DC-API la nuova versione parallela dell'applicazione SLinCA potrebbe girare in un modello client-server con i nodi lavoratori del desktop grid distribuito (DG), sulla base di un server e client BOINC. Attualmente,k questa versione parallela dell'applicazione SLinCA, potrebbe facilmente ottenere una significativo della potenza elabrativa. L'approccio DG ci permette di utilizzare le risorse disponibili di un singolo pc temporaneamente inattivo che ora può essere connesso in un sistema grid, incrementando complessivamente la potenza elaborativa.

 

Risultati
Il Desktop Grid locale utilizzato per il test e su cui è stata eseguita l'applicazione SLinCA è basato sulla rete privata organizzativa dell'Istituto G.V.kurdyumov per la Fisica dei Metalli (Institute for Metal Physics - IMP). Questo DG di prova consiste di 5 pc desktop (con 11 core) divisi per categoria (con le seguenti risorse che sono tipiche della rete locale privata di IMP): 1(il più nuovo, greedy), 2 (nuovo PC), 3 (notebook), 4 (netbook) e 5 (PC eredità).
Category Floating Point MIPS Integer Point MIPS
(Whetstone) (Dhrystone)
Newest (CPU 4-core) 2317 4914
New (CPU 2-core) 3072 5388
Notebook (CPU 2-core) 1924 4063
Netbook (CPU 2-core 674 1738
Legacy 878 1383
Tabella: Risultati di benckmark per CPU nel DG locale. Questi computer creano un'infrastruttura di elaborazione veramente eterogenea con circa 11 (14) ordini di differenza con i floating point MIPS (con gli integer MIPS) tra newest e Legacy (vedi tabella 1) con alcuni colli di bottiglia che abbiamo osservato duranti i test ed evitato (con la messa a un punto dei file di input e dell'applicazione abilitata per il DG) dopo le analisi dei risultati di test.

 

slinca_timeNell'immagine a sinistra la differenza di tempi tra la versione sequenziale e quella parallela destra) incremento vs. numero di cpu utilizzate per eseguire con distribuzione non-uniforme ed uniforme delle workunit.

 

 

 

Più efficiente governo e aumento lineare Eseguendo parecchie istanze della versione sequenziale su numerosi pc dekstop vediamo che una significativa parte di risorse è dedicata alle successive operazioni di governo per ogni istanza eseguita dell'applicazione sequenziale: preparare i file di input dei parametri e dei dati; connetersi al pc remoto, login e controllo dello stato attuale, scaricare i risultati, se il lavoro è finito, controllare i risultati, classificarli e memorizzarli, caricarli i nuovi file di input, far ripartire una nuova istanza dell'applicazione. In generale sono necessari 5-20 minuti per ogni istanza eseguita dell'applicazione sequenziale ma in pratica questo insieme di operazioni di governo è complicato da:
  1. ampia distribuzione spaziale dei pc nei locali dell'IMP (in differenti stanze, piani ed edifici);
  2. il limitato numero di pc multicore nella nostra organizzazione (senza BOINC è stata dura seguire lo stato di inattività di ogni singolo core ed eseguire l'applicazione in maniera discreta per i loro utenti).
  3. fattore umano: alcuni utenti non sono in grado di fornire accesso remoto ai loro pc e le operazioni di governo possono essere fatte solamente a mano e sul posto; alcuni pc non possono essere raggiunti in assenza dei loro proprietari; è impossibile non solo fare le operazioni di governo ma anche pianificarle affidabilmente; alcuni utenti dei pc dimenticano l'applicazione sequenziale in background e spengono i loro pc dopo ore di lavoro. I test con la versione parallela dell'applicazione mostrano che le seguenti operazioni di governo sono necessarie per eseguire tutte le istanze: preparare il file di input dei parametri e i dati, configurare i file XML dei client e master e aggiungere l'applicazione DG-enable al progetto BOINC
Maggiore usabilità. L'usabilità dell'esecuzione parallela di centinaia di task sulla nostra infrastruttra locale DG è molto maggiore in comparazione con la loro esecuzione sequenziale sullo stesso numero di pc. In teoria sembra essere ovvio e banale ma in pratica (in vista dei molti ostacoli originati dall'eterogeneità e dai fattori umani) crea un effetto staordinariamente affascinante avere la disponibilità immediata di risorse sui pc e cpu inattivi, partenza automatica, sospensione e ripresa di numerose workunit ed una raccolta di risultati automatica dai pc di altri e solitamente lontani. Risultati fisici: risultati qualitativamente nuovi anche a livello di prova in laboratorio Nonostante le modalità di test delle attività di cui sopra, questo moderato aumento ci permette di ottenere diversi risultati qualitativamente nuovi a causa di un significativo aumento dei calcoli anche a livello di laboratorio sul banco di prova. È stato dimostrato che la configurazione iniziale dei difetti complessi (pareti) dopo alcuni passi di aggregazione si evolvono con distribuzioni libere, che sono diverse dalle distribuzioni standard di Gauss con picchi distintivi e valori finiti di momenti secondi. Le distribuzioni iperboliche che sono state trovate per varie configurazioni iniziali con diversi numeri di difetti in ogni insieme difettoso ovvero in accordo con i modelli recentemente proposti di transizione di rumore indotto dall'omogenea distribuzione di difetti a quella libera (e frattale). In aggiunta a questo, sono state osservate diverse leggi di forza per il numero di gruppi come funzione dei passi di aggregazione, che permettono di distringuere le diverse configurazioni difettose dalla loro aggregazione cinetica.
slinca_distributionDistribuzioni di misura di una divisoria rilassata per configurazioni iniziali con i differenti valori di difetto in ogni insieme: (left) singola (come funzione delta) distribuzione di difetti inizialmente solitari, (destra) singola (come funzione delta) distribuzione di iniziali "divisorie imperfette" con 100 difetti in ogni divisoria. Cerchi solidi denotano l distribuzione della dimensione della divisoria dopo un passo di aggregazione, triangolare -- dopo 100 passi di aggregazione.

 

 

Per scopi pratici, questi risultati indicano, che per la stima della propagazione spaziale di sottostrutture difettose e la relatica scala di danno, è necessario misurare non solo l'integrale delle caratteristiche medie degli insiemi difettosi (densità spaziale media, dimensione media, ecc...) ma anche più caratteristiche specifiche locali come dimesione della funzione distribuzione, distribuzione spaziale multiscala, evoluzione temporale, ecc... Per esempio, nei più semplici casi di analisi di scaling delle distribuzioni sperimentali di misure aggregate e scenari di aggregazione che ci permetteranno di determinare il tipo di configurazione aggregata ed il livello di evoluzione aggregata.

slinca_cumulative_distributionFunzioni distribuzione cumulativa scalate per divisorie: (sinistra) legge di scaling diffusiva; (centro) legge di scaling esponenziale e (destra) leggi di scaling miste. Le figure vicino ai simboli denotano il numero di MCS.

 

 

Background
L'istituo G.V. Kurdyumov per la Fisica dei Metalli DEll'Accademia Nazionale delle scienza dell'Ucraina ha una lunga esperienza nel campo della scienza dei materiali, simulazione dell'evoluzione della struttura dei materiali, ecc... Hanno collaborato con aziende leader nell'ingegneria aerospaziale e aeromotive, inclusa la British Aerospace, Airbus UK Ltd, ETO, ecc...- IMP ha un'esperienza di partecipazione di successo in progetti internazionali sotto la struttura dell'organizzazione europea INTAS (1999-2007) e sotto la struttura delle organizzazione intergovernative R&D (2007-2008). Maggiori informazioni su http://www.imp.kiev.ua.
XtremWeb HEP-E è una piattaforma informatica globale che mira ad aggregare risorse di calcolo volontarie su Internet.
DC-API è una semplice ed intuitiva interfaccia applicazione di programmazione creata da MTA SZTAKI che permette una facile implementazione di applicazioni distribuite su diversi ambienti grid. Maggiori informazioni su http://www.desktopgrid.hu/index.php?page=34.

 


banner_slinca




Stato del progetto: progetto attivo
Iscrizione libera.

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

 

Assegnazione crediti: fissati per singola WU/ variabili in base al tempo di elaborazione
Quorum = 2 (se è >1 le WU dovranno essere convalidate confrontando i risultati con quelli di altri utenti).

 

Applicazioni e WU disponibili: vedi scheda "Link"
Cliccare sulle icone relative alle "Applicazioni" ico32_applicazioni e allo "Stato del server" ico32_server.

 

Sistemi operativi supportati: vedi scheda "Info tecniche"

 

Dati specifici sull'elaborazione: vedi scheda "Info tecniche"
Per ottenere dati sulla durata media dell'elaborazione, la RAM necessaria e la dead line, consultare la scheda "Info tecniche" qui a destra. Per informazioni particolareggiate (specifiche per applicazione e sistema operativo, intervallo di backup e crediti assegnati) rifarsi alla pagina dei risultati del progetto WUprop@home.

 

Problemi comuni: nessuno
Non si riscontrano problemi significativi.

 


banner_slinca




Supporto al progetto: supportato
Per unirsi al team BOINC.Italy consultare la scheda "Link" qui a destra cliccando sull'icona relativa al "JOIN" ico32_bi.

 

Referente/i: posizione vacante
Se sei interessato al progetto e vuoi dare una mano diventando referente, contatta i moderatori in privato o attraverso le pagine del forum.

 

Posizione del team nelle classifiche modiali:



Andamento dei crediti giornalieri:



Andamento del RAC:



Statistiche interne: vedi scheda "Link"
Cliccare sulle icone relative alle "Statistiche progetto" ico32_stats o alla "Classifica utenti" ico32_classutenti (solo per iscritti al team).

 

Statistiche BOINC.Stats: vedi scheda "Link"
Cliccare sulle icone relative alle "Statistiche del team sul progetto" ico32_boincstats o alla "Classifica dei team italiani" ico32_statita.
Accedi per commentare