News dallo Spinhenge del 4 nov 2011
Allo Spinhenge@home stanno lavorando sul porting parallelo della loro applicazione scientifica. Si chiama CINOLA e farà qualcosa in più dell'attuale client (non è specificato se come tipo di calcoli o velocità ndr). L'obiettivo è di avere una sola applicazione da supportare sui cluster interni e su Spinhenge@home. Al momento non è così facile implementare tutte le "robe" BOINC nell'applicazione. I primi test sono andati molto bene. Ma non hanno ancora implementato i "checkpoint" e il controllo della barra di "progresso" di BOINC in CINOLA, ne un nuovo screensaver per il wrapper. CINOLA verrà infatti eseguito attraverso un wrapper BOINC. Questo semplificherà lo sviluppo rispetto alla creazione di un'applicazione nativa per BOINC per il loro settore di ricerca.
L'applicazione è molto facilmente scalabile su Windows e Linux. Una versione per Mac è prevista, ma è difficile che venga sviluppato perché non hanno ancora l' "uomo Mac".
In parallelo stanno lavorando su una versione CUDA di CINOLA. Uno dei nodi dei loro cluster interni è dotato di due NVIDIA Tesla M2050. Quando avranno la versione CUDA la metteranno in distribuzione sullo Spinhenge@home, se funzionerà.
Thomas spera che quest'update sia sufficiente, se qualcuno ha domande si senta libero di inviargliele.
We're working on porting our parallel scientific app to Spinhenge@home (BOINC). It's called CINOLA and calculate some more than our Spinhenge-App. The goal is that we will have only one app to support for our cluster and for Spinhenge@home. It's at the moment not so easy to implement all the BOINC stuff to the application. First tests looks very well. But we haven't yet implemented "checkpointing" and the "BOINC progress" in CINOLA and a new screensaver for the wrapper. CINOLA will run through a BOINC wrapper. It's much more easier than to develop than a standalone BOINC-App for our research field.
The app scales very good and in the same way on Windows and Linux. A Mac version is planned, but hard to develop because we haven't the man power yet.
In parallel we're working on a CUDA version of CINOLA. One of our cluster nodes has two NVIDIA Tesla M2050. When we have the CUDA version we will also distribute it for Spinhenge@home if it works.
I hope that's enough update about our actual work. If you have any questions, feel free to ask me.
Thomas
Se vedete dei problemi sul loro sito sono dovuti a un fault HW delle RAM del loro server, che sembra per ora non abbiano intenzione di risolvere perchè sono in attesa di un server completamente nuovo.
Credo che rimanga valida la durata dello stop di tre mesi al rilascio di nuove WU.