BOINC.Italy BOINC.Italy BOINC.Italy La community italiana dedicata al calcolo distribuito
facebook feed twitter youtube
  • Utenti: 14'791
  • Gruppi: 56
  • Potenza: 398,31 TFLOPS
  • RAC: 79'661'014
  • Statistiche team
  • HomeHome
  • ArticoliArticoli
    • BOINC
    • Progetti
    • News dai progetti
    • BOINC.Italy
    • Calcolo distribuito
    • Scienza e ricerca
  • ProgettiProgetti
    • Progetti BOINC
      • Astronomia, Fisica e Chimica
        • Albert@home
        • Asteroids@home
        • Cosmology@home
        • Einstein@home
        • GAIA@Home
        • LHC
          • ATLAS@home
          • CMS
          • LHC@home
          • vLHC@home
          • Lhcb
        • MilkyWay@home
        • NanoHUB@Home
        • QuChemPedIA@Home
        • Universe@Home
      • Biologia e Medicina
        • Denis@home
        • DrugDiscovery@home
        • GPUGrid
        • RNA World
        • Rosetta@home
        • SiDock@Home
      • Climatologia e studio della Terra
        • Climateprediction.net
        • Quake-Catcher Network
        • Radioactive@home
      • Matematica
        • Amicable Numbers
        • Collatz Conjecture
        • Distribuited Hardware Evolution
        • Gerasim@home
        • iThena.Computational
        • iThena.Measurements
        • Moo! Wrapper
        • NFS@home
        • NumberFields@home
        • ODLK
        • ODLK1 (Latinsquares)
        • PrimeGrid
        • Private GFN Server
        • Rake Search
        • SRBase
        • Van Der Waerden Numbers
        • WEP-M+2
        • YAFU
      • Informatica e I.A.
        • LODA
      • Scienze cognitive
        • MindModeling@home
      • Multidisciplinari
        • BOINC@TACC
        • CSG@Home
          • DNA@home
          • SubsetSum@home
          • Wildlife@Home
        • Ibercivis
        • World Community Grid
        • yoyo@home
      • Altri
        • BOINC Alpha Test
        • Minecraft@Home
        • MLC@Home
        • WuProp@home
      • Progetti Italiani
        • Tn-Grid
      • Progetti chiusi
        • Leiden Classical
        • FightMalaria@home
        • The Lattice Project
        • Malaria Control
        • Superlink@Technion
        • Convector
        • Distributed DataMining
        • OProject@home
        • Sudoku@vtaiwan
        • FreeHAL@home
        • AlmereGrid BOINC GRID
        • BURP
        • Chess960@home
        • DistrRTgen
        • Pirates@home
        • Poem@home
        • POGS
        • Optima@home
        • SZTAKI Desktop Grid
        • Seti@home
        • Volpex@UH
        • Enigma@home
        • CAS@home
        • VGTU project@Home
        • SAT@home
        • PRIMABOINCA
        • XAnsons4cod
        • QMC@home
    • Folding@home
    • Progetti di distributed thinking
    • Applicazioni dei progetti
    • Foldit
    • Covid-19
    • Pubblicazioni scientifiche
    • Sorgenti Progetti
  • CommunityCommunity
    • Canale Facebook
    • Canale Twitter
    • Canale Telegram
    • Canale IRC su Freenode
    • Canale IRC su Libera Chat
    • Gruppi interni
    • Iniziative
    • Badge
    • Loghi e banner
    • Facciamoci conoscere
  • ForumForum
  • StatisticheStatistiche
    • Statistiche mondiali
    • Statistiche BOINC.Italy
    • Classifica combinata membri
    • Classifica combinata gruppi
    • BOINC.Italy Trophy
    • Stato dei server
    • Ricerca membri
    • Classifiche Challenges Esterni
  • SupportoSupporto
    • Ottieni aiuto online
    • Link utili
    • Domande frequenti (FAQ)
    • Guide
      • Guide (base)
        • Come funziona BOINC
        • Installazione di BOINC
        • Mini guida al BOINC Manager
        • Inserire Tag nel nick
      • Guide (avanzate)
        • Cross Project ID
        • La firma personalizzata BOINC
        • Multisessioni Boinc
        • Guida server Boinc
  • BlogBlog
    • Annunci
    • BOINC
    • BOINC.Italy
    • Calcolo distribuito
    • Pensieri distribuiti
    • Progetti
  • CercaCerca
 

BOINC.Italy

Pubblicazioni e....truffe

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Blog
16 Luglio 2025
Creato: 16 Luglio 2025
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Come da tempo sapete (almeno chi frequenta il sito e/o mi conosce di persona), il sottoscritto è appassionato di scienza, di metodo scientifico e dell’evoluzione di questo (quello che il buon Bacone chiamava l’”The Advancement of Learning”). Negli ultimi decenni, anche grazie all’avvento di internet, la “produzione scientifica”, ovvero il numero degli articoli che appaiono su riviste scientifiche è letteralmente “esploso” e i ricercatori, per avere sovvenzioni e finanziamenti (o anche solo per gloria personale), hanno preso a produrre più “paper” possibile, talvolta anche a scapito della qualità (capitolo a parte fanno quelli che falsificano le ricerche, che è il punto di questo breve scritto).

E’ l’ormai famoso (e famigerato) motto “Publish or Perish” (Pubblica o muori) che ha portato non solo una serie di ricercatori a “barare”, ma anche una serie di giornali scientifici a pubblicare la qualsivoglia, senza fare un controllo serio e serrato di ciò che arriva nelle redazioni.

Molti sono stati i tentativi di arginare questa deriva, dalla doppia review (revisione) degli articoli, all’IF (impact factor) delle riviste, ma la cosa sembrava sfuggire di mano. Ecco che, con l’avvento dell’IA, a fronte di centinaia e centinaia di articoli da revisionare per ogni singolo revisore (che, è giusto ricordarlo, nella sta-grandissima maggioranza dei casi lavora GRATIS), veniva in aiuto un sistema semi-automatico che “scansionava” i documenti e trovava velocemente gli errori più pacchiani/evidenti, lasciando poi il lavoro “di fino” al revisore umano.

Tutto bene verrebbe da dire.

E invece, da qualche tempo, i revisori vedevano strani “comportamenti” delle IA, ovvero passavano la prima filtratura dei lavori che, una volta analizzati, apparivano effettivamente falsificati, anche in maniera abbastanza grossolana. Quindi si sono chiesti che cosa non funzionasse, sono andati a controllare in profondità questi documenti e hanno trovato la sorpresa: i documenti nascondevano letteralmente all’occhio umano (usando font bianchi, fonti piccolissimi ed altri trucchi) una serie di contenuti -che, però, erano “visti” dalla IA - e che la “forzavano” a considerarli validi e a passare questa prima revisione. (qui sotto un esempio di come funziona la cosa)

La cosa ha provocato, giustamente, sdegno nella comunità scientifica e anche qualche fondato dubbio sulla affidabilità complessiva delle IA nel lavoro di revisione dei documenti.

Che dire? E’ una buona cosa che il mondo della scienza abbia gli “anticorpi” per difendersi da questi “virus” che vanno ad intaccare la scienza stessa, d’altro canto servirebbe una revisione globale di come viene “prodotta” la scienza nel tempo della IA e della tecnologia avanzata.

Per chi volesse approfondire la cosa, metto il link al bell’articolo (in inglese) che Nature ha dedicato a questa vicenda.

https://www.nature.com/articles/d41586-025-02172-y?utm_source=x&utm_medium=social&utm_campaign=nature&linkId=15740665

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Ringraziamento per campagna fondi 2025

Empty
  •  Stampa 
  • Email
Dettagli
Paolo Landi logo
Flash
15 Luglio 2025
Creato: 15 Luglio 2025
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Discuti questo articolo
Accedi per commentare

Docker e LHC

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
29 Marzo 2025
Creato: 29 Marzo 2025
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Docker e LHC

 

Questa è una brevissima guida su come far girare le prime app Docker nel progetto Lhc-dev per l'applicativo Theory.

Come prima cosa è necessario installare WSL sotto Windows (se non sapete come fare, potete usare la nostra guida), e comunque è semplicissimo e lo riportiamo qui. Il comando, da lanciare in PowerShell, è

WSL --install

Una volta installato WSL, occorre installare una distro linux (noi consigliamo Ubuntu) dallo Store di Windows

 

Una volta installato, si avvierà la shell di Linux e occorrerà create un utente ed una password.

 

A questo punto occorre installare il pacchetto podman nella distro. Per prima cosa occorre aggiornare la distro con il comando

sudo apt-get update

e, poi

sudo apt-get podman

 

A questo punto la distro è pronta e potete chiudere il terminale.

Per funzionare, però, occorre (per ora) usare la versione beta del Boinc Manager (la 8.10) e la potete scaricare qui. Una volta scaricato il file zip, chiudere il Boinc Manager (ricordandosi di fermare le elaborazioni in corso), scompattare il file compresso in una cartella e copiare i files boinc.exe e boinccmd.exe (magari rinominate quelli presenti) nella cartella C\Program Files\Boinc. A questo punto avviate nuovamente il Boinc Manager e controllate che i log siano simili a questo (notare che viene riconosciuta la presenza sia di WSL con Ubuntu che di Docker)

Starting BOINC client version 8.1.0 for windows_x86_64
This a development version of BOINC and may not function properly
log flags: file_xfer, sched_ops, task
Libraries: libcurl/8.12.1-DEV Schannel zlib/1.3.1
Windows processor group 0: 12 processors
OS: Microsoft Windows 11: Professional x64 Edition, (10.00.26100.00)
Usable WSL distros:
- Ubuntu (WSL 2) (default)
- OS: Ubuntu (Ubuntu 24.04.2 LTS)
- libc version: 2.39
- Docker version 4.9.3 (podman)

 

A questo punto, nel proprio profilo utente sul sito e selezionare l'applicativo Theory nella lista delle app disponibili.

Attraverso l'applicativo WSL Manager (installato quanto è stato lanciato il comando di installazione) è possibile configurare le cpu, la ram, la rete e tutto ciò che può essere utile a personalizzare il calcolo.


Buono scaccolo!!

 

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Traguardo delle 1.000 pubblicazioni scientifiche, che futuro per BOINC?

Empty
  •  Stampa 
  • Email
Dettagli
Antonio Cerrato logo
Articoli
10 Gennaio 2025
Creato: 10 Gennaio 2025

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva


Andiamo a vedere l’andamento della produzione scientifica.

Possiamo iniziare il 2025 con un bel traguardo di BOINC. Infatti la piattaforma per il calcolo distribuito ha superato le 1000 pubblicazioni scientifiche ottenute grazie alla collaborazione tra ricercatori e volontari (https://boinc.berkeley.edu/pubs.php). Sono ben 1018 gli articoli scientifici ottenuti dal 1997 ad oggi secondo la lista ufficiale di BOINC, ma come si è arrivati alla compilazione di questa lista?

Nel 2022 la lista ufficiale contava circa 420 pubblicazioni scientifiche. Altre liste, come quella di BOINC.Italy, segnalavano un numero maggiore se non quasi il doppio. L’aggiornamento della lista è stato uno dei temi del BOINC Workshop del 2023. Gli elenchi delle varie community (quella di BOINC.Italy è la più completa) hanno dato un importante contributo all’aggiornamento della lista ufficiale. Dal 2023, quindi, la lista viene aggiornata periodicamente da Alex Piskun e dà un risultato immediato del lavoro svolto dai ricercatori e dai volontari.

1018 non sarà il numero definitivo per i risultati ottenuti fino al 2024, infatti bisognerà conteggiare nei prossimi mesi le pubblicazioni del 2024 ancora in peer review e le pubblicazioni non ancora inserite nell’elenco degli ultimi 3 o 4 anni. Quest’ultimo gap è dovuto a una comunicazione tardiva, se non del tutto assente, delle pubblicazioni scientifiche sui siti di alcuni progetti BOINC. Se per esempio Einstein@Home ha una sezione dedicata e aggiornata delle pubblicazioni scientifiche ottenute tramite il progetto (https://einsteinathome.org/it-it/science/publications), ciò non è purtroppo lo standard per tutti i progetti. Quindi spesso si devono utilizzare motori di ricerca come Google Scholar per rintracciare le pubblicazioni scientifiche ottenute tramite BOINC (sempre se l’articolo scientifico cita esplicitamente BOINC e/o il lavoro svolto dai volontari). Insomma, spesso è come cercare un ago in un pagliaio.

Volendo fare un un punto della situazione, possiamo analizzare l’andamento del numero di pubblicazioni scientifiche. Possiamo assimilare BOINC a un progetto di “Big Science”, ovvero a quelle infrastrutture di ricerca, spesso uniche, come il CERN, lo SKA o la Stazione Spaziale Internazionale. Quando vengono valutati questi progetti, viene analizzato anche il numero di pubblicazioni scientifiche che sono attese. Nei primi anni il numero è molto basso, poi si inizia la vera e propria produzione scientifica a pieno regime che raggiunge un picco dopo di che vi è la fase di dismissione dell’infrastruttura con un calo delle pubblicazioni scientifiche. I motivi di dismissione possono essere molteplici: obiettivi scientifici raggiunti, infrastruttura fisica obsoleta, improvvisa mancanza di risorse, disinteresse generale ecc.. Vi possono essere anche delle estensioni, basta pensare alla Stazione Spaziale Internazionale che non può essere sostituita immediatamente dal Lunar Gateway o a un upgrade programmato dell’infrastruttura fisica come nel caso del CERN le cui attività vengono sospese ogni tot anni per effettuare manutenzioni e installazioni straordinarie per evitarne l’obsolescenza.
Detto ciò possiamo esaminare l’andamento delle pubblicazioni scientifiche di BOINC.


Grafico pubblicazioni scientifiche progetti BOINC


Come possiamo vedere dal grafico, tra il 1997 e il 2003 non c’è stato una grossa produzione scientifica, ma dal 2004, con l’entrata a pieno regime della produzione scientifica dei primi progetti, è iniziata la fase centrale di produzione di articoli. Dopo di che abbiamo avuto un picco della produzione (2009-2010) per poi avere una prima, apparente, fase di diminuzione degli articoli scientifici. La fase di “dismissione” probabilmente è stata rallentata dall’ingresso su BOINC di nuovi progetti e/o sotto-progetti o da un interesse maggiore dei ricercatori nell’investire tempo e risorse sui progetti BOINC già esistenti (queste sono delle ipotesi, il periodo 2010-2015 andrebbe analizzato in modo più approfondito).
Nel 2015 si raggiunge un altro picco seguito da una fase di decrescita della produzione scientifica. Dal 2022 abbiamo nuovamente una crescita della produzione scientifica. Le domande ora sono: il picco della terza ondata di pubblicazioni scientifiche è vicino o lontano? Quando ci si avvierà alla fase di dismissione di BOINC? Tra 5 o 15 anni? Difficile dare delle risposte, probabilmente i ricercatori perderanno interesse per BOINC quando potranno “acquistare calcolo ad elevate prestazioni” a bassissimo costo.

Una cosa è certa, le infrastrutture di ricerca nascono, vivono e muoiono (sostituite da altre infrastrutture), il destino di BOINC seguirà quello del radiotelescopio di Arecibo e dei rover Spirit e Opportunity. Speriamo solo di poter estendere, per quanto possibile, “la vita” di BOINC, ma se osserviamo la storia di BOINC possiamo essere tutti orgogliosi delle 1018 pubblicazioni scientifiche ottenute fino ad oggi e probabilmente senza BOINC non esisterebbero. Insomma abbiamo aiutato la scienza a progredire anche nei momenti più difficili dell’umanità.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Teoria delle Stringhe - scienza o....

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Blog
21 Luglio 2024
Creato: 17 Luglio 2024

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Da molti anni, in quanto appassionato di filosofia della scienza, mi sono “scontrato” con quella che sembrava essere, alcuni decenni fa, la teoria scientifica più rivoluzionaria (al pari della Relatività) della storia umana e che, invece, si è scontrata con la dura realtà.

Ma andiamo per ordine e con….

 

…Un po' di storia

A metà degli anni 60 un importante scienziato italiano (Gabriele Veneziano) si era posto il problema di una determinata proprietà degli adroni e aveva trovato che una formula matematica vecchia di 200 anni era in grado di rispondere a questo problema, ma non aveva capito il perché. Qualche anno dopo, altri ricercatori (es Susskin) ritennero di trovare una risposta a questo problema ipotizzando che la forza nucleare (precisamente l’interazione forte) fosse causata da infinitesime stringhe (si parla di 10-35 metri, molto più piccole dei Quark che conosciamo) che vibrano.

 

C’era solo un “piccolissimo” problema: tutti gli esperimenti e le misurazioni non confermavano questa teoria (questa cosa si ripeterà varie volte), per cui fu messa rapidamente da parte.

Nel biennio 1984-86, però, avvenne quella che è conosciuta come “prima rivoluzione delle stringhe”, che consistette nel riconoscere come tutte le particelle esistenti fossero formate da queste stringhe. Anche qui, però, i risultati pratici scarseggiavano (nonostante l’accelleratore LEP, invece, producesse un bel po' di risultati, tra cui il bosone Z e quello W).

La “seconda rivoluzione” ebbe luogo una decina di anni dopo, con l’arrivo della teoria delle super-stringhe (P-Brane, supergravità ad 11 dimensioni, particelle gemelle, ecc) e della teoria M (in grado di unificare tutte e quattro le forze fondamentali, gravità inclusa). Una “teoria del tutto” era (ed è) il Sacro Graal della fisica e per questo motivo molti ricercatori si lanciarono entusiasti in questo settore di ricerca.

Il 2006, a detta di moltissimi fisici, fu un anno di svolta dal momento che furono pubblicati, quasi contemporaneamente, due libri molto critici verso la teoria delle stringhe (a ben vedere, verrebbe da dire). La “comunità delle stringhe” non prese affatto bene la cosa e si scatenò quella che viene ricordata come “Strings War” (Guerra delle Stringhe – bruttissima definizione, ndr). La cosa, purtroppo, sfuggì rapidamente di mano e i due autori dei libri furono duramente attaccati sul piano personale, più che confutare il contenuto delle loro critiche. In sintesi, una brutta pagina nella storia della ricerca scientifica.

 

La corrispondenza AdS/CFT

Questa guerra lasciò, inevitabilmente, degli strascichi pesanti: ormai era abbastanza evidente a tutti, anche a chi per oltre tre decenni aveva duramente lavorato sulla teoria, che essa NON fosse in grado di portare a casa lo scopo per cui era nata, ovvero “unificare il tutto” e quindi molti decisero di optare per delle “narrazioni minori”, ovvero piccoli avanzamenti in settori secondari della teoria sperando, così, di ritornare, un domani, verso il “centro” della teoria.

Uno dei più prolifici settori secondari fu la scoperta della corrispondenza AdS/CFT (avvenuta nel 1997, ma rimasta per anni collaterale alla teoria vera e propria), ovvero tra lo spazio Anti-De Sitter e la Teoria di Campo Conforme. Cosa significa?? In soldoni lo spazio Anti-DeSitter è il corrispondente dello spazio di DeSitter con il segno invertito (in pratica, essendo lo spazio DeSitter positivo, ci si mette davanti il segno meno). Fino a qui niente di eccezionale, solo che, come al solito, sono i piccoli dettagli a rovinare il tutto: la tazzina di caffè, il nostro soggiorno di casa, il pianeta terra, il Sistema Solare, la Via Lattea e tutto l’universo noto sono spazi DeSitter perfetti (costante cosmologica positiva).

E allora perché mettere il segno meno, creando uno spazio meramente teorico che NON esiste nella realtà? Perché i fisici si sono accorti che, con quel segno cambiato, ci sono delle corrispondenze con teorie scientifiche (Teorie del Campo Conforme) ben note e validate e che la matematica “funziona”. A questo punto però, i fisici delle stringhe, non sapendo come uscire dalla contraddizione (spazio teorico/spazio reale), hanno sostenuto, di volta in volta che “prima risolviamo l’AdS/CFT e poi pensiamo alla realtà” oppure, addirittura, dicendo che “lo spazio Anti-DeSitter e lo spazio DeSitter non sono poi così tanto diversi” (alle scuole medie mi avevano spiegato che se metto il segno meno davanti ottengo l'esatto opposto di un valore/formula, ma i miei insegnanti delle medie non erano teorici delle stringhe, ndr)….

 

I punti forti

Non si può tacere, ovviamente, che tutto l’impegno profuso non abbia dato risultati (molto spesso interessanti e stimolanti), solo che questi rimangono, purtroppo, limitati alla matematica teorica di altissimo livello e poco più. Certo, la matematica è importante, ma i creatori della teoria puntavano decisamente più in alto.

E quelli deboli

Nonostante centinaia e centinaia di fisici e matematici (alcuni di primissimo ordine) abbiano investito molto tempo e sforzi per sostenere questa teoria, la strada sembra essere arrivata ad un punto morto e questo per alcuni motivi che andremo a vedere.

  • Il primo, e forse più pesante, è che la Teoria delle Stringhe, a tutt’oggi, NON ha avuto nessuna conferma sperimentale, né diretta né indiretta. Sono passati 30 anni dalla “seconda rivoluzione”, l’LHC (che è stato, per anni, solida speranza dei fisici delle stringhe) sta funzionando a pieno regime da anni e NON ha ancora trovato traccia di queste fantomatiche stringhe né di particelle gemelle di quelle esistenti (come previsto dalla Teoria). Ogni presa dati ad energie e numero di eventi più alti è un colpo al cuore della teoria.

(anche la teoria del Big Bang, per esempio, non può avere - nè mai avrà - una conferma sperimentale diretta, per ovvi motivi. Per fortuna ci sono letteralmente tonnellate di prove indirette a supportarla)

  • Il secondo, altrettanto pesante, è che di fronte a risultati sperimentali che contraddicono la teoria, i ricercatori “sistemano” i calcoli dicendo “potrebbe funzionare”, il famoso “Not even wrong” (neanche sbagliato) di Wolfgang Pauli. Chiarissimo, in tal senso, fu Richard Feynman: “Non mi piace il fatto che non calcolano alcunché... Non mi piace che non verifichino le loro idee... Non mi piace che, quando ci sono disaccordi con un esperimento, essi confezionino una spiegazione, un aggiustamento, per poi dire, "Beh, potrebbe ancora essere giusta".

Un esempio, tra i tanti, è quello delle “stringhe cosmiche”, ovvero delle stringhe che si ritenevano essere rilevabili da piccole variazioni ben determinate del rumore cosmico di fondo: peccato che tutte le misurazioni non abbiano rilevato queste anisotropie. Cosa fare, quindi? Beh, inventarsi delle nuove strutture teorico/matematiche (le D-Brane “stiracchiate”) rilevabili, secondo i teorici, dal rilevatore Ligo, all’interno delle onde gravitazionali. Peccato che né Ligo, né il suo successore (a-Ligo, 4 volte più sensibile del Ligo originario), in anni di prese dati non abbiano mai evidenziato queste strutture teoriche. Cosa fare, ancora? Basta dire che i calcoli situano questi oggetti teorici in campi di rilevabilità talmente sensibili che ancora dobbiamo costruire un rilevatore in grado di darne conto. Not even wrong!!

E’ sempre l’esperimento successivo che deve dimostrare qualcosa e, quando non lo trova, si passa all’esperimento successivo e avanti così. (chissà cosa potrebbero inventarsi se il futuro rilevatore Einstein, decine di volte più sensibile dell’a-Ligo, non dovesse rilevare nulla….). Per uscire da questo loop, alcuni teorici delle stringhe si sono spinti a dire che la teoria non sarà mai dimostrabile da alcun esperimento!!

 

  • Il terzo è che questa teoria non produce previsioni (o, se le produce, sono sempre state sbagliate), ovvero non è in grado di spiegare prima il perché di certi fenomeni. Questo ultimo punto, che sembra minore, è un argomento che taglia le gambe ai teorici che dicono “eh, ma anche il Bosone di Higgs ha avuto bisogno di 50 anni per venire misurato e studiato”. Vero, solo che, nonostante non se ne conoscesse la massa esatta, si sapeva di per certo, attraverso esperimenti indiretti, che esso esisteva e che, lavorando come se esistesse, si potevano fare previsioni verificabili (ovviamente la sua misurazione ha portato ad un altro livello tutti gli esperimenti e le teorie, ma nessuno aveva il dubbio della sua esistenza). Come sfuggire a questo problema? Beh, facile, ipotizzando una quantità pressochè infinita di “stati di vuoto” (i quali sono, semplificando molto, delle descrizioni di come le particelle interagiscono e, in sintesi, di quanti universi possano esistere – noi viviamo in uno di questi): infinite soluzioni possono prevedere, letteralmente, qualsiasi cosa. Infinite risposte rispondono a qualsiasi domanda, effettivamente.

E oggi?

Negli ultimi anni, nonostante i deprimenti risultati della teoria, c’è una nuova speranza, ovvero l’informatica quantistica. I teorici delle stringhe, infatti, ritengono che molti problemi della teoria siano legati alla “calcolabilità” della stessa (come faccio a calcolare una infinità di stati di vuoto?), motivo per cui sistemi di calcolo più potenti (e i computer quantistici lo sono) possono rispondere a domande finora senza risposta. Rimane, ovviamente, il problema dei “dati in ingresso”: se immettiamo congetture sbagliate (e finora, nella teoria delle stringhe, le congetture non sono state la cosa migliore) in un sistema quantistico, lui restituirà risposte sbagliate. Leggendo certi articoli (alcuni involontariamente quasi umoristici, come quello del pi greco calcolato con la teoria delle stringhe) sembra che le linee guida di questa (forse) “terza rivoluzione delle stringhe” siano “buttate dentro qualcosa nel computer, qualcosa ne uscirà”.

 

Ma quindi, cos’è? Scienza di confine? Religione? Altro?

In questo breve excursus, ovviamente, non sono entrato nei dettagli della teoria (non sono un fisico né un matematico, ho tralasciato molte cose - come le "Swamplands" o la "compattazione" - mentre moltissime altre cose mi sfuggono), ma ho cercato di riassumere brevemente come una idea anche interessante ed innovativa, possa prendere vie “dogmatiche” e trasformarsi, con il tempo, in una sorta di “fede” pseudo-scientifica, anche a costo di andare in contrasto con i dati della realtà.

Ma perché, allora, continuare in questo infruttuoso campo di ricerca?
Per molti motivi: è brutto “buttare a mare” così tanti anni di lavoro (e, soprattutto, finanziamenti), è difficile dire “ho sbagliato”, è difficile ammettere di aver “traviato” tanti giovani ricercatori costringendoli, negli anni, a dedicarsi solo a questo campo di ricerca (se volevano “rimanere nel giro giusto” della fisica teorica), ecc, ecc.

 

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (4 risposte).

HL-LHC sta arrivando

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
06 Marzo 2024
Creato: 06 Marzo 2024

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Amici di BoincItaly, ho tradotto, "semplificato" (in certe parti) e ampliato (in altre) un articolo sulla situazione del futuro HL-LHC.

Spero che la cosa non vi dispiaccia...

 

 

Con meno di due anni di attività dell'LHC prima dell'inizio della fase del terzo arresto prolungato della durata di 3 anni (LS3 – Gennaio 2026/Dicembre 2028), quando inizierà la fase di installazione principale dell'LHC ad alta luminosità, Oliver Brüning e Markus Zerlauth descrivono gli ultimi progressi e i prossimi passi per la validazione di tecnologie chiave, test di prototipi e produzione in serie di apparecchiature.

 (Alimentazione superconduttiva. Un criostato di test contenente l’RCBO, il conduttore elettrico "superconduttivo ad alta temperatura" che alimenta la tripletta del quadrupolo dell’HL-LHC attraverso cavi MgB2 collocati in un criostato flessibile, in attesa di essere inserito nella stringa IT per i test)

 

Questo programma scientifico unico – che ha visto la scoperta del bosone di Higgs, innumerevoli misurazioni di fenomeni ad alta energia e ricerche esaustive di nuove particelle – ha già trasformato il campo di ricerca. Per aumentarne ulteriormente il potenziale di scoperta, ad esempio consentendo una maggiore precisione e l'osservazione di processi rari, l'aggiornamento dell'LHC ad alta luminosità (HL-LHC) mira ad aumentare la quantità di dati raccolti dagli esperimenti ATLAS e CMS di un fattore pari a 10 e consentirà al “collisore di punta” del CERN di funzionare fino all'inizio degli anni '40.

Dopo il completamento del secondo arresto prolungato (LS2) nel 2022, durante il quale il progetto di aggiornamento degli iniettori LHC è stato implementato con successo, la Run 3 è iniziata con un'energia record del centro di massa di 13,6 TeV. Rimangono solo due anni di attività prima dell'avvio dell’LS3 nel 2026. Questo è il momento in cui inizierà la fase di installazione principale di HL-LHC, a partire dallo scavo dei nuclei verticali che collegheranno il tunnel di LHC alle nuove gallerie HL-LHC e seguito dall'installazione di nuovi componenti dell'acceleratore.

Approvato nel 2016, il progetto HL-LHC sta implementando diverse tecnologie innovative, tra cui: magneti acceleratori al Niobio-Stagno (Nb3Sn), un sistema di alimentazione costituito da cavi superconduttori “a caldo” MgB2 (Diboruro di magnesio) e un criostato flessibile, l'integrazione di cavità crab ("a granchio") al Niobio compatte (per compensare il maggiore angolo di incrocio del raggio) e una nuova tecnologia per la collimazione del raggio e la protezione della macchina.

Gli sforzi al CERN, e di tutta la collaborazione HL-LHC, si stanno ora concentrando sulla produzione in serie di tutti i risultati finali del progetto, in vista della loro installazione e validazione nel tunnel dell'LHC. Il fulcro di questo sforzo, che coinvolge istituti di tutto il mondo e una forte collaborazione con l’industria, è l’assemblaggio e la messa in servizio dei nuovi magneti che saranno installati su entrambi i lati di ATLAS e CMS per consentire operazioni ad alta luminosità a partire dal 2029. In parallelo continua il lavoro intenso sui corrispondenti aggiornamenti dei rivelatori di LHC: ATLAS e CMS installeranno tracciatori interni completamente nuovi durante LS3, mentre LHCb ed Alice stanno lavorando su delle proposte per dei rilevatori completamente nuovi per una eventuale installazione nel 2030.

 

Infrastrutture civili completate

Le prestazioni più elevate a cui si punta nei punti di interazione ATLAS e CMS richiedono una maggiore capacità di raffreddamento per i magneti quadrupolari di focalizzazione finale, a sinistra e a destra degli esperimenti, per poter gestire il flusso più ampio di detriti di collisione. È inoltre necessario spazio aggiuntivo per ospitare nuove apparecchiature: convertitori di potenza e dispositivi di protezione delle macchine, nonché schermature per ridurre la loro esposizione alle radiazioni e per consentire un facile accesso per interventi più rapidi e quindi una migliore disponibilità delle macchine.

Tutti questi requisiti sono stati affrontati con la costruzione di nuove strutture sotterranee presso gli esperimenti ATLAS e CMS. Entrambi i siti sono caratterizzati da un nuovo pozzo di accesso e da una caverna che ospiterà una nuova cella frigorifera, una galleria lunga circa 400 m per i nuovi convertitori di potenza e le apparecchiature di protezione, quattro tunnel di servizio e 12 nuclei verticali che collegano la galleria al tunnel LHC esistente. Una nuova scala su ciascun lato dell'esperimento collega inoltre le nuove strutture sotterranee al tunnel esistente per il personale dell'LHC.

Costruzioni ed infrastrutture. La nuova galleria al Punto1 (Atlas) per i convertitori di energia ed altre strumentazioni (prima foto). Foto al centro: il punto in superficie per il raffreddamento e la ventilazione al Punto5 (CMS). Caverna di servizio sotterranea, foto a destra.

 

I lavori di ingegneria civile sono iniziati alla fine del 2018, per consentire l'esecuzione, durante LS2, della maggior parte degli interventi che richiedevano macchinari pesanti, dal momento che si stimava che le vibrazioni avrebbero altrimenti avuto un impatto negativo sulle prestazioni di LHC. Tutte le opere di ingegneria civile sotterranee sono state completate nel 2022 e la costruzione dei nuovi edifici di superficie, cinque per ogni IP, nella primavera del 2023. I nuovi ascensori di accesso hanno subito un ritardo di circa sei mesi a causa di alcune scheggiature del calcestruzzo localizzate all'interno dei vani, ma l’installazione in entrambi i siti è stata completata nell’autunno 2023.

La realizzazione delle infrastrutture tecniche procede ormai a pieno ritmo sia in ambito sotterraneo che in superficie. Occorre sottolineare che, anche se i lavori di ingegneria civile si sono estesi per tutto il periodo di chiusura per il COVID-19 e sono stati esposti alla volatilità del mercato a seguito dell’invasione russa dell’Ucraina, siano stati sostanzialmente completati nei tempi previsti e nel rispetto del budget. Ciò rappresenta un'enorme risultato per il progetto HL-LHC e per il CERN.

Una delle pietre miliari dell'aggiornamento HL-LHC sono i nuovi magneti a triplo quadrupolo con maggiore tolleranza alle radiazioni. Un totale di 24 magneti quadrupolari Nb3Sn di grande apertura saranno installati attorno ad ATLAS e CMS per focalizzare i raggi più strettamente, rappresentando il primo utilizzo della tecnologia dei magneti Nb3Sn in un acceleratore per la fisica delle particelle.

A causa dei tassi di collisione più elevati negli esperimenti, i livelli e la quantità integrata di radiazioni emesse aumenteranno di conseguenza, richiedendo particolare attenzione nella scelta dei materiali utilizzati per costruire le bobine magnetiche (nonché l'integrazione di ulteriori schermature di tungsteno negli schermi del fascio). Per avere spazio sufficiente per la schermatura, le aperture della bobina devono essere all'incirca raddoppiate rispetto alle triplette Nb-Ti esistenti, riducendo così il parametro β* (che si riferisce alla dimensione del fascio nei punti di collisione) di un fattore di quattro rispetto al progetto nominale dell'LHC, sfruttando appieno le migliorate emittanze del fascio in seguito all'aggiornamento della catena degli iniettori dell'LHC.

 

Magneti quadrupoli. Il primo gruppo crio-magnete a tripletta interna prodotto dal CERN (Q2b), comprendente un prototipo di magnete MQXFB e un magnete correttore MCBXF, pronto per alimentare i test sul banco di prova SM18 (a sinistra) e (a destra) il magnete MQXFB03 nello SMI2.

 

Per l’HL-LHC raggiungere il gradiente magnetico integrato richiesto, con l’attuale tecnologia Nb-Ti, richiederebbe una tripletta molto più lunga. La scelta del Nb3Sn consente di raggiungere campi di 12 Tesla (e quindi di raddoppiare l'apertura di tripletta) pur mantenendo il magnete relativamente compatto (la lunghezza totale passa da 23 m a 32 m). L’intensa attività di ricerca e sviluppo e la prototipazione di magneti Nb3Sn sono iniziate oltre 20 anni fa nell’ambito del programma di ricerca sull’acceleratore LHC (LARP) con sede negli Stati Uniti, che ha unito LBNL (Lawrence Berkeley National Laboratory), SLAC (Stanford Linear Accelerator Center), Fermilab e BNL (Brookhaven National Laboratory). Lanciato ufficialmente come studio di progettazione nel 2011, è stato poi convertito nell'Accelerator Upgrade Program (AUP) nella fase di industrializzazione e produzione in serie di tutti i componenti principali.

I magneti della tripletta interna dell’HL-LHC sono stati progettati e costruiti in una collaborazione tra AUP e CERN. I 10 crio-assemblaggi Q1 e Q3 (otto per l'installazione e due di riserva), che contengono due magneti quadrupoli individuali di 4,2 m di lunghezza (MQXFA), saranno forniti da AUP (con conferimento in natura), mentre le 10 versioni più lunghe per Q2 (contenenti un singolo magnete quadrupolare lungo 7,2 m, MQXFB, e un gruppo correttore di orbita dipolo) saranno prodotte al CERN. Il primo di questi magneti è stato testato e completamente convalidato negli Stati Uniti nel 2019 e il primo crio-assemblaggio costituito da due singoli magneti è stato assemblato, testato e convalidato al Fermilab ad inizio 2023. Questo crio-assemblaggio è arrivato al CERN nel novembre 2023 ed è ora in fase di preparazione per la convalida e il test. La produzione statunitense di cavi e bobine è stata completata nel 2023 e la produzione di magneti e crio-assemblaggi sta accelerando per la produzione in serie.

I primi tre magneti prototipo Q2 hanno mostrato, inizialmente, alcune limitazioni. Ciò ha richiesto, dopo il test del secondo prototipo, un ampio piano di miglioramento in tre step per affrontare le diverse fasi della produzione della bobina, la procedura di assemblaggio della stessa, del guscio in acciaio inossidabile e la saldatura finale per la massa fredda. Tutte e tre gli step di miglioramento sono stati implementati nel terzo prototipo (MQXFBP3), che è il primo magnete che non presenta più alcuna limitazione, né alle temperature di esercizio di 1,9 K né a 4,5 K, e quindi il primo della produzione destinato all'installazione nel tunnel (vedi immagine “Magneti quadripoli” qui sopra).

 

Dipoli magnetici. Prototipo di un dipolo a singola apertura (D1) a destra e un dipolo a doppia apertura (D2) a sinistra, entrambi in prova all’ SM18.

Oltre alle triplette (di quadrupoli), le regioni di inserzione HL-LHC richiedono diversi altri nuovi magneti per manipolare i fasci. Per alcuni tipi di magneti, come i magneti correttori-non-lineari (prodotti dalla LASA di Milano come conferimento in natura dell'INFN), l'intera produzione è stata completata e tutti i magneti sono stati consegnati al CERN. I nuovi dipoli magnetici di separazione e ricombinazione – che si trovano sul lato opposto delle regioni di inserimento, per guidare i due fasci controrotanti su una traiettoria comune che consente collisioni negli IP – sono prodotti come conferimento in natura dal Giappone e dall'Italia.

I dipoli magnetici a singola apertura D1 sono prodotti da KEK con Hitachi come partner industriale, mentre i dipoli magnetici D2 (a doppia apertura) sono prodotti nell'industria da ASG di Genova, sempre come conferimento in natura da parte dell'INFN. Anche se entrambi i tipi di dipolo si basano sulla “vecchia” ma consolidata tecnologia dei superconduttori Nb-Ti (il cavallo di battaglia dell'LHC), spingono il conduttore in un territorio inesplorato. Ad esempio, il dipolo D1 presenta un'ampia apertura di 150 mm e un picco di dipolo di 5,6 T, che si traducono in forze molto grandi nelle bobine durante il funzionamento. Hitachi ha già prodotto tre delle sei serie di magneti. Il prototipo del magnete dipolo D1 è stato consegnato al CERN nel 2023 e raffreddato nella sua configurazione finale; il prototipo del magnete D2 è stato testato e completamente convalidato al CERN nella sua configurazione finale del criostato e il primo magnete della serie D2 è stato consegnato dall'ASG al CERN.

Anche la produzione dei rimanenti nuovi magneti HL-LHC è in pieno svolgimento: i magneti coseno-teta annidati – un nuovo design di magneti comprendente due solenoidi con strati di bobina inclinati,

 

necessari per correggere l’orbita accanto al dipolo D2, stanno procedendo bene in Cina (come contributo in natura da parte dell’IHEP) con Bama come produttore industriale. I magneti correttori di orbita a dipolo annidato, necessari per la correzione dell'orbita all'interno dell'area del tripletto, si basano sulla tecnologia Nb-Ti (un conferimento in natura del CIEMAT in Spagna) e stanno anch'essi facendo buoni progressi, con la convalida finale dimostrata nel 2023.

Con i nuovi convertitori di potenza nelle gallerie sotterranee HL-LHC posizionati a circa 100 m di distanza e 8 m sopra i magneti nel tunnel, era necessario trovare un modo efficiente (in termini di costi ed energia) per trasportare correnti fino a 18 kA tra di loro. Era stato valutato che i “semplici” cavi e le sbarre in rame raffreddati ad acqua avrebbero portato ad un’indesiderata inefficienza nel raffreddamento delle perdite ohmiche, e che i collegamenti Nb-Ti (che richiedono il raffreddamento con elio liquido) sarebbero stati troppo impegnativi a livello tecnico e molto costosi, data la differenza di altezza tra le nuove gallerie e il tunnel. Si è così deciso di sviluppare un nuovo sistema di alimentazione “a freddo” dotato di un criostato flessibile e cavi di diboruro di magnesio (MgB2) in grado di trasportare le correnti richieste a temperature fino a 50 gradi K (-223 gradi centigradi). (Attualmente occorrono cablaggi che lavorano intorno ai 3K /-269 gradi centigradi e si eviterebbe, in questa maniera, il fondamentale passaggio dai 4,5 ai 3 K, passaggio che comporta molte difficoltà e costi elevati. NdT).

 

Correttori magnetici. Un correttore all’interno del suo criostato (a sinistra) e la costruzione di un correttore a massa fredda (a destra)

Con questo sistema senza precedenti, l'elio evapora dai criostati magnetici nel tunnel e si propaga attraverso il criostato flessibile fino alle nuove gallerie sotterranee. Questo processo raffredda sia il cavo MgB2 che i conduttori di corrente “superconduttori ad alta temperatura” (che collegano i convertitori di potenza a conduzione normale ai magneti superconduttori) a temperature nominali comprese tra 15 K e 35 K. L'elio gassoso viene quindi raccolto nelle nuove gallerie, compresso, liquefatto e reimmesso nel sistema criogenico. I nuovi cavi e criostati sono stati sviluppati con aziende in Italia (ASG e Tratos) e nei Paesi Bassi (Cryoworld) e sono ora disponibili come materiali commerciali per altri progetti.

Tre test dimostrativi condotti presso la struttura SM18 del CERN hanno già convalidato completamente il cavo MgB2 e il concetto di criostato flessibile. Le scatole di alimentazione che collegano il cavo MgB2 ai convertitori di potenza nelle gallerie e ai magneti nel tunnel sono state sviluppate e prodotte come contributi in natura con l'Università di Southampton (e Puma come partner industriale nel Regno Unito) e l'Università di Uppsala (e RFR come partner industriale in Svezia). Un assemblaggio completo del collegamento superconduttore con le due scatole di alimentazione è stato assemblato ed è in fase di test alla sezione SM18 del CERN, in preparazione per la sua installazione nella stringa tripletta interna nel 2024 (vedere la prima immagine “Alimentazione superconduttiva”).

 

La stringa di test IT

La stringa "inner-triplet" (IT) – che replica l’intero magnete, l’alimentazione e la protezione a sinistra del CMS dai magneti tripletti fino al magnete dipolo di separazione D1 – è la prossima pietra miliare del progetto HL-LHC.

 

Schema logico della stringa IT di test completa. Gli elementi chiave che costituiscono le nuove regioni di inserimento per l'esperimento LHC ad alta luminosità, che mostrano i gruppi di quadrupolo (Q) e dipolo (D), il feedbox dei collegamenti superconduttori (DFHX e DFH), la linea di distribuzione criogenica (SQXL) e apparecchiature ausiliarie.

 

L'obiettivo della stringa IT è convalidare le procedure e gli strumenti di assemblaggio e connessione necessari per la messa in opera della struttura nell'HL-LHC. Serve anche a valutare il comportamento collettivo della catena magnetica superconduttiva in condizioni il più vicino possibile a quelle del loro successivo funzionamento nell'HL-LHC, e come opportunità di formazione per i teams delle apparecchiature per il loro successivo lavoro nel tunnel dell'LHC. Come detto, la stringa IT comprende tutti i sistemi necessari per il funzionamento alle condizioni nominali, come il vuoto (seppur senza schermi a fascio magnetico), la criogenia, i sistemi di alimentazione e protezione. L'intera catena IT – lunga circa 90 m – trova posto sul retro della sala test SM18, dove è disponibile la necessaria infrastruttura per l'elio liquido.

Le nuove gallerie sotterranee sono “imitate” da una struttura metallica situata sopra i magneti. La struttura ospita i convertitori di potenza e il sistema di protezione dal quench (fascio che viene perso), il quadro di sezionamento elettrico e la scatola di alimentazione che unisce il collegamento superconduttore ai sistemi di alimentazione a conduzione normale. Il collegamento superconduttore si estende dalla struttura metallica sopra il gruppo magnete all'estremità D1 della stringa IT dove (dopo una discesa verticale che imita il passaggio attraverso i nuclei verticali sotterranei) è connesso a un prototipo della scatola di alimentazione dei magneti.

È in fase di completamento l'installazione dei sistemi di alimentazione normale e di protezione delle macchine della stringa IT (vedi immagine sotto). Insieme alle infrastrutture già completate dell'impianto, l'intero sistema di alimentazione a conduzione normale della stringa è entrato nella sua prima fase di messa in servizio nel Dicembre 2023, con l'esecuzione delle prove di cortocircuito. La linea di distribuzione criogenica per la stringa IT è stata testata con successo a basse temperature e sarà presto sottoposta a un secondo raffreddamento alla temperatura nominale, prima dell'installazione dei magneti e del sistema di alimentazione a freddo. Si prevede che l'installazione di test sarà completata nel corso del 2024 e il periodo operativo principale avrà luogo nel 2025.

 

Collimatori

Il controllo delle perdite del fascio causate da particelle ad alta energia che deviano dalla loro traiettoria ideale è essenziale per garantire la protezione e il funzionamento efficiente dei componenti dell'acceleratore, e in particolare degli elementi superconduttori come i magneti e le cavità. L’attuale sistema di collimazione LHC, che comprende già più di 100 collimatori individuali installati attorno all’anello, deve essere aggiornato per affrontare le sfide senza precedenti poste dai fasci più luminosi dell’HL-LHC. Dopo un primo aggiornamento dei sistemi di collimazione e schermatura dell'LHC implementati durante LS2, la sfida della produzione di nuovi collimatori per la regione di inserimento e del secondo lotto di collimatori a bassa impedenza viene ora lanciata all'industria.

La stringa IT in assemblaggio all’SM18 (a sinistra) e l’installazione dell’infrastruttura elettrica e di segnale (a destra)

L’ LS2, e il successivo stop tecnico di fine anno, hanno visto anche il completamento del nuovo schema di collimazione dei cristalli. Situato nell’ “IR7” (tra CMS e LHCb), questo schema comprende quattro goniometri con cristalli piegati – uno per fascio e piano – per incanalare le particelle alone su un assorbitore a valle (immagine qui sotto).

Dopo studi approfonditi con i fasci negli ultimi anni, la collimazione dei cristalli è stata utilizzata operativamente in un test fisico per la prima volta durante il test sugli ioni pesanti del 2023, dove è stato dimostrato che aumenta l'efficienza di pulizia di un fattore fino a cinque rispetto allo schema di collimazione standard.

Installazione dei nuovi collimatori dei cristalli nel tunnel LHC al Punto7

A seguito di questo notevole successo di implementazione e dei test completi di sviluppo della macchina, gli obiettivi prestazionali di HL-LHC sono stati definitivamente confermati sia per le operazioni con protoni che con ioni. Ciò ha consentito di escludere dal progetto HL-LHC la soluzione di base che utilizzava un collimatore standard inserito nella sezione IR7 (che avrebbe costretto alla sostituzione, per creare lo spazio necessario, di un dipolo LHC standard da 8,3 T con due dipoli corti Nb3Sn da 11 T).

 

Le cavità "granchio"

Una seconda pietra angolare del progetto HL-LHC sono le cavità “granchio” superconduttrici a radiofrequenza. Posizionati accanto al dipolo D2 e al magnete quadrupolare a sezione corrispondente Q4 nelle regioni di inserimento, queste cavità sono necessarie per compensare l'effetto dannoso dell'angolo di incrocio sulla luminosità applicando “un calcio di momento trasversale” (ovvero una semi-rotazione del pacchetto del fascio NdT) a ciascun fascio che entra nelle regioni di interazione di ATLAS e CMS.

Schema logico di funzionamento della crab cavity, che "raddrizza" i pacchetti per migliorare l'impatto degli stessi nel punto di collisione

Verranno installati due diversi tipi di cavità: il dipolo a radiofrequenza (RFD) e il dipolo a doppio quarto d'onda (DQW), che deviano i grappoli rispettivamente nei piani di incrocio orizzontale e verticale (vedi immagine sopra). La produzione in serie delle cavità RFD sta per iniziare presso Zanon, in Italia, sotto la guida di AUP, mentre la produzione della serie di cavità DQW è ben avviata presso RI in Germania, sotto la guida del CERN, dopo la validazione riuscita di due cavità nude in pre-serie.

Un crio-modulo DQW completamente assemblato è stato sottoposto a dei test del fascio di grande successo nel Super Sincrotrone Protonico (SPS) dal 2018, dimostrando la formazione di fasci di protoni e consentendo lo sviluppo e la validazione dei necessari sistemi RF di basso livello e di protezione delle macchine. Per l'RFD, alla fine del 2021, sono state consegnate alla collaborazione del Regno Unito due cavità, dopo la loro corretta qualificazione al CERN.

Cavità a granchio. L’inserimento di un controllo del fascio in una cavità granchio (a sinistra) e l’arrivo all’SM18 di un crio-modulo RFD (a destra)

Queste sono state assemblate in un primo crio-modulo RFD completo, che è stato restituito al CERN nell'autunno 2023 ed è attualmente sottoposto a test di validazione a 1,9 K, rivelando alcune non conformità da risolvere prima che sia pronto per l'installazione nell'SPS nel 2025 per i test con fasci. Dopo la validazione dei prototipi, è stata avviata anche la produzione in serie dei necessari accessori e degli accoppiatori di modalità di ordine superiore per entrambi i tipi di cavità al CERN e all'AUP. Prima della fabbricazione, il concetto della cavità “granchio” è stato sottoposto a un lungo periodo di ricerca e sviluppo con il supporto di LARP, JLAB, UK-STFC e KEK.

 

Programmi futuri.

Il 2023 e il 2024 sono gli ultimi due anni di grande spesa e di assegnazione dei contratti industriali per il progetto HL-LHC. Con il completamento dei contratti di ingegneria civile e l'assegnazione dei contratti per i nuovi compressori criogenici e per i sistemi di distribuzione, il progetto ha ora impegnato oltre il 75% del suo budget previsto. Una revisione dei costi e della pianificazione di HL-LHC tenutasi al CERN nel Novembre 2023, condotta da un gruppo internazionale di esperti di acceleratori di altri laboratori, si è congratulata con il progetto per i buoni progressi complessivi e ha concordato con la proiezione di essere pronti per l'installazione delle principali attrezzature durante LS3 a partire dal 2026.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (5 risposte).

Mia mamma usa Windows

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Blog
15 Marzo 2023
Creato: 15 Marzo 2023

Valutazione attuale: 3 / 5

Stella attivaStella attivaStella attivaStella inattivaStella inattiva

Questo articoletto è tra il serio e il faceto, a partire dal titolo, che fa il verso al famoso blog (che consiglio a tutti di seguire). La mia è una esperienza di un tecnico informatico (di provenienza Windows) che, però, non disdegna di provare/usare/bazzicare il mondo Linux.

Bene, fatta questa doverosa introduzione, andiamo alla storia.
Qualche giorno fa quelli di LHC Dev hanno rilasciato il nuovo applicativo per Atlas, solo che ci sono problemi a scaricare la versione per Windows (NDR: cosa risolta stanotte).

A questo punto, io che son curioso, ieri mi decido a preparare una piccola box Linux per vedere com’è stò applicativo. VirtualBox l’ho già, scarico l’ultima distro di Ubuntu (mi ricordo che lhc ama le distro recenti) e installo la macchina. Fatto, creo un mio account con password, entro e da GUI faccio prima tutti gli aggiornamenti, installo il Boinc Manager, la lingua italiana e la tastiera ITA.

Fin qui tutto liscio come l’olio, in 15 minuti fatto tutto.
Ma è finita qui la pacchia.

Mi ricordo che Atlas vuole, come prerequisito, il pacchetto CVMFS (il file system Cern) e che, per installarlo, son tre comandi in croce (un wget, un dpkg e un apt-get install), niente di esotico.

Apro il terminale bash e questo crasha immediatamente. Lo provo varie volte e niente da fare, non parte. Riavvio il pc e magicamente il terminale parte. Ok, vado su internet (via Firefox) perché non ho voglia di scrivere a manina tutto il lungo URL per scaricare il CVMFS.

Copio il comando ed ottengo il primo errore: “il nome utente non è gruppo sudoers. Questo evento verrà segnalato”. (a chi è che verrà segnalato, scusa?)

Ah, già, hai ragione pure tu, non ho creato la password di root. Lancio il solito comando “sudo passwd” e mi restituisce lo stesso errore.

Calma, probabilmente è un problema dell’utente che ho creato. Torno nell’interfaccia grafica degli utenti e vedo che, effettivamente, il mio utente non ha attivo il pulsante “amministratore” (e non è possibile flaggarlo, giustamente, all’interno di sé stesso). Da qui, al volo, creo un account amministratore “Pippo” (e vuole pure i requisiti di complessità, stò maledetto), entro con quell’utente e vado a flaggare il pulsante sul mio account.

Rientro con il mio account, apro il terminale e firefox….e firefox adesso non funziona più!!!

Calma, calma.

A questo punto provo a rientrare in Pippo (e anche qui Firefox non funziona, ma al massimo installo un altro browser) e decido di editare il file sudoers.conf.

Ovviamente non è presente (o almeno, io non l’ho trovato, non mi trova nemmeno Nano, boh) un editor di testo decente di default in Ubuntu, quindi scarico il primo della lista dei pacchetti disponibili e vado ad aprire il file.

Non ho i permessi.

Calma, calma, calma.

Apro il terminale e vado di chmod. Niente, mi dice che non ho i permessi per modificare i permessi del file.

Calma, calma, calma, calma


Spengo Ubuntu e uso Windows, come mia mamma.

 

P.S.
Ah, ho trovato una guida per risolvere il problema, in pratica è sufficiente ricompilare il kernel bendati, all’interno di un pentacolo di sangue di un gallo sgozzato da alcune vergini (trovarne) in una notte di plenilunio…

https://it.linux-console.net/?p=898#gsc.tab=0

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (19 risposte).

Informatica e IA

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
10 Marzo 2023
Creato: 10 Marzo 2023
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Informatica e IA

(Informatics and AI)

 

 

MLC

MLC

 

Clemens J. - "MLDS: A Dataset for Weight-Space Analysis of Neural Networks". Arxiv 2021. Link

Clemens J. - "MLC@Home: A Distributed Platform for Studying and Understanding Neural Networks". Boinc Workshop 2021. Link

 

Discuti questo articolo
Accedi per commentare

LODA

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
08 Gennaio 2023
Creato: 08 Gennaio 2023
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

LODA Logo

 

 
 
 
 
 
AMBITO: Informatica e I.A.
STATO: ATTIVO
ATTACH: https://boinc.loda-lang.org/loda/
 
 

FORUM-INFO : Thread di discussione

il progetto LODA (Lexicographical Order Descent Assembly) si occupa di matematica e di programmazione (program mining, ovvero la ricerca automatica di algoritmi e programmi nuovi)

LODA è un linguaggio assembly, un modello computazionale e uno strumento distribuito per i programmi di mining. Può essere usato per generare e cercare programmi che calcolano sequenze intere dall'On-Line Encyclopedia of Integer Sequences® (OEIS®). L'obiettivo del progetto è il reverse engineering di formule e algoritmi efficienti per un'ampia gamma di sequenze intere non banali. Il linguaggio

LODA significa Lessicographical Order Descent Assembly.

È un linguaggio basato su assembly per risolvere problemi di teoria dei numeri. Ha una sintassi semplice e un ricco insieme di operazioni aritmetiche. Ciò consente una ricerca automatizzata di nuovi programmi e algoritmi utilizzando un processo chiamato program mining. In poche parole,viene utilizzata potenza di calcolo distribuita, algoritmi di ricerca intelligenti e apprendimento automatico per trovare programmi e formule per le sequenze di interi dal database OEIS. Per avere un'idea della lingua, è possibile cercare tra i programmi disponibili o cercare utilizzando parole chiave. Una panoramica completa dei concetti del linguaggio e delle operazioni supportate è disponibile nella specifica del linguaggio.

LODA è un progetto comunitario. Il codice sorgente di LODA è ospitato nell'organizzazione loda-lang su GitHub.

 


 

LODA Logo

 

 
 
 
 
Informazioni tecniche
 
 
Stato del progetto: ATTIVO

Questo progetto non accetta attualmente nuovi account.

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

Assegnazione crediti: n/d

Supporto al progetto: supportato
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

Problemi comuni: nessuno

Non si riscontrano problemi significativi segnalati.
 

 

LODA Logo

 

 

 

Link utili

Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati



Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats







Posizione del team nelle classifiche mondiali

 

Discuti questo articolo
Accedi per commentare

Rosetta e VirtualBox

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
17 Gennaio 2022
Creato: 17 Gennaio 2022

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Da un po' di tempo il progetto Rosetta@Home sembra aver decisamente puntato sull’applicativo VirtualBox (Phyton), lasciando spesso vuote le code per gli applicativi standard. In molti ci hanno chiesto come scaricare ed elaborare queste wus. I passaggi non sono molti, ma devono essere seguiti tutti, pena non avere lavoro per i propri pc.

Nota importante: l’applicativo VirtualBox consuma molta ram e compie molte scritture su disco, quindi necessita di macchine sufficientemente performanti (aiutare la scienza richiede qualche sacrificio :-P ).

  • Verificare che il proprio processore supporti la virtualizzazione e, soprattutto, l’abbia abilitata (attraverso il bios). La via più veloce (in Windows 8/10/11) è quella di aprire “Gestione Attività” e controllare, nel pannello CPU, se la virtualizzazione è presente.

 

In Windows 7 o precedenti consigliamo l’uso di tools gratuiti come, per esempio, SecurAble (https://securable.en.softonic.com/).

In Linux è presente il comodo comando lscpu che indica la presenza o meno di virtualizzazione nella cpu

In ambiente Mac è necessario lanciare, da terminale, il comando sysctl -a | grep machdep.cpu.features e controllare che nella lista sia presente la voce VMX

 

 

  • Una volta verificato che la cpu supporti la virtualizzazione, installare VirtualBox (se non è stato già installato con Boinc).
  • A questo punto è necessario, nel sito di Rosetta, abilitare il proprio pc per l’elaborazione: entrando con il proprio profilo utente, selezionare il pc su cui si interessa far girare le simulazioni e cliccare “Dettagli”.

 

Qui, in fondo alla pagina, selezionare “Allow” alla voce “Virtual Box VM Jobs”.

Aggiornare il progetto e si riceveranno le nuove wus.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (5 risposte).

iThena.Computational

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
06 Novembre 2021
Creato: 06 Novembre 2021
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
iThena.Measurements

 

AMBITO: Matematica
STATO: ATTIVO
ATTACH: https://comp.ithena.net/usr/

 

Il progetto distribuito iThena riguarda la mappatura sperimentale delle strutture di rete incluse in Internet. Attualmente, l'applicazione disponibile nel progetto (iThena CNode) esegue una sequenza di procedure traceroute dai computer client. I dati risultanti vengono rinviati al server e inviati al database principale, dove possono essere ulteriormente analizzati.

 

Leggi tutto: iThena.Computational
Discuti questo articolo
Accedi per commentare

Foldit e AlphaFold

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Blog
06 Agosto 2021
Creato: 03 Agosto 2021

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

La "svolta" AlphaFold è una delle più importanti degli ultimi anni, motivo per cui ho deciso di tradurre l'articolo che parla della sua implementazione in Foldit.

 

Con questo articolo annunciamo una nuovissima funzionalità di Foldit che permetterà ai giocatori di utilizzare il rivoluzionario algoritmo AlphaFold di DeepMind! La funzionalità è attualmente disponibile per gli utenti sviluppatori, ma contiamo di pubblicarla come funzionalità standard nei prossimi giorni.

Alphafold 2 è un algoritmo per predire la struttura ripiegata di una proteina partendo dalla sua sequenza (di amminoacidi) ed è stato sviluppato dall’azienda DeepMind a partire dal 2020.

Precedentemente, nella competizione CASP 2018 per la predizione delle strutture proteiche, DeepMind aveva fatto colpo con la versione iniziale di AlphaFold, sbaragliando dozzine di gruppi di ricerca da tutto il mondo. Il gruppo DeepMind è specializzato in un tipo di algoritmo chiamato “rete neurale” e ha dimostrato che questo tipo di algoritmo ha un enorme potenziale per il campo della previsione della struttura delle proteine. Abbiamo scritto un articolo circa questa prima versione dell’algoritmo quando DeepMind lo pubblicò a Gennaio 2020

Dopo il successo iniziale, DeepMind ha completamente ristrutturato il proprio algoritmo, e al CASP 2020 hanno stupito il mondo con un balzo in avanti ancor più grande. Il nuovo AlphaFold v2.0 è in grado di predire le strutture proteiche con una accuratezza sbalorditiva. I risultati CASP del 2020 hanno promesso grandi progressi per la ricerca sulle proteine e la comunità scientifica ha atteso con ansia che DeepMind rilasciasse i dettagli su AlphaFold v2.0.

Figura 1. Classifica delle competizioni CASP del 2018 e del 2020. L’algoritmo originale di AlphaFold (2018) era chiaramente sopra agli altri concorrenti.L’ultimo AlphaFold v2.0 ha semplicemente “spazzato via” la concorrenza.

 

AlphaFold per il protein design

AlphaFold è particolarmente accurato per prevedere le proteine naturali, dove può attingere alle ricche informazioni nei modelli evolutivi (anche se queste proteine non hanno una storia evolutiva). Ma abbiamo anche scoperto che è molto bravo nel prevedere le strutture delle proteine progettate: in effetti, quando controlliamo le strutture risolte delle proteine progettate, scopriamo che AlphaFold è solitamente più accurato del modello di progettazione stesso!

 

Figura 2. Si confronta l'accuratezza dei modelli predittivi AlphaFold e dei modelli di progettazione per 22 proteine progettate con strutture risolte. La diagonale rappresenta la linea di uguaglianza. I punti sopra la diagonale sono casi in cui la previsione AlphaFold è più accurata del modello di progettazione.

 

Abbiamo inoltre scoperto che AlphaFold potrebbe essere in grado di aiutarci a scegliere i progetti che non supereranno i test di laboratorio: ogni volta che AlphaFold prevede una struttura, l'algoritmo produce anche un valore di confidenza per la previsione. Abbiamo notato, utilizzandolo, che AlphaFold tende a segnalare una maggior confidenza di previsione per progetti di proteine con successo (in laboratorio).

Figura 3. La distribuzione dei valori di confidenza per 148 progetti Foldit testati in laboratorio. I progetti di successo (in blu) tendono a fornire previsioni di AlphaFold con maggiore confidenza dei progetti falliti (in arancio).

 

Nel 2019, abbiamo testato 148 progetti di Foldit in laboratorio e abbiamo scoperto che 56 erano progetti di successo, con un tasso di successo totale di circa il 38%. Se avessimo rifiutato i progetti con una fiducia AlphaFold inferiore all'80%, avremmo comunque trovato 50 progetti di successo, con una percentuale di successo superiore al 60%!

Una nuova funzionalità in Foldit

Siamo felici di annunciare questa nuova funzionalità di Foldit che ci consentirà di ottenere previsioni AlphaFold per le proteine che sono progettate in Foldit.

 

Alcuni puzzle mostreranno un nuovo pulsante DeepMind AlphaFold nel menu principale: questo pulsante apre una finestra di dialogo con un elenco delle soluzioni salvate sul lato destro. Per richiedere una previsione AlphaFold per una soluzione, selezionare la soluzione e fare clic sul pulsante Carica per AlphaFold. Questo invierà la tua soluzione al server Foldit ed eseguirà in remoto l'algoritmo AlphaFold.

 

Una nuova soluzione apparirà nell'elenco a sinistra e mostrerà il messaggio "In attesa..." mentre AlphaFold fa la sua previsione. Ci vorranno almeno alcuni minuti per l'esecuzione e il tempo di attesa potrebbe essere più lungo a seconda di quanto è occupato il server (non sarai in grado di effettuare un nuovo caricamento AlphaFold mentre hai un invio attualmente in sospeso).

Fare clic sul pulsante “Aggiorna" soluzioni per verificare se il lavoro AlphaFold è terminato.

 

Al termine dell'algoritmo AlphaFold, la soluzione di sinistra visualizzerà due valori:

  • La fiducia è la stima di AlphaFold sull'accuratezza della sua previsione. La figura 3 qui sopra suggerisce che i progetti con una maggiore sicurezza hanno maggiori probabilità di piegarsi con successo. I giocatori dovrebbero puntare a valori di confidenza dell'80% o superiori.
  • La somiglianza misura quanto la previsione AlphaFold corrisponde alla struttura progettata. Se la somiglianza è bassa, AlphaFold ha previsto che la sequenza del disegno si piegherà in una forma diversa rispetto alla struttura progettata.

Per caricare la previsione AlphaFold all’interno del puzzle Foldit, è sufficiente selezionare la soluzione AlphaFold a sinistra e fai clic sul pulsante Carica nella parte inferiore della finestra di dialogo. Tieni presente che le previsioni AlphaFold potrebbero non essere valutate come le soluzioni che sono state ottimizzate in Foldit. Se decidi di lavorare con la soluzione AlphaFold, ti consigliamo un rapido Wiggle e Shake del modello AlphaFold “grezzo”.

I valori di affidabilità e somiglianza di AlphaFold non influenzeranno in alcun modo il punteggio di Foldit. Per il momento, la funzione AlphaFold è semplicemente uno strumento che puoi utilizzare per ottenere feedback sulla tua soluzione e per vedere come si prevede che la sequenza di progettazione si pieghi.

 

Calcoli remoti

A differenza dei tipici strumenti Foldit, l'algoritmo AlphaFold viene eseguito in remoto su un server online.

Normalmente, quando si esegue Foldit sul computer, tutti i calcoli di Foldit vengono eseguiti localmente dal tuo computer. Se la tua connessione Internet fallisce nel bel mezzo di un puzzle, puoi comunque continuare a utilizzare tutti gli strumenti di Foldit.

Questa funzione AlphaFold è diversa e i calcoli effettivi verranno eseguiti su un server ospitato presso l'UW Institute for Protein Design (IPD). Quindi, quando viene fatto clic sul pulsante Carica per AlphaFold, la tua soluzione viene inviata al server IPD, che esegue l'algoritmo AlphaFold e quindi invia il risultato al tuo computer.

La ragione principale di ciò è che l'algoritmo AlphaFold è... grande. Anche la versione base “snella” richiede diversi GB di spazio su disco. Se volessimo distribuire il software AlphaFold con Foldit, ciò aumenterebbe la dimensione del download di Foldit di circa 10 volte. Un altro motivo è che l'algoritmo AlphaFold funziona in modo molto meno efficiente su CPU comuni rispetto alle GPU, cosa che molti giocatori potrebbero non avere: se hai eseguito AlphaFold sulla tua CPU a casa, potrebbe volerci più di un'ora per ottenere un risultato.

Tuttavia, se usiamo le nostre GPU all’ IPD, l'elaborazione effettiva sarà molto più veloce. Poiché la maggior parte dei nostri recenti puzzle scientifici ha avuto meno di 100 giocatori attivi contemporaneamente, pensiamo che i giocatori possano ottenere risultati più velocemente se elaboriamo i lavori AlphaFold sulle nostre GPU server.

 

E poi?

Questo è un momento entusiasmante per il mondo della ricerca sulle proteine! DeepMind ha ispirato altri gruppi di ricerca, incluso l'IPD, a esplorare tipi simili di algoritmi di rete neurale per la previsione della struttura delle proteine. Man mano che sempre più ricercatori pubblicano i loro risultati e imparano gli uni dagli altri, probabilmente possiamo aspettarci di vedere algoritmi ancora più accurati in futuro.

AlphaFold sta già trasformando lo studio delle proteine ​​naturali e ha fornito ai ricercatori previsioni sicure di importanti proteine ​​con strutture sconosciute. Ma nel campo della progettazione delle proteine, stiamo ancora imparando come sfruttare al meglio questi progressi. Speriamo che i giocatori di Foldit trovino utili le previsioni di AlphaFold per la progettazione di nuove proteine ​​creative!

Tenete presente che la nuova funzione AlphaFold è sperimentale e potrebbe cambiare (o addirittura scomparire in futuro). Foldit condivide le GPU del server con altri progetti di ricerca e potrebbe essere necessario modificare il nostro utilizzo o sviluppare nuove strategie per l'esecuzione di calcoli pesanti con GPU.

Finora abbiamo implementato solo il minimo indispensabile per la funzione AlphaFold, in modo che i giocatori di Foldit possano iniziare a usarla il prima possibile. Speriamo di migliorarlo in futuro; feedback e suggerimenti dei giocatori ci aiuteranno a rendere questo strumento sempre più utile.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (2 risposte).

Boinc per Android 7.18.1

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
06 Agosto 2021
Creato: 06 Agosto 2021

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

E' stato rilasciato il nuovo client ufficiale per Android, la versione 7.18.1

[url=https://boinc.berkeley.edu/wiki/Release_Notes]Qui[/url] le novità

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

NanoHUB@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
21 Aprile 2021
Creato: 21 Aprile 2021
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
banner_nanohub

 

AMBITO: Astronomia
STATO:  ATTIVO 
ATTACH: https://boinc.nanohub.org/nanoHUB_at_home/

 

< TODO >

 

Leggi tutto: NanoHUB@Home
Discuti questo articolo
Accedi per commentare

Guida WSL

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
26 Febbraio 2021
Creato: 26 Febbraio 2021

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Guida a Boinc su WSL

 

Su stimolo di un nostro volontario abbiamo provato a far funzionare il client boinc in una macchina virtuale linux (ci sono progetti che hanno solo il client linux oppure usano il wrapper per Windows) senza utilizzare il "classico" VirtualBox.
La possibilità offerta da Microsoft è quella di usare WSL (Windows Subsystem for Linux), integrato fin da Windows 10, con prestazioni decisamente migliori rispetto a VirtualBox.

Questa la guida

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (82 risposte).

Van Der Waerden Numbers

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
04 Febbraio 2021
Creato: 04 Febbraio 2021

Valutazione attuale: 3 / 5

Stella attivaStella attivaStella attivaStella inattivaStella inattiva
Van Der Waerden Numbers

 

AMBITO: Matematica
STATO: ATTIVO
ATTACH: http://www.vdwnumbers.org/

 

Il teorema dimostrato da Bartel Leendert van der Waerden nel 1927 riguarda la presenza di progressioni aritmetiche contenute in insiemi di interi. Dati due interi r e k, può essere espresso in varie forme equivalenti:

  • data una successione infinita e crescente di interi tali che la differenza tra termini successivi sia minore di r, la successione contiene una progressione aritmetica di lunghezza k;
  • esiste un intero g(k, r), tale che una successione crescente di g(k, r) interi con differenza tra termini successivi non superiore a r contiene una progressione aritmetica di lunghezza k;
  • se l’unione di r insiemi contiene tutti gli interi positivi, almeno uno degli insiemi contiene una progressione aritmetica di lunghezza k (congettura di Baudet);
  • esiste un intero W(r, k), tale che se l’unione di r insiemi contiene tutti gli interi da 1 a W(r, k), almeno un insieme contiene una progressione aritmetica di lunghezza k

Nel caso dell’ultima formulazione il teorema dice che se suddividiamo gli interi da 1 a W(r, k) in r insiemi (non necessariamente disgiunti), almeno un insieme contiene una progressione aritmetica di lunghezza k. I numeri W(r, k) sono noti come “numeri di van der Waerden”. Sebbene Saharon Shelah abbia mostrato che sono computabili tramite una funzione primitiva ricorsiva, non si conosce una formula generale per calcolarli e i loro valori sono noti in pochissimi casi.

 

Leggi tutto: Van Der Waerden Numbers
Discuti questo articolo
Accedi per commentare

minecratf@home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
01 Febbraio 2021
Creato: 01 Febbraio 2021

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
minecrafthome

 

AMBITO: Altro
STATO: CHIUSO
ATTACH: https://minecraftathome.com/minecrafthome/
CODICE SORGENTE : https://github.com/minecrafthome/minecrafthome

 

< todo >

 

Leggi tutto: minecratf@home
Discuti questo articolo
Accedi per commentare

ODLK1 (Latinsquares)

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
27 Gennaio 2021
Creato: 27 Gennaio 2021
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
ODLK1

 

AMBITO: Matematica
STATO: ATTIVO
ATTACH: https://boinc.multi-pool.info/latinsquares/

 

< todo >

 

Leggi tutto: ODLK1 (Latinsquares)
Discuti questo articolo
Accedi per commentare

ODLK

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
27 Gennaio 2021
Creato: 27 Gennaio 2021
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
ODLK

 

AMBITO: Matematica
STATO: ATTIVO
ATTACH: https://boinc.progger.info/odlk/

 

< todo >

 

Leggi tutto: ODLK
Discuti questo articolo
Accedi per commentare

Private GFN Server

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
25 Gennaio 2021
Creato: 25 Gennaio 2021

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
Private GFN Server

 

AMBITO: Matematica
STATO: ATTIVO
ATTACH: http://boincvm.proxyma.ru:30080/test4vm/

 

< todo >

 

Leggi tutto: Private GFN Server
Discuti questo articolo
Accedi per commentare

SiDock@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
08 Novembre 2020
Creato: 01 Novembre 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

SiDock Logo

 

 
 
 
 
 
 
 
 
AMBITO: Biologia/Medicina
STATO:  ATTIVO
ATTACH: https://www.sidock.si/sidock/
 
Progetto legato alla ricerca sul COVID-19 .
 

Nel nostro progetto stiamo cercando i ligandi: piccole molecole che possono legarsi con successo con bersagli proteici e modulare uno specifico processo che è cruciale per la biochimica dei virus. Il ligando ideale, basato sul docking molecolare, dovrebbe essere complementare per forma e proprietà al sito di legame della biomolecola bersaglio. Tuttavia, la complementarità di piccole molecole è solo uno dei prerequisiti per l'uso di una molecola come farmaco. Insieme abbiamo sviluppato un software, che può essere facilmente installato sul vostro computer per aiutarci a trovare una cura contro il nemico invisibile di oggi

La ricerca della molecola giusta è come cercare un piccolo ago in un enorme pagliaio: è un problema la cui risoluzione è molto difficile a causa del numero di possibili strutture molecolari. La quantità di tutte le possibili strutture molecolari è anche chiamata “universo chimico”; la dimensione di questo spazio astratto può essere stimata da 10 elevato alla 80. Ci sono molte galassie in questo universo, e una di loro è una galassia con le molecole (potenzialmente) farmacologicamente attive. Il metodo di ricerca si chiama screening virtuale. In generale, più grande è la parte studiata dell'universo chimico, più alta è la probabilità di trovare una cura potenziale contro il coronavirus.

Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.


SiDock Logo

 

Informazioni generali

Il "COVID.SI" – è un progetto che consente al pubblico di partecipare alla lotta contro il coronavirus condividendo le proprie conoscenze e le risorse del computer. Il progetto mira a studiare librerie di composti molecolari e aiutare a trovare una cura per il coronavirus utilizzando screening virtuali ad alta velocità.

Il protocollo di screening virtuale basato sulla struttura, è come cercare una chiave che sblocca un lucchetto in una piscina olimpionica piena di chiavi di tutte le forme e dimensioni, senza alcuna garanzia che la chiave giusta sia nella piscina.

Aspetto serratura e chiave

L'azione specifica di un enzima con un singolo substrato può essere spiegata utilizzando un'analogia Serratura-e-Chiave postulata per la prima volta nel 1894 da Emil Fischer. In questa analogia, la serratura è l'enzima e la chiave è il substrato. Solo la chiave di dimensioni corrette (substrato) si inserisce nel foro della chiave (sito attivo) della serratura (enzima).

 

Conoscere l'interazione tra un ligando e il suo ospite è fondamentale per comprendere la risposta biologica del ligando. La progettazione di farmaci prevede la progettazione di molecole complementari per forma e carica al target biomolecolare con cui interagiscono e quindi ci si legheranno.

 


SiDock Logo

 
 
 
Informazioni tecniche
 
 
Stato del progetto: Beta

Questo progetto non accetta attualmente nuovi account.

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

Assegnazione crediti: n/d

Supporto al progetto: non supportato
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

Problemi comuni: nessuno vedi elenco

Non si riscontrano problemi significativi segnalati.

 


 

SiDock Logo

 

 

 

 

 
 
 
 
Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats

 

Posizione del team nelle classifiche modiali

 

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (0 risposte).

XAnsons4cod

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
19 Luglio 2020
Creato: 19 Luglio 2020
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
XAnsons4code
 
 
 
AMBITO: Chimica/Fisica
STATO: CHIUSO
ATTACH: http://xansons4cod.com/xansons4cod/
 
 

 XANSONS for COD è un progetto di ricerca volto a creare un database ad accesso aperto di modelli simulati di diffrazione di raggi X e polvere di neutroni per la fase nanocristallina dei materiali presentati nel Database aperto di cristallo (COD) .

I calcoli per questo progetto sono stati completati. Il database dei modelli simulati di diffrazione della polvere è disponibile all'indirizzo http://database.xansons4cod.com .

Questo progetto utilizza il software open source originale (licenza GPLv3) XaNSoNS (Scattering di raggi X e neutroni su strutture nanoscale) per simulare i modelli di diffrazione su CPU e GPU.

XANSONS per COD è un progetto BOINC gestito privatamente. È stato supportato dalla Fondazione russa per la ricerca di base nel 2015-2017 (progetto RFBR n. 15-07-07901-a).

 

Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.


XAnsons4code

 

Problema scientifico

La tecnica convenzionale utilizzata per recuperare le proprietà strutturali dei campioni cristallini mediante il loro modello di diffrazione della polvere è il metodo di raffinamento di Rietveld . In questo metodo, il modello teorico di diffrazione della polvere viene perfezionato fino a quando non si adatta a quello sperimentale. Il calcolo degli angoli e delle intensità delle cime di Braggpuò essere fatto quasi istantaneamente nell'approssimazione della dimensione infinita del cristallite. Per regolare la dimensione finita dei cristalliti nei campioni o la risoluzione finita del dispositivo di misurazione, questi picchi vengono ampliati artificialmente con la funzione di ampliamento (di solito gaussiana). Questo allargamento artificiale funziona benissimo fino a quando la dimensione del cristallite nel campione è inferiore a poche decine di nanometri. Per i cristalliti così piccoli, è molto difficile ottenere la giusta funzione di ampliamento che funziona bene per tutti i picchi di Bragg. Fortunatamente, per i cristalliti così piccoli, non è un problema calcolare i modelli di diffrazione della polvere usando l' equazione di Debye (con l' approssimazione dell'istogramma della distanza , come quella proposta da Marcin Wojdyr e implementata nel suo Codice Debyer ). Questo progetto ha lo scopo di calcolare i modelli di diffrazione di raggi X e polvere di neutroni per i nanocristalliti con dimensioni variabili da 6 nm a 30 nm per la maggior parte delle voci del database aperto di cristallografia . Vengono considerati i due diversi tipi di materiali: (a) nanoparticelle cristalline sferiche isolate di una determinata dimensione (diametro), (b) materiale cristallino con ordine a lungo raggio rotto su distanze maggiori di un determinato valore. Il database ottenuto può semplificare la diagnostica dei campioni nanocristallini e integrare il metodo di corrispondenza della ricerca di profilo completo nell'analisi delle dimensioni dei cristallini dei campioni nanocristallini.

Oltre a quanto sopra, il calcolo del modello di diffrazione della polvere usando l'equazione di Debye consente di tenere conto dei difetti del reticolo quali posti vacanti nel sito, sostituzioni di atomi e spostamenti. Pertanto, se il CIF (Crystallography Information File) per la struttura fornita fornisce i numeri di occupazione del sito e i parametri di spostamento atomico, l'applicazione li utilizzerà per calcolare il modello di diffrazione.

 


 

XAnsons4code

Stato del progetto: Progetto Completato

Questo progetto non accetta attualmente nuovi account.

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

 

Assegnazione crediti: n/d
 
Supporto al progetto: supportato
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

 

Referente/i: posizione vacante
Se sei interessato al progetto e vuoi dare una mano diventando referente, contatta i moderatori in privato o attraverso le pagine del forum.
 
 
Problemi comuni: nessuno vedi elenco
Non si riscontrano problemi significativi.

 


 
XAnsons4code
 
 
Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats

 

Posizione del team nelle classifiche modiali

 

Discuti questo articolo
Accedi per commentare

YAFU

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
19 Luglio 2020
Creato: 19 Luglio 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
YAFU banner
 
 
 
AMBITO: Matematica
STATO: ATTIVO
ATTACH: http://yafu.myfirewall.org/yafu/

 

YAFU - Ancora un'altra utility di fattorizzazione dei numeri
Lo scopo è quello di fattorizzare numeri nell'intervallo di 70 - 110 cifre che necessitano di factoring nel factordb. Si comicnia con numeri di 89 cifre. Ce ne sono circa 6700 che devono essere presi in considerazione.

 

 Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.


YAFU banner

 

TODO

 


 

YAFU banner

Stato del progetto: progetto attivo
Iscrizione a codice di invito

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

 

Assegnazione crediti: n/d
 
Supporto al progetto: supportato
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

 

Referente/i: posizione vacante
Se sei interessato al progetto e vuoi dare una mano diventando referente, contatta i moderatori in privato o attraverso le pagine del forum.
 
 
Problemi comuni: nessuno vedi elenco
Non si riscontrano problemi significativi.

 


 
YAFU banner
 
 
Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats

 

Posizione del team nelle classifiche modiali

Discuti questo articolo
Accedi per commentare

MLC@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
19 Luglio 2020
Creato: 19 Luglio 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
MLC@Home

 

AMBITO: Intelligenza Artificiale
STATO: ATTIVO
ATTACH: https://www.mlcathome.org/mlcathome/

 

MLC @ Home offre una piattaforma aperta e collaborativa per i ricercatori che studiano la comprensione dell'apprendimento automatico. Ci consente di formare migliaia di reti in parallelo, con input strettamente controllati, iperparametri e strutture di rete. Usiamo questo per ottenere approfondimenti su questi modelli complessi.

Leggi tutto: MLC@Home
Discuti questo articolo
Accedi per commentare

Multisessioni Boinc su PC

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
15 Giugno 2020
Creato: 31 Maggio 2020
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

In questa guida vedremo come creare dei client multipli su una distribuzione GNU/Linux tramite l’utilizzo dei container Docker. E come gestirli tramite Portainer.


Perché mi servono altri client Boinc?
Alcuni progetti hanno dei limiti di wu (work unit) scaricabili. Questi limiti possono impedire la creazione dei cosiddetti “bunker”.
Altro limite nella creazione di un “bunker” è il dover negare la connessione internet al client. Se si finiscono le wu prima del previsto, non potremo più scaricarne altre. Poiché una volta sbloccata la connessione, oltre che scaricarne di nuove…caricherà quelle che avevamo precedentemente elaborato. Vanificando il nostro “bunker”.
Un altro modo per utilizzare più client Boinc è quello di separare progetti cpu da quelli gpu. In modo da avere un controllo maggiore.
Utilizzando dei container si possono gestire molti altri aspetti come:
• quantità di core/thread da dedicare
• quantità di ram da dedicare
• possibilità di rendere disponibile la gpu (in caso di sistemi con più gpu, si può decidere quale)
• gestione da remoto normale, tramite il manager o BoincTask
• possibilità di crearli quando si vuole, anche con altri client attivi
• creazione quasi del tutto "automatizzata" grazie a docker-compose

 

Leggi tutto: Multisessioni Boinc su PC
Discuti questo articolo
Accedi per commentare

CERN contro il Covid

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
25 Aprile 2020
Creato: 25 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Anche gli scienziati del Cern sono scesi in campo contro il Covid-19 e lo hanno fatto in varie maniere: donando server che stanno per essere dismessi a Folding, donando potenza di calcolo di sistemi inutilizzati (essendo fermo il girellone) a Rosetta e Folding, creando fusti e fusti di disinfettanti (il CERN ha anche laboratori di chimica avanzata, ovviamente), ecc, ecc, ecc.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Le novità in Rosetta

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
19 Aprile 2020
Creato: 19 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

 

Gli amministratori hanno pubblicato un lungo post in cui spiegano i piani futuri del progetto, sia dal punto di vista scientifico che da quello "tecnico".

Eccolo tradotto:

Volevamo provare ad aiutare tutti a essere consapevoli del fatto che il progetto sta preparando alcune delle più grandi WU proteiche mai eseguite su R@H. L'esecuzione di questi modelli richiederà molto più tempo rispetto alle proteine più piccole: questo renderà molto difficile mostrare accuratamente il "tempo di esecuzione stimato". Aumenterà, quindi, la probabilità che le attività vengano eseguite più a lungo rispetto alle preferenze di runtime della WU, specialmente se si ha una preferenza di runtime inferiore alle 8 ore predefinite. Per adattarsi, il watchdog (il sistema che controlla i checkpoint, NDT) farà un “pisolino” più lungo del solito, ovvero le WU che stanno finendo e che hanno eseguito più di 10 ore di CPU in più rispetto alle preferenze di runtime verranno completate senza iniziare un nuovo decoy.

Questi modelli di lunga durata si tradurranno in un elevato grado di variazione nel tempo di esecuzione tra le attività. È possibile che un'attività venga concessa quasi il doppio del credito rispetto a un'altra. Questo perché ha eseguito due modelli anziché uno. Il credito dovrebbe generalmente essere proporzionale alla quantità di tempo della CPU investito nell'attività. Questa elevata variabilità nella durata rappresenterà una sfida per il manager BOINC nel decidere quanto lavoro dovrebbe richiedere. Puoi aiutare il BOINC Manager a evitare di scaricare troppo lavoro se modifichi le tue preferenze su quanto lavoro archiviare per un giorno (sempre nel profilo utente, NDT).

Inoltre, molti di voi hanno recentemente segnalato unità di lavoro completate prima della loro preferenza di runtime. Questo diventerà più comune anche con questi modelli di “lunga durata”. Ad esempio, se si dispone della preferenza di durata predefinita di 8 ore e il completamento del primo modello richiede 5 ore, dopo 5 ore si interromperà e verrà riportato perché un secondo modello supererebbe la preferenza. Il Team di Progetto preferisce lasciare deselezionate le preferenze di runtime, che attualmente si traducono in una durata di 8 ore. D’altro canto se queste elevate variazioni nei runtime presentano problemi per voi, bisogna anche sottolineare che l'impostazione di una preferenza di durata più lunga si tradurrà generalmente in tempi di completamento più coerenti. (è sufficiente fare attenzione che le modifiche alle preferenze di runtime vengano applicate alle unità di lavoro scaricate esistenti e alle nuove richieste di lavoro.)

Quindi suggeriamo sempre di apportare modifiche solo quando si hanno impostazioni per una piccola cache di lavoro e di modificare le preferenze di runtime solo un paio di valori alla volta, quindi il BOINC Manager ha il tempo di vedere le WU complete con i nuovi runtime: questo aiuta a richiedere la quantità di lavoro che corrisponde alle tue preferenze.

Le unità di lavoro che eseguivano modelli molto corti e terminavano quando raggiungevano i 1.000 modelli (prima della loro preferenza di durata), o altri numeri molto arrotondati, sono stati adattati per consentire un numero massimo di modelli maggiore. Questo aiuterà ad essere più coerenti i tempi di questo tipo di unità di lavoro. Questi lavori più grandi del solito provengono dal nostro server di previsione della struttura Robetta e possono o meno essere correlati al Covid-19 (quindi saranno correlati anche ad altre ricerche come, ad esempio, sul cancro). La proteina Spike, che è stata modellata alla fine di Gennaio e all'inizio di Febbraio e continua a essere modellata (varianti e simili), è di oltre 1000 residui e modellata come un trimero simmetrico.

Da allora la struttura è stata determinata da Cryo-EM (6vsb, 6vxx e 6vyb), le ultime due del laboratorio del Dr. Veesler presso l'Università di Washington. Se la sequenza è maggiore di 1000 residui (2000 è il massimo per una singola catena), il limite di memoria è impostato su 4 GB, quindi se il dispositivo ha memoria sufficiente per singolo core CPU, può eseguire tali lavori.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (9 risposte).

GAIA@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
16 Aprile 2020
Creato: 16 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
GAIA

 

AMBITO: Astronomia
STATO: ATTIVO
FASE : BETA
ATTACH: http://gaiaathome.eu/gaiaathome/

 

Gaia è un'importante missione dell'ESA progettata per sondare 1.000.000.000 (1 miliardo) di stelle nella Via Lattea al fine di realizzare una mappa 3D di precisione senza precedenti. Questo ci permetterà di rispondere a domande fondamentali sull'origine e l'evoluzione della nostra galassia. Tuttavia, si prevede che i dati prodotti di Gaia supereranno 1 PetaByte in termini di dimensioni, rendendo difficile per la comunità scientifica coinvolgere e analizzare i dati.

La “Gaia Added Value Interface Platform” (GAVIP) è progettata per affrontare questo problema fornendo una piattaforma innovativa per gli scienziati per riutilizzare e distribuire, vicino ai dati, il proprio codice esistente, confezionato come "Interfacce a valore aggiunto" (AVI).

Il progetto GAVIP Grid Computing (GAVIP-GC) è progettato per offrire agli scienziati un altro livello di libertà. Il progetto rende possibile eseguire calcoli che richiedono molto tempo di CPU, riducendo il carico di lavoro computazionale sulla piattaforma GAVIP e aprendo opportunità per operazioni di elaborazione pesanti su computer volontari. GAVIP-GC consente di creare un numero enorme di piccoli lavori (dati Gaia + codice), inviarli alla piattaforma BOINC e raccogliere i risultati per ulteriori analisi.

1_Gaia@home:

Calcolo di lungo periodo delle orbite di comete sotto le perturbazioni simultanee di galassie e stelle. (Problema dell'N-body con N di ordine 400).

I cambiamenti orbitali di C/2002 T7 proiettati nella sua orbita originale che sono descritti da cinque istantanee nel catalogo CODE. La linea rossa raffigura il movimento passato della cometa, mentre quella blu la sua futura evoluzione. Cinque istantanee quando gli elementi orbitali sono registrati sono: 1-l’orbita eliocentrica oscillante vicino al centro dell’intervallo di osservazione (tipicamente vicino al perielio); 2-l’orbita originale baricentrica registrata nel passato a 250 au dal Sole; 3-l’orbita baricentrica futura che sarà registrata a 250au dal Sole; 4-la precedente orbita, registrata al precedente perielio; 5-la prossima orbita, in questo caso registrato al limite di fuga a 120000 au dal Sole.  

 

La piattaforma GAVIP fornisce alcune risorse gratuite per ogni utente che possono essere spese per l'analisi dei dati. Tuttavia, ci sono alcuni casi d'uso che non solo richiedono la lettura dell'intero catalogo Gaia, ma richiedono anche molto tempo di CPU per i calcoli: GAVIP-GC intende aiutare a soddisfare questo requisito fornendo l'accesso a queste risorse BOINC gratuite aggiuntive.

L’evoluzione dinamica dell’orbita nominale di C/2002 T7 Linear (soluzione d6) sotto le simultanee perturbazioni galattiche e stellari. L’asse verticale sinistra descrive un diagramma della distanza eliocentrica (linee blu sottili) e uno della distanza dal perielio (linee verdi che diventano nere se e> 1.0). L’asso verticale destro descrive gli elementi angolari (con rispetto al piano galattico): una inclinazione (linea fucsia) e un argomento del perielio (linea rossa). Queste linee rappresentano le dinamiche quando tutte le perturbazioni stellari sono omesse.

 

2_Gaia@home:

Lo scopo di questo lavoro è indagare i parametri di prossimità e l'influenza dell'avvicinamento delle stelle sulla base dei dati di Gaia DR2 e DR3.
Utilizzando un'integrazione numerica in un modello galattico assial-simmetrico, determiniamo nuovi parametri dell'incontro ravvicinato per le stelle. Aggiungendo diecimila cloni simulati con l'uso di una matrice di covarianza, stimiamo la posizione e la velocità più probabili delle stelle alla distanza minima dal Sole..
(more details: Berski, F and Dybczynski, P.A., 2020: Close approach parameters recalculated based on the first Gaia data release )

 

 

 

Leggi tutto: GAIA@Home
Discuti questo articolo
Accedi per commentare

VGTU project@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
15 Aprile 2020
Creato: 13 Aprile 2020
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

 

AMBITO: Matematica
STATO: CHIUSO
ATTACH: https://boinc.vgtu.lt/vtuathome

 

< TODO >

Leggi tutto: VGTU project@Home
Discuti questo articolo
Accedi per commentare

Amicable Numbers

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
13 Aprile 2020
Creato: 13 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva
Amicable Numbers

 

AMBITO: Matematica
STATO:  ATTIVO 
ATTACH: https://sech.me/boinc/Amicable/

 

Amicable Numbers è un progetto di ricerca indipendente che utilizza computer connessi a Internet per trovare nuove coppie amichevoli.

Leggi tutto: Amicable Numbers
Discuti questo articolo
Accedi per commentare

BOINC@TACC

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
13 Aprile 2020
Creato: 13 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

 

AMBITO: Multidisciplinare
STATO: ATTIVO
FASE : TESTING
ATTACH: https://boinc.tacc.utexas.edu/

 

Boinc@Tacc è un progetto basato sul modello del volunteer computing (VC). Il progetto andrà ad aiutare i ricercatori TACC/XSEDE ad eseguire applicazioni da una vasta area di campi scientifici (come l’ingegneria aerospaziale, la biologia computazione e l’ingegneria dei terremoti) su pc portatili, desktop, o macchine virtuali (VM) sul cloud, possedute dai volontari.

I ricercatori, infatti, avranno cicli computer supplementari accessibili attraverso il loro account TACC / XSEDE : con BOINC@TACC, potranno far eseguire lavori di elaborazione ad alta velocità che implicano piccole quantità di trasferimento ed elaborazione dei dati, senza spendere le loro allocazioni attive sui server TACC.

Il progetto, infatti, è aperto (per ora) solo a quei ricercatori che hanno avuto l’approvazione per accedere al TACC (Texas Advanced Computing Center), attraverso un processo di revisione peer-review della allocazione delle risorse: ovvero dovranno presentare piani scientifici completi e coerenti per avere accesso alle risorse dei volontari. Questi ricercatori, come detto, provengono da campi di ricerca molto differenti: dinamica computazionale dei fluidi, chimica computazionale, biologia computazionale, astronomia e anche scienze sociali.

Scopo secondario del progetto è quello di avvicinare il mondo HPC con il framework Boinc, per poter creare fruttuose collaborazioni in campo scientifico ed informatico.

 

Leggi tutto: BOINC@TACC
Discuti questo articolo
Accedi per commentare

iThena.Measurements

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
13 Aprile 2020
Creato: 13 Aprile 2020

Valutazione attuale: 4 / 5

Stella attivaStella attivaStella attivaStella attivaStella inattiva
 iThena.Measurements

 

AMBITO: Matematica
STATO:  ATTIVO   
ATTACH: https://root.ithena.net/usr/

 

Il progetto distribuito iThena riguarda la mappatura sperimentale delle strutture di rete incluse in Internet. Attualmente, l'applicazione disponibile nel progetto (iThena CNode) esegue una sequenza di procedure traceroute dai computer client. I dati risultanti vengono rinviati al server e inviati al database principale, dove possono essere ulteriormente analizzati.

 

Leggi tutto: iThena.Measurements
Discuti questo articolo
Accedi per commentare

SRBase

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
12 Aprile 2020
Creato: 12 Aprile 2020

Valutazione attuale: 4 / 5

Stella attivaStella attivaStella attivaStella attivaStella inattiva
 SRBase banner
 
 
 
AMBITO: Matematica
STATO:  ATTIVO 
ATTACH: http://srbase.my-firewall.org/sr5/

 

SRBase è un progetto di ricerca matematico che mira a risolvere le congetture di Sierpinski/Riesel per tutte le basi fino a 1030 e collabora con il progetto Conjectures 'R Us che coordina l’assegnazione del lavoro.

Di recente SRBase ha cominciato a collaborare anche con il progetto GPU to 72, per aiutare GIMPS nella fattorizzazione di numeri di Mersenne.

 

Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.


SRBase banner

 

 

Sia k un numero naturale dispari.

Dato l’insieme , k è un numero di Riesel se ogni elemento di R è un numero composto.

 

Sia k un numero naturale dispari.

Dato l’insieme   , k è un numero di Sierpinski se ogni elemento di S è un numero composto.

 

Come abbiamo appena visto, i numeri/elementi di R ed S, hanno base b=2.

È possibile generalizzare il problema di Riesel/Sierpinski a una base intera b≥2.

 

Sia k un numero intero positivo tale che MCD(k-1,b-1)=1 e che non sia una potenza razionale di b.

Dato l’insieme  , k è un numero di Riesel base b se ogni elemento di Rb è un numero composto.

 

Sia k un numero intero positivo k tale che MCD(k+1,b-1)=1 e che non sia una potenza razionale di b.

Dato l’insieme  , k è un numero di Sierpinski base b se ogni elemento di Sb è un numero composto.

 

Per ogni base b, mediante degli specifici programmi, viene congetturato un determinato k, chiamato ck dall'inglese "conjectured k", che è certamente numero di Riesel o Sierpinski e il più piccolo (è questa la congettura!) che soddisfi tale proprietà. Si noti che, a parità di base, il ck è diverso a seconda che sia di Riesel o di Sierpinski, quindi le congetture relative vanno trattate separatamente.

Fissata una base b, per trovare che ck è il più piccolo numero di Riesel/Sierpinski, prendiamo tutti i k più piccoli di ck. Vogliamo dimostrare che per ogni k<ck non tutti i numeri nella forma k*b^n-1 (oppure k*b^n+1, a seconda del caso) sono composti, ovvero ce n'è almeno uno primo. Ed è questo quello che il progetto fa effettivamente: cercare numeri primi, che non è l'obiettivo, bensì il mezzo.
Quando viene stabilita una congettura per una determinata base, ci sono migliaia di k candidati e potenzialmente infiniti numeri candidati da testare. Allora si parte con il sieving o setacciamento, che viene svolto in separata sede, fino a una certa profondità oltre la quale cercare fattori non è più tanto conveniente rispetto all'eseguire il test di primalità stesso. Comunque, tutti i candidati che sono stati fattorizzati grazie al sieving vengono depennati dalla lista, il che è un notevole sgravio per l'hardware che invece cercherà numeri primi.
Quindi, il server del progetto manda a ogni computer numeri da testare (workunits) e, se i test hanno esito negativo, aumenta progressivamente l'esponente n (l'unico parametro rimasto su cui lavorare) alla ricerca di numeri primi più grandi. Notiamo così che la durata dei test si allunga più si va avanti. È possibile infatti che non si trovi mai il controesempio che stiamo cercando ed è quello che è accaduto sino ad ora, per esempio, nel progetto Seventeen or Bust dove oramai stiamo testando n di 32 milioni!
Detto ciò, ogni volta che viene trovato un numero primo nella forma k*b^n±1, un k viene eliminato e non verranno più testati numeri con quel k. Risolvere una congettura di Riesel/Sierpinski o semplicemente risolvere una base, cosa che nel progetto SRBase viene premiata con un badge per chi elimina l’ultimo k, significa aver eliminato tutti i k candidati per tale base.

Così SRBase aiuta Conjectures 'R Us svolgendo una parte del lavoro per risolvere questi problemi, cioè trovare il più piccolo numero di Riesel/Sierpinski per le basi b con 2≤b≤1030, ma non è l'unico progetto BOINC che lo fa. Ci sono alcuni sottoprogetti di PrimeGrid come Sierpinski/Riesel Base 5 Problem che ha l'esclusiva sui numeri di Riesel/Sierpinski con b=5, il famoso Seventeen or Bust che si occupa dei numeri di Sierpinski con b=2, ecc. Il resto del lavoro viene svolto da volontari esterni a BOINC con il software apposito, ma sempre facenti parte del circuito del calcolo distribuito.

Per quanto riguarda la fattorizzazione dei numeri di Mersenne, si tratta ancora di fare sieving, ma per un altro progetto molto più importante, GIMPS, che cerca numeri primi di Mersenne ed è responsabile della scoperta dei più grandi numeri primi al mondo, ad oggi conosciuti.

 


 

SRBase banner

Stato del progetto: progetto attivo
Iscrizione a codice di invito

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

 

Assegnazione crediti: n/d
 
Supporto al progetto: supportato 
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

 

Referente/i: posizione vacante
Se sei interessato al progetto e vuoi dare una mano diventando referente, contatta i moderatori in privato o attraverso le pagine del forum.
 
 
Problemi comuni: nessuno vedi elenco
Non si riscontrano problemi significativi.

 


 
SRBase banner
 
 
Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats

 

Posizione del team nelle classifiche modiali

Discuti questo articolo
Accedi per commentare

QuChemPedIA@Home

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Articoli
12 Aprile 2020
Creato: 12 Aprile 2020

Valutazione attuale: 4 / 5

Stella attivaStella attivaStella attivaStella attivaStella inattiva
 
 
 
 
AMBITO: Chimica ed Intelligenza artificiale
STATO:  ATTIVO 
ATTACH: https://quchempedia.univ-angers.fr/athome/
CODICE SORGENTE: https://github.com/bharismendy/QuChemPedIA

 

La chimica molecolare è in ritardo in termini di open science. Sebbene la modellizzazione mediante la meccanica quantistica applicata alla chimica sia diventata quasi obbligatoria in tutte le principali pubblicazioni, i dati grezzi computazionali vengono per lo più conservati nei laboratori (o addirittura distrutti). Oltre a questo, i software utilizzati in questo settore tendono a mancare di un controllo di qualità efficace e i dettagli computazionali sono generalmente incompleti negli articoli.

Il primo obiettivo di questo progetto è quello di costituire una grande piattaforma collaborativa aperta che curerà e memorizzerà i risultati della chimica molecolare quantistica. I file di output originali saranno pubblicamente disponibili per essere riutilizzati per affrontare nuovi studi chimici per diverse applicazioni. L'apprendimento automatico e, più in generale, l'intelligenza artificiale applicata ai dati di chimica promettono di rivoluzionare il dominio nel prossimo futuro, ma questi metodi richiedono molti dati, che questo progetto sarà in grado di fornire. Oggigiorno, infatti, è impossibile, per un essere umano, tenere conto dei risultati, anche limitati ai dati più importanti, per milioni di molecole conosciute.

Il secondo obiettivo di questo progetto è cambiare radicalmente l'approccio, sviluppando intelligenza artificiale e metodi di ottimizzazione al fine di esplorare in modo efficiente lo spazio molecolare altamente combinatorio. I modelli generativi  mirano a fornire un “assistente artificiale” che, da un lato ha imparato a prevedere le caratteristiche di una molecola e a stimarne il costo di sintesi, e dall'altro è in grado di navigare efficacemente nello spazio molecolare. I modelli generativi aprirebbero molte prospettive facilitando notevolmente lo screening di nuove molecole con molte potenziali applicazioni (energia, medicina, materiali, ecc.).

Supportando questo progetto, aiuterai i ricercatori chimici di tutto il mondo creando una raccolta unica di risultati. Aiuterai anche le nostre AI ad offrire più obiettivi nuovi per le diverse applicazioni che stiamo affrontando.

 

Per ulteriori informazioni visitate il thread ufficiale presente nel nostro forum.


 

 

I ricercatori stanno calcolando ogni volta UNA singola molecola con la meccanica quantistica. Una molecola è un insieme di atomi legati insieme. Per ora, si limitano a piccole molecole con solo H, C, N, O e F (Idrogeno, Carbonio, Azoto, Ossigeno e Fluoro). Nella meccanica quantistica, usano un'approssimazione dell'equazione di Schrödinger. Pertanto, i calcoli possono essere confrontati solo se corrispondono alle stesse approssimazioni (generalmente indicato come “livello di teoria”).

- Il primo calcolo è l'ottimizzazione delle posizioni atomiche, ovvero una ottimizzazione geometrica per ottenere le posizioni atomiche 3D più stabili. Se le posizioni atomiche iniziali sono lontane da quelle stabili, questo passaggio può richiedere molto tempo.

- Quindi il secondo passo è calcolare la derivata completa dell'energia rispetto alla posizione degli atomi: questo significa vedere quali sono le forze tra ciascun atomo. Questo calcolo fornisce anche le frequenze di assorbimento ad infrarossi.

- Infine, l'ultimo passo è il calcolo delle eccitazioni elettroniche per simulare gli spettri UV-visibili. Fornisce, ad esempio, informazioni preziose per l'applicazione fotovoltaica.

Nel laboratorio BOINC del progetto viene utilizzato un programma proprietario che è più di 10 volte più veloce, mentre nella parte pubblica del progetto è usato NwChem, una soluzione aperta. In NwChem, con l'attuale livello di teoria il tempo medio per il passo di ottimizzazione è di circa 5h e 25h ciascuno (per i passi della frequenza e le eccitazioni elettroniche). Dal momento che i ricercatori voglioni generare molte nuove molecole sconosciute, i calcoli potrebbero richiedere molto più tempo di prima. Si sta quindi cercando un livello inferiore di teoria che possa aiutarci a discriminare i candidati “buoni” e “cattivi”. Nella parte "privata" del progetto, veranno calcolati solo quelli buoni: noi volontari, quindi, siamo necessari come fossimo un “super-filtro”, dal momento che il progetto può generare diverse migliaia di nuove molecole al giorno, probabilmente con molti errori!

I ricercatori hanno espresso l'intenzione, più avanti nel progetto, di darvi l'opportunità ai volontari di vedere il disegno delle molecole che hanno calcolato.

 


 
 
Stato del progetto: progetto attivo
Iscrizione con invito

 

Requisiti minimi: nessuno
Gli sviluppatori non segnalano requisiti minimi da rispettare.

 

Screensaver: non disponibile

 

Elaborazione:  multicore

 

Assegnazione crediti: Fissi (200cr per WU )
 
Supporto al progetto: supportato 
Per unirsi al team BOINC.Italy consultare la scheda "Link utili" qui sotto cliccando sull'icona relativa al "JOIN" ico32_bi.

 

 

Referente/i: posizione vacante
Se sei interessato al progetto e vuoi dare una mano diventando referente, contatta i moderatori in privato o attraverso le pagine del forum.
 
 
Problemi comuni: nessuno vedi elenco
Non si riscontrano problemi significativi.

 


 
 
 
Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats

Statistica del Team sul

progetto

ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats
Classifica Utenti ico32_classutenti
Classifica mondiale del Team ico32_stats

 

Posizione del team nelle classifiche modiali

 

Discuti questo articolo
Accedi per commentare

Guida per Rosetta@Home su Raspberry PI4

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
11 Aprile 2020
Creato: 11 Aprile 2020

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

 

Guida all'uso di Raspberry PI4

 

Questa è una breve guida su come configurare il proprio Raspberry per aiutare il progetto Rosetta@Home. La guida si compone di due parti: la prima riguarda la configurazione manuale del proprio dispositivo, mentre la seconda prevede l'uso di un sistema di configurazione automatica (più semplice e veloce) chiamata Fold For Covid.

 

Rosetta@Home sul Raspberry PI4 - Configurazione manuale

Con la nuova versione degli applicativi è possibile far funzionare il progetto Rosetta@home sul Raspberry Pi4: questo applicativo, chiamato "Rosetta for Portable devices" gira sotto Raspbian, ma è solamente per l’architettura ARM64.

Link a Rosetta@home: http://boinc.bakerlab.org/rosetta/

Link a Raspberry Pi4: https://www.raspberrypi.org/products/raspberry-pi-4-model-b/

Link a Raspbian: https://www.raspberrypi.org/downloads/raspbian/


Ci sono però alcuni punti da tener ben presente:

  • Bisogna impostare il kernel in modalità a 64 bit.
  • Bisogna indicare a BOINC che è una piattaforma aarch64 (ARM64).
  • Alcune attività di Rosetta possono utilizzare fino a 1,5 GB di memoria ciascuna, quindi è necessario limitare quante vengono eseguite contemporaneamente.

La maggior parte dei progetti BOINC non ha (per ora) applicativi aarch64, in maniera particolare Einstein@Home che ha una app incompatibile e che fa andare in errore tutte le wu. Si può sempre tornare alla modalità armhf (32 bit) dopo, facendo in maniera inversa questi passi.

- Si, teoricamente potete farlo anche con un Pi3B o un Pi3B+, ma questi hanno solo 1Gb di memoria, quindi è difficilmente utilizzabile. -

Perché sono necessari tutti questi passaggi?
Come abbiamo appena detto, quando si installa Raspbian sul Pi tutto è a 32 bit, i programmi e gli add-on ed è conosciuto come armhf (ARM hard float). La Raspberry Pi Foundation ha fatto modifiche al kernel per permettere la modalità a 64 bit, ma gli applicativi sono ancora a 32 bit. Quando viene installato Boinc, si ha la versione armhf dal momento che la Fondazione non ha ancora i repository aarch64. E’ per questo motivo che è necessario dire a Boinc che è su una versione aarch64, così che chieda correttamente al server del progetto wu a 64 bit.


1. Installare BOINC
Se è già installato, passate oltre. Se non è installato, per prima cosa è consigliabile aggiornare il Raspberry con i seguenti comandi:

sudo apt-get update

sudo apt-get upgrade

Riavviate e lanciate il comando per installare Boinc (con l'interfaccia grafica del manager):

sudo apt-get install boinc

Avviate Boinc e agganciate il progetto Rosetta@Home, ma selezionate “Blocca richiesta attività” dal Manager (non devono essere presenti wu, altrimenti andranno in errore).


2. Impostare il kernel nella modalità a 64 bit
Di default il kernel di Raspberry è configurato a 32 bit per motivi di compatibilità con i software dei precedenti Pi. E’ necessario avere un kernel 4.19.75 o successivo. Per capire che versione del kernel è presente sul vostro Raspberry, si può lanciare dal terminal o via ssh il seguente comando:
uname -a

(Se è presente un kernel precedente e non avete già aggiornato, lanciate i due comandi al punto 1).

Fate uno copia del file di configurazione. Scrivete:
cd /boot
sudo cp config.txt config.old

Editare, adesso, il file config.txt con l’editor Nano.
sudo nano config.txt

Una volta aperto Nano, andare nella parte finale e aggiungere "arm_64bit=1" (senza le virgolette) in una nuova linea. Premere Control+O per salvare il file e Control+X per uscire da Nano.

Riavviare


3. Dire a BOINC che è su una piattaforma aarch64
Tornare nel terminal o nella sessione ssh e rilanciare il comando:
uname -a

Si dovrebbe vedere la scritta "aarch64" alla fine della linea (se non c’è bisogna risolvere ricontrollando il passaggio 2). Se, invece, è correttamente presente, occorre editare il file cc_config.xml, utilizzato da BOINC, in questa maniera:
cd /etc/boinc-client
sudo nano cc_config.xml

Una volta all’interno del file, occorre aggiungere il tag <alt_platform> e deve essere inserito tra i tag <options>  (da creare). Se non è presente il tag <options> occorre crearlo così:
<options>
  <alt_platform>aarch64-unknown-linux-gnu</alt_platform>
</options>

Se, invece, è già presente aggiungere soltanto, all’interno, la riga:
<alt_platform>aarch64-unknown-linux-gnu</alt_platform>

Cliccare Control+O per salvare il file e Control+X per uscire. Occorre riavviare il client Boinc (non solo il manager) per applicare le modifiche – oppure riavviate il Raspberry - , con il seguente comando:
sudo systemctl restart boinc-client

Riattivare la ricezione del lavoro sul Manager.

 

Rosetta@Home sul Raspberry PI4 - Usare Fold for COVID


Se la procedura qui sopra vi sembra troppo complessa, non ci sono problemi.

L'azienda Balena.io (che si occupa di cloud e IoT) ha creato una immagine linux per Raspberry già pronta per Rosetta@Home e che è possibile controllare comodamente da remoto via web. Grazie al loro servizio, infatti, è possibile installare e controllare gratuitamente fino a 10 device.

Il progetto si chiama Fold for Covid e mette a disposizione immagini non solo per il PI4, ma anche per altre piattaforme IoT (NanoPc, Nvidia Jetson, Nitrogen 8M, ecc).

 

Buono scaccolo!!!

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (3 risposte).

Progetti Covid-19

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Uncategorised
05 Aprile 2020
Creato: 05 Aprile 2020

Valutazione attuale: 4 / 5

Stella attivaStella attivaStella attivaStella attivaStella inattiva

Progetti Covid-19

 

Seguendo l'esempio degli amici di Boinc@Usa, abbiamo cercato di riassumere in questo schema tutti i progetti (sia Boinc che di Citizen Science) che si occupano della ricerca riguardante il Covid-19.

 Progetti BOINC

Progetto

Focus sul Covid-19 App
Rosetta@Home Diretto, ma ci sono progetti multipli e non è possibile selezionare direttamente il lavori riguardante il Covid-19 CPU, ARM (è disponibile lavoro anche per Android e Linux relativamente al Covid-19)
Folding@Home Diretto. E' anche possibile selezionare direttamente il progetto Covid-19 CPU/GPU (sono supportate sia schede Nvidia che AMD)
Tn-Grid Indiretto CPU (sono disponibili app SSEx/AVX), controllate la temperatura. ARM con Linux.
GpuGrid In arrivo!! GPU Nvidia
Ralph@Home E' il progetto beta di Rosetta@Home e sta distribuendo lavoro per il Covid-19. Come per il progetto Rosetta non è possibile selezionare direttamente il progetto. CPU, ARM (è disponibile lavoro anche per Android e Linux relativamente al Covid-19)
Boinc@Tacc

Diretto, ma ci sono progetti multipli e non è possibile selezionare direttamente il progetto Covid. A partire dal 6 Aprile verrà data priorità a questo.

CPU. Richiede VirtualBox, un sistema operativo a 64 bit e un processore che supporta la virtualizzazione VT-x (Intel) o AMD-V (AMD).
World Community Grid

Sottoprogetto OpenPandemics, con queste finalità:

- Ricerca di un trattamento potenziale per il Covid-19

- Sviluppare ulteriori programmi open-source per simulazioni farmacologiche per eventuali future pandemie/epidemie.

 CPU

Ibercivis

Stanno analizzando se è possibile utilizzare alcuni farmaci contro l'Ebola per fermare il Covid-19

CPU

SiDock

Diretto.

CPU

 

Sono presenti anche 2 giochi per aiutare la ricerca Fold.it ed EteRNA

Ci sono, inoltre i progetti di Citizen Science: Covid Moonshot, Dreamlab e Quarantine.

Abbiamo anche creato una piccola guida per usare il vostro dispositivo Raspberry su Rosetta@Home

 

E, comunque, seguite le indicazioni dell'OMS: mascherina, 1 metro di distanza, lavatevi le mani e state a casa!!!

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Il canale Twitter di BoincItaly

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Flash
21 Febbraio 2019
Creato: 21 Febbraio 2019
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

TwitterBoinc

Il canale Twitter di BoincItaly

 

Discuti questo articolo
Accedi per commentare

Canale Twitter

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
Flash
21 Febbraio 2019
Creato: 21 Febbraio 2019

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

TwitterBoinc

Il canale Twitter di BoincItaly

 

Discuti questo articolo
Accedi per commentare

Boinc Workshop 2019

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
11 Febbraio 2019
Creato: 11 Febbraio 2019
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Anche quest'anno si terrà il Boinc Workshop, dal 9 al 12 Luglio a Chicago.

La partecipazione è libera e gratuita.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (11 risposte).

Folding@Home e le criptovalute

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
News
16 Gennaio 2019
Creato: 16 Gennaio 2019

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Qualche giorno fa i ricercatori di Folding@Home hanno rilasciato una dichiarazione ufficiale circa il rapporto tra il loro progetto e le criptovalute.

Qui potete trovare il testo.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (4 risposte).

Nuovo account Twitter

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
24 Settembre 2018
Creato: 24 Settembre 2018
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Cari amici scaccolatori,

purtroppo non era più possibile accedere/amministrare il "vecchio" account Twitter (che, infatti, era fermo da 2 anni), abbiamo deciso di crearne uno ex-novo.
Lo potete trovare qui e si chiama "The real Boinc Italy - Boinc in Italiano".

Follow it! Seguiteci!!!

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (2 risposte).

RakeSearch

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
18 Settembre 2018
Creato: 18 Settembre 2018

Valutazione attuale: 4 / 5

Stella attivaStella attivaStella attivaStella attivaStella inattiva

Rake Search

 

AMBITO: Matematica
STATO:  ATTIVO 
ATTACH: http://rake.boincfast.ru/rakesearch/
 
 
 

L'enorme dimensione dello spazio dei quadrati latini diagonali rende impossibile enumerare tutti i suoi oggetti direttamente in tempi ragionevoli. Quindi, per scoprire la struttura di questo spazio, sono necessari metodi di ricerca sofisticati. Nel progetto RakeSearch, implementiamo un'applicazione che raccoglie coppie separate di DLS (Diagonal Latin Square) mutualmente ortogonali, che consente di ricostruire grafici completi della loro ortogonalità.

Le coppie di quadrati trovati sono pubblicate qui.

I grafici scoperti dei quadrati latini ortogonali diagonali sono pubblicati qui.

Leggi tutto: RakeSearch
Discuti questo articolo
Accedi per commentare

Distribuited Hardware Evolution

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
18 Settembre 2018
Creato: 12 Settembre 2018

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

 

Distributed Hardware Evolution Project

AMBITO: Elettronica
STATO: CHIUSO
ATTACH: https://

 

 

DHEP consente di ospitare un'isola che esegue un algoritmo genetico in un ambiente coevolutivo al fine di sintetizzare l'elettronica futura super-affidabile come quelle utilizzate nei veicoli autonomi, nelle centrali elettriche, nelle apparecchiature mediche, nell'aerospaziale. Questi sono di importanza sempre più importante in quanto sempre più vite umane si affidano a un hardware ben funzionante.
L'osservazione delle dinamiche della popolazione ci aiuterà anche a capire l'evoluzione, non solo a sfruttarla per raggiungere progetti "migliori di quelli umani", ma anche a capire come i tassi di migrazione, la diversità genetica e i meccanismi interni della ricombinazione genetica siano intervenuto di concerto per raggiungere la biodiversità e la meraviglia degli organismi viventi odierni.
Il progetto simula un'isola con una popolazione di circuiti che lottano per la sopravvivenza in un mondo online ostile. Durante il tempo di inattività dei PC, gli individui di questa popolazione si evolveranno attraverso l'evoluzione artificiale in un processo di sopravvivenza del più mite nei circuiti con Concurrent Error Detection (CED) e competeranno con quelli ospitati su altri PC migrando verso e da essi. Questi circuiti non saranno vincolati da regole progettuali convenzionali poiché l'evoluzione trova soluzioni efficienti senza preoccuparsi di quanto siano complessi da comprendere, proprio come ha fatto con il nostro corpo e il nostro cervello. Puoi unirti a questo cluster di calcolo in un minuto, scaricando il client boinc ed unendoti al progetto. Controlla come la tua popolazione sta facendo meglio rispetto a quelle degli altri e dai un nome alle migliori creazioni se entrano nella hall of fame “meglio dell’umano.
L'hardware di autodiagnostica è in grado di rilevare le deviazioni dal suo comportamento normale a causa di guasti: l’autodiagnostica è importante specialmente in sistemi mission-critical come strumentazione medica, controlli del trasporto e in quegli ambienti rischiosi come le missioni spaziali o le centrali nucleari.  L'autotest integrato (BIST) è ampiamente utilizzato, ma in genere richiede più del 100% di sovraccarico dell’area oppure dei test off-line. Tuttavia nei sistemi critici di missione i test off-line non sono adatti perché dobbiamo diagnosticare immediatamente (real time) il fallimento. La soluzione on-line standard è un sistema di votazione con due copie del modulo che deve essere diagnosticato, che è in grado di rilevare immediatamente i guasti confrontando le uscite delle copie. Tuttavia, questa soluzione richiede una ridondanza del 100% per il modulo aggiuntivo, più una maggiore logica per l'elettore (che deve stabilire quale modulo è on-line ed è corretto). Negli ultimi 40 anni di ricerca riguardanti il CED, nata dal programma aerospaziale della NASA, la progettazione convenzionale non ha prodotto un miglioramento significativo del sistema di votazione così come non ne ha prodotto per una soluzione CED on-line. Voi potete aiutarci ad arrivare alla prossima generazione di circuiti auto-diagnostici.
Poiché un numero crescente di compiti mission critical sono automatizzati, i circuiti di autocontrollo sono di fondamentale importanza: come abbiamo visto ci sono applicativi medici (monitor cardiaci, pacemaker, ecc), di trasposto (hardware degli aerei, luci del traffico, l’ABS delle auto, ecc), spaziali (satelliti, sonde) e impianti industriali (centrali atomiche) e molti si aggiungeranno nel futuro, come le auto a guida autonoma, operazioni mediche svolte da remoto, ecc. In tutte queste aree sono a rischio vite umane o grandi perdite economiche. Unendoti a questo progetto, daresti un contributo prezioso ad una interessante ricerca e contribuirai a spingere in avanti i limiti della conoscenza umana. Non solo, ma i circuiti prodotti da questo progetto sono davvero migliori di quelli del design convenzionale, quindi porterebbero a controllori più sicuri in applicazioni mission critical attuali ed emergenti salvando, come detto, vite e denaro.


I Metodi evolutivi come gli algoritmi genetici (GA) o le strategie evolutive (ES) tentano di applicare l'evoluzione darwiniana ad altri campi di ricerca:
1. Codificare il problema come un genotipo binario.
2. Creare una popolazione con genotipi casuali.
3. Valutare tutti gli individui in una popolazione.
4. Selezionare il più adatto per la riproduzione.
5. Creare una nuova popolazione applicando il cross-over a quelli selezionati.
6. Appicare la mutazione di fondo a tutti gli individui della populazione.
7. Tornare al punto 3 e ripetere fino a trovare una soluzione ottimale.


Questo semplice algoritmo è stato applicato a una vasta gamma di problemi, dall'adattamento dei parametri nei modelli economici alla progettazione delle ali degli aeromobili. Uno degli esempi più eclatanti del potere di variazione e selezione cieca è il discriminatore di toni di Adrian Thompson: sfruttando la fisica raffinata di un chip riconfigurabile (FPGA), un design evoluto è stato in grado di distinguere due parole pronunciate utilizzando solamente 100 porte logiche: qualcosa di impensabile con un design convenzionale. Maggiori approfondimenti in New Scientist Cover Story. Vi sono altri esempi in cui i metodi evolutivi applicati all'hardware hanno prodotto circuiti paragonabili a quelli progettati da esperti e anche circuiti non convenzionali in cui le risorse sono utilizzate in modo estremamente efficiente.
L'hardware autodiagnostico che si evolve è stato inizialmente tentato dall'autore per alcuni circuiti giocattolo: un moltiplicatore a due bit e un sommatore un bit. Dopo centinaia di migliaia di generazioni, i circuiti si sono evoluti eseguendo una diagnosi completa utilizzando circa la metà del carico che la soluzione convenzionale avrebbe richiesto. Ad esempio, quando si utilizza la tecnologia a gate logico a due ingressi, è possibile implementare un moltiplicatore a due bit utilizzando 7 porte. Aggiungendo una copia ulteriore e altre 7 porte per confrontare 4 uscite, abbiamo un overhead di 14 gate per la soluzione CED del sistema di voto convenzionale
Dopo quattro milioni di generazioni (un tempo di elaborazione di un mese su un singolo PC) la GA ha trovato un circuito (diagram) con lo stesso comportamento utilizzando solo 9 porte extra. È difficile capire esattamente quali siano i principi operativi alla base del suo funzionamento, ma sembra che tenda a utilizzare più porte XOR che propagano sempre un po’ di capovolgimento in uno dei loro input, e sfruttano anche la diversità del design per confrontare più sezioni del circuito simultaneamente. Molti circuiti evoluti sono descritti e i loro diagrammi possono essere trovati in  published papers.
Ciò dimostra che l'evoluzione è in grado di raggiungere aree di spazio progettuale oltre lo scopo del design convenzionale, e anche che queste aree contengono soluzioni efficienti finora invisibili, in attesa di essere svelate. Quanti circuiti di questo tipo l'evoluzione potrebbe trovare, migliori di quelli di oggi? Crediamo che siano ovunque e intendiamo iniziare a cercarli utilizzando un cluster di isole basato sui PC dei volontari.

Perché l'autodiagnosi dell'hardware?

È molto difficile progettare un circuito che produca un comportamento affidabile quando vengono a galla dei difetti, motivo per cui i progettisti umani hanno scelto semplicemente di avere una copia extra dell'intero circuito come soluzione. Tuttavia questo è costoso in termini di potenza e area del silicio, il primo cruciale, ad esempio, nelle missioni spaziali e il secondo nella produzione di massa. I circuiti da dare al cluster per evolvere saranno di dimensioni industriali, come un decodificatore di Viterbi, che viene utilizzato all'interno di ogni telefono cellulare.


 

Link utili
Join al Team ico32_bi
Applicazioni ico32_applicazioni
Stato del server ico32_server

Statistiche interne

del progetto

ico32_stats

Classifica interna utenti

ico32_classutenti

Pagina dei

risultati

Pagina dei risultati
 
 
 
Statistiche BOINC.Stats
Statistica del Team sul progetto ico32_boincstats
Classifica dei team italiani ico32_statita
Statistiche del Team Team Stats

 

Posizione del team nelle classifiche modiali
Discuti questo articolo
Accedi per commentare

Aggiornamento situazione CSG

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
News
17 Settembre 2018
Creato: 17 Settembre 2018

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Travis Desell, amministratore del progetto, ha accettato un nuovo posto di lavoro presso il Rochester Istitute of Technology. Ha portato con sè alcuni studenti e stanno attrezzando un nuovo laboratorio di ricerca. In cantiere anche la creazione di un applicativo gpu per le future indagini.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (3 risposte).

Il sarcoma in Mapping Cancer Markers

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
10 Settembre 2018
Creato: 10 Settembre 2018
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

In questo aggiornamento, il team del progetto MCM spiega come stiano determinando quali geni e quali firme genetiche siano i più promettenti per quanto riguarda la diagnosi del tumore ai polmoni. Inoltre verrà introdotto il prossimo tipo di tumore – il sarcoma – che sarà preso aggiunto al progetto.
Il progetto MCM, attualmente, continua a processare working units per il dataset del cancro alle ovaie: mentre stiamo accumulando questi risultati, contemporaneamente stiamo continuando ad analizzare i risultati dal dataset del tumore polmonare.


Modelli di familiarità genetica dei biomarcatori nel cancro polmonare
Nei tumori, e nella biologia umana in generale, gruppi multipli di biomarcatori (geni, proteine, microRNA, ecc) possono avere modelli di attività simili e quindi utilità clinica, aiutando la diagnosi, la prognosi o la previsione dell’utilità di un determinato trattamento. Per ogni sottotipo tumorale, si possono trovare un gran numero di questi gruppi di biomarcatori, ognuno con potere predditivo simile; tuttavia i metodi statistici e quelli basati sulla IA riescono ad identificarne uno solo da un determinato insieme di dati.
Noi abbiamo due scopi principali in MCM: 1) trovare buoni gruppi di biomarcatori per i tumori che stiamo studiando e 2) identificare come e perché questi biomarcatori formino questi utili gruppi, così da creare un approccio euristico che troverà tali gruppi per ogni malattia tumorale senza la necessità di mesi di calcolo su WCG. Il primo obiettivo ci fornirà non solo informazioni che, dopo la convalida sperimentale, potrebbero essere estremamente utili nella pratica clinica, ma, soprattutto, genererà dati che utilizzeremo per validare la nostra euristica.



Figura 1: Gruppi di proteine unite per interazioni similari e funzioni biologiche simili.


I gruppi multipli di biomarcatori esistono principalmente a causa della ridondanza e del “cablaggio” complesso del nostro sistema biologico: per esempio la rete umana di interazione proteina-proteina altamente interconnessa ci permette di vedere come le singole proteine svolgono diverse funzioni molecolari e, insieme, contribuiscono a specifici processi biologici, come mostrato nella Figura 1. Molte di queste interazioni si possono trasformare da “sane” a “malate” (portando, quindi a patologie come i tumori ed altre), influenzando, a loro volta, le funzioni di queste proteine. Attraverso queste analisi, miriamo a costruire modelli di questi processi, che a loro volta potrebbero essere utilizzati per progettare nuovi approcci terapeutici.
Due gruppi specifici di biomarcatori possono apparire diversi l'uno dall'altro, eppure funzionano in modo equivalente perché le proteine svolgono funzioni molecolari simili. Tuttavia, l'uso di questi gruppi di biomarcatori per la “stratificazione” del paziente potrebbe non essere semplice. Gruppi di biomarcatori, spesso, non sono convalidati da nuove coorti di pazienti o quando sono misurati da diverse analisi biologiche, e ci sono centinaia di possibili combinazioni da considerare. Alcuni gruppi di biomarcatori, per esempio, possono avere tutti i reagenti disponibili (per l’analisi di laboratorio), mentre altri devono essere sviluppati (o sono molto costosi); possono anche avere diversa robustezza, sensibilità e accuratezza, influenzando il loro potenziale come biomarcatori clinicamente utili.
A tutt’oggi, non esiste un approccio efficace per trovare tutti i gruppi validi di biomarcatori necessari per raggiungere l'obiettivo definito, come la previsione accurata del rischio del paziente o la risposta al trattamento.
Il primo obiettivo dell’MCM è di avere una più profonda comprensione delle “regole” del perché e del come le proteine interagiscono e possono essere combinate per formare un gruppo di biomarcatori, cosa essenziale per comprendere il loro ruolo e la loro applicabilità. Pertanto, stiamo utilizzando l'esclusiva risorsa computazionale di World Community Grid per esaminare sistematicamente il panorama di gruppi utili di biomarcatori per molteplici tipi di tumori e con diverse finalità (diagnosi e prognosi). In tal modo abbiamo stabilito un punto di riferimento per l'identificazione e la convalida dei biomarcatori dei geni tumorali. Allo stesso tempo, stiamo applicando metodi di apprendimento non supervisionati, come il clustering gerarchico alle proteine, che raggruppano per potere predittivo e funzione biologica.
La combinazione di questo clustering e dei pattern di World Community Grid ci consente di identificare cluster genici generalizzati che forniscono approfondimenti più precisi sullo sfondo molecolare dei tumori e danno luogo a gruppi più affidabili di biomarcatori di geni per la diagnosi e la prognosi del cancro. Attualmente, ci stiamo concentrando sui risultati della prima fase del set di dati sul cancro del polmone, che si sono concentrati su un'esplorazione sistematica dell'intero spazio di potenziali gruppi di biomarcatori a lunghezza fissa.



Figura 2: Flusso di lavoro della ricerca MCM-gene-modello-famiglia. I risultati dell'analisi della World Community Grid combinati con il clustering non controllato di geni, identifica un insieme di famiglie di modelli genetici, generalizzando i gruppi di biomarcatori. Infine, i risultati vengono valutati utilizzando noti biomarcatori del cancro e utilizzando annotazioni funzionali, come i percorsi di segnalazione, la funzione e i processi di ontologia genetica.


Come descritto sopra nella Figura 2, World Community Grid ha calcolato circa 10 miliardi di gruppi di biomarcatori selezionati in modo casuale, per aiutarci a capire la distribuzione delle dimensioni dei gruppi e delle combinazioni di biomarcatori che funzionano bene, che a loro volta utilizzeremo per convalidare approcci euristici. L'analisi ha mostrato che circa 45 milioni di gruppi di biomarcatori avevano un'alta capacità predittiva e superato la soglia di qualità. Questa valutazione ci fornisce un quadro dettagliato e sistematico di quali geni e gruppi genetici portano le informazioni più preziose per la diagnosi del cancro del polmone. L'aggiunta di dati sulla rete di interazione tra percorsi e proteine ci consente di interpretare e capire ulteriormente come e perché questi gruppi di biomarker funzionano bene, e quali processi e funzioni portino queste proteine.
Allo stesso tempo, abbiamo usato i dati del cancro del polmone per scoprire gruppi di geni simili: supponiamo che questi geni (o le proteine codificate) soddisfino funzioni biologiche simili o siano coinvolti negli stessi processi molecolari.



Figura 3: Valutazione del cluster (insieme di geni) gerarchico dei dati sul cancro ai polmoni, utilizzando il parametro di collegamento completo, per diversi numeri di gruppi indicati con il valore K (da 100 a 1000). Il primo grafico mostra il valore della silhouette - una metrica di qualità in questo raggruppamento, cioè la misura di quanto ogni oggetto si rapporta al suo cluster rispetto ad altri cluster. Il secondo grafico mostra la distanza inter- e intra-cluster e il rapporto tra distanza intra / inter cluster.


Per trovare gli appropriati algoritmi di clustering e il giusto numero di gruppi di geni (cluster) utilizziamo diverse misure per valutare la qualità di ogni singolo clustering. Ad esempio la figura 3 qui sopra mostra i risultati della valutazione del clustering gerarchico per diversi numeri di cluster: al fine di valutarne la qualità, abbiamo utilizzato il valore della sagoma/silhouette (metodo per valutare la coerenza all'interno di cluster di dati, ovvero la misura di quanto ogni oggetto si rapporta al proprio cluster rispetto ad altri cluster). Un alto valore della silhouette indica una buona configurazione di clustering, e l’immagine mostra un notevole aumento del valore della sagoma nei gruppi di 700 geni. Dal momento che questo indica un incremento significativo nella qualità, abbiamo selezionato successivamente questo cluster per ulteriori analisi.
Non tutte le combinazioni di funzioni biologiche (o la loro mancanza) porteranno allo sviluppo del cancro e saranno biologicamente importanti. Nella fase successiva, applichiamo una ricerca statistica per indagare quali combinazioni di cluster sono più comuni tra i biomarcatori ben preformanti, e quindi risultano in gruppi di geni o famiglie di modelli. Poiché è probabile che alcune famiglie di modelli genetici si verifichino anche a caso, utilizziamo l'analisi dell'arricchimento per garantire che la selezione contenga solo famiglie che si verificano significativamente più spesso di quelle casuali.
Nella fase successiva abbiamo convalidato le famiglie modello generalizzate selezionate, utilizzando un set indipendente di 28 set di dati sul cancro del polmone. Ognuno di questi studi riporta uno o più gruppi di biomarcatori di geni up-down o down-regolati che sono indicativi per il cancro del polmone.


Figura 4: Viene mostrata una selezione di famiglie di modelli ad alte prestazioni e il modo in cui sono supportate da 28 firme geniche precedentemente pubblicate. Ogni cerchio nella figura indica la forza del supporto: la dimensione del cerchio rappresenta il numero di cluster della famiglia che, laddove ci sia, è trovato significativamente più spesso nella firma di questo studio. Il colore del cerchio indica, invece, il valore medio calcolato per tutti i cluster di quella famiglia di modelli.



Figura 5: Una delle famiglie di pattern genetici più frequenti è una combinazione del cluste cluster 1, 7 e 21. Abbiamo annotato ogni cluster con i percorsi usando pathDIP e lo abbiamo visualizzato usando nuvole di parole (più grande è la parola/frase, più frequentemente si verifica). 


La visualizzazione della nuvola di parole indica che il cluster 7 è coinvolto in percorsi correlati ai GPCR (recettore accoppiato a proteine G) e ai NHR (recettori ormonali nucleari). Al contrario, i geni nel cluster 1 sono altamente arricchiti nell'EGFR1 (recettore del fattore di crescita epidermico) e nelle vie di regolazione traslazionale. Le mutazioni che influenzano l'espressione di EGFR1, una proteina transmembrana, hanno dimostrato di provocare diversi tipi di cancro, e in particolare il cancro del polmone (come abbiamo mostrato precedentemente in Petschnigg et al., J Mol Biol 2017; Petschnigg et al., Nat Methods 2014). Il cluster 21 indica, d’altro canto, un grosso coinvolgimento con i microRNA, come noi (ed altri) abbiamo dimostrato in passato (Tokar et al., Oncotarget 2018; Becker-Santos et al., J Pathology, 2016; Cinegaglia et al., Oncotarget 2016).
Le aberrazioni aumentano l'attività della chinasi di EGFR1, portando a iper-attivazione delle vie di segnalazione pro-sopravvivenza a valle e successiva divisione cellulare incontrollata. La scoperta di EGFR1 ha avviato lo sviluppo di approcci terapeutici contro vari tipi di cancro incluso il cancro del polmone. Il terzo gruppo di geni sono obiettivi comuni dei microRNA.



Figura 6: Valutazione di percorsi arricchiti per il cluster 1. Qui abbiamo utilizzato il nostro portale di analisi per l'arricchimento del pathway pubblicamente disponibile che si chiama pathDIP (Rahmati et al., NAR 2017). La rete è stata generata con il nostro strumento di visualizzazione e analisi della rete NAViGaTOR 3(http://ophid.utoronto.ca/navigator).


L'illustrazione finale valuta i 20 percorsi più significativi per il cluster 1. La dimensione dei nodi di percorso corrisponde al numero di geni coinvolti e la larghezza dei bordi corrisponde alla quantità di geni in sovrapposizione tra i percorsi: si può vedere che tutti i percorsi coinvolti nella traduzione sono altamente sovrapposti. I percorsi correlati all'mRNA formano un altro componente altamente connesso nel grafico: il percorso di EGFR1, in particolare, è fortemente sovrapponibile a molti altri percorsi, indicando che i geni che sono interessati da tali percorsi sono coinvolti in un meccanismo molecolare simile.

Sarcoma
Dopo il tumore polmonare e quello ovarico, ci focalizzeremo sul sarcoma. I sarcomi sono un gruppo eterogeneo di tumori maligni, relativamente rari e sono tipicamente categorizzati in base alla morfologia e al tipo di tessuto connettivo in cui si manifestano, inclusi grasso, muscoli, vasi sanguigni, tessuti cutanei profondi, nervi, ossa e cartilagini, comprendendo poco meno del 10% di tutti i tumori (Jain 2010). I sarcomi possono verificarsi ovunque nel corpo umano, dalla testa ai piedi, possono svilupparsi in pazienti di qualsiasi età (bambini compresi) e spesso variano in aggressività, anche all'interno dello stesso sottotipo di organo o tessuto (Honore 2015). Questo suggerisce che una descrizione istologia per organo o per tessuto non è sufficiente per una corretta e completa classificazione della malattia né aiuta nella selezione del trattamento migliore.
La diagnosi dei sarcomi pone un particolare dilemma, non solo per la loro relativa frequenza, ma anche per la loro diversità, con più di 70 sottotipi istologici e per la nostra insufficiente comprensione delle caratteristiche molecolari di questi sottotipi (Jain 2010).
In tal senso, recenti studi scientifici si sono concentrati sulle classificazioni molecolari dei sarcomi sulla base di alterazioni genetiche, come geni di fusione o mutazioni oncogeniche. Mentre la ricerca ha raggiunto importanti sviluppi nel controllo “locale” / salvataggio degli arti, il tasso di sopravvivenza per i sarcomi dei tessuti molli "ad alto rischio" (STS) non è migliorato in modo significativo, specialmente nei pazienti con un sarcoma grande, profondo e di grado elevato - stadio III (Kane III 2018).
Per questi tutti questi motivi, nella prossima fase dell'analisi della World Community Grid, ci concentreremo sulla valutazione del background genomico del sarcoma. Utilizzeremo diverse informazioni e tecnologie di sequenziamento per ottenere una conoscenza più ampia tra i diversi livelli di aberrazioni genetiche e le implicazioni regolative. Forniremo una descrizione più dettagliata dei dati e degli incentivi nel prossimo aggiornamento.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (2 risposte).

Canale Telegram

Empty
  •  Stampa 
  • Email
Dettagli
[VENETO] sabayonino logo
FAQ
10 Agosto 2018
Creato: 10 Agosto 2018
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Telegram Icon

 

Il canale Telegram di BOINC.Italy

 

https://t.me/boincitaly/

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (0 risposte).

Boinc Client 7.12

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
15 Luglio 2018
Creato: 15 Luglio 2018

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

E' uscita la versione 7.12 del client Boinc. Tante sono le novità di questa release, che potete leggere qui

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (4 risposte).

Nuovo applicativo Beta Sixtrack

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
BOINC.Italy
01 Luglio 2018
Creato: 01 Luglio 2018
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Gli amministratori del sottoprogetto di LHC Sixtrack hanno annunciato una nuova beta del loro applicativo, con pesanti e profonde modifiche del codice sia per quanto riguarda il lato scientifico che per quanto riguarda la risoluzione di bugs.

Non resta che provarle.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Nuovo client Boinc 7.10.2

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
Articoli
21 Maggio 2018
Creato: 21 Maggio 2018

Valutazione attuale: 5 / 5

Stella attivaStella attivaStella attivaStella attivaStella attiva

Oggi è stato ufficialmente rilasciato il nuovo client Boinc, la versione 7.10.2

Qui la lista delle modifiche rispetto alla versione precedente.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (14 risposte).

Decimo anniversario Foldit

Empty
  •  Stampa 
  • Email
Dettagli
boboviz logo
News
09 Maggio 2018
Creato: 09 Maggio 2018
Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva

Il 9 Maggio 2008 nasceva il progetto Foldit.

Gli amministratori ringraziano tutti i volontari per il supporto e la partecipazione al progetto e approfittano dell'occasione per rilasciare un nuovo tools all'interno della piattaforma utile a creare ligandi in piccole molecole.

Discuti questo articolo
Accedi per commentare
Discuti questo articolo nel forum (1 risposte).

Sottocategorie

Articoli Conteggio articoli: 357

Progetti Conteggio articoli: 70

BOINC Conteggio articoli: 29

Guide Conteggio articoli: 17

BOINC.Italy Conteggio articoli: 13

Calcolo distribuito Conteggio articoli: 2

Scienza e ricerca Conteggio articoli: 38

Uncategorised Conteggio articoli: 187

Covid Conteggio articoli: 1

News Conteggio articoli: 2046

ABC@home Conteggio articoli: 14

SETI@home Conteggio articoli: 92

Rosetta@home Conteggio articoli: 106

ClimatePrediction.net Conteggio articoli: 49

Einstein@home Conteggio articoli: 91

LeidenClassical Conteggio articoli: 29

LHC@home Conteggio articoli: 42

POGS Conteggio articoli: 28

MalariaControl.net Conteggio articoli: 32

QMC@home Conteggio articoli: 14

SeasonalAttribution Conteggio articoli: 5

WCG Conteggio articoli: 159

Cosmology@home Conteggio articoli: 26

GPUGrid.net Conteggio articoli: 176

Ralph@home Conteggio articoli: 30

PrimeGrid Conteggio articoli: 168

SETI@homeBETA Conteggio articoli: 14

Yoyo@home Conteggio articoli: 86

Milkyway@home Conteggio articoli: 158

QCN Conteggio articoli: 45

Collatz Conjecture Conteggio articoli: 42

Ibercivis Conteggio articoli: 14

Virtual Prairie Conteggio articoli: 3

Orbit@home Conteggio articoli: 8

SZTAKI Desktop Grid Conteggio articoli: 5

NFS@home Conteggio articoli: 48

The Lattice Project Conteggio articoli: 6

EDGeS@home Conteggio articoli: 5

BOINC Conteggio articoli: 133

RNA World Conteggio articoli: 40

DNETC@HOME Conteggio articoli: 6

WUProp@Home Conteggio articoli: 8

QuantumFIRE Conteggio articoli: 1

DNA@home Conteggio articoli: 20

DistributedDataMining (DDM) Conteggio articoli: 7

PRIMABOINCA Conteggio articoli: 4

CAS@home Conteggio articoli: 22

MindModeling@Home (Beta) Conteggio articoli: 7

WEP-M+2 Project (wanless2) Conteggio articoli: 17

Chess960@Home Conteggio articoli: 1

DistrRTgen Conteggio articoli: 23

Enigma@home Conteggio articoli: 6

Gerasim@home Conteggio articoli: 1

RenderFarm.fi Conteggio articoli: 6

RSA Lattice Siever (2.0) Conteggio articoli: 3

Folding@home Conteggio articoli: 3

fold.it Conteggio articoli: 9

GalaxyZOO Conteggio articoli: 1

SolarStormWatch Conteggio articoli: 1

Moo! Wrapper Conteggio articoli: 16

Correlizer Conteggio articoli: 2

Constellation Conteggio articoli: 5

Mersenne@home Conteggio articoli: 12

SLinCA@home Conteggio articoli: 3

Radioactive@home Conteggio articoli: 25

Optima@home Conteggio articoli: 3

Neurona@home Conteggio articoli: 4

NRG@home Conteggio articoli: 4

SimOne@home Conteggio articoli: 8

Albert@home Conteggio articoli: 8

Test4Theory@home Conteggio articoli: 38

SAT@home Conteggio articoli: 27

VGTUproject@home Conteggio articoli: 4

NumberFields@home Conteggio articoli: 10

RiojaScience Conteggio articoli: 1

FightMalaria@home Conteggio articoli: 9

SubsetSum@home Conteggio articoli: 1

OProject@home Conteggio articoli: 4

Asteroids@home Conteggio articoli: 5

NativeBOINC Conteggio articoli: 10

Citizen Science Grid Conteggio articoli: 8

ATLAS@home Conteggio articoli: 1

TN-Grid Conteggio articoli: 1

Universe@home Conteggio articoli: 3

Denis@home Conteggio articoli: 8

Blog Conteggio articoli: 79

Progetti Conteggio articoli: 4

Annunci Conteggio articoli: 24

BOINC Conteggio articoli: 2

BOINC.Italy Conteggio articoli: 32

Calcolo distribuito Conteggio articoli: 1

Pensieri distribuiti Conteggio articoli: 15

Flash Conteggio articoli: 9

Focus Conteggio articoli: 6

Info Conteggio articoli: 3

FAQ Conteggio articoli: 35

BOINC Conteggio articoli: 18

BOINC.Italy Conteggio articoli: 3

Statistiche Conteggio articoli: 13

Altro Conteggio articoli: 1

Lo staff Conteggio articoli: 13

Amministratori Conteggio articoli: 6

Moderatori Conteggio articoli: 2

Referenti Conteggio articoli: 1

Collaboratori Conteggio articoli: 4

Pagina 1 di 51
  • Inizio
  • Indietro
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • Avanti
  • Fine

Articoli

  • Docker e LHC
  • Traguardo delle 1.000 pubblicazioni scientifiche, che futuro per BOINC?
  • HL-LHC sta arrivando
  • Informatica e IA
  • LODA

Approfondimenti

  • Come funziona BOINC
  • Guida installazione BOINC
  • Utilizzo e settaggio del BOINC Manager
  • La firma personalizzata
  • CPID: cos'è e come funziona?

Iniziative

  • Utenti del giorno
  • Raccolta video

Blog

  • Pubblicazioni e....truffe
  • Teoria delle Stringhe - scienza o....
  • Mia mamma usa Windows
  • Foldit e AlphaFold
  • Addio Lugano bella
  • Supporta
  • Donazioni
  • Staff
  • Privacy
  • Contatti

Powered by BOINC

Il contenuto del portale BOINC.Italy è distribuito sotto Licenza Creative Commons
Copyleft © 2007 - 2025 BOINC.Italy