Slicker, l'amministratore del progetto, annuncia che c'è stata un'interruzione di corrente alle 7:51 PM CST del 6/4/2012 che è durata più a lungo del gruppo di continuità.
Quel, amministratore del progetto, per prima cosa vuole congratularsi con tutti i partecipanti. Ringrazia specialmente il Polish National Team per il loro lavoro sulla versione dell'applicazione OpenCL per le schede ATI.
La prossima versione di BOINC è ora di pubblico utilizzo. Controllate le note di rilascio e la storia della versione per i dettagli.
Lo sviluppatori di BOINC Dr. David Anderson sta compiendo una visita all'IHEP-CC dal 1 al 15 aprile per aiutare il progetto CAS@home. Terrà, inoltre, una breve conferenza sulla memorizzazione volontaria all'IHEP-CC.
David Baker, responsabile del progetto Rosetta@Home, pubblica un nuovo intervento sul suo diario e ricorda che Rosetta@Home può contribuire a sconfiggere anche agenti patogeni creati dall'uomo apposta per uccidere.
Gli scienziati che lavorano al progetto Drug Search for Leishmaniasis sul World Community Grid hanno scritto un capitolo nel libro "Attualità della Medicina Tropicale".
Greg annuncia che ora 2,1000+ è fattorizzato in numeri primi di 67 e 151 cifre. Il setaccio di 11,290+ è in corso.
Buondì!
Ecco a voi qualche news:
Finalmente, dopo mesi di lavoro, test, debug e sistemazioni hanno Cycles come motore supportato. Otterranno la potenza di Cycles attraverso il rendering su CPU sul loro grid, con una serie di funzionalità supportate. Per essere in grado di uplodare le sessioni di Cycles dovete essere sicuri di avere l'ultima versione dell'uploader, che potete trovare nel Blender bf-extensions SVN. Posizionatelo nella vostra directory di Blender, in 2.62/scripts/addons/.
Mentre i cicli di rendering permette di rendere facilmente con le parti, assicuratevi di non fare compositing post elaborazione con l'editor del nodo, come per le vecchie restrizioni che esistono ancora.
Mentre il renderer Cycles consente di renderizzare facilmente le parti, assicuratevi di non eseguire il post-processo di composizione con il node editor, così come le vecchie restrizioni sono ancora presenti.
Finché Cycles lavorerà diversamente da Blender Internal possono dividere il carico di lavoro in due modi, prima di ricombinare tutto nel rendering finale. Con Blender Internal, nella migliore delle ipotesi potrebbero dividere il lavoro di un frame in sezioni più piccole di quel frame. Queste parti sarebbero poi cucite insieme nel frame finale. Alcune funzionalità del rendered di Blender Internal rendono molto difficile dividere in parti più piccole, soprattutto perché la loro rete non è costruita su una un'unica architettura di CPU e sistema operativo.
Oltre al taglio di un frame in parti fisiche, possono anche dividere il carico di lavoro di calcolo dei campioni. Diciamo che abbiano una sessione che vogliono renderizzarla con 100 campioni. Possono dividere il carico di lavoro su 4 workunit ognuna delle quali si tradurrà in un rendering di 25 campioni.
Facendo in modo che ogni parte sia renderizzata con un seme diverso possono assicurare che non ottengano 4 volte lo stesso risultato, ma di ottenere ciò che vogliono. Questi sottocampioni risultanti possono sommarli e mediarli in modo che alla fine siano stati renderizzati i 100 campioni del frame.
La cosa bella è che possono dividere il lavoro di calcolo in entrambi i modi ed allo stesso tempo. Così possono dividere il frame in 4 parti e ogni parte in 4 workunit. La cucitrice si prenderà cura di porre le parti risultanti nel fotogramma finale e mediarle come necessario.
Ciò significa che ora possono anche fare, per sempre, dei render ad alta definizione dei campioni, dal momento che il carico di lavoro può essere diviso su molti client. Per un campione di 10'000, potrebbero dividere il carico di lavoro in 100 workunits, ciascuna delle quali copre 100 campioni. Per renderer enormi, probabilmente li divideranno ulteriormente in parti, giusto per assicurarsi che le workunits non siano troppo lunghe.
Quando Cycles supporterà correttamente le GPU attraverso OpenCL, anche per le schede AMD / ATI, indagheranno con quanta facilità le potranno far rullare. Detto questo, è ovvio che il rendering CPU permetterà loro di eseguire le scene molto più grandi, in quanto la ram GPU è ancora un bene molto scarso.
Come nota finale, il supporto CPU è limitato al "set di funzionalità supportate", cosa da tenere a mente durante la preparazione e l'invio delle sessioni per il rendering al loro sito.
Su richiesta speciale di Paul Zimmermann sono state immesse nel sistema 200 workunits ECM da elaborare. Le WU in questione sono nominate ecm_as_Bernoulli_B200_P67.
Grazie a Rafał Ostanek della Polonia, sono riusciti ad avere il controllo per collegare a QCN i portatili HP. È ancora un "test beta sperimentale" ma se utilizzate BOINC su questi portatili (che hanno il software di protezione HP 3D installato e attivo), l'accelerometro dovrebbe essere in grado di essere controllato da QCN.
Il team di Rosetta@Home ha annunciato l'aggiornamento del software per l'elaborazione, arrivato alla versione 3.26. L'aggiornamento include miglioramenti per la simmetria nel protocollo ibrido per la modellazione comparativa. Se ci fossero dei problemi si è pregati di segnalarlo sul loro forum.
Ignasi annuncia che hanno spedito un nuovo batch di wu TRYP (*adTRYP*), significativamente più lunghe delle ultime TRYP (met*, eth*, pro*, ...)
Il forum è in manutenzione e tutti gli aggiornamenti potrebbero essere persi
Il team SETI.Germany continua il suo nuovo challenge ed invita tutti i team di BOINC a partecipare al 3° BOINC PENTATHLON, seguendo l'idea dell'antico Pentathlon greco.
I sensori ONavi USB (sia a 12-bit e 16-bit) sono ora pienamente funzionanti sotto Linux sia con QCNLive che con il client QCN su BOINC. Non sono necessari driver da installare.
Questa settimana i primi risultati dall'esperimento sul cambiamento climatico della BBC sono stati pubblicati su Nature Geoscience.
Una nuova versione dell'applicazione lasieve5f è stata rilasciata per linux a 64-bit. Questa applicazione permette un setaccio su una più ampia gamma e così permetterà di completare 2,1061-.
quel, l'amministratore del progetto, è lieto di annunciare che ospiteranno la loro prima sfida sul progetto!
Pubblicato lo stato del progetto a questa pagina seguirà articolo di traduzione in italiano.
Negli ultimi due mesi crediamo di aver fatto dei buoni passi in avanti per quanto riguarda la previsione delle strutture, e siamo impazienti di testare il nuovo metoro durante il CASP10. Abbiamo bisogno comunque del vostro aiuto - ci sono da testare vari aspetti del nuovo approccio e siamo molto limitati dai cicli CPU disponibili. Ci sono adesso così tanti inibitori dell'influenza e lavori di previsione delle strutture in coda su Rosetta@home che ci vogliono otto giorni prima che il lavoro sia rilasciato a voi. Questo può essre un momento importante per aumentare il vostro uso di rosetta e/o reclutare nuovi utenti - abbiamo bisogno di tutto l'aiuto possibile. Grazie! David.
Greg, l'amministratore del progetto, annuncia che il numero 7.355+ + stato fattorizzato in due numeri primi di 80 e 126 cifre. Il settaccio di 2.1000+ è completato ed il post-processo è iniziato. Il settaccio di 5.433+ è vicino alla conclusione e spera di finire presto il setaccio di 2.1061 (con un setaccio modificato).
Il Challenge di PrimeGrid dedicato alla matematica francese Marie Sophie Germain avrà inizio fra 3 giorni.
Sarà rilasciata lentamente Astropulse 6.02 per diverse piattaforme. Non c'è nessun cambiamento del codice, solo tentativi di sistemare la compatibilità e l'ottimizzazione dei problemi utilizzando un compilatore con bandiere temporali. La terribile lentezza della versione x86_64 che richiede un kernel linux 3.0+ sarà la prima ad essere sostituita.
Se avete cambiato le vostre preferenze limitando voi stessi ad una specifica applicazione, potrebbe essere necessario aggiornarle al fine di ottenere lavoro per Astropulse v6. Le potete aggiornare qui.
Finalmente hanno rilasciato l'applicazione astropulse per MacOS X. Metteteli a conoscenza se funziona perché non hanno una grande gamma di macchine su cui provare.
Hanno incontrato un problema con il loro feed delle nuove workunit così non ci sono wu disponibili al momento. Stanno lavorando su questo
Il 12 aprile ci sono due cose da celebrare: in primo luogo, il più umile, è il primo anno di attività della piattaforma di calcolo distribuito Constellation. Con il vostro aiuto volontario hanno ottenuto di processare quasi il 50% del primo batch di workunit per l'ottimizzazione del volo del razzo ibrido HyEnd in base all'altitudine.
Il gestore del progetto DistribuitedDataMining ha annunciato che il team è giunto alla fase finale del rilascio di una nuova applicazione che riguarda, praticamente, la simulazione del processo di evoluzione. Applicate anche alcune piccole novità preannunciate nella news precedente di questo progetto.
GDF annuncia che non vedono l'ora di provare la nuova architettura nvidia. Riporteranno le prestazioni presto e ringraziano un anonimo utente per la donazione.
Eric annuncia che sono stati contattati da uno degli autori di un libro/progetto multimediale chiamato "The Human Face of Big Data". Stanno cercando di intervistare qualcuno che sia pesantemente coinvolto in SETI@home (molti computer) ed, inoltre, partecipi a SETILive.
Ignasi è lieto di presentare Paola Bisignano, una ricercatrice del IIT (Italia) che rimarrà con loro per 9 mesi. Ha già iniziato a spedire delle wu nella coda, così presto le potrete ottenere.
Il responsabile del progetto DNA@Home informa che sono state raccolte nuove informazioni riguardanti i problemi di download delle applicazioni e gli errori di elaborazione e validazione causati dalla sospensione e ripresa dei lavori da parte dell'utente.
L'amministratore del progetto DistribuitedDataMining, Nico Schlitter, comunica che le pagine del progetto DistribuitedDataMining sono state ristrutturate con lo scopo di donare al sito una interfaccia più chiara e di più facile utilizzo.
TJM ieri ha rilasciato la nuova versione delle applicazioni per Linux e Windows.
Travis Desell, capo del progetto DNA@Home, ha caricato sui server del progetto un nuovo lotto di elaborazioni per testare il checkpointing (ossia l'abilità di interrompere e riprendere il lavoro da punti di "salvataggio").
Toni comunica che hanno recentemente pubblicato un nuovo articolo sul Journal of Chemical Theory and Computation: "Visualizing the Induced Binding of SH2-Phosphopeptide", creato da lui, ignasi e GDF (co-autori condivisi).
Un fattore di 12 cifre di P2203 è stato trovato dal progetto 25617 volte
Quel annuncia che si sono completamente spostati sulla nuova macchina che è stata inserita nel rack ieri.
LHC@home 2.0 è una piattaforma di calcolo distribuito per i fisici che lavorano al Large Hadron Collider - il più grande acceleratore di particelle al mondo - al CERN, il Laboratorio Europe di Fisica delle Particelle. Questa piattaforma ospiterà diversi sottoprogetti per diversi gruppi di fisica del LHC.
LHC@home 2.0 è un'estensione della piattaforma LHC@home, lanciata nel 2004 per aiutare i fisici a simulare le dinamiche dei fasci di protoni nel LHC. All'epoca, fare simulazioni completamente sviluppate di collisioni di particelle era oltre lo scopo del calcolo volontario, ma l'evoluzione della tecnologia (hardware e software) e in particolare l'uso della tecnologia di virtualizzazione, ci ha permesso una svolta... LHC@home 2.0!
Il risultato è che adesso puoi essere parte di uno sforzo globale per la simulazione di prove che i fisici useranno nelle loro analisi dei dati LHC, effettuando simulazioni di collisioni di particelle nel tuo computer. Il primo progetto presentato sulla piattaforma LHC@home 2.0 - attualmente in fase di test - si chiama Test4Theory.
Il progetto Test4Theory permetterà agli utenti di partecipare in simulazioni di fisica delle particelle ad alta energia usando i loro computer. I risultati sono mandati ad un database che è usato come risorsa comune da scienziati che lavorano al LHC sia nella parte sperimentale che in quella teorica.
Riassunto:
Il 22 marzo 2012 (Cina) / 21 MARZO 2012 (USA) il Dr. Francois Grey, presso la Tsinghua University, darà un aggiornamento sul progetto Computing for Clean Water via webcast dal vivo.
I ricercatori del progetto Help Conquer Cancer (HCC) hanno pubblicato un documento che descrive i loro sforzi nella ri-esecuzione dei loro algoritmi per sfruttare le Graphics Processing Unit (GPU) hardware presenti in molti dei computer di oggi.
Se vi state chiedendo la differenza tra SETI@home e SETILive, il Dr. Korpela ha postato le differenze qui.
Martedì alle 05:33, QCN ha rilevato un terremoto di magnitudo 4 nei pressi di Berkeley, in California, pochi secondi dopo l'origine terremoto. L'evento è stato rilevato 5-7 secondi prima che il picco delle onde trasversali raggiungesse la Stanford University, dove si trovano i server QCN.
Il software è stato aggiornato alla versione 3.24. L'aggiornamento include il supporto per la simmetria nel protocollo ibrido nella modellazione comparativa. Fateci sapere se incontrate qualche problema.
Il team di Rosetta@Home annuncia l'aggiornamento del programma di elaborazione alla versione 3.24 dalla precedente versione 3.22. La nuova versione supporta la simmetria nei protocolli ibridi utilizzati nei modelli comparativi. Nel caso vengano riscontrati dei problemi, il team risponde a questo indirizzo.
MindModeling@home è un progetto di ricerca che sfrutta il calcolo volontario per l'avanzamento della scienza cognitiva. La ricerca si focalizza sulla modellazione del processo cognitivo computazionale per meglio capire la mente umana. Hanno bisogno del nostro aiuto per incrementare le basi scientifiche che spiegano i meccanismi ed i processi che permettono e moderano le prestazioni umane e l'apprendimento. MindModeling@home è un progetto non-profit ed è basato a Dayton, OHIO, all'Università del Dayton Research Institute e alla Wright State University.