La mia posizione riguardo al supportare i progetti la conoscete, per me l'importante è che il progetto sia serio e ci sia dietro gente seria e competente e con forza di volontà.
Poi lo scopo del progetto e il valutare se è "utile" o meno lo si lascia al singolo utente, che, dopo aver letto tutto, deciderà se macinarci sopra oppure no.
Tanto dopo Predictor, è inutile fare come Campos che vai coi "piedi di piombo"...cosa c'è da andare lenti? I progetti sono quelli, finchè si dimostrano seri ok, se poi per qualsiasi motivo perdono la serietà che avevano, li si scarica
Anche Predictor sembrava serio, finchè ha scelto di uccidere la community
(e la serietà la valuto analizzando la comunicazione dello staff del progetto coi volontari, l'effettivo lavoro svolto, eventuali pubblicazioni, news varie su tutto ciò che succede e la decenza dell'applicazione (un'applicazione che mi crasha una WU su 2...ehm...))
baxnimis ha scritto:
canapa ha scritto:
Non ho gran capito su come si baserebbe la formula per i nuovi crediti.
A grandi linee:
1) il progetto calcola i FLOPS generati dall'applicazione (non ci si basa più sui benchmark ma BOINC fornisce i mezzi per farlo, le API, o fa delle sue valutazioni medie)
2) BOINC gestisce un database con i FLOPS massimi generabili dalle CPU o dalle GPU
3) nasce il concetto di EFFICIENZA = FLOPS prodotti / FLOPS max
4) BOINC stabilisce i crediti per una configurazione base (cioè FLOPS prodotti ed efficienza)
5) il compenso base andrà moltiplicato per un K legato appunto alla efficienza media ma anche ad altri valori
L'efficienza delle applicazioni per GPU è inferiore a quella per applicazioni per CPU quindi si avrà ancora una produttività superiore ma il moltiplicatore sarà inferiore. Il risultato sarà una diminuzione dei crediti per GPU (in rapporto a quelli per CPU)
Ma il risultato sarà anche, si spera, una rivalutazione in positivo di alcuni progetti che pagano davvero poco.... ma non è detto.... e se le loro applicazioni sono inefficienti ?
Non è stato introdotto il concetto, ne mai lo sarà probabilmente, di validità del progetto nemmeno in base a parametri misurabili quali il numero di pubblicazioni che invece nel mondo accademico è ampiamente utilizzato.
Ma che emerita
BOIATA
Efficienza, inefficienza, che è sta storia di diminuire i crediti?
Una CPU fa lavoro, una GPU fa lavoro, se la GPU in una unità di tempo fa X volte le WU di una CPU, DEVE ricevere X volte i crediti che riceve la CPU, indipendentemente da tutto il resto, altrimenti è una BOIATA assurda e totale!
FLOPS massimi minimi, di picco, di piccone, di scalata... efficienza... ma che motivo c'è di andarsi a impegolare in sto schifo? Apparte far contento Mr. Anderson e il suo SETI...
Quale metodo migliore per valutare il lavoro se non quello di vedere quante WU si macinano? È così semplice! Milkyway e Collatz hanno le STESSE e identiche WU per la CPU e la GPU, ricevono tot crediti ciascuna, bene, le si MACINANO e si ottengono i crediti.
Che è in fondo lo scopo di BOINC, FARE SCIENZA
Adesso alè mi immagino il divertimento
Qualcuno con le Nvidia ha rosikato su Milky e Collatz perchè sono più scarse però "eh ma la tua ATI dichiara tanti FLOPS di picco ma è meno efficiente, con questo metodo vedi che ti supero!!!!"??