mboost-dp1
Oversigt over tidforbrug for de enkelte projekter over cpu/gpu m.m.?
- Forside
- ⟨
- Forum
- ⟨
- Folding@Home
Kan huske da jeg i "gamle dage" bare skrev mit protein ind, og fik op til adskellige resultater for hvor lang tid andre havde brugt på proteinet, med en given cpu.
MEN!
Eksistere sådan noget overhoved samlet mere?
Findes der nogle test sites der har folding@home som en del af deres benchmark suites på cpu'er/gpuer ?
Med hensyn til "avrage" stats pr cpu/gpu, kunne det da være interesant at se hvor hver sin type cpu har sine fordele - eller gpu for den sags skyld.
Sider pt med en: p2124 Lambda 5way melts på ret mange af mine maskiner.. Kan vitterlig ikke lide dem. Tager 94 timer ved single cpu core tildelt. En google søgning siger at andre har samme problemmer - Men mangler en samlet database hvor man kunne samligne med *ALLE* cpuer :)
PS: Ved self. der findes en http://fah-web.stanford.edu/psummary.html side til lidt resultater over nuværene projekter, men deres deadlines og pointgivning ej jo langt fra præcise nok til at kunne bruge som "resultat".
PSS: De test må gerne teste cpuerne/gpuerne i de forskellige "cores", så som tinker, gromacs, gromacs33 osv osv. så man kunne præcist se hvor de forskellige cpuer/gpuer var bedst.
MEN!
Eksistere sådan noget overhoved samlet mere?
Findes der nogle test sites der har folding@home som en del af deres benchmark suites på cpu'er/gpuer ?
Med hensyn til "avrage" stats pr cpu/gpu, kunne det da være interesant at se hvor hver sin type cpu har sine fordele - eller gpu for den sags skyld.
Sider pt med en: p2124 Lambda 5way melts på ret mange af mine maskiner.. Kan vitterlig ikke lide dem. Tager 94 timer ved single cpu core tildelt. En google søgning siger at andre har samme problemmer - Men mangler en samlet database hvor man kunne samligne med *ALLE* cpuer :)
PS: Ved self. der findes en http://fah-web.stanford.edu/psummary.html side til lidt resultater over nuværene projekter, men deres deadlines og pointgivning ej jo langt fra præcise nok til at kunne bruge som "resultat".
PSS: De test må gerne teste cpuerne/gpuerne i de forskellige "cores", så som tinker, gromacs, gromacs33 osv osv. så man kunne præcist se hvor de forskellige cpuer/gpuer var bedst.
Hey Sattie.
Synes også det kunne være interessant med noget sådant. Har selv ledt efter noget, men har ikke kunnet finde noget.
Mht. p2124 projektet. Jeg mener at jeg på min core 2 duo (overclocked 3,6GHz) laver sådan et projekt på ca. 30-36 timer, men kan ikke huske det præcist - og det er jo bare på den ene core - så den cpu kan lave to af dem på omkring 30-36 timer, hvilket jo er ret langsomt for mig, da jeg ved andre projekter kan lave 1200 point pr. dag med den cpu. Skal nok tjekke det næste gang - hvor lang tid det tager præcist.
Jeg har tidligere snakket om at udvikle et program til statistik for hver enkelt cpu - se tråden her: http://newz.dk/forum/item/67653/
Jeg går udfra at det er noget sådant du søger. :) Spørgsmålet er bare hvor mange vi kan få til at benytte et sådant program / webservice. Vi skal jo have en masse forskellige cpu'er på systemet før vi kan se hvor effektive de forskellige er. Gider nemlig ikke til at udvikle noget vildt hvis ingen vil bruge det alligevel.
PS. Synes du er faldet en hel del i produktion hen over juleferien - håber det kommer op at køre for vildt igen - jeg var en overgang nr. 1 på holdet (edit: hov stadigvæk). :) Vil jeg nu helst ikke være hehe - det gælder jo om at få så mange point som muligt til holdet. :D
Synes også det kunne være interessant med noget sådant. Har selv ledt efter noget, men har ikke kunnet finde noget.
Mht. p2124 projektet. Jeg mener at jeg på min core 2 duo (overclocked 3,6GHz) laver sådan et projekt på ca. 30-36 timer, men kan ikke huske det præcist - og det er jo bare på den ene core - så den cpu kan lave to af dem på omkring 30-36 timer, hvilket jo er ret langsomt for mig, da jeg ved andre projekter kan lave 1200 point pr. dag med den cpu. Skal nok tjekke det næste gang - hvor lang tid det tager præcist.
Jeg har tidligere snakket om at udvikle et program til statistik for hver enkelt cpu - se tråden her: http://newz.dk/forum/item/67653/
Jeg går udfra at det er noget sådant du søger. :) Spørgsmålet er bare hvor mange vi kan få til at benytte et sådant program / webservice. Vi skal jo have en masse forskellige cpu'er på systemet før vi kan se hvor effektive de forskellige er. Gider nemlig ikke til at udvikle noget vildt hvis ingen vil bruge det alligevel.
PS. Synes du er faldet en hel del i produktion hen over juleferien - håber det kommer op at køre for vildt igen - jeg var en overgang nr. 1 på holdet (edit: hov stadigvæk). :) Vil jeg nu helst ikke være hehe - det gælder jo om at få så mange point som muligt til holdet. :D
Har lige fået sådan en p2124 her på arbejdet på en p4 3,2 GHz - det tager 3 dage og 18 timer eller 66 timer. Enig - hader dette projekt. En latterlig mængde point for så mange dages arbejde. Øv! Sur røv!
Nogen der har en måde hvorpå man kan få de projekter man vil have? Ville jo sådan set også være en fordel for folding@home at vide hvilke cores de skal sende ud til bestemte cpu'er så det er mest effektivt.
Nogen der har en måde hvorpå man kan få de projekter man vil have? Ville jo sådan set også være en fordel for folding@home at vide hvilke cores de skal sende ud til bestemte cpu'er så det er mest effektivt.
De fleste af "mine" maskiner, var jo desværre dem der kørte fra work af. Det store problem med folding@home når man har mange maskiner, er at man mangler noget mere effektiv logging over alle "klienterne" (læs maskiner). I starten blev bare alt fyret på, men efter hånden tabte de enkelte maskiner tråedende, eller blev formateret - Og det er sku ikke lige til at se hvilken en af de 500 maskiner, der kørte på et tidspunkt, der lige er slået/gået fra.
Kort sagt - Der mangler administrations muligheder!
Men du er da heldig med din hvis det kun tager 36 til 66 timer for dig med den p2124. Kan se at andre med eks conroe laver betydeligt lavere:
http://www.hardforum.com/showthread.php?t=1137319
"99 hours on my 2.66ghz C2D, 134 hours on my 3.2Ghz p4"
Det er absolut ikke en sød pakke man får der.
I gamle dage kunne man bestemme nogenlunde om man ville have tinker eller gromacs core, med nogle undtagelser dog. Hvis man valgte tidsløse pakker, fik man som hovedregl tinker units, hvor med normale fik man gromacs. Men det ser ikke ud til at der er flere af disse tinker units tilbage, og derfor er det meget sparsomt hvad man kan styre efterhånden.
Tilbage til mit hovedspørgsmål, så er GPU'erne så vidt jeg har set kun meget hurtige til gromacs (man får ikke at vide om det er alm gromacs, eller gromacs33), men hvor hurtige de er for de forskellige x13*0 x16*0 og x19*0 kort står der intet om nogen steder.
Ovenstående viser også hvor dejligt det kunne være nogle gange at se hvor hurtig ens cpu burde være på en pakke.
Conroe: Du får 36 timer ved 3.6ghz, hvor ham fra urlen kun får 99timer ved 2.66ghz, og en anden får 55timer ved 2.66ghz også.
P4: Du får 90 timer ved 3.2ghz, han får 134timer ved 3.2ghz.
AMD: Jeg får ca. 94 timer ved 2.2ghz, en fra url'en får 120 timer ved hans 2.0ghz, og en anden får 55 timer ved 2.2ghz, og en sidste får 65timer ved 2.4ghz
Det er alligevel nogle forskelle der vil noget...
Kort sagt - Der mangler administrations muligheder!
Men du er da heldig med din hvis det kun tager 36 til 66 timer for dig med den p2124. Kan se at andre med eks conroe laver betydeligt lavere:
http://www.hardforum.com/showthread.php?t=1137319
"99 hours on my 2.66ghz C2D, 134 hours on my 3.2Ghz p4"
Det er absolut ikke en sød pakke man får der.
I gamle dage kunne man bestemme nogenlunde om man ville have tinker eller gromacs core, med nogle undtagelser dog. Hvis man valgte tidsløse pakker, fik man som hovedregl tinker units, hvor med normale fik man gromacs. Men det ser ikke ud til at der er flere af disse tinker units tilbage, og derfor er det meget sparsomt hvad man kan styre efterhånden.
Tilbage til mit hovedspørgsmål, så er GPU'erne så vidt jeg har set kun meget hurtige til gromacs (man får ikke at vide om det er alm gromacs, eller gromacs33), men hvor hurtige de er for de forskellige x13*0 x16*0 og x19*0 kort står der intet om nogen steder.
Ovenstående viser også hvor dejligt det kunne være nogle gange at se hvor hurtig ens cpu burde være på en pakke.
Conroe: Du får 36 timer ved 3.6ghz, hvor ham fra urlen kun får 99timer ved 2.66ghz, og en anden får 55timer ved 2.66ghz også.
P4: Du får 90 timer ved 3.2ghz, han får 134timer ved 3.2ghz.
AMD: Jeg får ca. 94 timer ved 2.2ghz, en fra url'en får 120 timer ved hans 2.0ghz, og en anden får 55 timer ved 2.2ghz, og en sidste får 65timer ved 2.4ghz
Det er alligevel nogle forskelle der vil noget...
Det har du ret i. Ret forskelligt fra cpu til cpu! - skal dog nok komme med de nøjagtige tider senere.
Ja, det ville være lækkert at kunne styre mange computere centralt. Er jo klart et stort arbejde for dig hvis du ofte skal rundt og tjekke op imod 500 computere - det går jo ikke! :(
Det lyder til at du klart ville være interesseret i et program, der måler forskellige ting og sager på hver enkelt cpu, så vi kan få kortlagt hvor effektive de enkelte maskiner er på de forskellige projekter. Så det kan da være at man skulle lave en kravliste til et sådant program, så jeg kan undersøge muligheden for at udvikle det. Ville jo være cool hvis det så bliver lavet og vi kunne få mange til at bruge det - ikke kun os fra newz.dk holdet. :)
Håber du får mulighed for at sætte gang i lidt flere maskiner. Klart at dine point ofte vil komme i klumper når der nogle gang er 94 timer imellem der fås point. :-/
Forresten - er det ikke bedre på mindre cpu'er at fravælge Big Work Units ? Går udfra at de små er bedre til små projekter. Men det er måske lige meget hvis de alligevel står og kører og har nok ram. Er jo også det vi skal finde ud af - er jo det hele problematikken handler om - vi ved ikke hvilke projekter der passer til de forskellige cpu'er.
Har du tjekket forummer rundt omkring - der må være andre der har de samme problemer. :-/
Ja, det ville være lækkert at kunne styre mange computere centralt. Er jo klart et stort arbejde for dig hvis du ofte skal rundt og tjekke op imod 500 computere - det går jo ikke! :(
Det lyder til at du klart ville være interesseret i et program, der måler forskellige ting og sager på hver enkelt cpu, så vi kan få kortlagt hvor effektive de enkelte maskiner er på de forskellige projekter. Så det kan da være at man skulle lave en kravliste til et sådant program, så jeg kan undersøge muligheden for at udvikle det. Ville jo være cool hvis det så bliver lavet og vi kunne få mange til at bruge det - ikke kun os fra newz.dk holdet. :)
Håber du får mulighed for at sætte gang i lidt flere maskiner. Klart at dine point ofte vil komme i klumper når der nogle gang er 94 timer imellem der fås point. :-/
Forresten - er det ikke bedre på mindre cpu'er at fravælge Big Work Units ? Går udfra at de små er bedre til små projekter. Men det er måske lige meget hvis de alligevel står og kører og har nok ram. Er jo også det vi skal finde ud af - er jo det hele problematikken handler om - vi ved ikke hvilke projekter der passer til de forskellige cpu'er.
Har du tjekket forummer rundt omkring - der må være andre der har de samme problemer. :-/
De 500 maskiner var vist vist alle p4 1.8ghz, eller p3 1.0ghz.
Da jeg havde tid til at gå rundt og tjekke dem alle, var p3'erne klart bedst til de små pakker, hvor p4 var bedst til de store pakker (big work units). Det havde reelt ikke noget med hvor meget ram de enkelte maskiner, men mere med hvilken former for work units de blev tildelt (grr havde skuda glemt at tjekke hvilken der fik hvilken, nu jeg er inde på det..).
Anyway som skrevet, så er det små maskiner, så selv om mange bække små giver en stor å, så er p2124 direkte modbydelig mod små maskiner (over 250timer for den 1.8ghz p4, jeg tør slet ikke tjekke p3'erne!). Desuden så havde maskinerne også det med at lukke programmet ned, hvor man så lige mister alt data (2000 frames ved p2124, før at den gemmer dem - og når sådan noget kan tage over 8 timer på en p3.. tja så er det faktisk spild af resourcer! :(.
Ovenstående har som sagt bevist hvor forskelligt til sydenlandende ens systemer performer helt forskelligt, også selv om jeg har konstateret at det ikke er ting som Ram eller hd der gør nogen forskel - det er kun cpu'en (+fsb+cache).
Det mest interesante i denne gpu' tid, er dog at se hvordan de klarer sig i hvert ting. Deres stats er ihvertfald imponerende:
GPU: 0.058501 Gigaflop pr gpu i gennemsnit.
CPU: 0.00095 Gigaflop pr cpu i gennemsnit. (windows)
Det er så lige 62gange mere performance man får ved gpu foldning. Det virker ret vildt - Men igen, ved hva gpu?
Da jeg havde tid til at gå rundt og tjekke dem alle, var p3'erne klart bedst til de små pakker, hvor p4 var bedst til de store pakker (big work units). Det havde reelt ikke noget med hvor meget ram de enkelte maskiner, men mere med hvilken former for work units de blev tildelt (grr havde skuda glemt at tjekke hvilken der fik hvilken, nu jeg er inde på det..).
Anyway som skrevet, så er det små maskiner, så selv om mange bække små giver en stor å, så er p2124 direkte modbydelig mod små maskiner (over 250timer for den 1.8ghz p4, jeg tør slet ikke tjekke p3'erne!). Desuden så havde maskinerne også det med at lukke programmet ned, hvor man så lige mister alt data (2000 frames ved p2124, før at den gemmer dem - og når sådan noget kan tage over 8 timer på en p3.. tja så er det faktisk spild af resourcer! :(.
Ovenstående har som sagt bevist hvor forskelligt til sydenlandende ens systemer performer helt forskelligt, også selv om jeg har konstateret at det ikke er ting som Ram eller hd der gør nogen forskel - det er kun cpu'en (+fsb+cache).
Det mest interesante i denne gpu' tid, er dog at se hvordan de klarer sig i hvert ting. Deres stats er ihvertfald imponerende:
GPU: 0.058501 Gigaflop pr gpu i gennemsnit.
CPU: 0.00095 Gigaflop pr cpu i gennemsnit. (windows)
Det er så lige 62gange mere performance man får ved gpu foldning. Det virker ret vildt - Men igen, ved hva gpu?
Ja, det er vildt at alle dine maskiner bliver "slagtet" af den skide p2124. :(
Jeg bander også og svovler hver gang min core 2 duo får en ond work unit. Rigtigt træls, da den jo ved det bedste work units er op til 3 gange mere effektiv pointmæssigt.
Jeg har desværre ikke noget ATI kort til at teste folding med gpu, men håber snart der kommer noget support for nvidia grafikkort - men var det kun det nye 8800 der ville bliver supporteret? Har nemlig et 7900GT, der sikkert ville være helt udmærket til gpu folding hvis det blev supporteret.
Jeg bander også og svovler hver gang min core 2 duo får en ond work unit. Rigtigt træls, da den jo ved det bedste work units er op til 3 gange mere effektiv pointmæssigt.
Jeg har desværre ikke noget ATI kort til at teste folding med gpu, men håber snart der kommer noget support for nvidia grafikkort - men var det kun det nye 8800 der ville bliver supporteret? Har nemlig et 7900GT, der sikkert ville være helt udmærket til gpu folding hvis det blev supporteret.
Så vidt jeg læste fra diverse sider var det kun ATI gpuer de ville udviklse software til lige i øjeblikket - Kun nvidia når flere havde vist interessen.
Ville nu stadig gerne se en benchmark af folding@home af en r520 r580 og den opkommende r600... men jeg drømmer nok bare :x
Ville nu stadig gerne se en benchmark af folding@home af en r520 r580 og den opkommende r600... men jeg drømmer nok bare :x
Hehe - Har læst at nvidia er i fuld gang med i samarbejde med stanford at udvikle en folding klient til deres grafikkort - mere bare at det kun var til deres dx10 grafikkort, så kun 8800 serien pt.
Har lige læst lidt om Electron Microscope III programmet der er en monitor til folding klienter. Det lyder til at det kan holde øje med flere klienter på samme tid. Se her http://home.comcast.net/~wxdude1/emsite/em3.html
Der står eksempelvis:
Can track up to 50 (Win 95/98/ME) or 100 (Win NT/2K/XP) local/remote clients.
Jeg bruger selv FahMon til monitoring på min core 2 duo. Fint lille program. Jeg går udfra at hvis du har delt folding mappen på en remote computer på netværket, så kan du tilgå den og tilføje klienten i fahmon så du kan se hvad klienten pt. arbejder på.
Er det noget du har leget med? Men det kræver jo selvfølgelig at du har adgang til alle computerne.
Har lige læst lidt om Electron Microscope III programmet der er en monitor til folding klienter. Det lyder til at det kan holde øje med flere klienter på samme tid. Se her http://home.comcast.net/~wxdude1/emsite/em3.html
Der står eksempelvis:
Can track up to 50 (Win 95/98/ME) or 100 (Win NT/2K/XP) local/remote clients.
Jeg bruger selv FahMon til monitoring på min core 2 duo. Fint lille program. Jeg går udfra at hvis du har delt folding mappen på en remote computer på netværket, så kan du tilgå den og tilføje klienten i fahmon så du kan se hvad klienten pt. arbejder på.
Er det noget du har leget med? Men det kræver jo selvfølgelig at du har adgang til alle computerne.
Hehe - tjek lige ham her. Han folder da en lille smule. :-/
http://folding.extremeoverclocking.com/user_summar...
http://vspx27.stanford.edu/cgi-bin/main.py?qtype=u...
Ret mange computere, der kører. Nice med 162,896 point pr. dag. Må være nogle heftige computere han folder med! Sygt!
http://folding.extremeoverclocking.com/user_summar...
http://vspx27.stanford.edu/cgi-bin/main.py?qtype=u...
Ret mange computere, der kører. Nice med 162,896 point pr. dag. Må være nogle heftige computere han folder med! Sygt!
Jow Jow, han har da absolut fart på, uden tvivl.
Han har næsten lige så mange computere på som da jeg kørte på mit højeste (hans er dog nok nogle størrer end mine :p).
Men ontopic, så kunne det være relvant at vide hvad sådan et gfx bruger i 13*0, 16*0, 19*0 og ikke mindst r600 udgaverne i strøm forbrug.
En normal cpu (læs ikke p4) bruger ca. 30-80watt ekstra i full load, og levere (ifølge ovenstående posts) ca. 0.00095 Gigaflop.
Hvis vi tager maks for cpuen, dvs 80watt (amd FX model, ca 10watt i idle med speedstep tingesten, og ca. 90watt i full) ekstra for full load.
Lad os antage at den laver det gennemsnitlige 0.001 gigaflop, for nemhedens skyld. Dette giver ca. 0.000013 gigaflop pr watt.
Hvis vi nu sammenligner med et gfx, som hvad jeg ca. har erfaret, bruger omtrent 30-120watt i full load (igen bruges maks load - Ved ikke om et gfx bruger full load ved gfx, men det antages her). Dette giver næsten 0.00049 gigaflop pr watt.
Et slag på tærsklen er derfor at man får ikke mindre end ca 37½ gange så meget performance pr watt ved gpu foldning.
Ovenstående indslag er lavet udelukkende ud fra et performance pr watt synspunkt.. Strøm er fandme dyrt i Danmark - Tror vi er tæt på de de 2.2kr pr kilowatt snart. Med overstående eksempler, havner man altså på:
CPU: (80watt ekstra antaget) - 0.17kr pr time.
GPU: (120watt ekstra antaget) - 0.26kr pr time.
Konklusionen er altså klart ud fra et strømhensyn. Selvom det er dyrest med en gpu kørende i strøm forbrug, så performer den klart bedst til kilowatt prisen.
Men igen, mangler data, så alt overstående er mere eller mindre tankespind :(
PS: Kender en canadier, som betalre ca. 4øre pr kilowatt - Men okay det er jo sikkert også atom drevet osv. Men aligevel en fandens til forskel fra Danmark.
PSS: Heldigvis er ovenstående cpuer ikke altid så sindsyg strømslugende i full brug. Min bruger eks kun ca 32watt ekstra i full, og så kommer regnstykket jo til at se lidt mere nuanceret ud.
Han har næsten lige så mange computere på som da jeg kørte på mit højeste (hans er dog nok nogle størrer end mine :p).
Men ontopic, så kunne det være relvant at vide hvad sådan et gfx bruger i 13*0, 16*0, 19*0 og ikke mindst r600 udgaverne i strøm forbrug.
En normal cpu (læs ikke p4) bruger ca. 30-80watt ekstra i full load, og levere (ifølge ovenstående posts) ca. 0.00095 Gigaflop.
Hvis vi tager maks for cpuen, dvs 80watt (amd FX model, ca 10watt i idle med speedstep tingesten, og ca. 90watt i full) ekstra for full load.
Lad os antage at den laver det gennemsnitlige 0.001 gigaflop, for nemhedens skyld. Dette giver ca. 0.000013 gigaflop pr watt.
Hvis vi nu sammenligner med et gfx, som hvad jeg ca. har erfaret, bruger omtrent 30-120watt i full load (igen bruges maks load - Ved ikke om et gfx bruger full load ved gfx, men det antages her). Dette giver næsten 0.00049 gigaflop pr watt.
Et slag på tærsklen er derfor at man får ikke mindre end ca 37½ gange så meget performance pr watt ved gpu foldning.
Ovenstående indslag er lavet udelukkende ud fra et performance pr watt synspunkt.. Strøm er fandme dyrt i Danmark - Tror vi er tæt på de de 2.2kr pr kilowatt snart. Med overstående eksempler, havner man altså på:
CPU: (80watt ekstra antaget) - 0.17kr pr time.
GPU: (120watt ekstra antaget) - 0.26kr pr time.
Konklusionen er altså klart ud fra et strømhensyn. Selvom det er dyrest med en gpu kørende i strøm forbrug, så performer den klart bedst til kilowatt prisen.
Men igen, mangler data, så alt overstående er mere eller mindre tankespind :(
PS: Kender en canadier, som betalre ca. 4øre pr kilowatt - Men okay det er jo sikkert også atom drevet osv. Men aligevel en fandens til forskel fra Danmark.
PSS: Heldigvis er ovenstående cpuer ikke altid så sindsyg strømslugende i full brug. Min bruger eks kun ca 32watt ekstra i full, og så kommer regnstykket jo til at se lidt mere nuanceret ud.
Ja, ingen tvivl om at gpu er langt mere effektivt. :)
Ja, du har ret mht. at det er alt for dyrt for strøm i Danmark, men mener da også at over 80% af prisen er afgifter og skatter. Hmm. Mon ikke jeg bruger omkring 3,6 kW pr. døgn på min computer - ud fra de 2,2kr. pr. kW er det så 7,92kr. pr. dag, 240,9kr. pr. måned eller 2890,8kr pr. år. Er da en hel del, da jeg i Island nok ville kunne få det til 1/10 af prisen.
En hel del billigere i Canada må man sige. Hehe. Nu er jeg fra Island og jeg troede at kW prisen dér skulle være endnu billigere end i Canada, ja billigst i verden stort set, men det er den ikke hvis det er 4 øre i Canada - lyder vidst for godt til at være sandt. Mener at prisen i Island er omkring 25 øre pr. kW. Måske jeg skulle få sat en computer op dér med grafikkort i. Hehe. :D Men sandt at Canada både har masser af vandkraft og atomkraft.
Ser frem til at høre mere om folding på gpu fronten. Det bliver lækkert når nvidia kommer med! :D
Ja, du har ret mht. at det er alt for dyrt for strøm i Danmark, men mener da også at over 80% af prisen er afgifter og skatter. Hmm. Mon ikke jeg bruger omkring 3,6 kW pr. døgn på min computer - ud fra de 2,2kr. pr. kW er det så 7,92kr. pr. dag, 240,9kr. pr. måned eller 2890,8kr pr. år. Er da en hel del, da jeg i Island nok ville kunne få det til 1/10 af prisen.
En hel del billigere i Canada må man sige. Hehe. Nu er jeg fra Island og jeg troede at kW prisen dér skulle være endnu billigere end i Canada, ja billigst i verden stort set, men det er den ikke hvis det er 4 øre i Canada - lyder vidst for godt til at være sandt. Mener at prisen i Island er omkring 25 øre pr. kW. Måske jeg skulle få sat en computer op dér med grafikkort i. Hehe. :D Men sandt at Canada både har masser af vandkraft og atomkraft.
Ser frem til at høre mere om folding på gpu fronten. Det bliver lækkert når nvidia kommer med! :D
Har fået et projekt, der er rigtig godt på min Core 2 Duo. Det er projekt 1495, der giver 364 point. Det tager 11 timer og 30 minutter at fuldføre, hvilket giver 1519 point pr. døgn ca. hvis jeg ikke får andet og de kører på begge cpu kerner. Sygeligt nice! :D
Snyd! :p
Jeg får kun mine elskelige p2124 :(
HADER DEM! :(
Gad vide om man kan omregne gigaflops til point? :)
Jeg får kun mine elskelige p2124 :(
HADER DEM! :(
Gad vide om man kan omregne gigaflops til point? :)
Jeg må så ærlig indrømme at jeg kun folder på en af mine cores, eller rettere med en klient.
Min AMD cpu er lidt underlig hvad det angår, den bruger ikke 100% cpu på Én Core, men derimod 50/50% på hver core. Dette gør at den kan køre med en voltrate på 1.12volt, vs 1.05volt i idle, og 1.3(?)volt i full. Man skal jo være lidt økonomisk :)
Min AMD cpu er lidt underlig hvad det angår, den bruger ikke 100% cpu på Én Core, men derimod 50/50% på hver core. Dette gør at den kan køre med en voltrate på 1.12volt, vs 1.05volt i idle, og 1.3(?)volt i full. Man skal jo være lidt økonomisk :)
50%/50% er også 100% i alt, så begge cores kører max. Det vises sådan. Så når der står 50% og 50% er det altså 100% på hver core. Med mindre der står 25% / 25%, der er lig med 50% på hver core. :)
Ja, jeg kører så med 1.525 volt hvis jeg husker rigtigt, bliver jeg desværre nødt til når jeg overclocker lortet 50%.
Ja, jeg kører så med 1.525 volt hvis jeg husker rigtigt, bliver jeg desværre nødt til når jeg overclocker lortet 50%.
Har lige fået to nye projekter her samtidigt, da der var problemer med at uploade de to forrige, der skulle afleveres.
Der er stor forskel i hvor lang tid de tager selvom de giver næsten samme mængde point desværre. :( Mega irriterende. Især da det ene projekt er endnu bedre end føromtalte projekt 1495.
Disse er:
Projekt 1499 (364 point) - tager 7 timer og 10 min. (2437 point pr. dag hvis det kører på begge cores!)
Projekt 2126 (373 point) - tager 41 timer og 20 min. (433 point pr. dag hvis det kører på begge cores!)
Sygt at forskellen er omkring faktor 6 i point pr. dag. Og rigtigt træls når man får 4 af disse sataner i træk!
Det er jo forrykt! :'-(
Der er stor forskel i hvor lang tid de tager selvom de giver næsten samme mængde point desværre. :( Mega irriterende. Især da det ene projekt er endnu bedre end føromtalte projekt 1495.
Disse er:
Projekt 1499 (364 point) - tager 7 timer og 10 min. (2437 point pr. dag hvis det kører på begge cores!)
Projekt 2126 (373 point) - tager 41 timer og 20 min. (433 point pr. dag hvis det kører på begge cores!)
Sygt at forskellen er omkring faktor 6 i point pr. dag. Og rigtigt træls når man får 4 af disse sataner i træk!
Det er jo forrykt! :'-(
Nej nej. Det er skam kun 50/50%
Jeg kan jo måle det på hver enkelts core voltage, og den får vitterlig mindre spænding pr core, end ved en full load. Det passer tilmed at begge core's får præcist den samme.
Det kan dog godt være den laver et eller andet smart med at have core1 100% -> core2 0% -->> core1 0% -> core2 100%, og at dens derfor svingende 0/1 state med at være 100% bliver vist som 50%. Dette ændre dog ikke ved at voltage for cpuen ikke liiger som ved 100%, men somon den får strøm ved 50%.
Den er foresten SLET ikke overclocket :>
har prøvet at underclocke den i volt spænding, men det måes jeg ikke for mit bundkort - desværre. Kunne være "sejt" hvis jeg kunne få den ned på en 35watts cpu udgave i idle og full load!
--
17> du må nu stadig gerne få mine 2124 pakker, intet slår den lave ppd som jeg laver med dem :c
Jeg kan jo måle det på hver enkelts core voltage, og den får vitterlig mindre spænding pr core, end ved en full load. Det passer tilmed at begge core's får præcist den samme.
Det kan dog godt være den laver et eller andet smart med at have core1 100% -> core2 0% -->> core1 0% -> core2 100%, og at dens derfor svingende 0/1 state med at være 100% bliver vist som 50%. Dette ændre dog ikke ved at voltage for cpuen ikke liiger som ved 100%, men somon den får strøm ved 50%.
Den er foresten SLET ikke overclocket :>
har prøvet at underclocke den i volt spænding, men det måes jeg ikke for mit bundkort - desværre. Kunne være "sejt" hvis jeg kunne få den ned på en 35watts cpu udgave i idle og full load!
--
17> du må nu stadig gerne få mine 2124 pakker, intet slår den lave ppd som jeg laver med dem :c
På den måde. Øv. Træls du ikke kan give den mindre volt. Kan jeg sagtens med min ved stock clock speed.
Tror det for mig giver ca. det samme - de er begge onde. Vil lige se om jeg kan finde en 2124 i loggen og se hvor lang tid det tager. :)
Tror det for mig giver ca. det samme - de er begge onde. Vil lige se om jeg kan finde en 2124 i loggen og se hvor lang tid det tager. :)
2124 tager sgu alligevel 40 timer og 12 minutter på den ene core! Mente bare det var lavere. Er dog stadig hurtigere end 2126 og den giver lidt flere point. :) så for mig vil jeg hellere have 2126. :P
[20:12:02] Completed 20000000 out of 20000000 steps (100)
[20:12:02] Writing final coordinates.
[20:12:02] Past main M.D. loop
[20:13:02]
[20:13:02] Finished Work Unit:
[20:13:02] - Reading up to 30312 from "work/wudata_01.arc": Read 30312
[20:13:02] - Reading up to 981996 from "work/wudata_01.xtc": Read 981996
[20:13:02] goefile size: 0
[20:13:02] logfile size: 141986
[20:13:02] Leaving Run
[20:13:02] - Writing 1282662 bytes of core data to disk...
[20:13:03] Done: 1282150 -> 1087313 (compressed to 84.8 percent)
[20:13:03] ... Done.
[20:13:03] - Shutting down core
[20:13:03]
[20:13:03] Folding@home Core Shutdown: FINISHED_UNIT
[20:13:07] CoreStatus = 64 (100)
[20:13:07] Sending work to server
[20:13:07] + Attempting to send results
[20:13:17] + Results successfully sent
[20:13:17] Thank you for your contribution to Folding@Home.
[20:13:17] + Starting local stats count at 1
[20:13:22] - Preparing to get new work unit...
[20:13:22] + Attempting to get work packet
[20:13:22] - Connecting to assignment server
[20:13:25] - Successful: assigned to (171.64.122.133).
[20:13:25] + News From Folding@Home: Welcome to Folding@Home
[20:13:26] Loaded queue successfully.
[20:13:26] + Could not connect to Work Server
Hvor jeg dog elsker når deres servere er nede...
Også ovenstående der gør at mit flow reelt ligger skod langt nede. Det kan godt tage et par dage før sådan en server kommer op igen, og i mellemtiden sider de bare or laver nada.
Så kære folding@home skaber:
Lav noget nemmere administration, hvor man evt kan remote styre klienterne, uden at gå ud til dem.. (jaja eller vnc.. men det stinker jo)
[20:12:02] Writing final coordinates.
[20:12:02] Past main M.D. loop
[20:13:02]
[20:13:02] Finished Work Unit:
[20:13:02] - Reading up to 30312 from "work/wudata_01.arc": Read 30312
[20:13:02] - Reading up to 981996 from "work/wudata_01.xtc": Read 981996
[20:13:02] goefile size: 0
[20:13:02] logfile size: 141986
[20:13:02] Leaving Run
[20:13:02] - Writing 1282662 bytes of core data to disk...
[20:13:03] Done: 1282150 -> 1087313 (compressed to 84.8 percent)
[20:13:03] ... Done.
[20:13:03] - Shutting down core
[20:13:03]
[20:13:03] Folding@home Core Shutdown: FINISHED_UNIT
[20:13:07] CoreStatus = 64 (100)
[20:13:07] Sending work to server
[20:13:07] + Attempting to send results
[20:13:17] + Results successfully sent
[20:13:17] Thank you for your contribution to Folding@Home.
[20:13:17] + Starting local stats count at 1
[20:13:22] - Preparing to get new work unit...
[20:13:22] + Attempting to get work packet
[20:13:22] - Connecting to assignment server
[20:13:25] - Successful: assigned to (171.64.122.133).
[20:13:25] + News From Folding@Home: Welcome to Folding@Home
[20:13:26] Loaded queue successfully.
[20:13:26] + Could not connect to Work Server
Hvor jeg dog elsker når deres servere er nede...
Også ovenstående der gør at mit flow reelt ligger skod langt nede. Det kan godt tage et par dage før sådan en server kommer op igen, og i mellemtiden sider de bare or laver nada.
Så kære folding@home skaber:
Lav noget nemmere administration, hvor man evt kan remote styre klienterne, uden at gå ud til dem.. (jaja eller vnc.. men det stinker jo)
Kunne være lidt nice hvis man lavede en applikation, som aggerede som proxy for alle klienterne. Dette program skulle så stå for alt forbindelsen til folding@home serverne, og i bedste fald, have en lille cache af pakker, således at selvom deres server gik ned, havde den noget at give videre til klienterne.
På denne måde burde en overskeulig statestik side også være mulig at lave. Eks hvornår en klient sidst forbandt, hva pakke den fik - osv.
Hvis man så var lidt sej til kodning, og fik lov til at få pakker fra folding@home til cache brug, kunne man reelt sortere i pakkerne, i denne proxy applikation, således at man tildelte hver klient det bedste arbejde.
Hvis man så ville gøre ovenstående program lidt mere sej, kunne man lave en autoamtisk check, hvorpå klienterne hver time skulle give feedback på hvordan projetktet gik, og hvor meget de var nået. Dette ville muliggøre den form for administration jeg gerne så folding@home teamet lavede.
Men ser ikke ud til de vil tilgodese folk som mig... :(
På denne måde burde en overskeulig statestik side også være mulig at lave. Eks hvornår en klient sidst forbandt, hva pakke den fik - osv.
Hvis man så var lidt sej til kodning, og fik lov til at få pakker fra folding@home til cache brug, kunne man reelt sortere i pakkerne, i denne proxy applikation, således at man tildelte hver klient det bedste arbejde.
Hvis man så ville gøre ovenstående program lidt mere sej, kunne man lave en autoamtisk check, hvorpå klienterne hver time skulle give feedback på hvordan projetktet gik, og hvor meget de var nået. Dette ville muliggøre den form for administration jeg gerne så folding@home teamet lavede.
Men ser ikke ud til de vil tilgodese folk som mig... :(
Enig - det ville være rigtigt lækkert at have. Ikke fordi det er viiiildt krævende at lave sådan set. Tror bare de har mere travlt med at arbejde på deres gpu sager for tiden. Desværre.
Men det ville da være smart hvis du sendte en mail eller noget med ønskerne til de relevante personer i projektet. Mon ikke man kan finde en e-mailadresse til vijay pande?
Men det ville da være smart hvis du sendte en mail eller noget med ønskerne til de relevante personer i projektet. Mon ikke man kan finde en e-mailadresse til vijay pande?
#21. bare for at være høflig og svare dig.
Så nej. :x
Lad mig citere fra mit post nr #5:
"
I gamle dage kunne man bestemme nogenlunde om man ville have tinker eller gromacs core, med nogle undtagelser dog. Hvis man valgte tidsløse pakker, fik man som hovedregl tinker units, hvor med normale fik man gromacs. Men det ser ikke ud til at der er flere af disse tinker units tilbage, og derfor er det meget sparsomt hvad man kan styre efterhånden.
"
evt læs min ide i post 23, der laver jeg en måde hvorpå man reelt burde kun bestemme dem :>
Så nej. :x
Lad mig citere fra mit post nr #5:
"
I gamle dage kunne man bestemme nogenlunde om man ville have tinker eller gromacs core, med nogle undtagelser dog. Hvis man valgte tidsløse pakker, fik man som hovedregl tinker units, hvor med normale fik man gromacs. Men det ser ikke ud til at der er flere af disse tinker units tilbage, og derfor er det meget sparsomt hvad man kan styre efterhånden.
"
evt læs min ide i post 23, der laver jeg en måde hvorpå man reelt burde kun bestemme dem :>
#23 - Det fandtes faktisk i de gamle seti@home dage. Det var et 3. parts program som hed SetiQueue:
http://www.setiqueue.org/
Det kørte jeg på en lille 166mhz server, som så havde 100-200 pakker liggende, som den delte ud til 8-10 forskellige venner, som kørte seti@home.
Programmet havde blandt andet, nogle statistik lister, hvor man kunne se hvor mange pakker hver enkelt klient lavede pr. dag, og hvornår de sidste havde afleveret en pakke. (Alle pakker var 99% ens, så der sammenlignede man på antal pakker istedet for point).
Hvis en klient ikke havde afleveret en pakke i x antal dage, blev den highlighted så man kunne gå ud og kigge på den ene klient, og se hvad der var galt.
Men det var altså 3. parts programmer, så det kunne man selvfølgelig også bare lave til folding@home, hvis nogen havde evnerne til sådan en opgave.
Nu hvor seti@home er røget over på BOINC platformen, er administrationen af mange klienter blevet meget nemmere, fordi de eneste indstilling der ligger lokalt i klienterne er en mail-adresse, og resten af indstillingerne bliver hentet fra en server på baggrund af den mail-adresse. Indstillingerne laver man selvfølgelig selv, men de skal altså kun ændres et sted, og så får alle klienter automatisk de nye indstillinger.
#24 - Vijay Pande er ikke meget for at røbe hans mail-adresse:
http://forum.folding-community.org/profile.php?mod...
Han er derimod meget aktiv på deres forum, så hvis man bare skriver et indlæg til ham, så svarer han helt sikkert. Jeg har været på talefod med ham derinde tidligere:
http://forum.folding-community.org/viewtopic.php?t...
Mvh
Jace
http://www.setiqueue.org/
Det kørte jeg på en lille 166mhz server, som så havde 100-200 pakker liggende, som den delte ud til 8-10 forskellige venner, som kørte seti@home.
Programmet havde blandt andet, nogle statistik lister, hvor man kunne se hvor mange pakker hver enkelt klient lavede pr. dag, og hvornår de sidste havde afleveret en pakke. (Alle pakker var 99% ens, så der sammenlignede man på antal pakker istedet for point).
Hvis en klient ikke havde afleveret en pakke i x antal dage, blev den highlighted så man kunne gå ud og kigge på den ene klient, og se hvad der var galt.
Men det var altså 3. parts programmer, så det kunne man selvfølgelig også bare lave til folding@home, hvis nogen havde evnerne til sådan en opgave.
Nu hvor seti@home er røget over på BOINC platformen, er administrationen af mange klienter blevet meget nemmere, fordi de eneste indstilling der ligger lokalt i klienterne er en mail-adresse, og resten af indstillingerne bliver hentet fra en server på baggrund af den mail-adresse. Indstillingerne laver man selvfølgelig selv, men de skal altså kun ændres et sted, og så får alle klienter automatisk de nye indstillinger.
#24 - Vijay Pande er ikke meget for at røbe hans mail-adresse:
http://forum.folding-community.org/profile.php?mod...
Han er derimod meget aktiv på deres forum, så hvis man bare skriver et indlæg til ham, så svarer han helt sikkert. Jeg har været på talefod med ham derinde tidligere:
http://forum.folding-community.org/viewtopic.php?t...
Mvh
Jace
Nice Jace - Vi må ha gang i Pande, så det kan komme til at køre meget bedre! :D
Lækkert at se at du er kommet igang holmZ. Woohoo!
Lækkert at se at du er kommet igang holmZ. Woohoo!
#26
Selv under distributed.net havde man sådan noget samlet stats tool, til klienterne, så for mig er det meget underligt at man ikke har lavet noget af samme kaliber hos folding@home.
Jeg tror også i sidste ende at dette vil få folk til at blive længere i teams, idet der nu mer går en konkurrence ud over det.
Og igen.. Hvorfor det lige at folding.extreme.. et eller andet har klart bedre stats over klienter, end selve hovedserveren hos standford har?
Det må kunne laves! :)
Selv under distributed.net havde man sådan noget samlet stats tool, til klienterne, så for mig er det meget underligt at man ikke har lavet noget af samme kaliber hos folding@home.
Jeg tror også i sidste ende at dette vil få folk til at blive længere i teams, idet der nu mer går en konkurrence ud over det.
Og igen.. Hvorfor det lige at folding.extreme.. et eller andet har klart bedre stats over klienter, end selve hovedserveren hos standford har?
Det må kunne laves! :)
#30 Hehe - var du lige kommet hjem fra byen, da du skrev det. Lyder sjovt i hvert fald.
#29 Ja, det er ikke noget problem at lave sådan noget statistik som extreme overclocking har lavet. Har selv tænkt på at lave noget lignende bare med mange flere ting på, såsom statistik over hvor hurtig en bestemt cpu er til en given WU osv osv.
Men jo - sandt at det er mærkeligt at stanford ikke selv gør mere ud af det - men tror nu det er fordi de koncentrerer sig om udviklingen af nye klienter - gpu mv.
#29 Ja, det er ikke noget problem at lave sådan noget statistik som extreme overclocking har lavet. Har selv tænkt på at lave noget lignende bare med mange flere ting på, såsom statistik over hvor hurtig en bestemt cpu er til en given WU osv osv.
Men jo - sandt at det er mærkeligt at stanford ikke selv gør mere ud af det - men tror nu det er fordi de koncentrerer sig om udviklingen af nye klienter - gpu mv.
En lille ting der faktisk bekræfter min teori, om at det i teorien burde være muligt at klient assigne workunits, er i deres nyhedspost:
Citat:
"
12/15/2006 Assignment Server (AS) code update
We've been seing some serious misassigns with the AS code, so we have made some major changes. The upside is that it should not be possible (as far as we can tell) to get assigned to a server that the client can't run WU's from. This is important especially these days, as there are a large variety of types of clients, cores, ports, and each have certain limitations and restrictions.
In the past, when the AS got stuck, it would simply assign to the "default server," assuming that there would always be a server which could handle anything. In the old days of FAH, that was easy. Now, that's almost impossible. So, instead of just going with the default (and hoping for the best), the AS goes through a logical set of conditions and if it can't find a match, it assigns to 0.0.0.0, which means the client will just try again later.
So far, this is looking good, with one major drawback. Right now, we are very low on jobs that work with the v4 client. Due to some modifications in v5, certain calcualtions can only run in v5. V5 has been out for quite a while, so most of our science is based on v5-enabled functionality. Right now, v4 clients will likely get assigned to 0.0.0.0 as there is a dearth of v4 available WU's. We are working to see how we can fix this (and whether a few WUs can be made v4 compatible). But, in the mean time, if you are running v4 and are getting assigned to 0.0.0.0, the best and simplest thing to do is to upgrade your client ASAP.
"
De kan altså identificere klienterne pr software, så burde det også i teorien være muligt at assigne pr cpu type (som jo også sendes, der er jo lavet stats ud fra dem..).
Citat:
"
12/15/2006 Assignment Server (AS) code update
We've been seing some serious misassigns with the AS code, so we have made some major changes. The upside is that it should not be possible (as far as we can tell) to get assigned to a server that the client can't run WU's from. This is important especially these days, as there are a large variety of types of clients, cores, ports, and each have certain limitations and restrictions.
In the past, when the AS got stuck, it would simply assign to the "default server," assuming that there would always be a server which could handle anything. In the old days of FAH, that was easy. Now, that's almost impossible. So, instead of just going with the default (and hoping for the best), the AS goes through a logical set of conditions and if it can't find a match, it assigns to 0.0.0.0, which means the client will just try again later.
So far, this is looking good, with one major drawback. Right now, we are very low on jobs that work with the v4 client. Due to some modifications in v5, certain calcualtions can only run in v5. V5 has been out for quite a while, so most of our science is based on v5-enabled functionality. Right now, v4 clients will likely get assigned to 0.0.0.0 as there is a dearth of v4 available WU's. We are working to see how we can fix this (and whether a few WUs can be made v4 compatible). But, in the mean time, if you are running v4 and are getting assigned to 0.0.0.0, the best and simplest thing to do is to upgrade your client ASAP.
"
De kan altså identificere klienterne pr software, så burde det også i teorien være muligt at assigne pr cpu type (som jo også sendes, der er jo lavet stats ud fra dem..).
Du har helt ret Sattie, ingen tvivl om at de ville kunne udnytte det bedre.
Og ud fra det der står, er der ingen tvivl om at hvis man kører med version 4 så er det en meget god idé at opgradere til version 5 så man kan være sikker på at få WU og kunne aflevere dem igen. :)
Og ud fra det der står, er der ingen tvivl om at hvis man kører med version 4 så er det en meget god idé at opgradere til version 5 så man kan være sikker på at få WU og kunne aflevere dem igen. :)
Har i hvert fald set at der har været over 150 på, så der mangler en hel del!
Får kun de onde 2125 og 2124 units nu. Det er mega træls. Fik ellers én 800 point unit den anden dag som jeg ville kunne lave næsten 2 af om dagen på min core 2 duo. Hvorfor får jeg ikke altid dem? :P
Får kun de onde 2125 og 2124 units nu. Det er mega træls. Fik ellers én 800 point unit den anden dag som jeg ville kunne lave næsten 2 af om dagen på min core 2 duo. Hvorfor får jeg ikke altid dem? :P
#40 - Wow.. Er det fordi de er blevet re-installeret, at det mangler på alle dem?
Er du egentlig systemadmin på dit arbejde? Det kunne jo være fedt at bruge nLite til at lave en windows CD, hvor det var med i udrulningen. Altså hvor en folding klient automatisk blev installeret som service når man udruller windows på maskinerne...
Er du egentlig systemadmin på dit arbejde? Det kunne jo være fedt at bruge nLite til at lave en windows CD, hvor det var med i udrulningen. Altså hvor en folding klient automatisk blev installeret som service når man udruller windows på maskinerne...
#40
Mjaow, som skrevet tidligere er det jo ikke de store maskiner, men der er så mange af dem istedet. Problemet er at de får de monster pakke som skrevet her tidligere, og så kan de simpelthen ikke nå at blive færdige.
Der findes utallige grunde til at de ikke lige fungere 100%. Jo også derfor et stats tool ville være godt at have for mig, eftersom jeg så i det mindste kan se hvilken pc jeg burde gå ud og tjekke næste gang jeg kommer der forbi.
PS: Det er så netværksinstalleret, og selvom det godt kan lade sig gøre, er det ikke rigtig besværet værd, trods alt :>
Mjaow, som skrevet tidligere er det jo ikke de store maskiner, men der er så mange af dem istedet. Problemet er at de får de monster pakke som skrevet her tidligere, og så kan de simpelthen ikke nå at blive færdige.
Der findes utallige grunde til at de ikke lige fungere 100%. Jo også derfor et stats tool ville være godt at have for mig, eftersom jeg så i det mindste kan se hvilken pc jeg burde gå ud og tjekke næste gang jeg kommer der forbi.
PS: Det er så netværksinstalleret, og selvom det godt kan lade sig gøre, er det ikke rigtig besværet værd, trods alt :>
#43 Ingen anelse.. kan ikke tjekke så let, desværre...
Angående cpu performance så faldt jeg lige over denne kommentar på anandtechs forum:
"Yes, Duvie and I BOTH have observed that running 1 instance of F@H on a 1499 project on a [email protected] will complete a step in 4-5 minutes. On the same machine, firing up a second 1499 will slow the perf to 9 minutes ! If you run a GPU client as the 2nd app, it doesn;t care and doesn;t slow down. This is on a 6300 or 6400. On Duvies 6600 and quad core, that does NOT happen. So the extra cache size makes a very big difference in performance. "
Ser ud til at nogle folding@home projekter godt kan lide at have en stor cache..
Angående cpu performance så faldt jeg lige over denne kommentar på anandtechs forum:
"Yes, Duvie and I BOTH have observed that running 1 instance of F@H on a 1499 project on a [email protected] will complete a step in 4-5 minutes. On the same machine, firing up a second 1499 will slow the perf to 9 minutes ! If you run a GPU client as the 2nd app, it doesn;t care and doesn;t slow down. This is on a 6300 or 6400. On Duvies 6600 and quad core, that does NOT happen. So the extra cache size makes a very big difference in performance. "
Ser ud til at nogle folding@home projekter godt kan lide at have en stor cache..
Efter lang tids søgen er det bedste jeg har kunne finde:
CPU: http://www.fahinfo.org
GPU: http://gpu.fahinfo.org/index.php?allscores=true&am...
Deres database er dog lidt lille, men håber den bliver størrer med tiden.
Bare for sjov skyld, så er den hurtigeste gpu:
GPU:X1900XT | MEM:512MB | GPU_SPEED:783mhz | MEM_SPEED:864mhz | 940.99PPD
CPU: http://www.fahinfo.org
GPU: http://gpu.fahinfo.org/index.php?allscores=true&am...
Deres database er dog lidt lille, men håber den bliver størrer med tiden.
Bare for sjov skyld, så er den hurtigeste gpu:
GPU:X1900XT | MEM:512MB | GPU_SPEED:783mhz | MEM_SPEED:864mhz | 940.99PPD
#45 - Det er jo egentlig ikke volsomt imponerende når footracer kan lave over 1000ppd på hans. Jeg ved godt at hans CPU er i særklasse, men når de havde regnet med at GPU er 50-70 gange så hurtig som CPUerne, så er det i hvert fald ikke set i forhold til CPUer der er ligeså nye som de GPUer der bliver anvendt.
Det passer dog meget godt hvis man ser på gennemsnittet af alle CPUer på projektet, men man skal altså ikke tro at GPUerne er 50-70 gange hurtigere end en nyere CPU.
Det passer dog meget godt hvis man ser på gennemsnittet af alle CPUer på projektet, men man skal altså ikke tro at GPUerne er 50-70 gange hurtigere end en nyere CPU.
#46
Hvordan footracer får de point, skal jeg ikke kunne sige, men vi kan jo sammenligne den side, med lign cpuer:
http://www.fahinfo.org/index.php?WULookup=true
Hans cpu kører 3.6ghz, så vil tror vi skal dele deres resultat med 3.6? - Conroe resultaterbrugt nedenstående.
---------------
i #13 skrev han:
Det er projekt 1495, der giver 364 point. Det tager 11 timer og 30 minutter at fuldføre, hvilket giver 1519 point pr. døgn
Deres tager dem: 346.33ppd * 3.6 = 1246.788PPD
-----------------------
i #17 a) skrev han:
Projekt 1499 (364 point) - tager 7 timer og 10 min.
oversat = 0.3 dag
Deres tager dem: 337.13ppd * 3.6 = 1213.812PPD
------------------
i #17 b) skrev han:
Projekt 2126 (373 point) - tager 41 timer og 20 min.
oversat = 1.72 dage
Deres tager dem: 63.86ppd * 3.6 = 229.896PPD
------------------------
#20:
2124 tager sgu alligevel 40 timer og 12 minutter på den ene core!
oversat = 1.67dage
Deres tager dem: 68.88ppd * 3.6 = 248PPD
---------------------
Konklusion: Meget stor forskel pr pakke...
Ingen af de GPU giver vist bonus, og så er der kun EN pakke at sammenligne med, som cpuer ikke kan få :c
Hvordan footracer får de point, skal jeg ikke kunne sige, men vi kan jo sammenligne den side, med lign cpuer:
http://www.fahinfo.org/index.php?WULookup=true
Hans cpu kører 3.6ghz, så vil tror vi skal dele deres resultat med 3.6? - Conroe resultaterbrugt nedenstående.
---------------
i #13 skrev han:
Det er projekt 1495, der giver 364 point. Det tager 11 timer og 30 minutter at fuldføre, hvilket giver 1519 point pr. døgn
Deres tager dem: 346.33ppd * 3.6 = 1246.788PPD
-----------------------
i #17 a) skrev han:
Projekt 1499 (364 point) - tager 7 timer og 10 min.
oversat = 0.3 dag
Deres tager dem: 337.13ppd * 3.6 = 1213.812PPD
------------------
i #17 b) skrev han:
Projekt 2126 (373 point) - tager 41 timer og 20 min.
oversat = 1.72 dage
Deres tager dem: 63.86ppd * 3.6 = 229.896PPD
------------------------
#20:
2124 tager sgu alligevel 40 timer og 12 minutter på den ene core!
oversat = 1.67dage
Deres tager dem: 68.88ppd * 3.6 = 248PPD
---------------------
Konklusion: Meget stor forskel pr pakke...
Ingen af de GPU giver vist bonus, og så er der kun EN pakke at sammenligne med, som cpuer ikke kan få :c
Grrr, lorte l*** b*** funktion!
Nu kan jeg self ikke redigere i indlæget og regne hans PPD ud.
Laterligt!
Nu kan jeg self ikke redigere i indlæget og regne hans PPD ud.
Laterligt!
Ah - er lige kommet tilbage fra skiferie, så jeg har ikke kunnet skriver herinde i nogen tid. :)
Øh - jeg vil da lige gennemgå mine logs så vi kan få nogle korrekte tider ind fra min conroe. :D Kan jeg lige gøre i morgen.
Desværre får jeg pt. kun mega onde WU'er, som min conroe slet ikke kan li'. Og lige nu kører jeg kun med conroe, så der kommer desværre ikke points andet steds fra.
Som sagt kan jeg lave op til 1500 ppd hvis jeg får lige de WU'er jeg vil have - men lige nu, sender de kun onde WU'er ud, stort set.
Kan se jeg lige har en 2905 og 2606, hvor sidstnævnte faktisk ikke er vildt langsom. Mener det er 8 timer for den og den giver 292 point, så det er 584 point pr. 8 timer, hvilket jo er ret godt. :)
Vender lige tilbage senere med noget. Snork nu.
Øh - jeg vil da lige gennemgå mine logs så vi kan få nogle korrekte tider ind fra min conroe. :D Kan jeg lige gøre i morgen.
Desværre får jeg pt. kun mega onde WU'er, som min conroe slet ikke kan li'. Og lige nu kører jeg kun med conroe, så der kommer desværre ikke points andet steds fra.
Som sagt kan jeg lave op til 1500 ppd hvis jeg får lige de WU'er jeg vil have - men lige nu, sender de kun onde WU'er ud, stort set.
Kan se jeg lige har en 2905 og 2606, hvor sidstnævnte faktisk ikke er vildt langsom. Mener det er 8 timer for den og den giver 292 point, så det er 584 point pr. 8 timer, hvilket jo er ret godt. :)
Vender lige tilbage senere med noget. Snork nu.
- Forside
- ⟨
- Forum
- ⟨
- Folding@Home
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.