mboost-dp1
unknown
#1 Det burde leveres med indbygget fusionsreaktor. Men det kommer nok når strømforbruget når op i megawatt størrelsen (altså snart).
For dem, der har for mange penge er det jo fedest, men for alle os andre, som gerne vil have det bedste stuff, uden nødvendigvis at spare sammen 20år forinden kan det jo blive et problem. Før var man ret godt kørende med et grafikkort for 4000kr, men nu skal man til at have 4x4000=16000 for at være i top.
Når det er sagt, bliver det da interresant at se hvornår den slags er hvermands eje. Mon det er billigere (i forhold til performace) at have fire halvdårlige grafikkort, end 1,5 gode?
Når det er sagt, bliver det da interresant at se hvornår den slags er hvermands eje. Mon det er billigere (i forhold til performace) at have fire halvdårlige grafikkort, end 1,5 gode?
Okay det er jo sygt!! Tror næppe det er for den almene gamer :)
Gad vide om det ville booste en 3D render-maskine lidt?
Gad vide om det ville booste en 3D render-maskine lidt?
Det lyder jo cool nok med 4 grafikkort, men så er spørgsmålet, hvor hurtig en CPU skal man bruge for at grafikkortene får information nok! Måske kunne dual core bruges til noget her.
#8 hehe ja det kan det være noget om... Måske skulle de lave et tilsvarende board, der også kan klare 2stk dualcore processorer... så ville der være en core til hvert grafikkort :)
(Og et overtræk på dankortet der ville gøre nas!)
(Og et overtræk på dankortet der ville gøre nas!)
#7
Hvis du vil op i den art 3d rendering så bruger du alligevel SGI hardware eller lignende, deres grafiksystemer (ja, man kan ikke rigtigt kalde det grafikkort, hele systemet er designet til 3d) er langt ondere end 4 GF6800, tro mig...
Hvis du vil op i den art 3d rendering så bruger du alligevel SGI hardware eller lignende, deres grafiksystemer (ja, man kan ikke rigtigt kalde det grafikkort, hele systemet er designet til 3d) er langt ondere end 4 GF6800, tro mig...
#10: Desværre ikke så meget som jeg gjorde førhen, jeg var super til 3D Studio R4 (jep, før MAX), men efter MAX droppede jeg det lidt... Dengang jeg arbejdede med det, var det processor og RAM der havde noget at sige... det har ændret sig lidt må man sige :)
Er der nogle som har tænkt på hvor varmt der må blive et kabinet med 4 X Geforce 6800 Ultra ;) 1 kort bruge 124 W idle !!!
og sikke et støj helved det må være :(
og sikke et støj helved det må være :(
#14
Jeg tror faktisk det er lige før det ville blive varmere end motoren på en ældre skoda klassik....
Men tænk ik på støjen!! den bliver overdøvet af den højfrekvente støj fra stikkontakten når ledningerne begynder at trække lysbuer ligesom et svejseværk, pga. det høje strømforbrug ;)
Jeg tror faktisk det er lige før det ville blive varmere end motoren på en ældre skoda klassik....
Men tænk ik på støjen!! den bliver overdøvet af den højfrekvente støj fra stikkontakten når ledningerne begynder at trække lysbuer ligesom et svejseværk, pga. det høje strømforbrug ;)
#17 Det var jo sådan set bare skrevet lidt i sjov, med en undertone i at det jo nok ville komme til at bruge lidt mere strøm end det man har til at stå lige for tiden, og hvis min computer brugte 1000 W ville jeg nok overveje at slukke den lidt oftere og i lidt længere tid af gangen må jeg indrømme :D
Problemet med strømforsyning er da helt klart relevant. Der var en længere oppe der skrev noget med 1000 W for en mikrobølgeovn. Hvem af jer ville lade jeres mikrobølgeovn stå tændt i 12 timer? Det bliver hurtigt RIGTIG dyrt hvis udviklingen i strømforbrug fortsætter som den har gjort :S
#20 ja, alene 1KW må give en betydelig opvarming af rummet...
#21 http://www.edbpriser.dk/Listprices.asp?ID=134011 :-)
#19 flot, det er HELE systemets forbrug, dvs. CPU, HDs osv. - der står intet om hvad kortene bruger alene
#25 det har ikke den store betydning for performancen, om kortene kommunikerer med systemet ved x8 eller x16 hastighed... grunden til at man har PCIe x16 er for at have noget at tage af, når fremtidige kort og processorer kommer frem...
#21 http://www.edbpriser.dk/Listprices.asp?ID=134011 :-)
#19 flot, det er HELE systemets forbrug, dvs. CPU, HDs osv. - der står intet om hvad kortene bruger alene
#25 det har ikke den store betydning for performancen, om kortene kommunikerer med systemet ved x8 eller x16 hastighed... grunden til at man har PCIe x16 er for at have noget at tage af, når fremtidige kort og processorer kommer frem...
Det er ikke det værd. Det bruger alt for meget strøm, så allerede der er det et skridt tilbage. Man ved, at så snart SLi dukker op, at udviklingen er stagneret. Udviklingen på grafik og cpu området er meget stillestående. Udviklere indenfor disse områder pønser nok på et eller andet fantastisk eller så er de blanke som et spejl.
Jeg tror det sidste - desværre. Cell chippe er måske vejen frem til PC - på en eller anden måde :)
Jeg tror det sidste - desværre. Cell chippe er måske vejen frem til PC - på en eller anden måde :)
heh lol... jeg kiggede på news feed i bookmarks og med mine dårlige øjne var jeg 100% på der stod dobbelt SU på vej... tror nok lige mine små griske studerende hænder fandt vej til nyheden... uanset hvor rar nyheden her er blev man lidt skuffet :)
#28: lol ja det kunne være godt, men sådan en nyhed kan desværre kun komme én gang om året, 1. april :)
#29 så sandt så sandt :)
Pic af hvad jeg mener hvis nogen undrer sig mig meget
nå det er vist nok offtopic for i aften
Pic af hvad jeg mener hvis nogen undrer sig mig meget
nå det er vist nok offtopic for i aften
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund