mboost-dp1
Nvidia
Det skal blive spændende at se hvor meget energi den kommer til at sluge. For slet ikke at tale om varm- og støjudvikling.
for lige at være helt med
det er 9 serien ?
jeg boycutter ALT der bruger mere end 200w i load.
det kan ikke være rigtigt at en gpu skal bruge så ekstreme mængder strøm.
rigtigt nok yder de væsentligt flere gigaflops end cpu'er, men jeg synes det har taget overhånd.
kald det next-gen når strømforbuget er KRAFTIGT modificeret
det er 9 serien ?
jeg boycutter ALT der bruger mere end 200w i load.
det kan ikke være rigtigt at en gpu skal bruge så ekstreme mængder strøm.
rigtigt nok yder de væsentligt flere gigaflops end cpu'er, men jeg synes det har taget overhånd.
kald det next-gen når strømforbuget er KRAFTIGT modificeret
If that's true, the question remains - why bother? What games are going to take advantage of that? If the answer is Crysis at 2560x1600, Nvidia better hope that the game doesn't slip much further than it already has.
Jeg hader at indrømme det, men The Inquirer har måske fat i en pointe. I forvejen er hverken 8800GTX eller Ultra-versionen særlig langsom, så det kan måske synes en smule overdreven. På den anden side skal man da ikke stoppe med at udvikle på sit hardware, bare fordi man i øjeblikket er nået til det punkt, hvor man ikke kan se forskel på skærmen i "mellemområdet".
Med det i hovedet er det værd at overveje den oversete faktor, som flere og flere folk begynder at at bekymre sig over - hvad forbruger den af watt? GTX'en i mine øjne alt for ineffektiv, mens R600-chippen baseret på 90 nm-teknologien fuldstændig går over gevind. Hvis et nyt GFX-kort fra Nvidia kan yde 3 gange så meget som GTX'en målt i flops, så må man da håbe på, at de har valgt at bruge en transistorteknologi mindre eller lige med 65 nm. Alt andet ville være selvmord.
EDIT: Jeg nåde ikke at færdiggøre mit indlæg, før 3 andre havde skrevet om stort set de samme aspekter som jeg. Så hvis i finder dette indlæg irrelevant eller som en gentagelse, så tag venligst det med i overvejelserne.
I gamere smigrer vist jer selv. Hvad får jer til at tro det kun er spil, kortet er beregnet til? "Next generation" er heldigvis et definitionsspørgsmål.
#7
Gaming er primært hvad det BLIVER brugt til, der er ret stor forskel... Det er ligesom at sige at OpenGL kun er til spil, det er lidt en misforståelse...Af dimensioner...
Gaming er primært hvad det BLIVER brugt til, der er ret stor forskel... Det er ligesom at sige at OpenGL kun er til spil, det er lidt en misforståelse...Af dimensioner...
#5
havde du tolket den rigtigt, vidste du jeg mente grafikkort, når det nu engang er det der er topic.
men jeg beklager hvis jeg var for bred i den udtalelse, dog mener jeg ikke at jeg tilnærmelsesvist vil være i nærheden af at overveje at se på en f.eks. harddisk med et så stort strømforbug.
#6
evt. fordi GeForce primært er til gaming(high-end kortene).
ellers hedder det nVidia Quadro el. ATi Fire el. Matrox.
underforstået at det er noget i stil af videoredigering, billedbehandling o.lign. på et højt plan.
udvikling af f.eks. meget krævende spil osv. er jeg også meget sikker på, at det er det bedste valg.
havde du tolket den rigtigt, vidste du jeg mente grafikkort, når det nu engang er det der er topic.
men jeg beklager hvis jeg var for bred i den udtalelse, dog mener jeg ikke at jeg tilnærmelsesvist vil være i nærheden af at overveje at se på en f.eks. harddisk med et så stort strømforbug.
#6
evt. fordi GeForce primært er til gaming(high-end kortene).
ellers hedder det nVidia Quadro el. ATi Fire el. Matrox.
underforstået at det er noget i stil af videoredigering, billedbehandling o.lign. på et højt plan.
udvikling af f.eks. meget krævende spil osv. er jeg også meget sikker på, at det er det bedste valg.
Det er meget fint med deres nye kort, men hvis de nu bare kunne finde ud af at lave en ordentlig vista driver, så ville jeg være glad.
Har et gf8800 gtx, og har fortrudt at jeg har brugt så mange penge på et kort, som egentlig er ret kraftig, men når at blive forældet inden nvidia lavet en ordentlig driver, der performer sådan nogenlunde.
Har et gf8800 gtx, og har fortrudt at jeg har brugt så mange penge på et kort, som egentlig er ret kraftig, men når at blive forældet inden nvidia lavet en ordentlig driver, der performer sådan nogenlunde.
.... er det ikke oftest sådan at performance/watt øges hver gang en ny generation af grafikkort kommer på markedet. Så vidt jeg ved bruger 8800GTX ikke meget mere strøm end 1950XTX, men 8800GTX yder da en pæn slat højere (http://xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0). Så jeg kan ikke forstå problemet med at high-end kort sluger for meget strøm..... ellers må man jo vente på at næste generation mid-end kommer på markedet da de plejer at bruge en del mindre strøm og yde det samme som forrige generations high-end.
Og netop fordi at et grafikkort kommer til at kunne yde 1 TFLOP så ville det da være interessant at sammenligne dets performance/watt i forhold til en CPU.
Og netop fordi at et grafikkort kommer til at kunne yde 1 TFLOP så ville det da være interessant at sammenligne dets performance/watt i forhold til en CPU.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund