mboost-dp1

Nvidia

NVIDIA G92 vil have en ydelse på næsten 1 teraflop

- Via The Inquirer - , redigeret af Pernicious , indsendt af Pernicious

I en webcast, har Michael Hara fra NVIDIA meddelt, at deres næste high-end chip er klar til jul i år. Dermed følger de deres plan om, at frigive nye high-end chips ved hvert årsskifte og følge op med mid-end og low-end chips ved forårstid.

Den nye chip der går under navnet G92, skulle angiveligt få en ydelse tæt på 1 teraflop. Dette er tre gange mere end GeForce 8800 GTX, der yder omkring 330 gigaflops.





Gå til bund
Gravatar #1 - jmcu
24. maj 2007 12:32
Det skal blive spændende at se hvor meget energi den kommer til at sluge. For slet ikke at tale om varm- og støjudvikling.
Gravatar #2 - mr ac
24. maj 2007 12:35
#1 Helt enig, jeg frygter også vi er ude i at vores gaming-maskiner kommer til at trække 600+ W ... det kommer til at gøre nas på strømregningen, og det er en lidt dyr måde at varme stuen op på
Gravatar #3 - tuxcn
24. maj 2007 12:38
for lige at være helt med
det er 9 serien ?

jeg boycutter ALT der bruger mere end 200w i load.
det kan ikke være rigtigt at en gpu skal bruge så ekstreme mængder strøm.
rigtigt nok yder de væsentligt flere gigaflops end cpu'er, men jeg synes det har taget overhånd.
kald det next-gen når strømforbuget er KRAFTIGT modificeret
Gravatar #4 - vandfarve
24. maj 2007 12:38
If that's true, the question remains - why bother? What games are going to take advantage of that? If the answer is Crysis at 2560x1600, Nvidia better hope that the game doesn't slip much further than it already has.


Jeg hader at indrømme det, men The Inquirer har måske fat i en pointe. I forvejen er hverken 8800GTX eller Ultra-versionen særlig langsom, så det kan måske synes en smule overdreven. På den anden side skal man da ikke stoppe med at udvikle på sit hardware, bare fordi man i øjeblikket er nået til det punkt, hvor man ikke kan se forskel på skærmen i "mellemområdet".

Med det i hovedet er det værd at overveje den oversete faktor, som flere og flere folk begynder at at bekymre sig over - hvad forbruger den af watt? GTX'en i mine øjne alt for ineffektiv, mens R600-chippen baseret på 90 nm-teknologien fuldstændig går over gevind. Hvis et nyt GFX-kort fra Nvidia kan yde 3 gange så meget som GTX'en målt i flops, så må man da håbe på, at de har valgt at bruge en transistorteknologi mindre eller lige med 65 nm. Alt andet ville være selvmord.

EDIT: Jeg nåde ikke at færdiggøre mit indlæg, før 3 andre havde skrevet om stort set de samme aspekter som jeg. Så hvis i finder dette indlæg irrelevant eller som en gentagelse, så tag venligst det med i overvejelserne.
Gravatar #5 - Morell
24. maj 2007 12:49
#3
jeg boycutter ALT under 200w!
Det kan være du skal prøve at se om du kan få sådan en one-laptop-per-chield bærbar. Den kan umuligt bruge ret meget strøm, og dit regneark vil uden tvivl køre glimrende ;)
Gravatar #6 - anars
24. maj 2007 12:50
I gamere smigrer vist jer selv. Hvad får jer til at tro det kun er spil, kortet er beregnet til? "Next generation" er heldigvis et definitionsspørgsmål.
Gravatar #7 - mazing
24. maj 2007 12:55
#6 Øøh.. Fordi det er et grafikkort? :D
Man kan sikkert også bruge det til video-decoding eller folding@home, men gaming er vel primært hvad grafikkort er til...
Gravatar #8 - SmackedFly
24. maj 2007 13:04
#7

Gaming er primært hvad det BLIVER brugt til, der er ret stor forskel... Det er ligesom at sige at OpenGL kun er til spil, det er lidt en misforståelse...Af dimensioner...
Gravatar #9 - Aske Uhd
24. maj 2007 13:13
jeg forstår ikke hvorfor et GFX bruger så meget strøm, når f.eks. en E6600 kan nøjes med 65 watt??
Gravatar #10 - TuxDK
24. maj 2007 13:26
#9
Der er en enorm forskel på mængden af data der går igennem en GPU og en CPU.

En GPU har større båndbredde end en CPU har, en CPU har større general regnekræft end en GPU.

Der fiser meget meget mere data igennem en GPU end der gør på en CPU.
Gravatar #11 - lorric
24. maj 2007 13:43
Regnekræft - er det hjernecancer eller smitsomt nedbør? ;-)
Gravatar #12 - b4@
24. maj 2007 14:31
wow 0_o
Det er sygt, og det bliver mere sygt med 4*SLi
Gravatar #13 - luuuuu
24. maj 2007 16:39
for helvede da, intel's extreme quad 6700 noget havde sguda rigeligt af problemer med at følge med et 8800gtx, så hvordan i alverden forventer de at cpuerne skal kunne følge med det her nye og 3 gange hurtigere kort? :S:S:S!
Gravatar #14 - Loke76
24. maj 2007 17:02
Det lader til at de boneheads der styrer gfx markedet ser det faldende strømforbrug på CPU´er som et tomrum de skal udfylde. 175w kort bliver jo efterhånden de strømsparende kort. DOUCHEBAGS
Gravatar #15 - tuxcn
24. maj 2007 18:19
#5
havde du tolket den rigtigt, vidste du jeg mente grafikkort, når det nu engang er det der er topic.
men jeg beklager hvis jeg var for bred i den udtalelse, dog mener jeg ikke at jeg tilnærmelsesvist vil være i nærheden af at overveje at se på en f.eks. harddisk med et så stort strømforbug.

#6
evt. fordi GeForce primært er til gaming(high-end kortene).
ellers hedder det nVidia Quadro el. ATi Fire el. Matrox.
underforstået at det er noget i stil af videoredigering, billedbehandling o.lign. på et højt plan.
udvikling af f.eks. meget krævende spil osv. er jeg også meget sikker på, at det er det bedste valg.
Gravatar #16 - Smasher
24. maj 2007 23:46
#13 Skal vi nu ikke lige vente og se hvad der sker ;-)

Den kommer jo trods alt først til jul, og AMD er på trapperne med Qaud core cpu, så mon ikke der sker lidt på det område i mellemtiden også :-)
Gravatar #17 - reaper.dk
25. maj 2007 09:04
Det er meget fint med deres nye kort, men hvis de nu bare kunne finde ud af at lave en ordentlig vista driver, så ville jeg være glad.

Har et gf8800 gtx, og har fortrudt at jeg har brugt så mange penge på et kort, som egentlig er ret kraftig, men når at blive forældet inden nvidia lavet en ordentlig driver, der performer sådan nogenlunde.
Gravatar #18 - Mr.DNA
25. maj 2007 15:19
.... er det ikke oftest sådan at performance/watt øges hver gang en ny generation af grafikkort kommer på markedet. Så vidt jeg ved bruger 8800GTX ikke meget mere strøm end 1950XTX, men 8800GTX yder da en pæn slat højere (http://xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0). Så jeg kan ikke forstå problemet med at high-end kort sluger for meget strøm..... ellers må man jo vente på at næste generation mid-end kommer på markedet da de plejer at bruge en del mindre strøm og yde det samme som forrige generations high-end.

Og netop fordi at et grafikkort kommer til at kunne yde 1 TFLOP så ville det da være interessant at sammenligne dets performance/watt i forhold til en CPU.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login