mboost-dp1
unknown
Ja det bliver sjovt at se om denne fejl er fusk som den gang vi så ATI lave den driver der fuskede med opsætningen af Quake 3
For hvis de er de da for dumme hvis de ikke tror nogen finder ud af det..
For hvis de er de da for dumme hvis de ikke tror nogen finder ud af det..
Jeg tvivler sq lidt på det er en "bug" .. Nvidia klagede da til at starte over, at alle deres kort fik dårlige score i 3dmark sammenlignet med ATI's kort
i dette tilfælde kunne denne sætning vist med rette bruges
It's not a bug it's an undocumented feature
It's not a bug it's an undocumented feature
Jeg tvivler på at nvidia lyver.
Tror skam ikke de ville være så dumme kun at gøre det i 3DMark2003. Man må være ret dum hvis man mener de kun vil teste det i det.
Men hvad snakker de om med intelligent culling og clipping? Det kan vel knapt nok være en bug hvis den forbedrer det?
Tror skam ikke de ville være så dumme kun at gøre det i 3DMark2003. Man må være ret dum hvis man mener de kun vil teste det i det.
Men hvad snakker de om med intelligent culling og clipping? Det kan vel knapt nok være en bug hvis den forbedrer det?
Jeg kan heller ikke se pointen i alle de test programmer til 3dkort, og hvorfor det er så vigtigt !?
Kortet skal (for det meste) bruges i spil. Så start et spil, og se om kortet kan trække det (i den opløsning man vil ha') kan det det, må man være tilfreds. Og så kan det vel være lige meget om det får -+ 500 points i et eller andet program...
Kortet skal (for det meste) bruges i spil. Så start et spil, og se om kortet kan trække det (i den opløsning man vil ha') kan det det, må man være tilfreds. Og så kan det vel være lige meget om det får -+ 500 points i et eller andet program...
#7 umiddelbart er den slags testprogram gode til at vise head to head i det såkaldte "Cinematic graphics".
Selvfølgelig er det vigtigste for personerne nok mest spillene, selv om nogle også vil se dens renderingmuligheder.
Derfor jeg er meget imod at bruge sådan en omgang junk af software som 3dmark.
Edit:
Selvom det dog kan ligge op til diskussion når Nvidia selv skriver at deres nye drivere er op til 30% bedre end de gamle drivere.
Selvfølgelig er det vigtigste for personerne nok mest spillene, selv om nogle også vil se dens renderingmuligheder.
Derfor jeg er meget imod at bruge sådan en omgang junk af software som 3dmark.
Edit:
Selvom det dog kan ligge op til diskussion når Nvidia selv skriver at deres nye drivere er op til 30% bedre end de gamle drivere.
#7
Fidusen ville jo klart ligge i at folk over diverse hjemmesider, bruger 3dMark2003 til at teste de forskellige kort... Altså ville mange købe nVidias kort, hvis de hele tiden lå i front i testne.... Men når man endelig får kortet er det jo selvfølgelig spillene og kortets generelle performance der tæller....
Fidusen ville jo klart ligge i at folk over diverse hjemmesider, bruger 3dMark2003 til at teste de forskellige kort... Altså ville mange købe nVidias kort, hvis de hele tiden lå i front i testne.... Men når man endelig får kortet er det jo selvfølgelig spillene og kortets generelle performance der tæller....
Hvis Nvidia skræddesyer deres drivere til det default benchmark run som bliver taget i 3Dmark2003 er det klart snyd. Hele scoren består jo i disse "game tests" men hvis driveren kun lavet det der er absolut nødvendigt for den predefinerede path, ødelægger det jo hele conceptet af 3DMark2003.
Det er jo ikke noget man kan gøre i rigtige spil da det ikke her kan forudsiges hvordan spilleren vil bevæge sig.
Og det er sjovt at folk stadig henviser til Quak/Quake tingen som blev demonstreret til ikke at være snyd. Jeg har skrevet hele forklaringen før her på newz... så hvis man er nysgerrig kan man søge efter det :p
Det er jo ikke noget man kan gøre i rigtige spil da det ikke her kan forudsiges hvordan spilleren vil bevæge sig.
Og det er sjovt at folk stadig henviser til Quak/Quake tingen som blev demonstreret til ikke at være snyd. Jeg har skrevet hele forklaringen før her på newz... så hvis man er nysgerrig kan man søge efter det :p
..det ændrer dog ikke på, at GeforceFX 5900 Ultra klarer sig ganske fint i de spil, der er ude. Selv med FSAA + AF. Det må vel stadig være udgangspunktet, når man køber et grafikkort ..for ikke at nævne resultaterne i DoomIII.
44.03 driveren har elimineret flere grafiske glitches i andre spil, deriblandt UT2003 - forbedret FSAA + AF ydelsen (uden at skære hjørner af i kvaliteten dér) ...hvis det har haft en negativ effekt på 3Dmark03 testen, so be it.
Har Nvidia decideret snydt i 3Dmark03, ændrer det stadig ikke på kortets/nes ydelsesfremgang i rigtige spil. Det må vel, som sagt, være udgangspunktet for et nyt køb.
Og dér har både Nvidia og ATI gode kort på hånden.
44.03 driveren har elimineret flere grafiske glitches i andre spil, deriblandt UT2003 - forbedret FSAA + AF ydelsen (uden at skære hjørner af i kvaliteten dér) ...hvis det har haft en negativ effekt på 3Dmark03 testen, so be it.
Har Nvidia decideret snydt i 3Dmark03, ændrer det stadig ikke på kortets/nes ydelsesfremgang i rigtige spil. Det må vel, som sagt, være udgangspunktet for et nyt køb.
Og dér har både Nvidia og ATI gode kort på hånden.
#10
Ikke at jeg vil starte en lang diskussion med dig omkring hvad der er snyd og ikke snyd med i følge ATI egen kommentar til denne "tweak"
Most of our optimizations for Quake 3 and other applications have no impact at all on image quality, and therefore it would be pointless to allow users disable them. The current RADEON 8500 driver revision has an issue that prevents it from correctly interpreting the texture quality slider setting in Quake 3. This issue will be corrected in the next driver release.
Note that the texture quality setting is just one of many possible ways that users can increase image quality in Quake 3 at the expense of performance; forcing on anisotropic filtering or disabling texture compression are alternative methods. It is also important to note that the image quality obtained using all of the standard image settings in Quake 3 (fastest, fast, normal, and high quality) can be observed to be equal to or better than any competing product (try it!); it is only in the special case of selecting "high quality" AND turning the texture quality slider up to the highest setting that a potential discrepancy appears.
Taget fra siden:
http://www.tech-report.com/etc/2001q4/radeon-q3/in...
Deres statement fortæller at der lige præcist er en "bug" sjovt nok hvis man tager den indstilling der normalt bliver brugt til Q3 benchmarks.
Jeg er ikke en Nvida fanatiker og bruger selv for tiden et 9700 pro da det er klart det bedste kort til pengene!
Ikke at jeg vil starte en lang diskussion med dig omkring hvad der er snyd og ikke snyd med i følge ATI egen kommentar til denne "tweak"
Most of our optimizations for Quake 3 and other applications have no impact at all on image quality, and therefore it would be pointless to allow users disable them. The current RADEON 8500 driver revision has an issue that prevents it from correctly interpreting the texture quality slider setting in Quake 3. This issue will be corrected in the next driver release.
Note that the texture quality setting is just one of many possible ways that users can increase image quality in Quake 3 at the expense of performance; forcing on anisotropic filtering or disabling texture compression are alternative methods. It is also important to note that the image quality obtained using all of the standard image settings in Quake 3 (fastest, fast, normal, and high quality) can be observed to be equal to or better than any competing product (try it!); it is only in the special case of selecting "high quality" AND turning the texture quality slider up to the highest setting that a potential discrepancy appears.
Taget fra siden:
http://www.tech-report.com/etc/2001q4/radeon-q3/in...
Deres statement fortæller at der lige præcist er en "bug" sjovt nok hvis man tager den indstilling der normalt bliver brugt til Q3 benchmarks.
Jeg er ikke en Nvida fanatiker og bruger selv for tiden et 9700 pro da det er klart det bedste kort til pengene!
#11: ingen tvivl om at nvidia er kommet ud med en god serie, og det er sq rart med noget konkurrence igen, meeen du kan ikke bruge doom 3 testene til en hak.
Til doom3 tests, blev der brugt drivers som ikke understøttede de sidste 128 mb ram på ATI's 256 mb modeller og derudover er doom3 udviklet på nvidia kort, prøv at gæt hvor optimeringer i spillet der har været til ATI kort, meget få.
Man skal ikke baserer resultater ud fra et spil som ikke er færdigt og oven i købet bliver der brugt drivers som ikke understøtter det testet hardware!!! Jeg er dybt skuffet over de sider som har lavet de tests her, for alt for mange læser det igennem, men ser kun på grafferne og det holder ikke. Man kan godt kalde det: pop-benchmarks for de kan ikke bruges til noget og laves kun for at få hits.
Til doom3 tests, blev der brugt drivers som ikke understøttede de sidste 128 mb ram på ATI's 256 mb modeller og derudover er doom3 udviklet på nvidia kort, prøv at gæt hvor optimeringer i spillet der har været til ATI kort, meget få.
Man skal ikke baserer resultater ud fra et spil som ikke er færdigt og oven i købet bliver der brugt drivers som ikke understøtter det testet hardware!!! Jeg er dybt skuffet over de sider som har lavet de tests her, for alt for mange læser det igennem, men ser kun på grafferne og det holder ikke. Man kan godt kalde det: pop-benchmarks for de kan ikke bruges til noget og laves kun for at få hits.
# 14 -
Det er ikke helt rigtigt, at du ikke kan bruge Doom 3 (fra [H]ardocp) benchmarkene til en hak -
fra [H]ardocp
"John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense."
Så kan vi tage en lang diskussion om Nvidias kort er bygget til Doom 3, eller om John Carmack har optimeret koden til Nvidias kort; men når alt kommer til alt, så vil Doom 3 sikkert være blive en altovervejende grund til mange grafikkortsopgraderinger hen imod efteråret: og hvis spillet kører godt på Nvidia hardware - så vil det give mersalg.
Ang. ATI driverne... Det er rigtigt, at ATIs drivere (på grund af en bug i Cat.3.4 driverne, så de skiftede til Catalyst 3.2) ikke kunne bruge alle 256 MB på R9800 Pro kortet: men det bliver også forklaret indgående i teksten (det halve af introduktionstesten er dedikeret til netop de driver-problemer, de oplevede med Cat.3.4 driverne.)
Skulle de droppe hele testen på grund af driverbugs? Det lød ikke til at det var muligt at vente med testen (taget de besværligheder, der var med at få testen til at køre, i betragtning) - om ikke andet får vi et indblik i, at Doom 3 kører godt på FX kortene, og for den sags skyld også på ATI hardware - med eller uden 256 MB ram.
Fra [H]ardocp:
"Our DOOM 3 "test2" benchmark ran flawless on all cards tested, including a GeForceFX 5200 series card. This is something that I can't say for some mature benchmarks we run. During our entire testing we did not experience one crash across the entire line of cards tested. This type of hardware and driver stabilty can do nothing but shine a good light on both ATI and NVIDIA. Interestingly enough, even the Catalyst 3.4 drivers produced no visual problems or crashes. They too were rock solid, albeit very slow."
"The other thing that is surprising about our frame rates is the obvious gap between the 5900 Ultra and the 9800 Pro-256. You have to wonder if this is due to a simple driver issue at this point in the game. It is very possible that ATI simply did not have their public Catalyst 3.2 tweaked to deliver for DOOM 3. On the other hand, the folks at NVIDIA will tell you flat out, "The NV35 was built to play DOOM." From the looks of things, that is something that we can point to as fact."
Men klart, det bliver mere interessant at se benchmarks, når spillet er på vej til hylderne.
kilde:
http://www.hardocp.com
Det er ikke helt rigtigt, at du ikke kan bruge Doom 3 (fra [H]ardocp) benchmarkene til en hak -
fra [H]ardocp
"John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense."
Så kan vi tage en lang diskussion om Nvidias kort er bygget til Doom 3, eller om John Carmack har optimeret koden til Nvidias kort; men når alt kommer til alt, så vil Doom 3 sikkert være blive en altovervejende grund til mange grafikkortsopgraderinger hen imod efteråret: og hvis spillet kører godt på Nvidia hardware - så vil det give mersalg.
Ang. ATI driverne... Det er rigtigt, at ATIs drivere (på grund af en bug i Cat.3.4 driverne, så de skiftede til Catalyst 3.2) ikke kunne bruge alle 256 MB på R9800 Pro kortet: men det bliver også forklaret indgående i teksten (det halve af introduktionstesten er dedikeret til netop de driver-problemer, de oplevede med Cat.3.4 driverne.)
Skulle de droppe hele testen på grund af driverbugs? Det lød ikke til at det var muligt at vente med testen (taget de besværligheder, der var med at få testen til at køre, i betragtning) - om ikke andet får vi et indblik i, at Doom 3 kører godt på FX kortene, og for den sags skyld også på ATI hardware - med eller uden 256 MB ram.
Fra [H]ardocp:
"Our DOOM 3 "test2" benchmark ran flawless on all cards tested, including a GeForceFX 5200 series card. This is something that I can't say for some mature benchmarks we run. During our entire testing we did not experience one crash across the entire line of cards tested. This type of hardware and driver stabilty can do nothing but shine a good light on both ATI and NVIDIA. Interestingly enough, even the Catalyst 3.4 drivers produced no visual problems or crashes. They too were rock solid, albeit very slow."
"The other thing that is surprising about our frame rates is the obvious gap between the 5900 Ultra and the 9800 Pro-256. You have to wonder if this is due to a simple driver issue at this point in the game. It is very possible that ATI simply did not have their public Catalyst 3.2 tweaked to deliver for DOOM 3. On the other hand, the folks at NVIDIA will tell you flat out, "The NV35 was built to play DOOM." From the looks of things, that is something that we can point to as fact."
Men klart, det bliver mere interessant at se benchmarks, når spillet er på vej til hylderne.
kilde:
http://www.hardocp.com
Jeg syntes stadig de skulle skrotte den test, det giver et forkert billede og alt for mange siger altid: Jamen nvidia vandt jo stort i doom3, og så render de ud og køber det kort. Men når tiden så er inde, viser det sig "måske" at det ikke var det bedste køb :)
Jeg vil nok bare vente på nv40 og r400 og se dem an, har ikke penge nu :p
Jeg vil nok bare vente på nv40 og r400 og se dem an, har ikke penge nu :p
# 16
Kender problemet, jeg kører stadig med mit geforce 4 TI4200 (som klarer sig ganske udemærket) - regner først med at opgradere til et DX9 kort, når der er spil ude, der benytter sig heftigt af den standard - det ser endda ud som om, at Doom III kan køre på kortet i 1024*768, medium quality, ca.38 Fps.*
Men når jeg skal udskifte kortet, så må tiden vise om det bliver et ATI el. et Nvidia kort.
*kilde:
http://www6.tomshardware.com/graphic/20030512/gefo...
Kender problemet, jeg kører stadig med mit geforce 4 TI4200 (som klarer sig ganske udemærket) - regner først med at opgradere til et DX9 kort, når der er spil ude, der benytter sig heftigt af den standard - det ser endda ud som om, at Doom III kan køre på kortet i 1024*768, medium quality, ca.38 Fps.*
Men når jeg skal udskifte kortet, så må tiden vise om det bliver et ATI el. et Nvidia kort.
*kilde:
http://www6.tomshardware.com/graphic/20030512/gefo...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund