mboost-dp1
unknown
#3 - der er i forvejen ikke saeligt mange spil der udnytter shaders v2, og inden shaders v3 finder fodfaeste, er ati's naeste generation gpu paa markdet.
#7 - det de goer er at tillade laengere shader programmer end specifikationerne foreskriver.
der er nogle enkelte gode ting i shaders v3. blandt andet texture lookup, vil i mange tilfaelde kunne give meget performance. men siden 95 procent af markedet vil side med shaders v2, bliver spiludviklerne noedt til at understoette dem til fulde. saa ati's kurs er fornuftig nok.
/stone
#7 - det de goer er at tillade laengere shader programmer end specifikationerne foreskriver.
der er nogle enkelte gode ting i shaders v3. blandt andet texture lookup, vil i mange tilfaelde kunne give meget performance. men siden 95 procent af markedet vil side med shaders v2, bliver spiludviklerne noedt til at understoette dem til fulde. saa ati's kurs er fornuftig nok.
/stone
Der er jo intet som man kan lave med v3 shadere som man ikke kan lave med v2. Nogle ting er i teorien bare hurtigere i v3, men hvis en v3 understøttende chip bare ikke kan følge med en v2 chip så giver det jo ingen fordel ;)
Det er "heldigt" for ATI at det er så let at implementere 3Dc support. Det betyder at der er mange der vil benytte sig af det selv om Nvidia ikke undestøtter det.
ATI Blære video anyone?
http://bft060.tn.utwente.nl/RubyDoubleCross.rar
Det er "heldigt" for ATI at det er så let at implementere 3Dc support. Det betyder at der er mange der vil benytte sig af det selv om Nvidia ikke undestøtter det.
ATI Blære video anyone?
http://bft060.tn.utwente.nl/RubyDoubleCross.rar
#9 Selvfølgelig er der det, du har plads til langt større instruktioner, desværre er der bare ikke nogle der har nået over halvdelen på SM 2.0, Som stone også siger.
Dog tror jeg stadig SM 3.0 vil blive brugt med med bagudkompatibilitet, er jo bare om at finde et nvidia optimeret spil vil jeg mene.
Dog tror jeg stadig SM 3.0 vil blive brugt med med bagudkompatibilitet, er jo bare om at finde et nvidia optimeret spil vil jeg mene.
Kan godt li den detalje at det ikke kræver et kraftværk at køre med kortet .. det finder jeg imo vigtigere end de ekstra fps det kan levere i diverse spil.
Så håber jeg bare der kommer et kort med 2 x vga udgange og nogle penge på bankkontoen :)
Så håber jeg bare der kommer et kort med 2 x vga udgange og nogle penge på bankkontoen :)
Sapphire ATI Radeon X800 Pro, 256MB GDDR3, TV-OUT/DVI, Full retail 21034-00-40
3.999
Det står der på shg's nyt og hot side.
3.999
Det står der på shg's nyt og hot side.
Suck on this Nvidia.
ATI vinder klart igen, og hvad skal man bruge Shadermodel 3.0 til når der ingen forskel er og nvidia's giver jo generelt dårligere billedkvalitet.
ATI vinder klart igen, og hvad skal man bruge Shadermodel 3.0 til når der ingen forskel er og nvidia's giver jo generelt dårligere billedkvalitet.
#16 Så dårlig er den nu heller ikke, jeg tvivler faktisk på at de små forskelle(Hvertfald hvad jeg har set) overhovedet kan ses.
Men et meget sjovt spørgsmål der kom om var, Ok den understøtter Shadermodel 3.0, men kan den også køre det?
Fordi der er jo ingen der har lavet så mange/lange instruktioner at det overhovedet er brugbart at bruge Shadermodel 3.0, men hvis de var, var Nvidia så klar til at kunne håndtere dem?
Det lyder umiddelbart kun som et marketingstrick og en hurtig måde at speed SM 2.0 op. Men det virker.
Edit 2: Ah fuckede det op :P tænkte også lidt over hvorfor de skrev at Radeon X800 XT var bedre end GF 6800U i den test, viser sig at Geforce kortet var testet i 1024x768, og ATi kortet i 1600x1200.
Minder dog mere om en driverfejl, selvom Anandtech stadig mener dens average er "ok", med de samme drivere. Men stadigvæk burde de have brugt de beta drivere også.
Men det føltes også lidt skummelt som de lige pludselig skulle til at rakke ned ved standardindstillinger. "This is how the card is setup when first installed", og så kommer der alt muligt Anistropic Filtering flameri nedenunder vist.
Vist ikke lige HardOCP jeg vil se mig efter næste gang man tjekker reviews, dermed ikke sagt at Geforce 6800 Ultra skulle løbe på prisen, da X800 XT jo tydeligt bruger mindre strøm og har bedre performance. (Men åbenbart endnu bedre når det gælder HardOCP)
Men et meget sjovt spørgsmål der kom om var, Ok den understøtter Shadermodel 3.0, men kan den også køre det?
Fordi der er jo ingen der har lavet så mange/lange instruktioner at det overhovedet er brugbart at bruge Shadermodel 3.0, men hvis de var, var Nvidia så klar til at kunne håndtere dem?
Det lyder umiddelbart kun som et marketingstrick og en hurtig måde at speed SM 2.0 op. Men det virker.
Edit 2: Ah fuckede det op :P tænkte også lidt over hvorfor de skrev at Radeon X800 XT var bedre end GF 6800U i den test, viser sig at Geforce kortet var testet i 1024x768, og ATi kortet i 1600x1200.
Minder dog mere om en driverfejl, selvom Anandtech stadig mener dens average er "ok", med de samme drivere. Men stadigvæk burde de have brugt de beta drivere også.
Men det føltes også lidt skummelt som de lige pludselig skulle til at rakke ned ved standardindstillinger. "This is how the card is setup when first installed", og så kommer der alt muligt Anistropic Filtering flameri nedenunder vist.
Vist ikke lige HardOCP jeg vil se mig efter næste gang man tjekker reviews, dermed ikke sagt at Geforce 6800 Ultra skulle løbe på prisen, da X800 XT jo tydeligt bruger mindre strøm og har bedre performance. (Men åbenbart endnu bedre når det gælder HardOCP)
#16
Billedekvaliteten i 6800 er efter min bedømmelse i fint ati klasse. At man ikke bruger shader 3.0 kunne "måske" skyldes pres fra ati ifm de ikke har implementeret det i deres kort. Det noget blah at sige, ati er bedre fordi deres bruger mindre strøm, ati kan ikke klare shader 3.0 så enkelt er det.
Billedekvaliteten i 6800 er efter min bedømmelse i fint ati klasse. At man ikke bruger shader 3.0 kunne "måske" skyldes pres fra ati ifm de ikke har implementeret det i deres kort. Det noget blah at sige, ati er bedre fordi deres bruger mindre strøm, ati kan ikke klare shader 3.0 så enkelt er det.
Btw, skal Nvidia ikke smide de nye testimonials de er jo stadig:
Toms Hardware Guide: NVIDIA GeForce 6800 Ultra Performance Leap:
“What NVIDIA has achieved with the GeForce 6800 Ultra makes even experienced graphics cards editors shake their head in amazement and wonder. The performance this card offers will sweep graphics cards enthusiasts (the author included) off their feet and carry them off into a state of ecstasy in which they can only gape in awe at the sight of these simply amazing benchmark results.”
Anandtech: NVIDIA GeForce 6800 Ultra: The Next Step Forward:
“We can now expect: 1) Very high performance in current and future games. 2) The ability to play at 2048x1536 in just about any game currently available or soon to be made available, and 3) The ability to play virtually any game at 1600x1200 with 4X AA and 16X anisotropic filtering enabled at smooth frame rates.”
HardOCP: GeForce 6800 Ultra Preview
“The GeForce 6800 Ultra delivered the best realworld gameplay in every game we tested.”
Extremetech: Preview: NVidia's GeForce 6800 Ultra
"So, the four-word version of this review would simply be: 'It's really bleeping fast'."
De burde da holde dem up2date det der er da over en uge gammelt ;D
Toms Hardware Guide: NVIDIA GeForce 6800 Ultra Performance Leap:
“What NVIDIA has achieved with the GeForce 6800 Ultra makes even experienced graphics cards editors shake their head in amazement and wonder. The performance this card offers will sweep graphics cards enthusiasts (the author included) off their feet and carry them off into a state of ecstasy in which they can only gape in awe at the sight of these simply amazing benchmark results.”
Anandtech: NVIDIA GeForce 6800 Ultra: The Next Step Forward:
“We can now expect: 1) Very high performance in current and future games. 2) The ability to play at 2048x1536 in just about any game currently available or soon to be made available, and 3) The ability to play virtually any game at 1600x1200 with 4X AA and 16X anisotropic filtering enabled at smooth frame rates.”
HardOCP: GeForce 6800 Ultra Preview
“The GeForce 6800 Ultra delivered the best realworld gameplay in every game we tested.”
Extremetech: Preview: NVidia's GeForce 6800 Ultra
"So, the four-word version of this review would simply be: 'It's really bleeping fast'."
De burde da holde dem up2date det der er da over en uge gammelt ;D
Preformance / pris er jo det eneste som betyder noget!
Så man kan ikke sige , "haha ATI er bedre en Nvidia og omvendt"
Det kan man ikke bruge til noget!
Så man kan ikke sige , "haha ATI er bedre en Nvidia og omvendt"
Det kan man ikke bruge til noget!
De kommer på det dansk marked først i juni.
Skal lige hjem og overtale konen...selv om hun nok siger nej :(
Skal lige hjem og overtale konen...selv om hun nok siger nej :(
Tråde som disse kommer aldrig nogen vegne. Køb hvad I selv har preference for. Generelt er der desuden ingen der har fordele af at spille i højere end 1024x786 hvis du spørger mig, for hvad hjælper det at kortet kan levere 150 billeder i sekundet hvis hertz på skærmen alligevel sørger for at du kun får 75 af dem at se?
I kan lige så godt diskutere om det er bedst at wanke med højre eller venstre hånd. Det er jo hip som hap - outputtet er det samme :D
I kan lige så godt diskutere om det er bedst at wanke med højre eller venstre hånd. Det er jo hip som hap - outputtet er det samme :D
Strømforbrug http://www.techreport.com/reviews/2004q2/radeon-x8...
Derudover så er 6800 Ultra Extreme nvidias flagskib som x800xt skal konkurrere imod.
Ved ikke hvem der har testet det udover techreport, men toms har da ikke.
http://www.techreport.com/reviews/2004q2/radeon-x8...
Derudover så er 6800 Ultra Extreme nvidias flagskib som x800xt skal konkurrere imod.
Ved ikke hvem der har testet det udover techreport, men toms har da ikke.
http://www.techreport.com/reviews/2004q2/radeon-x8...
#24
"for hvad hjælper det at kortet kan levere 150 billeder i sekundet hvis hertz på skærmen alligevel sørger for at du kun får 75 af dem at se?"
Pointen er vel at selvom vi "kun" kan se 75 FPS, så er det vel bedre at vi kan se de 75 konstant, fordi den reelle FPS ligger mellem 100 og 150, istedet for at den ligger mellem 50 og 80.
Right?
"for hvad hjælper det at kortet kan levere 150 billeder i sekundet hvis hertz på skærmen alligevel sørger for at du kun får 75 af dem at se?"
Pointen er vel at selvom vi "kun" kan se 75 FPS, så er det vel bedre at vi kan se de 75 konstant, fordi den reelle FPS ligger mellem 100 og 150, istedet for at den ligger mellem 50 og 80.
Right?
Og hvor skulle fordelen være i det?
I 1600x1200 vil du sjældent have brug for FSAA måske en smule AF.
I 1024x768 eller mindre vil du mere hyppigt have brug for det.
Opløsningen har virkning på performance, det har FSAA og AF også. Så i 1024x768 vil man typisk nok have det hele sat til fuld udblæsning, hvilket betyder du hvertfald nok ikke får 120FPS i spillet med mindre det er et ældre spil.
Og i nyere spil får du sikkert ikke engang over 100-120 FPS alene uden nogen FSAA og AF.
Se fx. Anandtech's Far Cry del der er det godt nok 1280x1024 vs. 1600x1200, men som du ser så er tab i performance mindre ved 1600x1200 uden FSAA eller AF.
Personligt ville jeg bruge 1024x768 og så tilhørende FSAA/AF, men kun fordi min skærm ikke er stor nok til 1600x1200.
I 1600x1200 vil du sjældent have brug for FSAA måske en smule AF.
I 1024x768 eller mindre vil du mere hyppigt have brug for det.
Opløsningen har virkning på performance, det har FSAA og AF også. Så i 1024x768 vil man typisk nok have det hele sat til fuld udblæsning, hvilket betyder du hvertfald nok ikke får 120FPS i spillet med mindre det er et ældre spil.
Og i nyere spil får du sikkert ikke engang over 100-120 FPS alene uden nogen FSAA og AF.
Se fx. Anandtech's Far Cry del der er det godt nok 1280x1024 vs. 1600x1200, men som du ser så er tab i performance mindre ved 1600x1200 uden FSAA eller AF.
Personligt ville jeg bruge 1024x768 og så tilhørende FSAA/AF, men kun fordi min skærm ikke er stor nok til 1600x1200.
Gibstorm: 75Hz i 1024 er også ret crappy.
Der kommer bedre og bedre skærme på markedet og det gør også at der stilles højere krav til grafikkortet.
Hos mig er det grafikkortet der er flaskehalsen og jeg ville da gerne have et kraftigere kort.
Min skærms specs kan du se her:
http://www.iiyama.dk/php/showmonitor-crt.php?monit...
Der kommer bedre og bedre skærme på markedet og det gør også at der stilles højere krav til grafikkortet.
Hos mig er det grafikkortet der er flaskehalsen og jeg ville da gerne have et kraftigere kort.
Min skærms specs kan du se her:
http://www.iiyama.dk/php/showmonitor-crt.php?monit...
Tja...ATI skodder stadig...Ingen ordentlige Linux drivere, intet kort til mig...og der er MANGE der har det på samme måde.
Smackedfly:
Tja jeg kører uden problemmer linux på min Dell Inspiron lapto med et ATI Radeon 9000 gfx kort i.
Nul problemo her hos mig.
Tja jeg kører uden problemmer linux på min Dell Inspiron lapto med et ATI Radeon 9000 gfx kort i.
Nul problemo her hos mig.
SmackedFly: Nu er det også begrænset hvor mange der bruger linux til at spille med.
Hvis markedet var der ville de nok også lave nogle gode drivers dertil.
Hvis markedet var der ville de nok også lave nogle gode drivers dertil.
#32
"Tja...ATI skodder stadig...Ingen ordentlige Linux drivere, intet kort til mig...og der er MANGE der har det på samme måde."
Åbenbart ikke nok. Hvis markedet var stort nok til, at de kunne tjene på det er jeg 100% sikker på, at de ville gøre noget ved det. De har nok adskillige analytikere som sidder og kigger markedet igennem. Og de har åbenbart ikke fundet Linux markedet som et område de vil satse på. Forstår jeg egentlig også godt. Der er som TYBO også siger, meget få der rent faktisk bruger linux til at spille på. Og de der gør, er tydeligvis ikke talstærke nok til at betyde noget!
"Tja...ATI skodder stadig...Ingen ordentlige Linux drivere, intet kort til mig...og der er MANGE der har det på samme måde."
Åbenbart ikke nok. Hvis markedet var stort nok til, at de kunne tjene på det er jeg 100% sikker på, at de ville gøre noget ved det. De har nok adskillige analytikere som sidder og kigger markedet igennem. Og de har åbenbart ikke fundet Linux markedet som et område de vil satse på. Forstår jeg egentlig også godt. Der er som TYBO også siger, meget få der rent faktisk bruger linux til at spille på. Og de der gør, er tydeligvis ikke talstærke nok til at betyde noget!
GibStorm:
"Tråde som disse kommer aldrig nogen vegne. Køb hvad I selv har preference for. Generelt er der desuden ingen der har fordele af at spille i højere end 1024x786 hvis du spørger mig, for hvad hjælper det at kortet kan levere 150 billeder i sekundet hvis hertz på skærmen alligevel sørger for at du kun får 75 af dem at se?"
Du tåger da totalt! - det eneste du skriver er at jo flere Hz en skærm har jo bedre. Det kan en hver idiot da regne ud, og det har desuden intet med denne nyhed at gøre.
Og hvorfor skulle man ikke have brug for at køre spil i over 1024x768??? Bedre opløsning = bedre grafik (ihvertfald i de spil der understøtter de høje opløsninger på en fordelagtig måde - og det er de fleste).
Den her nyhed handler om at ATi er kommet med et grafikkort der slår GF6800 så det basker, og så siger du at det er ligemeget?
- Jeg kan love dig for at de fleste gamere herinde vil give mig ret i at der aldrig har været et grafikkort der havde for meget power... tro mig, der skal nok blive brug for hver og én MHz når gamere skal til at spille de nyeste spil.
Edit:
Bare fordi du har en skodskærm er det jo ikke ligemeget hvor meget et grafikkort kan yde.
"Tråde som disse kommer aldrig nogen vegne. Køb hvad I selv har preference for. Generelt er der desuden ingen der har fordele af at spille i højere end 1024x786 hvis du spørger mig, for hvad hjælper det at kortet kan levere 150 billeder i sekundet hvis hertz på skærmen alligevel sørger for at du kun får 75 af dem at se?"
Du tåger da totalt! - det eneste du skriver er at jo flere Hz en skærm har jo bedre. Det kan en hver idiot da regne ud, og det har desuden intet med denne nyhed at gøre.
Og hvorfor skulle man ikke have brug for at køre spil i over 1024x768??? Bedre opløsning = bedre grafik (ihvertfald i de spil der understøtter de høje opløsninger på en fordelagtig måde - og det er de fleste).
Den her nyhed handler om at ATi er kommet med et grafikkort der slår GF6800 så det basker, og så siger du at det er ligemeget?
- Jeg kan love dig for at de fleste gamere herinde vil give mig ret i at der aldrig har været et grafikkort der havde for meget power... tro mig, der skal nok blive brug for hver og én MHz når gamere skal til at spille de nyeste spil.
Edit:
Bare fordi du har en skodskærm er det jo ikke ligemeget hvor meget et grafikkort kan yde.
PikkeMand: Yaaa og jeg vil gerne spille i 2048*1536...men det ATI kort jeg har nu giver ikke så mange FPS der :)
40> Slår man AA og AF til så får Nvidia tæsk, samt ATI´s bruger mindre strøm end Nvidias der kræver 480watt strømforsygning næsten!....
#42 Du skulle nok læse det. Lavede en stor flamepost tidligere oppe, det viste sig at nogle steder sammenlignede de i andre opløsninger.
fx. ATi's kort var i 1600x1200, Nvidia's var i 1024x768. ekstremt dårligt lavet af dem.
Det dækker jo ikke særligt meget ind, tænk nu hvis det hvis det var en driverfejl på en bestemt opløsning?
Hvilket så også får mig til at undre mig over hvorfor de ikke prøvede de nye, dog betadrivere?
fx. ATi's kort var i 1600x1200, Nvidia's var i 1024x768. ekstremt dårligt lavet af dem.
Det dækker jo ikke særligt meget ind, tænk nu hvis det hvis det var en driverfejl på en bestemt opløsning?
Hvilket så også får mig til at undre mig over hvorfor de ikke prøvede de nye, dog betadrivere?
#10
Hmm når jeg siger at du ikke kan lavet noget med SM3 some du ikke kan med SM2 er det fordi jeg har det. Det svare til at sige at du ikke kan lave det samme med 8 pixelpipelines som du kan med 16. Det kan man altså godt, det tager bare flere gennemløb.
#17
Hvad!?!
HardOCP er klart dem der laver de bedste reviews der sammenligner kort fra forskellige firmaer (Det gør B3D jo ikke). Anandtech tester jo ikke Nvidias Ultra kort, men deres EXTREME udgave. Det er en udgave som Nvidia smed ud på market lige da ATI's kort røg ud til anmeldere. Det er et højere clocket Ultra kort. På HardOCP bruger de Ultra udgaven, som indtil for 2 dage siden var Nvidias hurtigste kort. De havde ikke nogen EXTREME udgave de kunne teste.
Hmm når jeg siger at du ikke kan lavet noget med SM3 some du ikke kan med SM2 er det fordi jeg har det. Det svare til at sige at du ikke kan lave det samme med 8 pixelpipelines som du kan med 16. Det kan man altså godt, det tager bare flere gennemløb.
#17
Hvad!?!
HardOCP er klart dem der laver de bedste reviews der sammenligner kort fra forskellige firmaer (Det gør B3D jo ikke). Anandtech tester jo ikke Nvidias Ultra kort, men deres EXTREME udgave. Det er en udgave som Nvidia smed ud på market lige da ATI's kort røg ud til anmeldere. Det er et højere clocket Ultra kort. På HardOCP bruger de Ultra udgaven, som indtil for 2 dage siden var Nvidias hurtigste kort. De havde ikke nogen EXTREME udgave de kunne teste.
#44
Giver multi-pass bedre performance?
Jeg har aldrig betvivlet deres kvalitet, men jeg må sige at det her er meget underligt.
Først laver de en test hvor de ikke gider/kan at teste det apples to apples pga optimal bla bla.
Endelig bagefter får de så også smidt en op, men de får aldrig testede de nyeste drivere. Hvilket de så efter sigende giver IQ "skylden".
Men ingen steder kan de gøre andet end bare at sige at det er sådan.
Umiddelbart synes jeg det ligner de holder hånden over noget, og det kan enten være de er bedre eller de er dårligere.
Og det minder alt i alt om noget Kyle ikke burde lade komme igennem ud til "offentligheden". Han har da tidligere kunne både forklare og vise objektiviteten i andre artikler, forstår bare ikke hvorfor han kan vise det i denne artikel.
Giver multi-pass bedre performance?
Jeg har aldrig betvivlet deres kvalitet, men jeg må sige at det her er meget underligt.
Først laver de en test hvor de ikke gider/kan at teste det apples to apples pga optimal bla bla.
Endelig bagefter får de så også smidt en op, men de får aldrig testede de nyeste drivere. Hvilket de så efter sigende giver IQ "skylden".
Men ingen steder kan de gøre andet end bare at sige at det er sådan.
Umiddelbart synes jeg det ligner de holder hånden over noget, og det kan enten være de er bedre eller de er dårligere.
Og det minder alt i alt om noget Kyle ikke burde lade komme igennem ud til "offentligheden". Han har da tidligere kunne både forklare og vise objektiviteten i andre artikler, forstår bare ikke hvorfor han kan vise det i denne artikel.
#45
Det er jo helt afhængigt af hvor langt tid et gennemløb tar. Hvis vi nu sagde at ATI skulle bruge 2 gennemløb for hver Nvidias ene for at lave samme effekt. Men at ATI's gennemløb kun to halv så lang tid, så ville performance være uændret.
Sådan foregår det ikke i virkeligeheden, men det illustrerer pointen.
Det er nu engang Brent der skriver GFX reviews og ikke Kyle. Formålet med non apples to apples sammenligning er at vise hvad der er "sweetspot" på det enkelte grafikkort.
Det siger jo ikke særlig meget om kortet kører 100 eller 140 i en given opløsning. Det er jo fuldstændig ligegyldigt. Det som folk vil have er så god IQ som muligt medens de stadig har en OK framerate. Det er det H prøver at vise i nogle af deres tests.
Nvidia har mange gange snydt med IQ i deres drivere, nu er de presset igen og hvis H siger at der var IQ issues med de nye drivere så stoler jeg på dem. I de sidste 2 år har der ikke været en finger at sætte på H's video reviews, det kan man ikke sige om Nvidias drivere eller deres udtalelser.
Jeg vælger at stole på H, hvis du heller vil stole på Nvidia .. be my guest, men vær opmærksomme på at langt de fleste af dem der har stolet på Nvidia igennem de sidste 2 år er blevet frygteligt skuffede.
Det er jo helt afhængigt af hvor langt tid et gennemløb tar. Hvis vi nu sagde at ATI skulle bruge 2 gennemløb for hver Nvidias ene for at lave samme effekt. Men at ATI's gennemløb kun to halv så lang tid, så ville performance være uændret.
Sådan foregår det ikke i virkeligeheden, men det illustrerer pointen.
Det er nu engang Brent der skriver GFX reviews og ikke Kyle. Formålet med non apples to apples sammenligning er at vise hvad der er "sweetspot" på det enkelte grafikkort.
Det siger jo ikke særlig meget om kortet kører 100 eller 140 i en given opløsning. Det er jo fuldstændig ligegyldigt. Det som folk vil have er så god IQ som muligt medens de stadig har en OK framerate. Det er det H prøver at vise i nogle af deres tests.
Nvidia har mange gange snydt med IQ i deres drivere, nu er de presset igen og hvis H siger at der var IQ issues med de nye drivere så stoler jeg på dem. I de sidste 2 år har der ikke været en finger at sætte på H's video reviews, det kan man ikke sige om Nvidias drivere eller deres udtalelser.
Jeg vælger at stole på H, hvis du heller vil stole på Nvidia .. be my guest, men vær opmærksomme på at langt de fleste af dem der har stolet på Nvidia igennem de sidste 2 år er blevet frygteligt skuffede.
#46 Jeg har aldrig skrevet jeg stoler på Nvidia, jeg ved godt det ikke er Kyle der lavede dette review, men du ved nok på sådan en redaktion plejer de at have en slags boss, normalt skal den boss også kigge artiklen/nyheden/whatever igennem det før han sætter det online.
Især siden at alt det der skrives sikkert vil blive reflekteret personen og sitet som hans mening.
Sweetspot? Ved godt at en artikel normalt handler om ens mening, men den bliver nød til at være objektiv. Og hvis man er objektiv så trækker man ikke sine egne meninger ned over hovedet på andre, man kan sagtens bruge det som et alternativ selvfølgelig.
Men det er lige derfor man skal bruge "apples to apples", da så behøver han ikke engang at skrive de andre synspunkter, han kan lade dem med synspunkterne gøre det for ham.
Men det kan du jo ikke hvis du er begrænset til et bestemt spor.
Han kunne sagtens have vist "Nvidia i 1600x1200, 40FPS max" eller lignende, og så ville enhver person nok sige til sig selv, tjae det der er hvertfald ikke mit sweetspot, hvor en måske godt kan lade sig klare med nogle slowdowns i ny og næ, så han tager den.
Det kan godt være Nvidia har snydt tidligere, men det har HardOCP også vist det tidligere. Men lad vær med at dreje sagen over på Nvidia, det her er omkring HardOCP og kun dem. Det er ikke nvidia der laver reviews, de citerer dem kun.
Selvfølgelig er der noget at sætte fingeren på, du skal bare være kritisk hvilket man normalt bør være, men for det meste så ender det jo med at alle reviews nogenlunde har en overordnet holdning omkring fakta som alle passer sammen med, og når så der så ligepludselig stikker en ud, så er der altså også noget galt, hvilket jo også blev rettet, bare ikke helt.
Edit: fx med beyond3d, de fordele der er for Nvidia kan jo sagtens diskuteres, især siden at Nvidia allerede har et singleslot design til deres gpu(den vil bare være dyrere at lave), og så med ATi hvor man aldrig har en væg(PCB) klods op ad en køler alligevel
Og så med Shadermodel 3.0 hvor det jo bare er en mindre fartoptimering(indtil videre) og så med OpenGL hvor problemet jo er optimering.
Især siden at alt det der skrives sikkert vil blive reflekteret personen og sitet som hans mening.
Sweetspot? Ved godt at en artikel normalt handler om ens mening, men den bliver nød til at være objektiv. Og hvis man er objektiv så trækker man ikke sine egne meninger ned over hovedet på andre, man kan sagtens bruge det som et alternativ selvfølgelig.
Men det er lige derfor man skal bruge "apples to apples", da så behøver han ikke engang at skrive de andre synspunkter, han kan lade dem med synspunkterne gøre det for ham.
Men det kan du jo ikke hvis du er begrænset til et bestemt spor.
Han kunne sagtens have vist "Nvidia i 1600x1200, 40FPS max" eller lignende, og så ville enhver person nok sige til sig selv, tjae det der er hvertfald ikke mit sweetspot, hvor en måske godt kan lade sig klare med nogle slowdowns i ny og næ, så han tager den.
Det kan godt være Nvidia har snydt tidligere, men det har HardOCP også vist det tidligere. Men lad vær med at dreje sagen over på Nvidia, det her er omkring HardOCP og kun dem. Det er ikke nvidia der laver reviews, de citerer dem kun.
Selvfølgelig er der noget at sætte fingeren på, du skal bare være kritisk hvilket man normalt bør være, men for det meste så ender det jo med at alle reviews nogenlunde har en overordnet holdning omkring fakta som alle passer sammen med, og når så der så ligepludselig stikker en ud, så er der altså også noget galt, hvilket jo også blev rettet, bare ikke helt.
Edit: fx med beyond3d, de fordele der er for Nvidia kan jo sagtens diskuteres, især siden at Nvidia allerede har et singleslot design til deres gpu(den vil bare være dyrere at lave), og så med ATi hvor man aldrig har en væg(PCB) klods op ad en køler alligevel
Og så med Shadermodel 3.0 hvor det jo bare er en mindre fartoptimering(indtil videre) og så med OpenGL hvor problemet jo er optimering.
#43 FISKER_Q
Det virker ikke som om, du har læst "disclaimeren", der står inden de forskellige testresultater:
Be aware that our main gameplay testing is not done in an “apples to apples” method. We strive to find “which card plays at the highest image quality” while maintaining a solidly playable framerate. The graph titles show you the resolution, AA and AF settings we found to be the best playable settings on the video cards. Then below you will find the graph that outlines Frames Per Second over a period of time. IQ comparisons are to be found below that so you can see the realworld comparison.
Sakset fra:
http://www.hardocp.com/article.html?art=NjExLDQ=
Jeg som forbruger foretrækker helt klart denne testmetode, da den bedre afspejler det, jeg som forbruger kan forvente, når jeg smider et nyt grafikkort i min PC.
heldigvis er vi forskellige, og gudskelov er der mange forskellige anmeldersider, der hver især har deres måde at håndtere en hardware-anmeldelse på. Ligesom med film gælder det om at finde det eller de sites, som bedst passer til ens temperament.
Edit: forsøg på at rette underligt linjebrud..
Det virker ikke som om, du har læst "disclaimeren", der står inden de forskellige testresultater:
Be aware that our main gameplay testing is not done in an “apples to apples” method. We strive to find “which card plays at the highest image quality” while maintaining a solidly playable framerate. The graph titles show you the resolution, AA and AF settings we found to be the best playable settings on the video cards. Then below you will find the graph that outlines Frames Per Second over a period of time. IQ comparisons are to be found below that so you can see the realworld comparison.
Sakset fra:
http://www.hardocp.com/article.html?art=NjExLDQ=
Jeg som forbruger foretrækker helt klart denne testmetode, da den bedre afspejler det, jeg som forbruger kan forvente, når jeg smider et nyt grafikkort i min PC.
heldigvis er vi forskellige, og gudskelov er der mange forskellige anmeldersider, der hver især har deres måde at håndtere en hardware-anmeldelse på. Ligesom med film gælder det om at finde det eller de sites, som bedst passer til ens temperament.
Edit: forsøg på at rette underligt linjebrud..
#49
Jeg har ikke skrevet mit indlæg for at det skulle ændre noget. Men blot for at pointere forskelligheden, hvorved de forskellige sites håndterer deres hardware-anmeldelser på.
At HardOCP skulle være indblandet i en konspirationsteori, som jeg synes, du får det til at lyde som om, er efter min mening "overkill".
Når både ATI og nVidia kommer med en færdig driver version, bliver der sikkert lavet en ny anmeldelse, som viser et mere troværdigt billede :)
Jeg har ikke skrevet mit indlæg for at det skulle ændre noget. Men blot for at pointere forskelligheden, hvorved de forskellige sites håndterer deres hardware-anmeldelser på.
At HardOCP skulle være indblandet i en konspirationsteori, som jeg synes, du får det til at lyde som om, er efter min mening "overkill".
Når både ATI og nVidia kommer med en færdig driver version, bliver der sikkert lavet en ny anmeldelse, som viser et mere troværdigt billede :)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund