mboost-dp1
unknown
lol... det er stadig på beta stadiet, det er helt sikkert! Men det virker sq, dog med enkelte fejl - som f.eks. hvis en admin ændrer i nyheden. Scriptet er meget følsomt, det kan sikkert fixes, men har jeg sq ik lige tid til :)
Okay... Så blev jeg det klogere.
Det er vel heller ikke andet end fair i kampen mod børneporno! Sådanne svin burde efter min mening skæres i eller noget :P Eller idømmes en mere betydelig straf i det mindste så. Gerne laaaang tid.
Det er vel heller ikke andet end fair i kampen mod børneporno! Sådanne svin burde efter min mening skæres i eller noget :P Eller idømmes en mere betydelig straf i det mindste så. Gerne laaaang tid.
Hmmm... JEG skal da i hvert fald ikke ha' et GFFX hvis der skal så voldsom køling til (se link), at der optages en PCI port pga. køleribber og blæser :-(
http://www.hothardware.com/hh_files/S&V/nv30_p...
Ellers skulle de flytte GPU'en om på den anden side af printpladen. Så kan der være plads til et _kæmpe_ køleprofil... og en lille stille blæser.
http://www.hothardware.com/hh_files/S&V/nv30_p...
Ellers skulle de flytte GPU'en om på den anden side af printpladen. Så kan der være plads til et _kæmpe_ køleprofil... og en lille stille blæser.
#3 Hektor
Tja, det er jo en alfe/pixie, hvor gammel sådan en er ved jeg ikke helt :)
http://www.nvidia.com/view.asp?IO=demo_dawn
Tja, det er jo en alfe/pixie, hvor gammel sådan en er ved jeg ikke helt :)
http://www.nvidia.com/view.asp?IO=demo_dawn
#11
"Hvid udgang"? Den kan da vist kun være DVI udgangen. Altså en digital udgang til TFT skærme.
http://www.eetimes.com/story/OEG20011127S0056
"Hvid udgang"? Den kan da vist kun være DVI udgangen. Altså en digital udgang til TFT skærme.
http://www.eetimes.com/story/OEG20011127S0056
Kortet virker meget imponerende, for at sige det mildt.
Men vi kommer nok ikke til at se det i DK før februar, på den anden side, så kan man også begynde at spare op...
Umiddelbart virker kortet til at være mere flexibelt i henhold til programmering ifht. Atis R9700 - og jeg lagde mærke til - i DOOM IIIs alpha 0.02 version - at der var lavet særindstillinger til NV30 kortet allerede (tjek doomconfig), hvilket tyder på at John Carmack nu i ca. 6 måneder har kendt til kortet, og hans lovprisning af kortet (på Nvidias hjemmeside) er et godt tegn for dens kvalitet.
Men vi har ikke nogle benchmarks, så vi kan lave en decideret sammenligning af R9700 og GeforceFX i de nuværende spil. Det glæder jeg mig til at se.
Men vi kommer nok ikke til at se det i DK før februar, på den anden side, så kan man også begynde at spare op...
Umiddelbart virker kortet til at være mere flexibelt i henhold til programmering ifht. Atis R9700 - og jeg lagde mærke til - i DOOM IIIs alpha 0.02 version - at der var lavet særindstillinger til NV30 kortet allerede (tjek doomconfig), hvilket tyder på at John Carmack nu i ca. 6 måneder har kendt til kortet, og hans lovprisning af kortet (på Nvidias hjemmeside) er et godt tegn for dens kvalitet.
Men vi har ikke nogle benchmarks, så vi kan lave en decideret sammenligning af R9700 og GeforceFX i de nuværende spil. Det glæder jeg mig til at se.
en hurtig gennemlaesning af specs paa toms hardware, viser da at kortet kun lige akurat kan passere r300 hvis de er heldige, og til den tid er ati's chip over et halvt aar gammel, og de vil have en ny udgave paa markedet - memory access er enda langsommere end ati's kort.. nvidea skal serioest finde paa noget bedre hvis de vil med igen ..
/stone
# 14 - det er vist en meget hurtig gennemlæsning.
Det er rigtigt, at Geforce FX ikke har mere båndbredde på hukommelsen, end R9700 (16 GB på Geforce FX imod R9700s 19,8) - det skyldes især, at Geforce FX kun bruger en 128 bits memory bus, hvor R9700 har 256 bit.
Men taktfrekvensen på Geforce FX kortet er derimod en del højere - 500 Mhz på GPU + RAM imod R9700s 325 Mhz på GPU og 310 Mhz på RAM. (dvs. henholdsvis 1 Ghz og 620 Mhz ram hastighed GeforceFX/R9700)
Det, som Toms Hardware stiller spørgsmålstegn ved er, hvorvidt GeforceFX kortet bliver hæmmet af af deres 128-bits hukommelses båndbredde. Det spørgsmål kan først besvares, når kortet har været gennem benchmark-trædemøllen - og de refererer også selv til Matrox Parhelia kortet, som på trods af 18 GB/s i hukommelses båndbredde, ikke kommer tæt på at overhale Geforce 4 TI modellerne, der 'kun' har 10,4 GB båndbredde - delvist pga. Parhelia kortets relativt lave hastighed på GPU og ram (200/250 Mhz).
I bund og grund afhænger meget af GeforceFX kortets styrke af, hvor effektivt kortet bruger sin hukommelse.
Ifølge rygter, der stammer fra Nvidia selv, skulle kortet være ca. 30% hurtigere end Atis R9700; men det skal selvfølgelig tages med et gran salt.. men regner man lidt på det tal, så burde kortet teoretisk score ca. 18000-20000 3D Marks på et highend system +/- et par tusinde.
Ser man udover den reelle maskinkraft, og ser på hastigheden af de mere avancerede effekter, så har GeforceFX kortet en del 'rene' fordele. Antallet af Pixel pipelines, antal textures pr. pipeline, Floating Point udregninger af vertex shaders og ikke mindst komprimeringen af farveinformation (4:1 lossless), burde give GeforceFX kortet en del fordele ved udregning af mere kompliceret grafik -
Det store spørgsmål er, om kortet udover at være fyldt med ekstra features, også kan vise de nødvendige muskler i de spil, der er ude på nuværende tidspunkt.
Skal vi tro Nvidia, så har det.
Personligt tror jeg, at kortet vil kunne leve op til forventningerne; men det er ud fra teorien om, at Nvidia ikke har råd til andet.
Men vi kan som sagt kun gætte, eftersom vi mangler en testmodel. Lad os håbe at Toms Hardware/ExtremeTech og Beyond 3D snart får fat i en testmodel..
Beyond 3Ds konklusion er for i øvrigt værd at læse:
http://www.beyond3d.com/previews/nvidia/nv30gfx/in...
Det er rigtigt, at Geforce FX ikke har mere båndbredde på hukommelsen, end R9700 (16 GB på Geforce FX imod R9700s 19,8) - det skyldes især, at Geforce FX kun bruger en 128 bits memory bus, hvor R9700 har 256 bit.
Men taktfrekvensen på Geforce FX kortet er derimod en del højere - 500 Mhz på GPU + RAM imod R9700s 325 Mhz på GPU og 310 Mhz på RAM. (dvs. henholdsvis 1 Ghz og 620 Mhz ram hastighed GeforceFX/R9700)
Det, som Toms Hardware stiller spørgsmålstegn ved er, hvorvidt GeforceFX kortet bliver hæmmet af af deres 128-bits hukommelses båndbredde. Det spørgsmål kan først besvares, når kortet har været gennem benchmark-trædemøllen - og de refererer også selv til Matrox Parhelia kortet, som på trods af 18 GB/s i hukommelses båndbredde, ikke kommer tæt på at overhale Geforce 4 TI modellerne, der 'kun' har 10,4 GB båndbredde - delvist pga. Parhelia kortets relativt lave hastighed på GPU og ram (200/250 Mhz).
I bund og grund afhænger meget af GeforceFX kortets styrke af, hvor effektivt kortet bruger sin hukommelse.
Ifølge rygter, der stammer fra Nvidia selv, skulle kortet være ca. 30% hurtigere end Atis R9700; men det skal selvfølgelig tages med et gran salt.. men regner man lidt på det tal, så burde kortet teoretisk score ca. 18000-20000 3D Marks på et highend system +/- et par tusinde.
Ser man udover den reelle maskinkraft, og ser på hastigheden af de mere avancerede effekter, så har GeforceFX kortet en del 'rene' fordele. Antallet af Pixel pipelines, antal textures pr. pipeline, Floating Point udregninger af vertex shaders og ikke mindst komprimeringen af farveinformation (4:1 lossless), burde give GeforceFX kortet en del fordele ved udregning af mere kompliceret grafik -
Det store spørgsmål er, om kortet udover at være fyldt med ekstra features, også kan vise de nødvendige muskler i de spil, der er ude på nuværende tidspunkt.
Skal vi tro Nvidia, så har det.
Personligt tror jeg, at kortet vil kunne leve op til forventningerne; men det er ud fra teorien om, at Nvidia ikke har råd til andet.
Men vi kan som sagt kun gætte, eftersom vi mangler en testmodel. Lad os håbe at Toms Hardware/ExtremeTech og Beyond 3D snart får fat i en testmodel..
Beyond 3Ds konklusion er for i øvrigt værd at læse:
http://www.beyond3d.com/previews/nvidia/nv30gfx/in...
fucking HUUUUUGE
troede at .13 skulle gøre den mindre, koldere og mere strømbesparende - men den er større, varmere (derfor den ekstreme køling) samt har den strøm stik!
Tænk på hvad de skulle have gjort hvis den stadig var .15 !
troede at .13 skulle gøre den mindre, koldere og mere strømbesparende - men den er større, varmere (derfor den ekstreme køling) samt har den strøm stik!
Tænk på hvad de skulle have gjort hvis den stadig var .15 !
Snart kommer der sku et grafikkort med 48 frams per sek. ligesom dvd kvalitet men der bliver det jo heller ik sjovt at game for real life altså "hallo" ik det bliver jo ufedt at game i dvd kvali og fuck det openGL pga. de finder nok på noget nyt lort da.... men afligevel så er det pisse ufedt at game i dvd kvali!!!! tænk over det man! ......
#15
ja nvidias clockfrekvens er højere, meeeeeeeen.... nu har ATI jo også en DDRII udgave af 9700 propå trapperne, så lad og se hvad, der kommer først til februar(det er der jo lang tid til i grafikkort tid). men det er for tidligt at rigtigt spekulere, der skal bruges benchmarks, clockcykler på AthlonXP og P4 kan jo heller ikke helt sammenlignes.
ja nvidias clockfrekvens er højere, meeeeeeeen.... nu har ATI jo også en DDRII udgave af 9700 propå trapperne, så lad og se hvad, der kommer først til februar(det er der jo lang tid til i grafikkort tid). men det er for tidligt at rigtigt spekulere, der skal bruges benchmarks, clockcykler på AthlonXP og P4 kan jo heller ikke helt sammenlignes.
De skriver at Geforce FX er det første nvidia kort som har teknologi med fra det opkøbte 3dfx m.m....
Så det er da klart det skal bruge 2 pci slots?
;o)
Så det er da klart det skal bruge 2 pci slots?
;o)
Hov, OndePik, det er meningen at du skal være en ATi fanboy, du kan ikke bare ændre på forumreglerne midt i det hele. Det er jo forvirrende for undertegnede :)
Og det at den optager nabo PCI slottet generer ikke mig, da jeg allerede optager det pga vandkøling. Jeg håber da også at der kommer et vandkølehovede som er kompatibelt med GFFX kort layoutet.
Og det at den optager nabo PCI slottet generer ikke mig, da jeg allerede optager det pga vandkøling. Jeg håber da også at der kommer et vandkølehovede som er kompatibelt med GFFX kort layoutet.
#27 OndePik:
Jeg glæder mig til at se *uafhængige* benchmarks. nVidia har selv lavet en test:
http://www.3dcenter.org/artikel/2002/11-19_b.php
P4, 3 GHz; 512 MB RAM; Windows XP; 1280x1024@32 bit; High Quality
GeforceFX 5800U: 46,5 fps
Radeon 9700 Pro: 33,1 fps
GeForce4 Ti4600: 18,9 fps
Hvis det holder stik, så er det da ret pænt .. men 30% på ~6 måneder er ikke meget.
Jeg glæder mig til at se *uafhængige* benchmarks. nVidia har selv lavet en test:
http://www.3dcenter.org/artikel/2002/11-19_b.php
P4, 3 GHz; 512 MB RAM; Windows XP; 1280x1024@32 bit; High Quality
GeforceFX 5800U: 46,5 fps
Radeon 9700 Pro: 33,1 fps
GeForce4 Ti4600: 18,9 fps
Hvis det holder stik, så er det da ret pænt .. men 30% på ~6 måneder er ikke meget.
Hektor, hvis de tal holder, så er det jo 30% over 6 måneder i forhold til ATi's chipsæt og ikke nVidias eget chipsæt.
Og når man tænker på at det er konkurrende firmaer plus at R9700 kortet faktisk er ret hurtigt, så er 30% i forhold til det jo en hel del.
Og når man tænker på at det er konkurrende firmaer plus at R9700 kortet faktisk er ret hurtigt, så er 30% i forhold til det jo en hel del.
saadan en gang makvaerk. naeh, giv mig i stedet noget ordenligt state-of-the-art grafik.
http://www.commodorebillboard.com/Amiga/AmigaAdver...
se, det var noget der kunne imponere.
/stone
#30 "Hektor"Nu er det jo også ~41% mere ydelse i forhold til Radeon 9700 - og ikke 30%. ((46.5-33.1)*100%)/33.1 = 40.48%, men det er hvis vi går ud fra de FPS som du postede, hvilket jeg altså går ud fra du gør.
Det er da en betydelig stigning efter min mening, og det bliver endnu mere hvis vi regner forskellen ud fra Ti4600.
Det er da en betydelig stigning efter min mening, og det bliver endnu mere hvis vi regner forskellen ud fra Ti4600.
Personligt vil jeg til hver en tid foretrække Nvidia frem for ATI. ATI har det med kun at sigte på gamere med deres kort, hvilket gør dem ret ufleksible (men også god performance self). F.eks sutter radeon til at vise wireframes, hvilket er essentielt når man selv arbejder med 3dgfx. Her er f.eks gef4 langt bedre.
Tror ikke Radeon sigter efter Pro GFX maker markedet - snarere er det FireGL og Quadro kort du skal kigge på der - og så bliver det straks en helt anden diskussion (eller .. ? :P).
Yep Firegl/Quadro er til prof GFX ikke hverken Radeon eller nv30.
men Radeon har INGEN problemer med at vise wireframe - det kan jeg stå inde for, også selvom jeg kun har en ældre 8500. Den viser fint wireframes i 3DS max, Maya og UnrealED 3.0 - lige så fint som mine kammeraters *.geforce
#34 TR|X:
Du _har_ hørt om udtrykkene "hovedregning" og "guesstimate"?
Lidt hovedregning siger, at 33,1 + 30% ~44;
~44 er nogenlunde det samme som 46,1
Jeg gider ikke finde en lommeregner frem for at finde de præcise tal til noget så simpelt ... hvorfor skulle jeg?
Finder du måske en lommeregner frem, når du går rundt og handler nede i Netto og gætter dig til, hvad du sådan ca. skal af med ved kassen? I så fald har du tabt.
Du _har_ hørt om udtrykkene "hovedregning" og "guesstimate"?
Lidt hovedregning siger, at 33,1 + 30% ~44;
~44 er nogenlunde det samme som 46,1
Jeg gider ikke finde en lommeregner frem for at finde de præcise tal til noget så simpelt ... hvorfor skulle jeg?
Finder du måske en lommeregner frem, når du går rundt og handler nede i Netto og gætter dig til, hvad du sådan ca. skal af med ved kassen? I så fald har du tabt.
#41 Acro:
Nu var der tale om en tyrk-/tænkefejl fra min side, at der stod 30%; der skulle have stået 33%, men det rører ikke ved mit gæt.
Desuden kommer forskellen an på, hvordan du regner det ud.
46,5/33,1 == 1,40 => 40%; en GeforceFX er 40% hurtigere end en Geforce4 TI4600
33,1/46,5 == 0,71 => 29%; en Geforce4 TI4600 er 29% langsommere end en GeforceFX
Begge dele er lige korrekte, og min tekst giver ikke nogen indikation af, hvilken af de to, jeg hentyder til.
Nu var der tale om en tyrk-/tænkefejl fra min side, at der stod 30%; der skulle have stået 33%, men det rører ikke ved mit gæt.
Desuden kommer forskellen an på, hvordan du regner det ud.
46,5/33,1 == 1,40 => 40%; en GeforceFX er 40% hurtigere end en Geforce4 TI4600
33,1/46,5 == 0,71 => 29%; en Geforce4 TI4600 er 29% langsommere end en GeforceFX
Begge dele er lige korrekte, og min tekst giver ikke nogen indikation af, hvilken af de to, jeg hentyder til.
#40 "Hektor"
Slap lidt af hva'...
Ja jeg har hørt om skønhedsregning. Lærte om det i folkeskolen (gør de fleste). Det var det jeg brugte først; jeg syntes at 30% lød for lidt og regnede det så ud, og nej, der må jeg skuffe dig, jeg tog ikke en lommeregner frem, jeg brugte den således fine funktion i mIRC (som aligevel altid er tændt) som hedder calc og det tog mig højst 20 sekunder at udregne det.
Når jeg går nede i netto - hvor jeg også arbejder i min sparsomme fritid, bruger jeg aldrig procenter og skal ikke sammenligne ved hjælp af dem - på nogen måde. Synes slet ikke den sammenligning holder overhovedet.
Desuden påpegede jeg bare at det var 40% og ikke 30%, at du så vælger at blive stødt over at blive rettet (ikke hånet) synes jeg ikke er rimligt - og også da jeg ikke selv mener at der ikke var nogen negativ tone i det indlæg overhovedet, hvilket der så er her.
#37 klart at man skal op i nogle mere profs kort hvis man vil lave gfx, men de koster også derefter.. Den test jeg så blev radeon nærmest ydmyget i 3dsmax når der skulle vises wireframes.. Self kan den da gøre det, men den er bare meget (relativt) dårlig til det, da det ikke er prioriteret højt da den kun er til gamere. Den tabte endda til Parhelia i nogle tilfælde og til gef4 i næsten samtlige tests (alle blev self revet rundt af quadroen)
#46 "Hektor"
Det går jo nok :) - hvis der er ingen hard feelings fra din side, er der heller ikke fra min. Måske jeg misforstod graden af negativitet i dit indlæg. Gjorde jeg nok. Ikke mere snak om det.
Men få da nogen til at bære nogle af dine byrder så du ikke er så stresset, så vidt jeg husker er det ikke sundt!
Det går jo nok :) - hvis der er ingen hard feelings fra din side, er der heller ikke fra min. Måske jeg misforstod graden af negativitet i dit indlæg. Gjorde jeg nok. Ikke mere snak om det.
Men få da nogen til at bære nogle af dine byrder så du ikke er så stresset, så vidt jeg husker er det ikke sundt!
Det er rigtigt a Radeon kort ikke er vanvittigt gode til prof. 3d programmer. Det er en sand pine at bruge 3DS MAX på min computer med et R8500. Det hakker sindsygt meget hvis jeg vælger at se wireframes. "Smooth + highlights" setting er faktisk 2/3 gange hurtigere for mig.... og det er jo ikke meningen.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund