mboost-dp1

unknown

En legende inden for 3D – Voodoo 5 6000

- Via x86-secret - , redigeret af Pernicious

De fleste husker nok den korte periode, hvor 3Dfx med deres Voodoo serie sad tungt på markedet for 3D-grafikkort, og Voodoo 1 og 2 førte an. Men så kom nVIDIA og deres TNT som overhalede Voodoo 3, og et år senere, i år 2000, forsøgte 3Dfx med en sidste krampetrækning at lancere et kort, som skulle generobre markedet fra nVIDIA, hvilket som bekendt ikke skete.

Der er tale om Voodoo 5 6000, som aldrig blev sat til salg, men som der stadig eksisterer samples af. Kortet har ikke mindre end 4 GPUer med hver deres blæser, 128 MB RAM, og skal forsynes af en ekstern 100watt strømforsyning.

x86 Secret tester her et af de få eksemplarer af kortet, i bl.a. 3dmark, Quake 3 og endda også Doom3, hvor ydelsen dog ikke imponerer. Desuden er der en masse nostalgisk baggrundsstof om 3Dfx og deres storhedstid.





Gå til bund
Gravatar #1 - The-Lone-Gunman
18. jun. 2005 11:29
Ahh ja, jeg kan huske dengang mit TNT2 kort var state-of-the-art.
Gravatar #2 - Yasw
18. jun. 2005 11:39
4 GPU'er med hver deres blæser og en seperat strømforsyning? Selv hvis det var til salg vil jeg nok aldrig købe sådant et monstrum. Istedet for at lave grafikkort der er større end bundkortet, hvorfor begynder man så ikke at lave specielle gamer-motherboards, som så er et halvt grafikkort samtidig? Med de størrelse grafikkort er begyndt at få er de jo nærmest halve motherboards.
Gravatar #3 - nielsbuus
18. jun. 2005 11:53
Jeg kan ikke forstå hvorfor der er denne her mystik og respekt omkring det sidste 3DFX kort. Var det fordi kortet var så håbløst energi og kost ineffektivt konstrueret, eller fordi 3DFX var de første?

Hvorfor er der ingen der med udsat sjæl mindes S3 Savage 4, Matrox G200, Rendition Verite eller Kyro?

3DFX døde fordi de havde sovet i timen, taget overpris for deres kort og nægtede andre GFX-producenter adgang til GLIDE-standarden. Det var først da dødsattesten var underskrevet og Direct3D havde kontrollen at 3DFX i frygt, udsendte GLIDE API'en som opensource - i slutningen af 1999.

Jeg græder tørre tåre. Det var et pengefikseret firma (som alle andre) med en ledelse der mistede visionen og gik i stå, i samme øjeblik indtægterne rullede.
Gravatar #4 - |anders
18. jun. 2005 11:54
http://www.x86-secret.com/pics/divers/v56k/histo/1...
Nice reklame.. So powerful, its kind of ridiculous
Gravatar #5 - 4nd3r5
18. jun. 2005 11:55
det er en lidt unfair test, driverne er ikke officielle og ikke optimerede.

Men det billede med den eksterne størm forsyning er bare for fedt, jeg vil elske at have endnu en strøm forsyning under mit bord.

OT
Hvem har flest strøm forsyninger i deres hjem ?

Under bordet:
Skærm
printer
ekstern harddisk
mobil telefon
PDA
Digital kamera

Tæt på:
Bærbar comp.
DAB radio
Video kamera
Fastnets telefon

I køkkenet:
Baby alarm
Endnu en mobil telefon
Elektrisk tandbørste, ikke stik i bade værelse

Sove værelse:
Router
Switch
Radio

Det er 17, svarende til 1 per 4 kvadrat meter.
Gravatar #6 - AenimA
18. jun. 2005 12:12
Jeg har ejet 2 Voodoo kort - først et Voodoo 1 kort og derefter et Voodoo 3 kort... især sidstenævnte skuffede dengang - var ikke specielt hurtigt og manglede en del features i.fh.t. konkurrencen (især manglen på 32 bit farve)

Men det kort jeg har de bedste erindringer om, er klart det første Geforce 256 kort, som er det kort jeg har haft i længst tid (2 ½ år)
Gravatar #7 - FasterTove
18. jun. 2005 12:25
3:
Grunden til at 3dfx er noget særligt, og dem du nævner ikke er det, er jo nok at 3dfx var 'kæmpen' der blev overhalet af tiden. 3dfx svarede jo engang til hvad Nvidia og ATI er tilsammen i dag - klart dominerende på 3d-markedet, så der er vel ikke så meget at sige til, at 3dfx-kortene interesserer mange.

En anden grund er, at der var mange folk der blev fanget under de senere 3dfx kort, hvor driver supporten til mange spil var for ringe, eller slet ikke til stede. Dermed opstod for manges vedkommende et specielt forhold til deres grafikkort og drivere.
Gravatar #8 - traCe
18. jun. 2005 12:33
jeg husker stadig mit VOODOO 2 kort med 8mb, 2000 kr slap jeg for det...

men så var der også FARVET lys i Quake II !!!
Gravatar #9 - davp
18. jun. 2005 12:43
Ak ja, husker tydeligt hvor lækkert mit Fifa 98 kom til at køre da jeg skiftede fra <indsæt skodkort jeg ikke kan huske>, til et Voodoo kort :)

3dfx kunne have været blevet store - Glide skulle det ikke være.
Gravatar #10 - 21
18. jun. 2005 12:45
jeg tror vi var mange der ventede på Rampage og håbede på at det kunne generobre 3dfx tronen..lidt info fra wiki http://en.wikipedia.org/wiki/3dfx

The Voodoo 5 6000 never got to the market, due to a severe bug resulting in data corruption on the AGP bus on certain boards, and was limited to AGP 2*, which would have prevented its use on the then-new Pentium 4 motherboards. Later tests proved that while the Voodoo 5 6000 would have been able to outperform the Geforce 2 GTS, it would've been outperformed by the Geforce 2 Ultra and the Geforce 3. The Voodoo 5 5000 never got launched either, as the smaller framebuffer didn't significantly reduce cost over the Voodoo 5 5500.

Voodoo 4 was as much of a disaster as Voodoo Rush, and while Voodoo 5's sales were respectable, they were nowhere near as good as 3dfx needed. In late 2000, several of 3dfx's creditors decided to initiate bankruptcy proceedings. 3dfx would have had virtually no chance of winning these proceedings, and instead opted to be bought by NVIDIA, ceasing to exist as a company. Most of the design team that were working on Rampage (the successor to the VSA-100 line) were transferred to the team working on what has since become the GeForce FX series.

3dfx's decline is a matter of debate, but it is most often attributed to managerial prioritizing of research and development. Voodoo cards were typically highly expensive, and left the mid and low end of the market to ATI and NVIDIA. NVIDIA chose short development cycles whereas 3dfx pursued lengthy development cycles, and NVIDIA and ATI cards had better overall performance, with Matrox holding the edge in image quality. The Rampage card, which 3dfx put much effort into but never was able to bring to market, is said to have been technologically several years ahead of the competition.
Gravatar #11 - traCe
18. jun. 2005 13:02
Det havde faktisk været najs med en spiller mere på gfx kort fronten, prøv at overveje de priser og den konkurrence der ville være >:D
Gravatar #12 - KaLiFfEn
18. jun. 2005 13:32
#2 Det gør man faktisk allerede, almindelige forbrugere kan bare ikke få dem som standalone bundkort endnu! (så vidt jeg ved!) Men sony har f.eks. i deres vaio vgc-v520g implementeret et GeForce FX Go5700 gafikkort i selve bundkortet! Har en til at stå skilt af lige nu! Kan dog ikke dele billeder af den pga. firmapolitik! For at beskrive det, så har de taget bundkortet, og så smidt grafikkortet ned som en del af mainprintet, og lagt den tæt på hovedprocessoren, pga. noget køling og lidt af hvert, og det skal lige siges at de har lavet superfed køling i det apparat! Men du kan se selve et billede af "computeren" her [url=http://pcworld.about.com/news/Apr292005id120662.htm[/url]

Skal lige siges at det er et ret fedt system :-)
Gravatar #13 - rmj
18. jun. 2005 13:56
#12 hvem vil også have sådan noget lort ? helt seriøst ?!? ville godt nok aldrig have bundkort med indbygget gfx ?
1. Hvad hvis lortet går i stykke så skal bundkortet også sendes til rep ?.

2. Muligheden for at skifte som det passer en ?.. så skal man skifte begge dele ?. og det giver jo mindre frihed.

Nej du vill du have have samlet skidt så køb en konsol eller noget du ?..
Gravatar #14 - Kadann
18. jun. 2005 14:00
#13 -

Nu findes der jo bundkort med onboard grafikkort, som også har AGP eller PCI-Express slot, så er problemet jo ikke større end at man deaktiverer det onboard kort og smider et andet i, hvis man vil have noget der er bedre.
Gravatar #15 - amix
18. jun. 2005 14:38
Om et par år på newz.dk:

En legende inden for OS - Longhorn
De fleste husker nok den lange periode, hvor Microsoft med deres Windows serie sad tungt på markedet for OS. Men så kom Apple og deres Mac OS X som overhalede Windows, og et par år senerel...
Gravatar #16 - ChrashOverride
18. jun. 2005 14:53
Jeg husker også 3dfx storheds tid jeg solgte en del af dem men det spil jeg husker best på 3dfx kortet var Mechwarrior en af de tidliger udgaver, hvor en PII maskine var udsyret med et Voodo 2 kort, og det var da også imponerende dengang.

Kan også huske Trio og s3 virge kortne de var faktisk ganske fornuftige i både pris og ydeævne og så kunne de faktisk håndtere de fleste spil med moderert opløsning.

Har da siddet og spillet Diablo og Warcraft mange gang med et Virge kort og var ganske tilfreds.

Men en af de ting som plager mig i dag er at programmeringen og rendering er så ufattelig tung som den er, jeg mener jeg husker tilbage hvor Jeg sad og lavede Demoer til C64 og Amiga, hvor jeg havde føleses af at jeg rev alle de resourcer ud af maskine som jeg kunne få fat i, og den kørte det ufattelig godt.

I dag sidder jeg stadig og programmer, men jeg føler at det er som om at compilering af koden er blevet så tung at man ikke rigtig får noget kraft ud af det, og jeg har også prøvet at skifte mellem kompiler f.eks Watcom, Fortron, og ja det giver lidt, men ikke noget hen af det samme som da jeg programmeret på Amigaen det er lige som om at toppen er taget af.

Jeg ved ikke måske er det bare mig men det kunne da være interssant at andre sidder med den samme følese?
Gravatar #17 - amokk
18. jun. 2005 15:10
#16
Nu er der jo ingen 3D grafik i warcraft 1 og 2, så det er irrelevant om det spilles på voodoo eller s3 kort.

Ang. det du siger med at programmeringen er blevet tungere, er det jo korrekt, men det er også fordi fleksibiliteten er blevet større.

På f.eks. amiga og C64 skulle du jo kun kode op imod 1 type CPU og 1 type grafikchip. Desuden kunne du boote direkte fra det du ville spille. Det betyder at du kan starte direkte op på disketten, og derfor overhovedet ikke skal tænke på kompatibilitet med andet software. Dernæst kan du skære antallet af nødvendige instruktioner i din kode, ned til det som er absolut nødvendigt for at lave det du nu vil lave. DU kan angive instruktionerne direkte, uden diverse lag som oversætter disse, og har derfor mere kontrol med hardwaren.

i en Windows PC, er man nødt til at tage højde for, at der ligger nogle lag imellem hardwaren og spillet, og derfor skal spillet kodes til at være kompatibelt med dette system.
Desuden koder man igennem en API (directx) og den har så kontakt til driverne (HAL) som så har kontrol over hardwaren. Så her er der nogle mellemled mellem din kode og hardware, som tager en del af ressourcerne, og du skal tage højde for at maskinen allerede kører andre ting, som ikke må forstyrre det spil du laver. Fordelen her, er jo som vi ved, at samme program eller spil kan køres på 2 maskiner hvor hardwaren er 100% forskellig, hvis du har en P4 med nvidia kort, kan den køre samme spil som min AMD64 med ATI kort. Og i dag er CPU kraft ikke nogen mangelvare, derfor vælger man at satse på en god programstruktur og fleksibilitet, frem for at klemme de sidste 5% ud af CPUen
Gravatar #18 - KaLiFfEn
18. jun. 2005 17:01
#13
1 & 2 Der er et ekstra AGP slot, dog skal man lige have et lille ekstra kort, der gør at grafikkortet ligger parallel, med bundkortet, og ud over hvis man laver det selv, ved jeg ik lige hvordan man skaffer sådan et!

Men ja... sony vil helst at man sender den til rep. hos dem! (Du kan dog ikke købe den omtalte model i DK!) Det er nemligt næsten umuligt at komme ind i den, det tog os ca. 3 timer! (krævede mig + en elektronikfagteknikker + 2 ingeniører)

Dog er det ikke så svært at gøre igen, bortset fra at der sidder 200 skruer i den eller sådan noget!

Det skal så lige tilføjes at ram og harddisk er gjort nemt tilgængelig, så det kan skiftes på få minutter, med en stjerneskruetrækker!
Gravatar #19 - neckelmann
18. jun. 2005 18:44
#16

I dag sidder jeg stadig og programmer, men jeg føler at det er som om at compilering af koden er blevet så tung at man ikke rigtig får noget kraft ud af det, og jeg har også prøvet at skifte mellem kompiler f.eks Watcom, Fortron, og ja det giver lidt, men ikke noget hen af det samme som da jeg programmeret på Amigaen det er lige som om at toppen er taget af.


Hvad med at skifte til DOS så? Der er der nærmest ingen OS der ligger og "forstyrer dig". Men hvis der alligevel er for meget, så kan du jo alternativt skrive dine programmer i assembler, gemme dem i bootsectoren på en floppy (du har vel alliwl ikke brug for mere end 512 bytes programkode, right?), og så boote direkte ind i dit program. Mega smart, og så er du herre over din egen computer.

Jeg kan anbefale nasm. Og her er et Hello world eksempel så du kan komme i gang.
Gravatar #20 - m!
18. jun. 2005 20:21
hehe savner næsten mit gamle voodoo 2, vis jeg havde det idag skulle det hænge på væggen :D
Gravatar #21 - Kadann
18. jun. 2005 20:32
#20 -

Hvis jeg havde et voodoo 2, så sad det da i min maskine. ;)
Gravatar #22 - amokk
18. jun. 2005 20:48
#20,#21 jeg har et liggende, hvor meget byder I?
Gravatar #23 - turpin
18. jun. 2005 22:23
#20,#21 - I kunne gå HELT amok og sætte _2_ voodo2 i - De var jo en slags forgængere for SLI kortene, ved at de kunne processere hver deres halvdel af skærmbilledet :)
Gravatar #24 - Kadann
18. jun. 2005 22:27
#23 -

Har ikke plads til den slags.. jeg har kun 3 PCI-slots i mit bundkort og de to er fyldt op.
Gravatar #25 - amokk
18. jun. 2005 23:26
#23 ehm... det var faktisk 3DFX som fandt på navnet SLI.

og det stod for Scan Line Interleaving - hvilket betyder at de skiftes til at rendere hver linje, ikke hver halvdel af billedet! og ellers var forskellen, at det gav 100% forbedring af performance, da det ikke var afhængigt af understøttelse i spillene og driverne, men kørte på hardwareniveau - IMHO mere effektivt end nvidias løsning
Gravatar #26 - 21
19. jun. 2005 00:39
#25 men det er den ikke. Der er flere grunde til at SLI som vi kender det fra voodoo 2 ikke ville fungere godt i dag. Mit net er dog owned pt. så kan ikke finde den artikel om hvorfor det ikke ville fungere. Mener dog det var på anandtech jeg læste om det.
Gravatar #27 - ChrashOverride
19. jun. 2005 07:14
#19
Jeg har skam programmeret en del i asm til PC, har bla lavet mine egne rutiner som taler direkte med grafik kortet i 1024 * 768 med 32 bit farver, der er bare det lille problem som amokk sage du er nød til at køre gennem alle de lag som windows kernen har liggende imellem, hvis du har lyst til at den nomale gemene person skal kunne bruge dit lille program.

Problemet er bare at når du så begynder at tale med windows igennem dit program begynder alt at blive en smugle langsomer og tunger og man får nogle gange følelsen af at man ikke udnytter maskin kraften optimalt, men snare går på kompromi med hvad windows kan "nå at håndtere" for dig.

Dette gør at når du så skal til at lave avanceret spil og den slags som virkelig kræver en del maskin kraft ram og den slags er man nødsaget til at snyde en del, ved at lave en dynamsik load rutine så som f.eks set i mange mmorpg spil hvor at du loader "zoner" adgangen for ikke at have alt formeget grafik liggende i hukommelsen. Det er da også altsammen meget godt, men det er bare som om at det tager toppen af ydeevnen på en eller anden måde, sådan føler jeg det.
Gravatar #28 - neckelmann
19. jun. 2005 10:05
#27
Jeg har skam programmeret en del i asm til PC, har bla lavet mine egne rutiner som taler direkte med grafik kortet i 1024 * 768 med 32 bit farver ...


... der har været ekstremt langsomme sammenlignet hvad du kan gøre med DirectX & co i dag (jeg antager du har brugt kortets VESA-interface). Selv hvis du tager dit gamle grafikkort fra dengang og smider det i din windowsmaskine med DirectX, så vil du kunne mærke det går hurtigere med DirectX.

... der er bare det lille problem som amokk sage du er nød til at køre gennem alle de lag som windows kernen har liggende imellem, hvis du har lyst til at den nomale gemene person skal kunne bruge dit lille program.


Ikke hvis du bruger DOS eller skriver "dit eget OS" som jeg foreslog :)
Hvis du vil hve "den normale gemene person" til at kunne bruge dit program skal du alligevel bruge DirectX/GDI/whatever.

Dette gør at når du så skal til at lave avanceret spil og den slags som virkelig kræver en del maskin kraft ram og den slags er man nødsaget til at snyde en del, ved at lave en dynamsik load rutine så som f.eks set i mange mmorpg spil hvor at du loader "zoner" adgangen for ikke at have alt formeget grafik liggende i hukommelsen.


Hvad har det med sagen at gøre? Mener du at hvis du portede World of Warcraft til Amiga, så kan du have hele verdenen loadet på en gang, og renderer alt via brute force? Hmm. Spektakulært.

Der har været smarte grafikalgoritmer lige så længe der har været computere - og jo mere avancerede spillene og grafikken er, jo mere avancerede er algoritmerne. Længe leve dét.

Men det her er vist monster off-topic :)

Jeg havde også et Voodoo II med 12 (TOLV!) megabytes RAM engang. Det var rimeligt nice og mener jeg brugte det i pænt lang tid. Tror jeg brugte det helt frem til Unreal Tournament og Quake 3, hvor jeg opgraderede til nvidia (TNT2, så vidt jeg husker) for at kunne få 32-bit farver. Hmm, det er frygteligt så mange penge jeg har brugt på grafikhardware igennem tiderne; *regne regne* små 7000 kr. Men okay der er sikkert mange der har brugt meget mere :-O
Gravatar #29 - AenimA
19. jun. 2005 10:58
# 28 jep

meget mere end det
Gravatar #30 - hatten
19. jun. 2005 14:24
#2 Der laves da utallige motherboards, hvor grafikken er integreret, til gamere, jeg forstå ikke din pointe. De kaldes konsoler.....
Gravatar #31 - Bundy
19. jun. 2005 14:44
Hvad sker der også lige for det her

"Hvis vi nu sætter TUSIND GPU'er på et kort, og leverer det med egen generator, SÅ vinder vi markedet, fo' sure!"
Gravatar #32 - ChrashOverride
19. jun. 2005 20:07
#27
Intersant valg som du skriver...
Lige et spørgsmål kan du skrive DirectX i ren Dos mode...
Nej det kan du ikke ergo er du nødsaget til at loade windows platformen for at få adgang til DirectX

Warcraft til amiga...
Ja det kan lade sig gøre gennem linux køre dog ikke synderligt impornerende, men det kan lade sig gøre.

VESA interface...

Nej jeg skrev direkte til hukommelesen på kortet og der efter sende jeg et interrupt til kortet og siden jeg rykkede det i ASM mode gik det forygende stærkt da jeg ikke først skulle igennem en masse omskrivelser af rutiner og typecasting af variabler og ligende men mere sage
X,Y, Fave, det var ca 40% hurtiger end hvis du tager en Nuværende pentium skriver en grafik rutine some loader et Billede i CImage og der efter rykker det direkte til CDC pass på samme måde ved at skrive X,Y, COLORREF i dette tilfælde skal det først have:

1 handle fra dialog box Item some du så laver om til en Direct Connect, der efter kan du så skrive direkte til dette object som så udføre det men det skal stadig igennem alle dine handles før du ser effekten af dit arbejde, og det tager tid.

Mit sidste projekt er en Billede krypterings rutine som tager en mail og sætter det ind i et billed af dit eget valg og der efter sender personen en masse information i RGB format some hvis du så åbner det vil ligen et billed af en masse pixels i X,Y mend what ever color, men hvis du har det rigtige kode ord og programmet får du en mail ud af det, bare en af de små ting som jeg sidder og laver i min fritid for at holde mine programmerings erfaringer ved lige, og ja så er det jo ikke alting du ønsker at send i klar tekst.
Gravatar #33 - rabonzo
19. jun. 2005 20:38
Har haft det mest ultimative kort... Voodoo 2 Banshee med 16 mb ram... Selvom Geforce kom på markedet med deres nr. 1 var min sgu stadig til at holde dem stangen :P Skiftede først da jeg fik fat i et 32 mb Tornado TNT 2 (TNT tages bogstavligt... aldrig har jeg oplevet et kort fucke mit system så meget...) Oh ya, tror jeg har det et sted endnu :D kunne være man skulle prøve at smide voodooen i igen :P
Gravatar #34 - amokk
19. jun. 2005 20:45
#33 tror vist du har drukket noget du ikke kunne tåle...


"Har haft det mest ultimative kort... Voodoo 2 Banshee med 16 mb ram..."

Det var så ikke ret meget bevendt da det kom...

"Selvom Geforce kom på markedet med deres nr. 1 var min sgu stadig til at holde dem stangen :P "

firmaet hed så nVIDIA... og Voodoo2 blev slået af pinden allerede da nVIDIA lancerede deres første TNT kort, og Geforce kortet kom først 2 generationer (1½ år) senere!


"Skiftede først da jeg fik fat i et 32 mb Tornado TNT 2 (TNT tages bogstavligt... aldrig har jeg oplevet et kort fucke mit system så meget...)"

Mit ASUS AGP-V3800Ultra Deluxe (TNT2 Ultra) var ganske udemærket og uden problemer - mon ikke dit var en billig udgave?
Gravatar #35 - Kadann
20. jun. 2005 05:45
#34 -

Det kommer nok an på hvilken maskine man havde på det tidspunkt.. hvis jeg ikke husker helt galt, så var der ret store problemer med TNT2 og visse chipsets til AMD dengang.
Gravatar #36 - amokk
20. jun. 2005 16:42
#35 et spørgsmål om AGP drivere som ik var installeret...
Gravatar #37 - Kadann
20. jun. 2005 17:38
#36 -

Der var nu lidt mere til det end blot AGP-drivere.. Ali Aladdin chipsettet til K62'erne havde en af mine tidligere kammerater stor "glæde" af i forhold til TNT2.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login