mboost-dp1

unknown

Dobbelt SLI på vej

- Via Tom's Hardware - , redigeret af amokk

SLI som vi kender det i dag, begrænser sig til “kun” at understøtte 2 grafikkort ad gangen. Det skal et nyt bundkort fra Gigabyte imidlertid lave om på.

Bundkortet, der er baseret på nVidia’s nye nForce4 Intel Edition, kommer til at understøtte bl.a. DDR2, SATAII og så altså mulighed for at tilslutte 4 PCI-Express grafikkort, som kan køre med enten 2 GFX kort @ x16, eller 4 GFX kort @ x8.

Der forelægger endnu ingen information om hverken hvor meget bundkortet kommer til at koste, hvornår det kan købes, eller hvor meget det cirka vil komme til at kunne yde. Men mon ikke det vil kunne score nogle pæne tal i 3DMark05, ved SLI x2?





Gå til bund
Gravatar #1 - amokk
30. maj 2005 16:37
Med sådan et system, og så 4 stk. GF6800 ultra eller hvad der nu bliver den næste topmodel, har man da en seriøs gamermaskine... (og alt for mange penge)

gad vide om elselskaberne har en interesse i dette her, sådan en maskine må da bruge ret store mængder strøm
Gravatar #2 - Silentkill
30. maj 2005 16:38
#1 Det burde leveres med indbygget fusionsreaktor. Men det kommer nok når strømforbruget når op i megawatt størrelsen (altså snart).
Gravatar #3 - MenZa
30. maj 2005 16:44
Enig, #1. I det hele - Den ville mig gerne have <3
Gravatar #4 - amokk
30. maj 2005 16:46
#2

"Men det kommer nok når strømforbruget når op i megawatt størrelsen (altså snart)."

ehm vi er ikke en gang over 1 kilowatt på selv maskiner med 2x GF8600Ultra, så megawatt ligger nok lige et stykke væk
Gravatar #5 - andreasg
30. maj 2005 16:54
Hvordan sætter man fire kort sammen? Så vidt jeg ved (har ikke selv et SLI kort) er der kun en enkelt SLI connector bridge per kort?
Gravatar #6 - Lobais
30. maj 2005 16:54
For dem, der har for mange penge er det jo fedest, men for alle os andre, som gerne vil have det bedste stuff, uden nødvendigvis at spare sammen 20år forinden kan det jo blive et problem. Før var man ret godt kørende med et grafikkort for 4000kr, men nu skal man til at have 4x4000=16000 for at være i top.
Når det er sagt, bliver det da interresant at se hvornår den slags er hvermands eje. Mon det er billigere (i forhold til performace) at have fire halvdårlige grafikkort, end 1,5 gode?
Gravatar #7 - angelenglen
30. maj 2005 16:56
Okay det er jo sygt!! Tror næppe det er for den almene gamer :)

Gad vide om det ville booste en 3D render-maskine lidt?
Gravatar #8 - tsuroerusu
30. maj 2005 16:59
Det lyder jo cool nok med 4 grafikkort, men så er spørgsmålet, hvor hurtig en CPU skal man bruge for at grafikkortene får information nok! Måske kunne dual core bruges til noget her.
Gravatar #9 - angelenglen
30. maj 2005 17:06
#8 hehe ja det kan det være noget om... Måske skulle de lave et tilsvarende board, der også kan klare 2stk dualcore processorer... så ville der være en core til hvert grafikkort :)
(Og et overtræk på dankortet der ville gøre nas!)
Gravatar #10 - SmackedFly
30. maj 2005 17:14
#7

Hvis du vil op i den art 3d rendering så bruger du alligevel SGI hardware eller lignende, deres grafiksystemer (ja, man kan ikke rigtigt kalde det grafikkort, hele systemet er designet til 3d) er langt ondere end 4 GF6800, tro mig...
Gravatar #11 - angelenglen
30. maj 2005 17:38
#10: Desværre ikke så meget som jeg gjorde førhen, jeg var super til 3D Studio R4 (jep, før MAX), men efter MAX droppede jeg det lidt... Dengang jeg arbejdede med det, var det processor og RAM der havde noget at sige... det har ændret sig lidt må man sige :)
Gravatar #12 - Zaffa
30. maj 2005 17:40
tjaa, nu er det jo sådan at SLi i forvejen ikke yder alt for godt..
noget i retning af 1+1=1.5
så vil 1.5+1.5=2? :p

findes der overhovedt drivere til sådan noget?
for mig at se er det der ikke brugbart for alm mennesker men snarer et PR stunt...
Gravatar #13 - zoomster
30. maj 2005 17:48
Jeg ville bare gerne have noget lidt bedre end mit mx 440 ;)
Gad vide om jeg skulle invistere i det board og endnu et mx 440, Wauh så ville min maskine ik være halv dårlig mere, men heldårlig :P
Gravatar #14 - killer_boy
30. maj 2005 17:50
Er der nogle som har tænkt på hvor varmt der må blive et kabinet med 4 X Geforce 6800 Ultra ;) 1 kort bruge 124 W idle !!!
og sikke et støj helved det må være :(
Gravatar #15 - zoomster
30. maj 2005 17:52
#14
Jeg tror faktisk det er lige før det ville blive varmere end motoren på en ældre skoda klassik....
Men tænk ik på støjen!! den bliver overdøvet af den højfrekvente støj fra stikkontakten når ledningerne begynder at trække lysbuer ligesom et svejseværk, pga. det høje strømforbrug ;)
Gravatar #16 - killer_boy
30. maj 2005 17:54
#15 LOL :D
Gravatar #17 - amokk
30. maj 2005 18:04
#15 slap nu af... 1000 Watt er ca det samme som en mikrobølgeovn bruger... Og det har dit lysnet vel ingen problemer med?

#14 hvor har du det fra, at et enkelt kort bruger 124W idle? lyder lidt usandsynligt
Gravatar #18 - RuFFNeCK
30. maj 2005 18:07
124W for et GF6800U passer slet ingen steder hen, 100% load ka bedre passe imo
Gravatar #19 - killer_boy
30. maj 2005 18:08
Gravatar #20 - zoomster
30. maj 2005 18:08
#17 Det var jo sådan set bare skrevet lidt i sjov, med en undertone i at det jo nok ville komme til at bruge lidt mere strøm end det man har til at stå lige for tiden, og hvis min computer brugte 1000 W ville jeg nok overveje at slukke den lidt oftere og i lidt længere tid af gangen må jeg indrømme :D
Gravatar #21 - zumo
30. maj 2005 18:16
hvor får man en 1000W strømforsyning så? :o
Gravatar #22 - 21
30. maj 2005 18:17
#19..det er jo for hele systemet med et gfx 6800 ultra.
Gravatar #23 - drbravo
30. maj 2005 18:21
#19 Ja, for SYSTEMET! - dvs incl processor or alt det andet..

Men med sådan 4 og en dual prescott behøver man ikke radiatorer i huset - det er da sikkert...

Måske kan man sælge det i grønland som et multifunktionsprodukt..?
Gravatar #24 - snailwalker
30. maj 2005 18:55
Problemet med strømforsyning er da helt klart relevant. Der var en længere oppe der skrev noget med 1000 W for en mikrobølgeovn. Hvem af jer ville lade jeres mikrobølgeovn stå tændt i 12 timer? Det bliver hurtigt RIGTIG dyrt hvis udviklingen i strømforbrug fortsætter som den har gjort :S
Gravatar #25 - booost1
30. maj 2005 19:24
Undskyld jeg spørger, men hvad er idéen med at have fire kort i, hvis de kun kan køre 8 speed?
Gravatar #26 - amokk
30. maj 2005 20:00
#20 ja, alene 1KW må give en betydelig opvarming af rummet...

#21 http://www.edbpriser.dk/Listprices.asp?ID=134011 :-)

#19 flot, det er HELE systemets forbrug, dvs. CPU, HDs osv. - der står intet om hvad kortene bruger alene

#25 det har ikke den store betydning for performancen, om kortene kommunikerer med systemet ved x8 eller x16 hastighed... grunden til at man har PCIe x16 er for at have noget at tage af, når fremtidige kort og processorer kommer frem...
Gravatar #27 - Christ Superstar
30. maj 2005 20:34
Det er ikke det værd. Det bruger alt for meget strøm, så allerede der er det et skridt tilbage. Man ved, at så snart SLi dukker op, at udviklingen er stagneret. Udviklingen på grafik og cpu området er meget stillestående. Udviklere indenfor disse områder pønser nok på et eller andet fantastisk eller så er de blanke som et spejl.
Jeg tror det sidste - desværre. Cell chippe er måske vejen frem til PC - på en eller anden måde :)
Gravatar #28 - ghostface
30. maj 2005 20:36
heh lol... jeg kiggede på news feed i bookmarks og med mine dårlige øjne var jeg 100% på der stod dobbelt SU på vej... tror nok lige mine små griske studerende hænder fandt vej til nyheden... uanset hvor rar nyheden her er blev man lidt skuffet :)
Gravatar #29 - angelenglen
30. maj 2005 20:55
#28: lol ja det kunne være godt, men sådan en nyhed kan desværre kun komme én gang om året, 1. april :)
Gravatar #30 - Znoo
30. maj 2005 20:56
Smart nok med at kunne losse en røvfuld grafikkort i spanden, men hvor mange har brug for det? På én skærm er det da helt sikker overkill. Hvis man har en 3-4 skærme kan de vel komme på tale.

Gad vide om der følger sådan en her med? :-)
Gravatar #31 - ghostface
30. maj 2005 21:05
#29 så sandt så sandt :)
Pic af hvad jeg mener hvis nogen undrer sig mig meget
nå det er vist nok offtopic for i aften
Gravatar #32 - amokk
30. maj 2005 21:30
#27 du tror simpelthen udviklingen er gået i stå? hvorfor dog det? du har ik hørt, at nvidia er tæt på at lancere deres Geforce 7800 eller hvad?
Gravatar #33 - Törleif Val Viking
31. maj 2005 13:06
som skulle blive pænt meget ondere end det nuværende 6800 ;)
Gravatar #34 - gizmodude
31. maj 2005 13:08
*GG*.... hvis dette fortsætter skal vi til at bruge de gamle "dobbelt-server" kaninetter igen .... den ene side til bundkortet og den anden side til "grafik-kort"-kortet ......
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login