mboost-dp1
unknown
bah
alle de byge grafikkort bruger for meget strøm og plads - ligeledes larmer de af helvede til, og varmer som en i satan.
Man kan fixe larmen ved at smide en custom køler på, men den bruger stadigt meget strøm og fylder typisk oxo 2 slots.
Synd at alle nye 3D engines ikke skalerer som HL2, så man i det mindste kan spille dem på ikke highend kort :/
alle de byge grafikkort bruger for meget strøm og plads - ligeledes larmer de af helvede til, og varmer som en i satan.
Man kan fixe larmen ved at smide en custom køler på, men den bruger stadigt meget strøm og fylder typisk oxo 2 slots.
Synd at alle nye 3D engines ikke skalerer som HL2, så man i det mindste kan spille dem på ikke highend kort :/
skrev "I følge" :P og synes nogle steder der godt kunne have været komma istedet for punktum :(
Bare synd den ikke kommer til at kunne tage 2 af de kort i SLI. Men Nvidia vil vel ikke have man laver sådan et slags kort.
Bare synd den ikke kommer til at kunne tage 2 af de kort i SLI. Men Nvidia vil vel ikke have man laver sådan et slags kort.
Der er vist en lille taste fejl her, for ifølge tomshardware's hjemmeside, får ATi's Radeon x850 XT altså 13,271 points, og ikke 12.271 points:)
SLI er vejen frem! Det er sq smart!
Det kan godt være den bruger mere strøm, men sådan er det jo med alt!
Vi lever i det moderne samfund så strøm skal der til! ;)
Det er jo klart der skal mere strøm til når det faktisk er 2 grafikkort du skal trække!
Det kan godt være den bruger mere strøm, men sådan er det jo med alt!
Vi lever i det moderne samfund så strøm skal der til! ;)
Det er jo klart der skal mere strøm til når det faktisk er 2 grafikkort du skal trække!
#14 Hurra for edbpriser.dk: http://www.edbpriser.dk/Listprices.asp?ID=116438
Det er jo stort set samme teknik som Voodoo5 kortene brugte. At Nvidia ikke har udnyttet den metode og derved ladet andre komme til - De ejer jo 3Dfx patenter!
Tillykke til GigaByte - genopfundet den dybe tallerken og forbedret den - SLI ;-)
Tillykke til GigaByte - genopfundet den dybe tallerken og forbedret den - SLI ;-)
#8 "Det kan godt være den bruger mere strøm, men sådan er det jo med alt! Vi lever i det moderne samfund så strøm skal der til! ;)"
- Håber det er med ægte glimt i øjet, for vi er ikke et frontløbersamfund når vi ikke slår ned på og beskatter strømslugerne - eller tilgodeser lavenergiprodukter som Intels PentiumM.
Hvis du synes at et moderne samfund er lig med energisvineri, får du lig i lasten.
- Håber det er med ægte glimt i øjet, for vi er ikke et frontløbersamfund når vi ikke slår ned på og beskatter strømslugerne - eller tilgodeser lavenergiprodukter som Intels PentiumM.
Hvis du synes at et moderne samfund er lig med energisvineri, får du lig i lasten.
Det er imponerende at der skal bruges to nvidia gpuer for at hamle op med en ati gpu. - nyheden siger egentligt meget om hvor konkurrencedygtige nvidia er ift. ati.
#29 Det sagde jeg jo intet om, er bare ked af det, da jeg gerne selv vil have en pris på 2x6800 GT i PCI-Express rækken. Men nu kan det jo være jeg tager det gigabyte kort hvis det er så sindsygt som de påstår.
#30 2 midrange kort vel og mærke, deres 6800 Ultra kan godt følge med, og kan pga deres gode OpenGL support sagtens slå ATi på det punkt.
Udover det er x850XT PE trods alt nyere end 6800 ultra.
#30 2 midrange kort vel og mærke, deres 6800 Ultra kan godt følge med, og kan pga deres gode OpenGL support sagtens slå ATi på det punkt.
Udover det er x850XT PE trods alt nyere end 6800 ultra.
Når de siger at løsningen er billigere end ATI's highend kort. Er det så når du siger 2x GF vs 1x ATI. Fordi jeg kunne da forestille mig at et bundkort med SLI koster lidt mere end et almindeligt APG bundkort.
Desuden skal det være ret meget billigere i forhold til ydelsen, før jeg gider at smide 2 kort i en maskine. De larmer, bruger strøm og fylder.
Desuden skal det være ret meget billigere i forhold til ydelsen, før jeg gider at smide 2 kort i en maskine. De larmer, bruger strøm og fylder.
#35 Øhh nej.
Et 6600GT koster 1500, så det kort kommer nok til at ligge lige omkring 3000, så skal der nok være plads til et bundkort også, det er jo ikke sådan så det SLI kommer til at koste en milliard...
Derudover er det også lidt specielt da der kun er tale om ÉT kort og ikke to, der sidder bare to GPU'er på.
"Gigabyte will announce Friday a graphics card running two graphics processors on one board."
Så det er spørgsmålet om man kan køre det med bare 1 almindeligt board. Det skulle dog være mærkeligt at de så laver en bundle...
Et 6600GT koster 1500, så det kort kommer nok til at ligge lige omkring 3000, så skal der nok være plads til et bundkort også, det er jo ikke sådan så det SLI kommer til at koste en milliard...
Derudover er det også lidt specielt da der kun er tale om ÉT kort og ikke to, der sidder bare to GPU'er på.
"Gigabyte will announce Friday a graphics card running two graphics processors on one board."
Så det er spørgsmålet om man kan køre det med bare 1 almindeligt board. Det skulle dog være mærkeligt at de så laver en bundle...
Hvis det her går hen og bliver bare en lille smule populært, så må prisen på "gamle" grafikkort da falde?..
#36
2 VPU'er på et kort ... ja så er det jo ikke længere SLI. SLI er en løsning hvor 2 grafikkort skiftes til at rendere en linie.
ATI har tidligere haft en løsning lige som den du nævner. Det kaldte de MAXX. Og det er sikkert også den løsning som de vil vælge i fremtiden.
Husk at ATI's chips er meget bedre skalerbare en Nvidias er.
2 VPU'er på et kort ... ja så er det jo ikke længere SLI. SLI er en løsning hvor 2 grafikkort skiftes til at rendere en linie.
ATI har tidligere haft en løsning lige som den du nævner. Det kaldte de MAXX. Og det er sikkert også den løsning som de vil vælge i fremtiden.
Husk at ATI's chips er meget bedre skalerbare en Nvidias er.
[Nostalgi]
Hmm, hvis det bare et to GPU'er på et kort er det jo ikke sjovt. Hvem kan ikke huske når man val til LAN, og det første der blev kigget efter var om man havde et loop mellem to kort, for at se om folket havde et 3D-kort eller ej :-)
Ikke noget som Quake på et Orchid Righteous 3D kort, bygget oven på et ET6000 2MB kort :-)
[/Nostalgi]
Anyway! Er der nogen der ved hvordan selve renderingen forgår? Er det hvor de to GPU'er render hver sin halvdel eller skiftes de til hver linje? Eller bliver hver frame fordelt så begge GPU'er bliver færdige samme tid? Hvis ikke risikere man jo at en af GPU'erne venter på den anden og dermed lavere framerate end nødvendig... (Undskyld hvis dette er et tåbeligt spørgsmål, kunne bare ikke finde noget info om det)
Hmm, hvis det bare et to GPU'er på et kort er det jo ikke sjovt. Hvem kan ikke huske når man val til LAN, og det første der blev kigget efter var om man havde et loop mellem to kort, for at se om folket havde et 3D-kort eller ej :-)
Ikke noget som Quake på et Orchid Righteous 3D kort, bygget oven på et ET6000 2MB kort :-)
[/Nostalgi]
Anyway! Er der nogen der ved hvordan selve renderingen forgår? Er det hvor de to GPU'er render hver sin halvdel eller skiftes de til hver linje? Eller bliver hver frame fordelt så begge GPU'er bliver færdige samme tid? Hvis ikke risikere man jo at en af GPU'erne venter på den anden og dermed lavere framerate end nødvendig... (Undskyld hvis dette er et tåbeligt spørgsmål, kunne bare ikke finde noget info om det)
#40; "SLI er en løsning hvor 2 grafikkort skiftes til at rendere en linie."
ScanLine Interleaving fra 3dfx kortene ja.
Scalable Link Interface på GeForce nej.
De kører enten Alternate Frame Rendering (AFR) eller Split Frame Rendering (SFR).
AFR: GPU'erne skiftes til at rendere frames (samme som ATI's MAXX løsning)
SFR: GPU 1 renderer den øverste del af billedet, GPU 2 den nederste. Dynamisk workload balancing for at afgøre hvor stor en del hver skal have (fx. 60/40 50/50).
Da Gigabytes kort forbinder de 2 GPU'er ved hjælp af SLI interfacet på dem må det vel stadig betegnes som SLI.
ScanLine Interleaving fra 3dfx kortene ja.
Scalable Link Interface på GeForce nej.
De kører enten Alternate Frame Rendering (AFR) eller Split Frame Rendering (SFR).
AFR: GPU'erne skiftes til at rendere frames (samme som ATI's MAXX løsning)
SFR: GPU 1 renderer den øverste del af billedet, GPU 2 den nederste. Dynamisk workload balancing for at afgøre hvor stor en del hver skal have (fx. 60/40 50/50).
Da Gigabytes kort forbinder de 2 GPU'er ved hjælp af SLI interfacet på dem må det vel stadig betegnes som SLI.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund