mboost-dp1

unknown

ATI lancerer Radeon X1900-serien

- Via HWZone - , redigeret af The-Lone-Gunman

I forbindelse med det, at ATI i dag vil lancere deres nye Radeon X1900 serie af grafikkort, er de første anmeldelser nu dukket op.

Radeon X1900-serien er baseret på R580 GPU’en, der erstatter R520, der blev brugt til Radeon X1800-serien. Den største forskel imellem R580 og R520 er antallet af pixel shaders. Hvor R520 havde 16 har R580 48, Nvidias GeForce 7800 har 24. Resten af specifikationerne har ikke ændret sig meget fra R520.

De mange ekstra pixel shaders har tilføjet ca. 60 mio. ekstra transistorer til R580 i forhold til R520. Det betyder også, at strømforbruget er steget med en teoretisk maks. på 175W.

En mere teknisk gennemgang af R580 kan læses hos Hexus.net.





Gå til bund
Gravatar #1 - sorenbuus
24. jan. 2006 13:44
Det hedder Pixel Pipelines og ikke Pixel Processorer.

Linket til artiklen er i øvrigt nede for opgraderinger :-(

Men godt man har sin Xbox 360 og ikke skal kyle penge efter den slags opgraderinger længere! ;-)
Gravatar #2 - Net_Srak
24. jan. 2006 13:45
#1

Nej det er netop pixel (shader) processorer og ikke pixel (rendering) pipelines, som den stadig kun har 16 af.
Gravatar #3 - sorenbuus
24. jan. 2006 13:48
#2 ok... min fejl, men jeg kan ikke komme ind på hovedartiklen, da siden pt. er nede.
Gravatar #4 - drbravo
24. jan. 2006 13:50
#1

Surt at du ikke kan få så meget eye candy som man kan med dette nye kort :p

(Selvom det sikkert koster det dobbelte af en xbox 360..)


Det hedder Pixel Pipelines og ikke Pixel Processorer.

"Pixel Shader Processors":
ATI Radeon X1900 XT 512MB 48

NVIDIA GeForce
7800 GTX 512MB 24

Såå nej. Det hedder pixel processors (eller pixel shaders).


Det er heftigt nok at den kan bruge 175 watts. For mig virker det som om grafikkort altid er et trin efter CPU producenterne.

- De kører mhz race i øjeblikket
- De bruger en arkitektur der er et trin større (90 nm vs 65 nm)
- De går stadig efter ydelse på bekostning af varme / strøm


Men det er måske bare mig der ikke ved en bjælde om noget?
Gravatar #5 - mrmorris
24. jan. 2006 13:57
Der er ikke tale om 48 rigtige pipelines, kun 48 pixel shaders hvilket vil sige den kan shade 48 pixels per clock cycle! Men hvor er det voldsomt at bruge 175W og så endda være baseret på en 90nm process, den kræver i så fald væsentlig mere køling end selv en Pentium Extreme Edition 840.
Gravatar #6 - fennec
24. jan. 2006 14:00
Og hvad bruges "Pixel Shader Processors" så til??

Det lader til at være den eneste forskel (på papiret) fra X1800 serien. "Memory Clock" er endog sat ned så den har også tabt mere "Memory Bandwidth".
Gravatar #7 - Net_Srak
24. jan. 2006 14:05
#6

Den kan udføre, i teorien, 3 gange så mange pixel shader operationer per clock cycle i forhold til R520. Dette kommer dog kun til sin ret ved nye spil der bruger pixel shadere meget. I fremtiden hvor spil vil blive endnu mere afhængige af pixel shadere til at levere deres effekter, vil R580 stå endnu stærkere. Det er dette ATI satser på, om det kommer til at holde vand vil tiden vise.
Gravatar #9 - fennec
24. jan. 2006 14:40
#7
Jeg kunne godt selv regne ud at den har 3 gange så mange Pixel Shader Processors :o)

Men det svarer ikke på mit ? om hvad det så er den kan gøre 3 gange så hurtigt??

Kan den behandle 3 gange så mange vertex (tror ikke det er det). 3 gange så mange pixels (kunne gode være det, man hvad hjælper det, når det samme antal vertex først skal beklædes med billerder og bumps inden de bliver til pixels). Eller er det noget helt andet???
Gravatar #10 - mrmorris
24. jan. 2006 14:53
#9 Tænk på en pipeline som flyder med færdigbehandlede pixels, i dette tilfælde 16. Forholdet 3:1 dækker over pixel info behandling vs. texture/rendering behandling (i den færdige pipeline). Xbox360's GPU har også 48 shadere og det forventes at Nvidia's G71 vil få det samme.
Gravatar #11 - decon
24. jan. 2006 15:51
Jeg synes de skulle til at se og få det strøm forbrug til at knap så sygt. 175w ? omfg
Gravatar #12 - mrdrunk
24. jan. 2006 16:40
Synes godt nok det er underligt, de ikke brúger et større system. Tror heller ikke helt man kan regnede med resultatet, da de jo kørte testen med Catalyst 5.13, som i bund og grund ikke understøtter X1900, så mon ikke vi ser en større forskel når de tester med en som understøtter det.
Gravatar #13 - Simm
24. jan. 2006 16:55
175 Watt + det øvrige computerne forbruger - hvornår slapper de lidt af :s

"Ja hej, vi måtte så gå fra hus og hjem fordi vores dreng Bo købte nyt ATi-grafikkort og absolut ville spille Counterstrike 24/7/365"
Gravatar #14 - Onde Pik
24. jan. 2006 16:59
#9

For lige hurtigt at opridse.

En vertex shader kan manipulere vertex data. Det betyder at den modtager vertex data fra et tidligere skridt i pipelinen, som den så kan få til at ændre sig.

Det kunne f.eks være at grafikkortet har renderet nogle græsstrå som du gerne vil have til at blafre i vinden. Du kan så skrive et vertex program der tager det "færdige" græsstrå (i form af en bunke vertices) og manipulere fysikken i det således at det står og svejer.

En pixel shader kan foretage manipulationer på pixels. Eller... inde i grafikkortet kaldes det fragmenter. Så hvis du hører om en fragment shader er det det samme som en pixel shader.

Anyways. Pixelshaderen ligger længere henne i pipelinen end vertexshaderen, og den modtager data om en pixels. Det kan som ved vertex shaderen være en "færdig" pixel(fragment). Som er sampled, positioneret og farvet. Hele molivitten. Pixelshaderen har nu mulighed for (ligesom ved vertex shaderen) at manimupere denne data. Kunne f.eks være at græstrået fra før pludselig er vådt. Du kan så skrive et pixel program der kan ændre hvordan de her pixels nu ser ud. Kunne være der var reflektioner eller lysefekter du gerne ville "lægge ned" over græs strået.

Med 48 Pixel kerner kan du afvikle sådan et program ca. 3 gange hurtigere ened med 16.

Her er et link til en noget gammel, men ret god artikel omkring shadere. Det er IKKE en pixie bog at læse.

Hver pixel kerne i ATIs kort består af en Vector MADD ALU, en Vector ADD ALU og en Branch Execution Unit.

Se beyond3d's review for detaljer.
Gravatar #15 - fennec
24. jan. 2006 17:55
#14
Se, det var hvad jeg søgte. Du skal have mange tak :o)
Gravatar #16 - Mulpacha
24. jan. 2006 20:21
#14
Tak skal du have Onde Pik, også lige den forklaring jeg ledte efter :)
Gravatar #17 - xplode
24. jan. 2006 22:29
Sørgeligt at både nVidia og ATI fuldstændigt blindt fortsætter med at forøge hastigheden på deres kort, i dette tilfælde antallet af pixel shaders, uden at skænke de direkte omkostninger for strømforbruget/varmeudledelsen en tanke. I sig selv finder jeg det overdrevent at man nu er nødt til at have en seperat 12v tilslutning i sit GFX kort, bare for at holde det kørende. Man oplever præcis samme problemer med varmen som ved processoren, det er for høj varmeudvikling på kortet, dette kræver større køleprofil/mere effektiv køling, der i sidste ende relsuterer i et monster af en gfx køler der står og pumper varm luft ud af kabi+larmer som en jetjager ;) Mener bestemt ikke den nuværende løsning ifht. strømforbruget og varmeudledelsen er holdbar og derfor ville det være ønskeligt om de to GFX producenter lagde lidt mindre kræfter i konstant forøgelse af hastigheden på deres kort og i stedet brugte lidt tid på at finde nogle mere holdbare/effektive køleløsninger samt en nedsættelse af strømforbruget.
Gravatar #18 - moog
25. jan. 2006 00:25
Just another paper release from ATI
Gravatar #19 - MightyPalm
25. jan. 2006 03:40
@ondepik
Jeg har tænkt lidt over situationen mht. gpu/cpu udviklingen, og det lader til at du er ret langt inde i gpu-afdelingen, så det kan være du kan give mig lidt input til mine betragtninger.
Som jeg forstår det, så er udviklingen generelt, og også den her release, imod længere pipelines med flere funktioner, og altså flere levels af logik. Dog er der jo her tale om større reel regnekapacitet (flere ALU'er) men er de fordelt over eksisterende pipelines (der så bliver længere), eller udgør de nye pipelines tilsvarende de tidligere?
Det vi ser nu i forhold til længere pipelines og mere funktionalitet i hardwaren, ligner jo til forveksling hvad vi har set med cpu'er. Men trenden er skiftende. de første x86'ere var store og tunge (logisk set) og i pentiumerne kom der flere og flere lange pipelines og en allerhelvedes masse microcode ind. I løbet af sluthalvfemserne begyndte intel især at kigge nærmere på nogle af fordelene ved RISC-arkitekturen, og det satte i høj grad krigen på hastighed ind, med mindre logik kan man køre hurtigere (færre lag af logik). problemet er nu at halvleder-teknologien ikke fulgte med, og pludselig begynder vi at kunne se grænsen for hvor hurtigt vi kan få vores transistorer til at arbejde. i starten af det nye årtusind er AMD ved at sætte trenden med mere arbejde per cycle, og antallet og længden af pipes vokser støt, samtidig med at hastigheden ikke gør samme fremskridt som før.
mere logik per chipareal = større varmeudledning.

Som jeg ser det har gpu'erne ikke været igennem den her "RISC-fase", hvor man barberer ned på microcoden og arbejder på at få rigtig stor hastighed. fordelen rammer ofte i form af lavere effektforbrug ved reducering af antallet af transistorer.

Er det en trend vi kommer til at se på gpu'er, eller er egner koncepterne sig simpelthen ikke til denne form for databehandling?
Gravatar #20 - mrmorris
25. jan. 2006 11:40
#19 Selv om du adresserer ondepik vil jeg alligevel tillade mig at skrive mine 2 cents.

Man kan slet og ret ikke sammenligne CPU'er og GPU'er, da de arbejder ud fra vidt forskellige præmisser. Mens en CPU's arbejdsopgaver er enormt uforudsigende, går utrolig meget ud på at forsøge at forudsige og optimere den ene (sommetider 2) pipeline. Vi snakker her teknologier som L1 og L2 cache, HyperThreading og branch prediction - alle med til at søge for at pipelinen udnyttes bedst muligt. Intel's pipeline har i mange år nu været utrolig lange, hvilket kan være en bekostelig affære for en CPU men som har sin styrke ved forudseende kode som f.eks. komprimering mens AMD's korte pipeline glimrer i spil, netop fordi det er en ret uforudsigelig opgave.

GPU'er har ikke helt samme problem. 3D bearbejdning består i hovedtræk af at beregne relaterede punkter (ofte danner 3 punkter/vertices en 3-kant) som derefter skal påklædes en texture. En GPU pipeline er delt op i Vertex shader og Pixel shader for at løse denne opgave, der er altså ingen umiddelbar mulighed for at "noget går galt" midt i denne bearbejdning. Fordi der er millioner af pixels der skal beregnes op til 100 gange i sekundet, egner dette problem sig simpelthen bedre til parallelisering (16 pipes) og/eller et komplekst CISC design.

Derudover, husk på at mens en CPU skal køre mange vidt forskellige processer "samtidigt" (via context switching), har en GPU den fordel, at der (som regel) er én skærm og én process den skal arbejde på.
Gravatar #21 - Mr.DNA
25. jan. 2006 12:04
-> #18, bortset fra at du rent faktisk kan købe kortene i butikken fx shg.dk så det ikke er en paper release.
Gravatar #22 - Mr.DNA
25. jan. 2006 12:16
->#17 du kan jo bare underclocke dit videokort hvis du vil have bedre køling. Da nvidia gik fra 6800 til 7800 sænkede de faktisk strømforbruget en lille smule samtidigt med at ydelsen steg, så det er rent BS at de ikke tænker på strømforbruget, især fordi de godt ved at med lavere strømforbrug kan de øge hastigheden på GPU'erne hvilket 99% af brugerne foretrækker. De resterende 1% kan så købe et grafikkort de yder mindre men også bruger mindre strøm. Hvis du har en GPU der giver god ydelse ved fx 300Mhz og næsten ingen støm bruger og ingen varme udvilker, så vil den GPU sikkert også kunne køre ved 600Mhz, og bruge mere strøm og udvikle en masse varme. Men så vil de fleste alligevel vælge at køre den ved 600Mhz.
Samtidigt er der både 2D og 3D frekvenshastigheder hvilket gør at når du ikke spiller så mindskes strømforbruget.
Gravatar #23 - MightyPalm
25. jan. 2006 14:08
#20
Det er en god betragtning. Som udgangspunkt (hvis vi ignorer muligheden for tearing og kun arbejder i hele frames), så har vi altid en fyldt og forudsigelig buffer at arbejde med.
En anden pointe jeg er kommet i tanke om relaterer også til hastigheden. GPU'en skal kunne spytte data ud i en fast rate (60-100 MHz), og der er faktisk ikke behov for at lige netop den båndbredde ændres. Derfor gælder det naturligvis om at have en process der lige netop er så lang at dette kan nåes, og så ellers bearbejde dataene så meget som muligt fra de lander i en buffer/drawliste/whatever til de skal vises på skærmen.
RISC-konceptet går på mange måder også ud på at forhøje den eksterne båndbredde til chippen.
Gravatar #24 - Misanthropy
25. jan. 2006 15:49
de nye dual gf kort fra nvidia bruger faktist en ekstern strømforsyning da psu'en ikk kan klare den mængde strøm der skal til for at få fut i det... syntes det er langt ude men hvad gør de ikke for at være det mest hardcore gfx kort der ude? det næste er vel at de bliver nødt til at opfinde kold fussion for at få det til køre
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login