mboost-dp1

The Traveling Photographer

Ny billig supercomputer kan være på vej

- Via Ars Technica - , redigeret af Emil

Hos Lawrence Berkeley National Laboratory i USA har klimaforskere en drøm om at kunne lave en computer, der kan simulere hele jordens atmosfære i en hidtil uset detaljegrad. Det kan dog blive ved drømmen i nogen tid endnu, for den ønskede simulation kræver en 10 petaflop supercomputer.

Forskerne undersøgte, hvad der skulle til for at lave en computer med den regnekraft, og kom frem til, at selv hvis de havde pengene, så havde de ikke nok strøm. En supercomputer baseret på AMD Opteron-processorer ville indeholde 1,78 millioner kerner, forbruge 179MW og koste 1,8 milliarder dollars. En BlueGene/L skulle op på 3,56 millioner kerner mod et noget mindre energiforbrug på 27MW, men til en pris på 2,6 milliarder dollars.

På baggrund af disse tal henvendte Berkeley sig til et firma med speciale i at lave integrerede løsninger. Firmaet Tensilica vil med en tilpasset chip kunne lave computeren til en brøkdel af prisen og energiforbruget. Systemet ville bestå af 3,84 millioner kerner, men kun forbruge 2,5MW og koste så lidt som 75 millioner dollars.

Om der overhovedet bliver bygget en supercomputer baseret på Tensilicas chip er dog usikkert, da udviklingen stadig kun er på konceptstadiet.





Gå til bund
Gravatar #1 - Montago.NET
8. maj 2008 11:46
FRIST

hurraaaaaaa
Gravatar #2 - Woodie
8. maj 2008 11:50
1# flot ?!

Har nu alrig før hørt om Tensilica, men det lyder da spændende.
Gravatar #3 - Isendk
8. maj 2008 12:01
#1
Havde været mere imponeret over din flotte bedrift, hvis du så samtidig havde været i stand til at stave...
Gravatar #4 - Törleif Val Viking
8. maj 2008 12:09
Havde været imponerende hvis de allerede havde bygget den...
Men forskerne skal jo starte et sted :)
Gravatar #5 - Remmerboy
8. maj 2008 12:20
det er vild så mange kerner der skal til for at have en 5petaflop regnekapacitet. hvor mange af kernene mon der går til, for at holde styr på de andre kerner, så multithreading process kan virke
Gravatar #6 - Nima
8. maj 2008 12:27
Godt det ikke er mig der skal kode en applikation med 3.840.000-kerner!!
Gravatar #7 - NioBe
8. maj 2008 12:31
SYnes også at det er ret så imponerende at der skal så meget til for at få den mænge regnekraft... Gad vide hvor stor den computer engtlig blir så!?
Gravatar #8 - noramskull
8. maj 2008 12:32
Måske de så vil blive i stand til at inkludere solen i deres beregninger i stedet for bare at ignorere den og fokusere på co2 :)
Gravatar #9 - lost-viking
8. maj 2008 12:33
haha det er fandme en gal computer.. og kæft den æder strøm! hvor sku man få alt den strøm fra? men den ku helt sikkert køre alle de nyeste spil! tror måske bare ikke de nye spil ku køre på den..

men ja jeg er også forundret over at der skal så meget kraft til det..

#7 nok temlig stor tror ikke den sku stå i min stue.. og tror heller ikke jeg ville have den der min cpu er 33 grader varm lige nu.. og tænk hvis man har temlig mange flere af dem.. det må give en enorm varme..
Gravatar #10 - buch
8. maj 2008 12:36
#9
"men den ku helt sikkert køre alle de nyeste spil! tror måske bare ikke de nye spil ku køre på den.. "

Hvad er det enlig du prøver at sige, kan den eller kan den ikke?

Der udover tror jeg ikke man skal regne med at de kører Windows på sådan en computer.
Gravatar #11 - illishar
8. maj 2008 12:43
Kunne være lidt fedt hvis man havde lavet en regnefejl i flop-udberegningerne, så når det hele engang kommer op at køre, at det så viser sig at kræve en 11 petaflop computer. ... DOH! Det nytter jo ikke noget at have en atmosfære-computer der er bagud med alle beregninger. (Så vil de jo ophobe sig, eftersom der kommer nye data hele døgnet.)
Gravatar #12 - NioBe
8. maj 2008 12:49
#9
Er du gal et køleranlæng man skal have til det monster! Tvivler stærkt på at CPU'erne bare sidder med en lille bitte cpu køler på hver... :S
Sådan en computer holdes bedst hvis man smider den på antaktis LOL!
Gravatar #13 - Skaboufar
8. maj 2008 12:54
Er det ikke noget ligende PS3/F@H, hvor de chips så bare er tilpasset mod, klima simulationer.

Hvor mange ps3, skulle der til ? :)
Gravatar #14 - JacobDam
8. maj 2008 13:06
Hmm... Jeg synes overskriften er misvisende..
Jeg regnede med at læse en tråd om en ny bærbar eller stationær computer for menigmand... Og ikke om et kæmpe monster som stadig kun er på tegnebordet... For kun at blive brugt af forskere..
Gravatar #15 - Djinn
8. maj 2008 13:09
#9

Spil ville ikke køre ordentligt på den.

Processorerne får tildelt en større opgave af en central styreenhed som når den får svar igen sender en ny opgave.

Strukturen i mainframes er meget lig. fx. F@H bortset fra at datasikkerhed og redundans er i højsædet. Der er mindst to af alt som systemet ikke virker uden.

Der er et større overhead på at sende en pakke ud til en processor - større som i ms-klassen -, så derfor skal der helst gå et stykke tid før der skal sendes er brug for at sende en ny for at holde processorerne aktive så meget som muligt.

IBM's supercomputer kører nok z /OS som er glimrende til klyngecomputere og andre realtidssystemer. Er unix-baseret og nok det mest stabile system i verdenen.

Har haft en kursus om det.. IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid om året og er typisk maintenance-relateret.

Hvornår får vi hotswap RAM og CPU-udskiftning på desktop-markedet ;)? vil ikke lave powerdown for at skifte ram hvis der nu skete noget spændende på newz.dk imens ;)
Gravatar #16 - Remmerboy
8. maj 2008 13:28
http://www.comon.dk/index.php/news/show/id=35977
nu vil nasa have en computer med 10petaflop med intel processorer. mon nasa har et atomkraftværk for sig selv til kørsel og køling af kernerne
Gravatar #17 - Sikots
8. maj 2008 13:30
IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid

Det kunne være IBM Danmark skulle overveje sådan et system til DSV / Danske Bank / mange andre ;)

os Lawrence Berkeley National Laboratory i USA har klimaforskere en drøm om at kunne lave en computer, der kan simulere hele jordens atmosfære i en hidtil uset detaljegrad.

BREAKING NEWS!!!
Selvfølgelig vil de da lave en computer som kan klare opgaven i en hidtil uset detaljegrad! Ellers var det vel for pokker ikke en nyhed?!?

Derudover, forskere - og en computer som kun er i tankerne - altså, der bliver forsket i hvordan den skal bygges... Underfundigt ;)

Men spændende projekt!
Gravatar #18 - Izaaq
8. maj 2008 13:37
"Det kan dog blive ved drømmen i nogen tid endnu, for den ønskede simulation kræver en 10 petaflop supercomputer."

Ehm hvordan kan en simulering kræve X petaflop beregningshastighed? Hvis den kun har den halve kraft, så tager det vel bare dobbelt så lang tid?

Jeg undrer mig altid, når man får det til at lyde som om at NU kan man alt muligt man ikke kunne før, fordi man har bygget en så og så stor computer. Det kunne man vel også før, bare langsommere...
Gravatar #19 - myplacedk
8. maj 2008 13:37
14 skrev:
Hmm... Jeg synes overskriften er misvisende..

Måske fordi du ikke vidste hvad en supercomputer er.

Det er IKKE en almindelig desktop-computer med rigtigt meget RAM og et fedt design. ;-)
Gravatar #20 - Borg[One]
8. maj 2008 13:37
#14 hvor mange supercomputere kender du da, der er bærbare?

'Jeg nafser lige BlueGene med hjem, til lidt aftenarbejde jeg har'...
Gravatar #21 - Borg[One]
8. maj 2008 13:38
#19 Gahh - du kom først med samme pointe! :-S
Gravatar #22 - myplacedk
8. maj 2008 13:45
18 skrev:
Ehm hvordan kan en simulering kræve X petaflop beregningshastighed? Hvis den kun har den halve kraft, så tager det vel bare dobbelt så lang tid?

De har nok taget "tålmodighed" med ind i beregningerne.

Jeg kender ikke dette projekt, men fx. DMI laver også diverse simuleringer, for at forudsige vejret. Og der er grænser for hvor lang tid man kan vente fra man får data ind, til der skal komme et resultat ud. Det nytter ikke noget at simulere realtime, så kunne du ligeså godt bare vente og se.

Hvis der kommer data ind kl. 15, som skal indgå i 5-døgnsprognosen i TV-avisen kl. 18, så skulle det meget gerne tage under 3 timer at beregne den prognose, og alt det andet de også regner på.

Hvis det er noget de vil have beregnet én gang for alle, har de nok sat en dato for hvornår de skal have resultatet. Det kan godt være at min gamle bærbare ville kunne beregne det, men jeg gider ikke vente på det.

Så kan det da godt være, at hvis 10 petaflop ikke er muligt, men 9 er, at de så kan vente lidt længere. Men 1 kan jo så nok ikke gøre det.
Gravatar #23 - helskov
8. maj 2008 13:48
#17
Var det ikke switch eller router problemer?
Der var da ikke problemer med serverne.
Gravatar #24 - Borg[One]
8. maj 2008 13:49
#15
Har haft en kursus om det.. IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid om året og er typisk maintenance-relateret.


Jeg tror du skal snakke et par borgelige ord med jeres lærer, om hans 'facts'.

Det er rigtig at mainframen har mindre nedetid end andre systemer, men taler vi drift, så regner man ikke nedetid i vedligeholdelsesvinduer med.
Typisk får en mainframe lov til at lukke ned for alt opdaterende en gang om ugen, hvorefter du kan bryde dit SAN-spejl, og påbegynde din katastrofebackup. Prøv at log på din netbank lørdag nat, og du vil se hvad jeg mener.

Arkitekturen bag dit mainframe-setup differentere sig ikke så meget fra PC-clustering.
Det har ikke ritgig så meget med hverken cloud computing eller gridcomputing at gøre.

Det som både minicomputere og mainframes kan, og som du også er inde på, er at du kan lukke dele af maskinen ned, for at skifte dem - altså hotswap af dele af hardwaren.

..og så er modning af z/OS 30-40 år på bagen, så de fejl der er i systemer, er som oftest kendte.

#17 Størstedelen af den finansielle sektor (heriblandt Danske bank) kører allerede på IBM mainframe, som er den #15 snakker om. Men ligesom alt andet i denne nye verden, så skal man have netværksadgang til mainframen, for at kunne bruge den...
Gravatar #25 - fallen
8. maj 2008 13:55
Ja det jo ganske meget regnekraft.. Gad vide hvordan et tilsvarende Supermicro cluster ville se ud til sammenligning..



19 skrev:
Måske fordi du ikke vidste hvad en supercomputer er.

Det er IKKE en almindelig desktop-computer med rigtigt meget RAM og et fedt design. ;-)


Bare fordi det er en supercomputer behøver designet ikke nødvændigvis være 'fedt' .. se evt. hp cluster ;)

:P
Gravatar #26 - lost-viking
8. maj 2008 14:33
#10 jeg siger at computere nok kan køre de nyeste spil.. men at de nyeste spil ikke vil kunne køre på den.. altså den kan jo godt trække dem med alt den regnekraft men tror bare den er for kraftig til spilne.. lidt som hvis man prøver at køre de gamle spil fra de gamle computere.. køre man dem på en ny pc køre de vildr hurtigt og er umulige at spille uden at have et program til at sænke farten..
Gravatar #27 - assassin2007
8. maj 2008 14:57
Hvis computeren kun har det ene formål, giver det ingen mening overhovedet at bygge den ud af en masse CPUer, derimod giver det mere mening at bygge den udfra FPGA kredse, det vil nok give iværtfald et strømforbrug på en tiendedel samt gøre den en del billigere, men ja også mere avanceret, evt kunne man bruge en hurtig cpu til at kontrollere alle variablerne.

En CPU er i virkeligheden temmeligt langsom og meget ineffektiv måde at behandle data på, den er dog meget alsindig og kan bruge til flere ting, hvor en FPGA kun kan bruges til den opgave som den er programmeret til fra starten, men tilgengæld slår den en computer med flere længder i hastighed og effektivitet.
Gravatar #28 - arne_v
8. maj 2008 15:00
#15

z/OS er ikke Unix baseret.

z/OS kører kun på mainframe og ikke på klynge computere.

z/OS er beregnet til business computing ikke scientific computing.

BlueGene kører CNK og SUSE Linux.

Der er formentligt ikke en eneste supercomputer som kører z/OS.

Ifølge http://www.top500.org/stats/list/30/osfam så kører 85% af de 500 hurtigste supercomputere Linux.
Gravatar #29 - xeenn
8. maj 2008 15:05
#26

At "gamle" spil kører "for hurtigt" på en moderne PC er typisk fordi selve spillet er skrevet til én specifik cpu, f.eks 8088 eller 80286, og derfor ikke tilpasser hastigheden efter hvor meget regnekraft, eller hvad du vil kalde det, der er til rådighed.

Nyere spil derimod er lavet til at kunne køre på mange forskellige cpu'er, så der er ikke der problemet ville ligge.

Derimod ville problemerne sikkert være:

1. De nye spil kan ikke udnytte så mange kerner.
2. Supercomputeren kører ikke Windows.
3. Der er sikkert ikke noget/nogen vilde grafikkort i.
4. CPU'erne er ikke baseret på x86 arkitekturen.
5. Find selv på flere... ;)
Gravatar #30 - Barkane
8. maj 2008 15:07
#12 Jeg vil nu ikke smide den til antarktis, jeg vil nødig smelte hele antarktis og dermed få havvandet til at stige som kunne betyde mindre Danmark :)
Gravatar #31 - Borg[One]
8. maj 2008 15:10
#30 Det er primært Lolland det vil gå udover - så hvis bare vi får en bro-extenser så er det nok ikke rigtig noget vi ligger mærke til.
Gravatar #32 - luuuuu
8. maj 2008 17:34
så vidt jeg har forstået på benchmarks og des lige, så er xeon da opteron overlegen når det kommer til flops, hvor imod opteron er hurtigere til at skubbe data rundt på grund af dens anderledes ram placering.

så hvorfor vælge opteron til en sådan opgave?

eller tager jeg helt fejl? :S
Gravatar #33 - zymes
9. maj 2008 03:24
[quote=9]men den ku helt sikkert køre alle de nyeste spil! tror måske bare ikke de nye spil ku køre på den..
quote]

Tror det ville gå galt, spillede Mujaffa spillet engang på en gammel computer, så fik jeg en ny hurtig en, også kørte bilen fem gange så hurtigt. Forestil dig lige hvor hurtigt man skulle styre for at spille NFS med 3000km/t :D
Gravatar #34 - zymes
9. maj 2008 03:26
FFS, giv mig en edit knap!
Gravatar #35 - assassin2007
9. maj 2008 09:10
#32

Kunne det tænkes at en høj memory båndbredde er temmeligt vigtigt når man skal beregne på en meget stor mængde data.
Gravatar #36 - arne_v
9. maj 2008 12:00
#35

Ja. Men det er umuligt at få. Så softwaren er nødt til at tage hensyn til det.
Gravatar #37 - fallen
9. maj 2008 12:06
34#
Ja det ville da være MEGET rart engang imellem ;)

Nu vi ER igang kunne vi måske også få en login box i bunden af tråden?


35#
35 skrev:

Kunne det tænkes at en høj memory båndbredde er temmeligt vigtigt når man skal beregne på en meget stor mængde data.


Jeg syntes efterhånden Intel er ved og komme efter det på båndbredden - om ikke andet bliver memory controlleren jo snart inline magen til AMD's. ... hmm
Gravatar #38 - arne_v
9. maj 2008 12:21
#37

Jeg tror hverken Intels eller AMD's memory controller er relevant i klynge computere med millioner af kerner.
Gravatar #39 - assassin2007
9. maj 2008 12:32
#38 Tror jeg da man så kan skære ned på cachen og dermed få et bedre dataflow og samtidigt også vil spare lidt strøm.

#37 Ja ja nu skal de jo så lige overleve de børnesygdomme som AMD også havde med indbygget ramcontroller. Men ja det er den rigtige vej at gå, bare ægerligt at de først har indset det nu.
Gravatar #40 - tachylatus
11. maj 2008 20:59
#32
Sidst jeg tjekkede var Opteron langt mere energieffektive end Xeon hvilket er en meget vigtig faktor i server sammenhæng (mere energi = mere varme = dyrere køling udover større elregning).
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login