mboost-dp1
The Traveling Photographer
Måske de så vil blive i stand til at inkludere solen i deres beregninger i stedet for bare at ignorere den og fokusere på co2 :)
haha det er fandme en gal computer.. og kæft den æder strøm! hvor sku man få alt den strøm fra? men den ku helt sikkert køre alle de nyeste spil! tror måske bare ikke de nye spil ku køre på den..
men ja jeg er også forundret over at der skal så meget kraft til det..
#7 nok temlig stor tror ikke den sku stå i min stue.. og tror heller ikke jeg ville have den der min cpu er 33 grader varm lige nu.. og tænk hvis man har temlig mange flere af dem.. det må give en enorm varme..
men ja jeg er også forundret over at der skal så meget kraft til det..
#7 nok temlig stor tror ikke den sku stå i min stue.. og tror heller ikke jeg ville have den der min cpu er 33 grader varm lige nu.. og tænk hvis man har temlig mange flere af dem.. det må give en enorm varme..
Kunne være lidt fedt hvis man havde lavet en regnefejl i flop-udberegningerne, så når det hele engang kommer op at køre, at det så viser sig at kræve en 11 petaflop computer. ... DOH! Det nytter jo ikke noget at have en atmosfære-computer der er bagud med alle beregninger. (Så vil de jo ophobe sig, eftersom der kommer nye data hele døgnet.)
Er det ikke noget ligende PS3/F@H, hvor de chips så bare er tilpasset mod, klima simulationer.
Hvor mange ps3, skulle der til ? :)
Hvor mange ps3, skulle der til ? :)
#9
Spil ville ikke køre ordentligt på den.
Processorerne får tildelt en større opgave af en central styreenhed som når den får svar igen sender en ny opgave.
Strukturen i mainframes er meget lig. fx. F@H bortset fra at datasikkerhed og redundans er i højsædet. Der er mindst to af alt som systemet ikke virker uden.
Der er et større overhead på at sende en pakke ud til en processor - større som i ms-klassen -, så derfor skal der helst gå et stykke tid før der skal sendes er brug for at sende en ny for at holde processorerne aktive så meget som muligt.
IBM's supercomputer kører nok z /OS som er glimrende til klyngecomputere og andre realtidssystemer. Er unix-baseret og nok det mest stabile system i verdenen.
Har haft en kursus om det.. IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid om året og er typisk maintenance-relateret.
Hvornår får vi hotswap RAM og CPU-udskiftning på desktop-markedet ;)? vil ikke lave powerdown for at skifte ram hvis der nu skete noget spændende på newz.dk imens ;)
Spil ville ikke køre ordentligt på den.
Processorerne får tildelt en større opgave af en central styreenhed som når den får svar igen sender en ny opgave.
Strukturen i mainframes er meget lig. fx. F@H bortset fra at datasikkerhed og redundans er i højsædet. Der er mindst to af alt som systemet ikke virker uden.
Der er et større overhead på at sende en pakke ud til en processor - større som i ms-klassen -, så derfor skal der helst gå et stykke tid før der skal sendes er brug for at sende en ny for at holde processorerne aktive så meget som muligt.
IBM's supercomputer kører nok z /OS som er glimrende til klyngecomputere og andre realtidssystemer. Er unix-baseret og nok det mest stabile system i verdenen.
Har haft en kursus om det.. IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid om året og er typisk maintenance-relateret.
Hvornår får vi hotswap RAM og CPU-udskiftning på desktop-markedet ;)? vil ikke lave powerdown for at skifte ram hvis der nu skete noget spændende på newz.dk imens ;)
http://www.comon.dk/index.php/news/show/id=35977
nu vil nasa have en computer med 10petaflop med intel processorer. mon nasa har et atomkraftværk for sig selv til kørsel og køling af kernerne
nu vil nasa have en computer med 10petaflop med intel processorer. mon nasa har et atomkraftværk for sig selv til kørsel og køling af kernerne
IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid
Det kunne være IBM Danmark skulle overveje sådan et system til DSV / Danske Bank / mange andre ;)
os Lawrence Berkeley National Laboratory i USA har klimaforskere en drøm om at kunne lave en computer, der kan simulere hele jordens atmosfære i en hidtil uset detaljegrad.
BREAKING NEWS!!!
Selvfølgelig vil de da lave en computer som kan klare opgaven i en hidtil uset detaljegrad! Ellers var det vel for pokker ikke en nyhed?!?
Derudover, forskere - og en computer som kun er i tankerne - altså, der bliver forsket i hvordan den skal bygges... Underfundigt ;)
Men spændende projekt!
"Det kan dog blive ved drømmen i nogen tid endnu, for den ønskede simulation kræver en 10 petaflop supercomputer."
Ehm hvordan kan en simulering kræve X petaflop beregningshastighed? Hvis den kun har den halve kraft, så tager det vel bare dobbelt så lang tid?
Jeg undrer mig altid, når man får det til at lyde som om at NU kan man alt muligt man ikke kunne før, fordi man har bygget en så og så stor computer. Det kunne man vel også før, bare langsommere...
Ehm hvordan kan en simulering kræve X petaflop beregningshastighed? Hvis den kun har den halve kraft, så tager det vel bare dobbelt så lang tid?
Jeg undrer mig altid, når man får det til at lyde som om at NU kan man alt muligt man ikke kunne før, fordi man har bygget en så og så stor computer. Det kunne man vel også før, bare langsommere...
18 skrev:Ehm hvordan kan en simulering kræve X petaflop beregningshastighed? Hvis den kun har den halve kraft, så tager det vel bare dobbelt så lang tid?
De har nok taget "tålmodighed" med ind i beregningerne.
Jeg kender ikke dette projekt, men fx. DMI laver også diverse simuleringer, for at forudsige vejret. Og der er grænser for hvor lang tid man kan vente fra man får data ind, til der skal komme et resultat ud. Det nytter ikke noget at simulere realtime, så kunne du ligeså godt bare vente og se.
Hvis der kommer data ind kl. 15, som skal indgå i 5-døgnsprognosen i TV-avisen kl. 18, så skulle det meget gerne tage under 3 timer at beregne den prognose, og alt det andet de også regner på.
Hvis det er noget de vil have beregnet én gang for alle, har de nok sat en dato for hvornår de skal have resultatet. Det kan godt være at min gamle bærbare ville kunne beregne det, men jeg gider ikke vente på det.
Så kan det da godt være, at hvis 10 petaflop ikke er muligt, men 9 er, at de så kan vente lidt længere. Men 1 kan jo så nok ikke gøre det.
#15
Jeg tror du skal snakke et par borgelige ord med jeres lærer, om hans 'facts'.
Det er rigtig at mainframen har mindre nedetid end andre systemer, men taler vi drift, så regner man ikke nedetid i vedligeholdelsesvinduer med.
Typisk får en mainframe lov til at lukke ned for alt opdaterende en gang om ugen, hvorefter du kan bryde dit SAN-spejl, og påbegynde din katastrofebackup. Prøv at log på din netbank lørdag nat, og du vil se hvad jeg mener.
Arkitekturen bag dit mainframe-setup differentere sig ikke så meget fra PC-clustering.
Det har ikke ritgig så meget med hverken cloud computing eller gridcomputing at gøre.
Det som både minicomputere og mainframes kan, og som du også er inde på, er at du kan lukke dele af maskinen ned, for at skifte dem - altså hotswap af dele af hardwaren.
..og så er modning af z/OS 30-40 år på bagen, så de fejl der er i systemer, er som oftest kendte.
#17 Størstedelen af den finansielle sektor (heriblandt Danske bank) kører allerede på IBM mainframe, som er den #15 snakker om. Men ligesom alt andet i denne nye verden, så skal man have netværksadgang til mainframen, for at kunne bruge den...
Har haft en kursus om det.. IBM's mainframes har gennemsnitligt 0,25 sekunders nedetid om året og er typisk maintenance-relateret.
Jeg tror du skal snakke et par borgelige ord med jeres lærer, om hans 'facts'.
Det er rigtig at mainframen har mindre nedetid end andre systemer, men taler vi drift, så regner man ikke nedetid i vedligeholdelsesvinduer med.
Typisk får en mainframe lov til at lukke ned for alt opdaterende en gang om ugen, hvorefter du kan bryde dit SAN-spejl, og påbegynde din katastrofebackup. Prøv at log på din netbank lørdag nat, og du vil se hvad jeg mener.
Arkitekturen bag dit mainframe-setup differentere sig ikke så meget fra PC-clustering.
Det har ikke ritgig så meget med hverken cloud computing eller gridcomputing at gøre.
Det som både minicomputere og mainframes kan, og som du også er inde på, er at du kan lukke dele af maskinen ned, for at skifte dem - altså hotswap af dele af hardwaren.
..og så er modning af z/OS 30-40 år på bagen, så de fejl der er i systemer, er som oftest kendte.
#17 Størstedelen af den finansielle sektor (heriblandt Danske bank) kører allerede på IBM mainframe, som er den #15 snakker om. Men ligesom alt andet i denne nye verden, så skal man have netværksadgang til mainframen, for at kunne bruge den...
Ja det jo ganske meget regnekraft.. Gad vide hvordan et tilsvarende Supermicro cluster ville se ud til sammenligning..
Bare fordi det er en supercomputer behøver designet ikke nødvændigvis være 'fedt' .. se evt. hp cluster ;)
:P
19 skrev:Måske fordi du ikke vidste hvad en supercomputer er.
Det er IKKE en almindelig desktop-computer med rigtigt meget RAM og et fedt design. ;-)
Bare fordi det er en supercomputer behøver designet ikke nødvændigvis være 'fedt' .. se evt. hp cluster ;)
:P
#10 jeg siger at computere nok kan køre de nyeste spil.. men at de nyeste spil ikke vil kunne køre på den.. altså den kan jo godt trække dem med alt den regnekraft men tror bare den er for kraftig til spilne.. lidt som hvis man prøver at køre de gamle spil fra de gamle computere.. køre man dem på en ny pc køre de vildr hurtigt og er umulige at spille uden at have et program til at sænke farten..
Hvis computeren kun har det ene formål, giver det ingen mening overhovedet at bygge den ud af en masse CPUer, derimod giver det mere mening at bygge den udfra FPGA kredse, det vil nok give iværtfald et strømforbrug på en tiendedel samt gøre den en del billigere, men ja også mere avanceret, evt kunne man bruge en hurtig cpu til at kontrollere alle variablerne.
En CPU er i virkeligheden temmeligt langsom og meget ineffektiv måde at behandle data på, den er dog meget alsindig og kan bruge til flere ting, hvor en FPGA kun kan bruges til den opgave som den er programmeret til fra starten, men tilgengæld slår den en computer med flere længder i hastighed og effektivitet.
En CPU er i virkeligheden temmeligt langsom og meget ineffektiv måde at behandle data på, den er dog meget alsindig og kan bruge til flere ting, hvor en FPGA kun kan bruges til den opgave som den er programmeret til fra starten, men tilgengæld slår den en computer med flere længder i hastighed og effektivitet.
#15
z/OS er ikke Unix baseret.
z/OS kører kun på mainframe og ikke på klynge computere.
z/OS er beregnet til business computing ikke scientific computing.
BlueGene kører CNK og SUSE Linux.
Der er formentligt ikke en eneste supercomputer som kører z/OS.
Ifølge http://www.top500.org/stats/list/30/osfam så kører 85% af de 500 hurtigste supercomputere Linux.
z/OS er ikke Unix baseret.
z/OS kører kun på mainframe og ikke på klynge computere.
z/OS er beregnet til business computing ikke scientific computing.
BlueGene kører CNK og SUSE Linux.
Der er formentligt ikke en eneste supercomputer som kører z/OS.
Ifølge http://www.top500.org/stats/list/30/osfam så kører 85% af de 500 hurtigste supercomputere Linux.
#26
At "gamle" spil kører "for hurtigt" på en moderne PC er typisk fordi selve spillet er skrevet til én specifik cpu, f.eks 8088 eller 80286, og derfor ikke tilpasser hastigheden efter hvor meget regnekraft, eller hvad du vil kalde det, der er til rådighed.
Nyere spil derimod er lavet til at kunne køre på mange forskellige cpu'er, så der er ikke der problemet ville ligge.
Derimod ville problemerne sikkert være:
1. De nye spil kan ikke udnytte så mange kerner.
2. Supercomputeren kører ikke Windows.
3. Der er sikkert ikke noget/nogen vilde grafikkort i.
4. CPU'erne er ikke baseret på x86 arkitekturen.
5. Find selv på flere... ;)
At "gamle" spil kører "for hurtigt" på en moderne PC er typisk fordi selve spillet er skrevet til én specifik cpu, f.eks 8088 eller 80286, og derfor ikke tilpasser hastigheden efter hvor meget regnekraft, eller hvad du vil kalde det, der er til rådighed.
Nyere spil derimod er lavet til at kunne køre på mange forskellige cpu'er, så der er ikke der problemet ville ligge.
Derimod ville problemerne sikkert være:
1. De nye spil kan ikke udnytte så mange kerner.
2. Supercomputeren kører ikke Windows.
3. Der er sikkert ikke noget/nogen vilde grafikkort i.
4. CPU'erne er ikke baseret på x86 arkitekturen.
5. Find selv på flere... ;)
så vidt jeg har forstået på benchmarks og des lige, så er xeon da opteron overlegen når det kommer til flops, hvor imod opteron er hurtigere til at skubbe data rundt på grund af dens anderledes ram placering.
så hvorfor vælge opteron til en sådan opgave?
eller tager jeg helt fejl? :S
så hvorfor vælge opteron til en sådan opgave?
eller tager jeg helt fejl? :S
[quote=9]men den ku helt sikkert køre alle de nyeste spil! tror måske bare ikke de nye spil ku køre på den..
quote]
Tror det ville gå galt, spillede Mujaffa spillet engang på en gammel computer, så fik jeg en ny hurtig en, også kørte bilen fem gange så hurtigt. Forestil dig lige hvor hurtigt man skulle styre for at spille NFS med 3000km/t :D
quote]
Tror det ville gå galt, spillede Mujaffa spillet engang på en gammel computer, så fik jeg en ny hurtig en, også kørte bilen fem gange så hurtigt. Forestil dig lige hvor hurtigt man skulle styre for at spille NFS med 3000km/t :D
#32
Kunne det tænkes at en høj memory båndbredde er temmeligt vigtigt når man skal beregne på en meget stor mængde data.
Kunne det tænkes at en høj memory båndbredde er temmeligt vigtigt når man skal beregne på en meget stor mængde data.
34#
Ja det ville da være MEGET rart engang imellem ;)
Nu vi ER igang kunne vi måske også få en login box i bunden af tråden?
35#
Jeg syntes efterhånden Intel er ved og komme efter det på båndbredden - om ikke andet bliver memory controlleren jo snart inline magen til AMD's. ... hmm
Ja det ville da være MEGET rart engang imellem ;)
Nu vi ER igang kunne vi måske også få en login box i bunden af tråden?
35#
35 skrev:
Kunne det tænkes at en høj memory båndbredde er temmeligt vigtigt når man skal beregne på en meget stor mængde data.
Jeg syntes efterhånden Intel er ved og komme efter det på båndbredden - om ikke andet bliver memory controlleren jo snart inline magen til AMD's. ... hmm
#38 Tror jeg da man så kan skære ned på cachen og dermed få et bedre dataflow og samtidigt også vil spare lidt strøm.
#37 Ja ja nu skal de jo så lige overleve de børnesygdomme som AMD også havde med indbygget ramcontroller. Men ja det er den rigtige vej at gå, bare ægerligt at de først har indset det nu.
#37 Ja ja nu skal de jo så lige overleve de børnesygdomme som AMD også havde med indbygget ramcontroller. Men ja det er den rigtige vej at gå, bare ægerligt at de først har indset det nu.
#32
Sidst jeg tjekkede var Opteron langt mere energieffektive end Xeon hvilket er en meget vigtig faktor i server sammenhæng (mere energi = mere varme = dyrere køling udover større elregning).
Sidst jeg tjekkede var Opteron langt mere energieffektive end Xeon hvilket er en meget vigtig faktor i server sammenhæng (mere energi = mere varme = dyrere køling udover større elregning).
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund