En arbejdsstation fra Nvidia bruger Ampere-arkitekturen til at forenkle maskinlæring og databearbejdning.
Nvidias DGX Station A100 er en ny arbejdsstation, der kommer med fire A100 GPU’er – med enten 40GB eller 80GB – og et vedligeholdelsesfrit kølingssystem.
A100 GPU’erne er egentligt beregnet til datacentre, men Nvidia har nu formået at samle fire af dem i et en arbejdsstation, der skal gøre livet lettere for talknusere.
A100 GPU’erne er baseret på Nvidias Ampere-arkitektur, der også bruges til deres 3000-serie, gaming-GPU’er.
Der er dog ikke meget ydeevne at hente, hvis man vil bruge A100-GPU’erne til gaming – de er nemlig beregnet til maskinlæring og bearbejdning af store datasæt.
Foruden de fire GPU’er og det indbyggede kølingssystem, så får man også en AMD CPU med 64 kerner samt en 7.68TB NVME SSD.
A100-GPU’erne understøtter også Nvidias Multi-Instance GPU-teknologi, der gør brugere i stand til at dele hver enkelt GPU op i syv ‘partitions’ eller dele.
Ved at dele GPU’ens ressourcer op i flere dele udnytter man bedre GPU’ens kapacitet og gør én i stand til at arbejde på flere opgaver ad gangen.
Man skal dog forvente, at prisen ikke er overkommelig for privatpersoner. Derimod er målet laboratorier og firmaer, der forsker i kunstig intelligens og maskinlæring.
En tidligere version henvendt til datacentre, DGX A100, koster 200.000 dollars (ca. 1.250.000 kroner).
"Nvididas DGX Station A100 er en talknusers våde drøm – op til 80GB GPU’er"
Op til 80 GB hvad? GDDR?- en GPU kan ikke bare være 80GB?? Og linket til kilden fører bare til engadgets forside - så jeg kan ikke se original artiklen.
Edit: En søgning fandt en artikel på Aanandtech der forklarer at det er en GPU med 80GB HBMe2 - hvilket ikke er nævnt noget sted i newz-artiklen.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.