NVIDIA DGX STATION PERSONAL AI SUPERCOMPUTER
Wanneer je de computerruimte op de tweede verdieping van het computergebouw van het Tokyo Institute of Technology betreedt, word je niet meteen getroffen door de grootte van de op een na snelste supercomputer van Japan. Je kunt de Tsubame-computer niet zien voor de industriële airconditioningunits die je in de weg staan, maar dat is op zichzelf al veelzeggend. Met meer dan 30.000 verwerkingscores die zoemen, verbruikt de machine een megawatt aan stroom en moet deze worden afgesteld.
Tsubame werd gerangschikt als de 29ste snelste supercomputer ter wereld in de nieuwste Top 500-ranglijst met een snelheid van 77.48T Flops (drijvende-kommabewerkingen per seconde) op de standaard Linpack-benchmark.
Hoewel zijn positie relatief goed is, is dat niet wat het zo speciaal maakt. Het interessante van Tsubame is dat het niet alleen afhankelijk is van de onbewerkte verwerkingskracht van CPU's (centrale verwerkingseenheden) om zijn werk gedaan te krijgen. Tsubame bevat honderden grafische processors van hetzelfde type die worden gebruikt in consumenten-pc's, die naast CPU's werken in een gemengde omgeving waarvan sommigen zeggen dat het een model is voor toekomstige supercomputers die disciplines als materiaalchemie bedienen.
Grafische processors (GPU's) zijn erg goed in het snel uitvoeren van dezelfde berekening op grote hoeveelheden gegevens, zodat ze korte metten kunnen maken met sommige problemen op gebieden zoals moleculaire dynamica, simulaties van fysica en beeldverwerking.
"Ik denk dat in de overgrote meerderheid van de interessante problemen in de toekomst, de problemen die de mensheid beïnvloeden waar de impact van de natuur komt … de mogelijkheid vereist om te manipuleren en te berekenen op een zeer grote dataset", zegt Jen-Hsun Huang, CEO van Nvidia, die deze week op de universiteit sprak. Tsubame gebruikt 680 van de Tesla-videokaarten van Nvidia.
Hoeveel verschil maken de GPU's eigenlijk? Takayuki Aoki, een professor in de materiaalchemie aan de universiteit, zei dat simulaties die vroeger drie maanden duurden nu tien uur duren voor Tsubame.
Tsubame zelf - als je eenmaal langs de airconditioners bent gegaan - is verdeeld over meerdere kamers in twee vloeren van het gebouw en is grotendeels opgebouwd uit op rek gemonteerde Sun x 4600-systemen. Er zijn in totaal 655 hiervan, die elk 16 AMD Opteron-CPU-kernen in zich hebben, en Clearspeed CSX600-versnellingsborden.
De grafische chips bevinden zich in 170 Nvidia Tesla S1070 rackgemonteerde eenheden die tussenin zijn ingevoegd Zonnestelsels. Elk van de 1U Nvidia-systemen heeft vier GPU's aan de binnenkant, die elk 240 verwerkingscores hebben voor een totaal van 960 kernen per systeem.
De Tesla-systemen zijn in de loop van ongeveer een week aan Tsubame toegevoegd terwijl de computer werkte.
"Mensen dachten dat we gek waren", zegt Satoshi Matsuoka, directeur van het Global Scientific Information and Computing Center aan de universiteit. "Dit is een ¥ 1 miljard (US $ 11 miljoen) supercomputer die een megawatt aan stroom verbruikt, maar we hebben technisch bewezen dat dit mogelijk was."
Het resultaat is wat universiteitsmedewerkers versie 1.2 van de Tsubame-supercomputer noemen.
" Ik denk dat we 85 [T Flops] hadden moeten bereiken, maar we hadden te weinig tijd, dus het was 77 [T Flops] ", aldus Matsuoka over de benchmarks die op het systeem zijn uitgevoerd. Bij 85T Flops zou het een aantal plaatsen in de Top 500 zijn gestegen en het snelst in Japan zijn gerangschikt.
Er is altijd de volgende keer: een nieuwe Top 500-lijst is gepland in juni 2009, en het Tokyo Institute of Technology is ook op zoek verderop.
"Dit is niet het einde van Tsubame, het is nog maar het begin van GPU-versnelling die mainstream wordt," zei Matsuoka. "We geloven dat er in de wereld supercomputers zullen zijn die de komende jaren meerdere petaflops registreren, en we willen graag volgen."
Tsubame 2.0, zoals hij de volgende upgrade noemde, zou hier binnen de komende twee jaar moeten zijn en zal bogen op een aanhoudende prestatie van ten minste een petaflop (een petaflop is 1000 teraflops), zei hij. Het basisontwerp voor de machine is nog steeds niet voltooid, maar het zal de heterogene computerbasis van het mixen van CPU's en GPU's voortzetten, zei hij.
Nvidia kondigt "personal Supercomputer" aan
Nvidia en partners bieden nieuwe Personal Supercomputers aan voor minder dan $ 10.000.
Amazon's Kindle 2: From Inside Inside
Cool: je Kindle 2 e-reader een dag te vroeg ontvangen. Fantastisch: demonteer je Kindle 2 om iedereen te laten zien wat erin zit.
Asustek Teams met Nvidia op 1.1 Teraflop Supercomputer
Asustek gebruikte 960 Nvidia-grafische kernen in zijn ESC 1000-supercomputer.