Car-tech

Volgende: exascale-computers, naar verwachting tegen 2020

What is Exascale Computing?

What is Exascale Computing?

Inhoudsopgave:

Anonim

Als de toename van de snelheden van supercomputers in hun huidige tempo voortduurt, zullen we de eerste exascale-machine tegen 2020 zien, schatten de beheerders van de Top500-compilatie van 's werelds snelste systemen.

Systeemarchitecten van dergelijke grote computers worden echter geconfronteerd met een aantal kritieke problemen, waarschuwt een bewaker van de lijst.

"De uitdagingen zullen aanzienlijk zijn voor het leveren van de machine," zei Jack Dongarra, een universiteit van Tennessee, Knoxville, onderzoeker die een van de opdrachtgevers achter de Top500 is. Dongarra sprak op de SC2012-conferentie, deze week gehouden in Salt Lake City, tijdens een presentatie over de nieuwste editie van de lijst, vorige week vrijgegeven.

We hebben nog een lange weg te gaan voordat exascale prestaties mogelijk zijn. Een exascale machine zou in staat zijn om een ​​quintillion FLOPS (drijvende komma bewerkingen per seconde) of 10 tot de 18e FLOPS te maken. Zelfs de snelste supercomputers van vandaag bieden minder dan 20 procent van de capaciteit van een exascale machine.

Top500

Nieuwe hoogtes

In de meest recente editie van de Top500-lijst van supercomputers, maandag vrijgegeven, de snelste computer op de lijst was het Oak Ridge National Laboratory Titan-systeem, een machine die 17,59 petaflops kon uitvoeren. Een petaflop is een kwadratische drijvende komma berekeningen per seconde, of 10 tot de 15e FLOPS.

Maar elke nieuwe Top500-de lijst die tweemaal per jaar wordt samengesteld-laat zien hoe snel de snelheden van supercomputers groeien. Te oordelen naar de lijst lijken supercomputers om de tien jaar ongeveer tien keer sterker te worden. In 1996 verscheen de eerste teraflop-computer op de Top500 en in 2008 verscheen de eerste petaflop-computer op de lijst. Extrapolerend van deze mate van vooruitgang schat Dongarra dat exascale computing rond 2020 zou moeten komen.

De High Performance Computing (HPC) -gemeenschap heeft exascale computing als een belangrijke mijlpaal beschouwd. Intel heeft een reeks massaal multicore-processors gecreëerd, Phi genaamd, waarvan het bedrijf hoopt dat het zou kunnen dienen als de basis van exascale-computers die tegen 2018 zouden kunnen draaien. <> In zijn lezing schetste Dongarra de kenmerken van een exascale machine. Een dergelijke machine zal waarschijnlijk ergens tussen de 100.000 en 1.000.000 knooppunten hebben en in staat zijn om op elk willekeurig moment tot een miljard threads uit te voeren. De prestaties van afzonderlijke knooppunten moeten tussen 1,5 en 15 teraflops liggen en interconnects moeten een doorvoersnelheid van 200 tot 400 gigabytes per seconde hebben. Dongarra verwacht dat de helft van de kosten van het bouwen van een dergelijke computer worden gereserveerd voor het kopen van geheugen voor het systeem. Afgaande op de routekaarten van geheugenfabrikanten, schatte Dongarra dat $ 100 miljoen zou kopen tussen 32 petabytes en 64 petabytes geheugen in 2020.

Top500

Software-uitdaging

Naast hardware-uitdagingen moeten ontwerpers van exascale supercomputers worstelen ook met softwareproblemen. Een kwestie zal synchronisatie zijn, zei Dongarra. De machines van vandaag passeren taken uit vele verschillende knooppunten, hoewel deze benadering moet worden gestroomlijnd naarmate het aantal knooppunten toeneemt. <>

"Ons model voor parallelle verwerking is tegenwoordig een fork / join-model, maar dat kan je niet doen bij [de exascale] niveau van een parallellisme.We moeten ons model veranderen.We moeten meer synchroon zijn, "zei Dongarra. In dezelfde lijn moeten algoritmen worden ontwikkeld die de hoeveelheid algemene communicatie tussen knooppunten verminderen.

Andere factoren moeten ook worden overwogen. De software moet worden geleverd met ingebouwde routines voor optimalisatie. "We kunnen niet vertrouwen dat de gebruiker de juiste knoppen en knoppen instelt om de software overal in de buurt van de topprestaties te laten werken," zei Dongarra. Foutbestendigheid is een ander belangrijk kenmerk, net als de reproduceerbaarheid van resultaten, of de garantie dat een complexe berekening exact hetzelfde antwoord oplevert wanneer het meerdere keren wordt uitgevoerd.

Reproduceerbaarheid lijkt een voor de hand liggend kenmerk van een computer. Maar in feite kan het een uitdaging zijn voor enorme berekeningen op multinode supercomputers.

"Vanuit het oogpunt van numerieke methoden is het moeilijk om bit-wise reproduceerbaarheid te garanderen," zei Dongarra. "Het grootste probleem is om een ​​verlaging te doen - een optelling van getallen parallel. Als ik niet kan garanderen in welke volgorde die getallen samenkomen, heb ik verschillende afrondingsfouten. Dat kleine verschil kan worden vergroot op een manier die ertoe kan leiden dat catastrofale antwoorden afwijken, "zei hij.

" We moeten een scenario bedenken waarin we de volgorde waarin deze bewerkingen worden gedaan kunnen garanderen, zodat we kunnen garanderen dat we dezelfde resultaten behalen, "Zegt Dongarra.

Joab Jackson behandelt bedrijfssoftware en algemeen technologisch nieuws voor

The IDG News Service

. Volg Joab op Twitter op @Joab_Jackson. Het e-mailadres van Joab is [email protected]