Szybkość obliczeń superkomputerów jest mierzona liczbą operacji arytmetycznych na sekundę Ścisłej mówiąc są to operacje zmiennoprzecinkowe w odróżnieniu od operacji na liczbach całkowitych. W większości problemów naukowych w dziedzinie fizyki, astronomii, chemii, ekonomii oraz inżynierii obliczenia wymagają głównie arytmetycznych operacji zmiennoprzecinkowych. Dlatego miarą szybkości operacji jest liczba wykonanych tego rodzaju operacji na jednostkę czasu – sekundę.

 

Skala jednostek szybkości jest podzielona na kilka części różniących się tysiąc razy. Najmniejszą jednostką jest milion operacji na sekundę. Następnie miliard zwany megaflopem. Flop jest skrótem od „Floating Point Operations” (czyli od angielskiej nazwy operacji zmiennoprzecinkowych). Następna jednostka jest znów 1000 razy większa i nazywa się teraflopem, co oznacza tysiąc miliardów czyli 10 do potęgi 12. Najszybsze superkomputery wykonują obliczenia mierzone jednostką petaflop. Petaflop to milion miliardów czyli 10 do potęgi 15.

 

Najszybsze obecnie superkomputery mają wydajność na przykład trzydziestu petaflopów. Trzeba podkreślić, że rozróżniamy kilka zasad pomiaru. Jednym z nich jest „Peak speed” (szczytowa szybkość), uzyskiwana jeśli wszystkie procesory maszyny pracują z maksymalna wydajnością. Ta szybkość jest jednak nieosiągalna.

 

W praktycznych zastosowaniach superkomputer osiąga szybkość która jest ułamkiem szczytowej szybkości. Na przykład potężny superkomputer ma szczytową szybkość 50 petaflopów ale w realnym zastosowaniu osiąga 30 petaflopów. W tym wypadku możemy określić wydajność komputera na konkretnym zastosowanym programie jako 30/50 czyli 60%,

 

https://www.youtube.com/watch?v=eAYohMUpPMA

Do oficjalnej oceny szybkości używa się specjalnego programu zwanego benchmark (program pomiarowy). Przez wiele lat takim programem był algorytm rozwiązujący olbrzymi układ algebraicznych równań liniowych (tzw Linpack) algorytmem Gaussa. Niedawno dodano nowa metodę rozwiązywania równań liniowych zwaną Conjugate Gradient Method. Ogólnie mówiąc szybkość obliczeń zależy od programu, który zawiera różnego rodzaju operacje logiczne i arytmetyczne. Olbrzymi wpływ na szybkość maja operacje dostępu do pamięci. Dane muszą być dostarczone do procesora a po wykonaniu operacji wynik jest odesłany do pamięci. Te operacje są znacznie wolniejsze od operacji procesora i odgrywają decydująca role w szybkości obliczeń. Program który ma dużo operacji arytmetycznych, lecz mało operacji pamięci jest szybszy od programu mającego dużo operacji pamięci i mniej arytmetyki.

 

Jeśli czytamy w opisie komputera, że komputer X ma szybkość S to najczęściej jest to maksymalna szybkość Peak Speed. Bardziej wartościową alternatywa określenia szybkości obliczeń jest liczba operacji na sekundę w rozwiązaniu poprawnie zdefiniowanego problemu matematycznego. W USA ważnym użytkownikiem najszybszych maszyn jest DOE (Department of Energy).

 

https://www.youtube.com/watch?v=oRgQTxw0Ts0

Ostatnio jeden z czołowych amerykańskich ekspertów w dziedzinie superkomputingu Dr Paul Messina przedstawił o plan osiągnięcia nowego progu szybkości zwanego EXAFlops (10 do potęgi 18 operacji zmiennoprzecinkowych na sekundę). Sześć amerykańskich firm złożyło propozycje budowy komputera, który osiągnie prędkość ExaFlops. Termin całego projektu jest oceniony na siedem lat. Pierwsza maszyna ukarze się w 2021 roku i wejdzie do zastosowań w 2023 roku. Messina zaznaczył ze nie będzie to komputer kwantowy lecz nowa architektura wykonana istniejącą klasyczną technologią. Procesory będą przyspieszone oraz będzie rozważona nowa technologia połączeń (interconnect technology).

https://www.youtube.com/watch?v=q_44IZ–lnc

 

Czytelnik tego eseju może rozsądnie zapytać: do czego potrzebne są EXAFlops komputery? Ta szybkość wydaje się tak astronomicznie duża, że trudno będzie znaleźć wystarczająco duży i trudny problem do rozwiązania dla maszyny tak szybkiej. Ale takiej trudności nie ma. Każda epoka nauki posiada zbiór najtrudniejszych problemów, które czekają na nowe narzędzia do obliczeń. Ten zbiór problemów nosi nazwę Challenge Problems (problemy wyzwania). W latach 1970tych i 1980tych takim problemem była, na przykład, aerodynamika samolotu oraz kosmicznych pojazdów. Obecnie do Challenging problems należą miedzy innymi obliczenia związane z klimatem. Zmiany klimatu odbywają się wolno na przestrzeni długiego okresu czasu. Są one skomplikowane ponieważ włączają atmosferę ponad lądem oraz oceany. Dokładne obliczenia wymagają olbrzymiej ilości danych oraz stosunkowo krótkich okresów czasu pomiędzy kolejnymi obliczeniami ewolucji klimatu w czasie.

 

Cały obszar Ziemi jest podzielony na małe części z których każdą charakteryzują zmienne wchodzące do równań różniczkowych ewolucji klimatu. Rezultatem jest olbrzymia ilość równań wymagająca bardzo dużej pamięci i szybkości obliczeń. W rozwiązaniu tego istotnego dla ludzkości problemu pomogą ExaFlops komputery.