• czwartek, 30 marca 2017 r.

Kierunki rozwoju technologii komputerów

Dwie siły napędowe przyczyniają się do rozwoju technologii komputerów. Jedną z nich jest wzrastająca złożoność rozwiązywanych problemów. Drugą jest idea zbliżenia sposobu działania komputerów do funkcji ludzkiego mózgu.

Amerykański rząd opublikował ostatnio dokument pod tytułem “A Federal Vision For Future Computing “. Dokument zawiera informacje o trzech priorytetach federalnego rządu.

1. National Nanotechnology Initiative (NNI) która powstała w 2003 roku,

2. National Strategic Computing Initiative (NSCI) oraz

3. The BRAIN Project. Plan badan w dziedzinie symulacji ludzkiego mózgu.

Celem NNI jest dalszy postęp w zwiększeniu szybkości komputerów i zmniejszenie zużycia energii komputera Von Neumanna. Centralną technologią jest tzw. nanotechnologia (nanotechnology) zmniejszajaca rozmiar elementu spełniającego rolę tranzystora do rozmiaru atomu.

NNI zawiera kilka zadań dotyczących: konstrukcji, składników architektury komputera, połączeń, metod fabrykacji, technik software oraz zastosowań.

W dziedzinie nanotechnologii już zrobiono postęp. IBM skonstruował działający nanotube tranzystor.

 

Nazwa „nano” pochodzi od wielkości „nanometr”, która jest miliardową częścią jednego metra. Molekuła wody jest mniejsza od nanometra a przeciętna bakteria ma 1,000 nanometrów. IBM współpracując z Lawrence Livermore National Laboratory (LLNL) dostarczy chip zawierajacy 16 milionow neuronów i 4 miliardy synaptycznych połączeń. Ten chip umożliwi zbudowanie dużego komputera symulującego architekturę mózgu. Ta dziedzina badań nosi nazwę neuromorphic computing (NMC). Jednym z fascynujących problemów NMC jest bardzo małe zużycie energii przez ludzki mózg pomimo olbrzymiej ilości neuronów (rzędu 100 miliardow). Komputery są nieporównywalnie mniej wydajne w użyciu energii. W Europie też są dwa projekty dotyczące neuromorphic computing: SpiNNaker oraz BrainScaleS. Sumaryczny budżet projektów budowy neuronowego komputera symulującego mózg wynosi około miliarda USD.

 

Klasyczna dziedzina superkomputerów zwana High Performance Computing bazuje na arytmetyce zmiennoprzecinkowej. Obliczenia neuromorficznch komputerów opierają sie na na tzw pattern recognition (rozpoznanie obrazów, wzorców). Rządowa National Strategic Computing Initiative planuje połączenie klasycznych metod naukowych obliczeń oraz metod odnoszących się do typu operacji mózgu związanych z poznawaniem obrazów, zrozumieniem mowy oraz zdolnością uczenia się. Cały projekt jest podzielony na trzy fazy: 5 ,10 i 15 letnie okresy badań.

Inną dziedziną technologii którą jest zainteresowany rząd USA jest kwantowy komputer oraz kwantowa kryptografia. Opis tych dziedzin informatyki zostawiam na przyszłe eseje.

Warto tez wspomnieć, że firma Intel oferuje fotoniczne polaczenia komputerowe działające z szybkością 100 Gigabit/sek. Ta technologia znajdzie zastosowanie w sieciach Ethernet oraz tzw cloud computing.

Firma planuje też nowe pokolenie slawnego procesora Phi (many integrated core processor MIC) który bedzie szybki w zastosowanach sztucznej inteligencji AI.

Pierwsza wersja tego procesora z 2012 roku miała na celu wydajne obliczenia naukowe i przemysłowe używające arytmetyczne operacje zmiennoprzecinkowe. Procesor Phi jest w stanie osiągnąć szybkość 1 teraflopa. Jest to 10 do potęgi 12 operacji zmiennoprzecinkowych. Inaczej mówiąc jest to tysiąc miliardów operacji na sekundę. Procesor Phi zawiera 61 rdzeni (cores), stąd nazwa Many Integrated Core. Dla porównania zwykle multiple core procesory zawierają dwa, cztery lub osiem rdzeni. Obecnie każdy PC ma wielordzeniowy procesor.

Klastery Phi są najszybszymi superkomputerami świata.

Janusz KowalikJanusz Kowalik jest emerytowanym profesorem matematyki i informatyki na Washington State University oraz byłym kierownikiem organizacji badań informatyki w firmie lotniczej Boeing Company w Seattle. Adres internetowy Janusza: j.kowalik@comcast.net

Podobne wpisy

12 komentarzy

  1. MICHAL
    16 września 2016 at 13:10 - odpowiedz

    Akurat TESLA NVIDI czyli procesor karty graficznej(~3000 rdzeniowy) zagoniony do obliczeń jest trochę szybszy od Intel Phi.
    https://www.xcelerit.com/computing-benchmarks/libor/intel-xeon-phi-vs-nvidia-tesla-gpu/
    Tak na marginesie Phi też miało być karta graficzną(Intela) ale w końcu sobie odpuścili.

  2. dżizas
    16 września 2016 at 13:26 - odpowiedz

    Symulowanie mózgu niektórych osobników nie wymaga zbyt zaawansowannej technologii. Wydaje mi się, że jakiś mistrz zła mógły już dziś symulować np. mózg Jarosława Kaczyńskiego.
    🙂

  3. Janusz
    Janusz
    16 września 2016 at 20:20 - odpowiedz

    Roznica pomiedzy procesorami Intel i INVIDIA polega na sposobie programowania ktore w wypadku INVIDII jest bardzo pracochlonne.
    Tesla jest szybszy ale mniej ekonomiczny poniewaz koszt i czas programowania sa duze.
    NVIDIA wymaga zupelnie nowego jezyka programowania co powaznie utrudnia koszt tzw porting czyli zastosowania istniejacych programow na nowych maszynach.

    • MICHAL
      17 września 2016 at 09:52 - odpowiedz

      Tylko ze prosta rekompilacja w przypadku Intel Phi jeszcze bardziej obniża wydajność Intel Phi(2 do 4 razy):
      http://www.nvidia.com/object/justthefacts.html
      tak więc żeby skorzystać z pełnej mocy Intel Phi i tak trzeba przepisać aplikacje pod niego.
      Ogólnie NVIDIA wyszła od (stosunkowo) prostych rdzeni graficznych a Intel skorzystał z doświadczeń związanych z jego koprocesorem zmiennoprzecinkowym. Pamiętam jeszcze czasy kiedy sprzedawany osobno i to za bardzo wygórowana cenę koprocesor radykalnie(o rząd do dwóch) przyspieszał obliczenia inżynierskie. Na szczęście od dłuższego czasu jest on zintegrowany z procesorem centralnym we wszystkich procesorach rodziny x86.
      Rodzina ARM(te procesory w większości smartfonów) do niedawna nie miały zintegrowanego koprocesora.

  4. Janusz
    Janusz
    16 września 2016 at 20:49 - odpowiedz

    Trzeba dodac ze Intel i ENVIDIA sa konkurentami
    w technologii przyspieszania obliczen. Obecnie istnieje pewna rownowaga.ENVIDIA przewaza w zastosowaniach w ktorych trzeba stworzyc nowy program, natomiast Intel wybieraja firmy ktore chca przyspieszyc istniejacy software.
    Inaczej mowiac istniejace programy nie moga byc latwo liczone przez procesory Tesla .Uzytkownicy superkomputerow twierdza ze przejscie do systemow z procesorami Intel jest latwe poniewaz Intel uzywa standardowe metody programowania.

  5. Janusz
    Janusz
    16 września 2016 at 23:40 - odpowiedz

    Jedna z zalet wolnorynkowej gospodarki jest techmologiczny wyscig kilku lub kilkunastu firm w kazdej dziedzinie technologii . Wygrywa ta firma ktora ma zbyt na swoje produkty,Decyduje w efekcie uzytkownik technologii krory musi ocenic i porownac rozne alternatywy. W dziedzinie komputerow wazne sa : szybkosc operacji, wielkosc pamieci, niezawodnosc(reliability), cena zakupu, zuzycie energii (szczegolnie wazne dla superkomputerow).

  6. Janusz
    Janusz
    17 września 2016 at 00:07 - odpowiedz

    Jak uzytkownik ocenia rozne komputery.
    Wielkie firmy takie jak The Boeing Company maja specjalne organizacje ktore sledza rozwoj technologii i pomagaja kierownictwu w zakupie optymalnej technologii potrzebnej firmie w procesie projektowania i budowy swoich produktow takich jak samoloty Boeinga.
    Takie organizacje maja kontakt z przemyslem informatyki i uniwersytetami .Zatrudniaja ludzi z doktoratami ktorzy wola badania naukowe wprzemysle niz prace naukowa akedemicka. Pomaga w przeplywie informacji swobodna wymiana pracownikow pomiedzy firmami przemyslowymi a uniweersytetami. Tak na przyklad w mojej organizacji
    w Boeingu bylo kilku bylych profesorow uniwersyteckich.

  7. Janusz
    Janusz
    17 września 2016 at 20:06 - odpowiedz

    Zalozmy ze masz klaster i duzy program napisany w MPI . Przerobienie go na szybszy klaster z procesorami Phi zajmie kilka dni . Natomiast stworzenie nowego programu w niepopularnie znanym jezyku moze zajac kilka miesiecy. Na uczelni to nie rpobi roznicy bo programisci studenci sa darmowi. W przemysle ta roznica jest istotna.
    Dlatego obie alternatywy sa uzywane do przyspieszania.

  8. Janusz
    Janusz
    19 września 2016 at 06:24 - odpowiedz

    Najszybszy superkomputer w Polsce
    Kazdego roku w czerwcu i listopadzie odbywa sie swiatowa „olimpiada” najszybszych superkomputerow.
    Ten sam test jest stosowany do uczestniczacych komputerow. Szybkosc jest mierzona i lista 500 najszybszych maszyn jest publikowana. Lista nazywa sie TOP500 .W czerwcu 2016 na liscie znalazl sie jeden komputerr w Polsce .Jest to superkoputer w Gdansku o nazwie Tryton ktorego posiadaczem jest organizacja TASK(Trojmiejski Osrodek SuperKomputerowy ) na terenie Politechniki Gdanskiej. .Ma numer 92. To znaczy ze jest 92 gim najszybszy na swiecie.Tryton jest klasterem zbudowanym przez firme Hewlett Packard.
    Maszyna zawiera 38,400 rdzeni i jej maksymalna szybkosc wynosi okolo 1 PetaFlops (10 do potegi 15 zmiennoprzecinkowych operacji na sekunde).
    Dla porownania maszyna numer 1 jest okolo 100 tysiecy razy szybsza .Nalezy pamietac ze rzeczywista szybkosc kiedy maszyna liczy konkretny program jest mniejsza . Moze byc znacznie nizsza.

  9. Janusz
    Janusz
    20 września 2016 at 03:12 - odpowiedz

    Poprawna nazwa polskiego osrodka superkomputera
    w Gdansku jest Trojmiejska Akademicka Siec Komputerowa (TASK). Organizacja glownie obsluguje
    naukowcow Politechniki Gdanskiej. Studenci informatyki Uniwersytetu Gdanskiego ktorych uczylem w latach 2005-2015 mieli tez dostep do maszyny w TASKU .

  10. Janusz
    Janusz
    20 września 2016 at 20:17 - odpowiedz

    Bomba polityczna w USA
    Podobno byly republikanski prezydent Bush powiedzial ze bedzie glosowal na Clinton.
    Jest on tylko jednym z wielu glosujacych obywateli
    ale takie oswiadczenie jest znaczace i wzmacnia pozycje Clinton.

Zostaw komentarz

Wpisz kod antySPAMowy *