• sobota, 16 grudnia 2017 r.

Sieci neuronowe

Ten esej jest wstępem do następnego  eseju dyskutującego naturę ludzkiego mózgu i jego relacji do komputera i tworów  sztucznej inteligencji (Artificial Intelligence [AI]). Następny  esej będzie  opisem głównych myśli w  książce Rogera Penrose, której podtytuł brzmi: “O komputerach, umyśle i prawach fizyki”. Roger Penrose jest wybitnym matematykiem i współpracownikiem znanego kosmologa Stephena Hawkinga .

neuro

 

W tym eseju zacznę od wspomnienia innego wybitnego matematyka dwudziestego wieku – Johna von Neumanna, który w 1945 roku zaproponował konstrukcję komputera składającego się z procesora zwanego CPU i z pamięci. Ta struktura jest podstawą istniejącej technologii komputerowej. Jemu też zawdzięczamy pouczający informatyczny model zwany cellular automata (komórkowe automaty). Model ten jest dwuwymiarowym  zbiorem komórek, które podlegają bardzo prostym regułom zmieniającym ich stan. Stan ten jest binarny (dwójkowy). Komórka albo   przeżywa iterację (może też być stworzona)  lub umiera i przestaje istnieć . Aby zacząć iteracyjny proces rozwoju grupy komórek zakłada się początkowy kształt zespołu.

Model pokazał zdumiewającą charakterystykę. Można ją nazwać Zasadą Złożoności. Zasada ta mówi, że proste reguły kierujące elementarnymi częściami zespołu mogą tworzyć bardzo złożone procesy całego systemu.  Ta sama zasada leży u podstaw działania komputera w którym miliardy prostych  operacji  dwójkowej  algebry Boole’a wykonanych przez tranzystory rozwiązują złożone modele matematyczne opisujące na przykład problem prognozy pogody. Zanim przejdę do neuronowych sieci trzeba zauważyć, że zasada złożoności dotyczy również ludzkiego mózgu, który składa się z około 100 miliardów dość  prostych neuronów. Żaden neuron indywidualnie nie myśli lub też nie czuje, ale cały zespól jest niezwykle złożonym systemem kierującym życiem i funkcjami intelektualnymi człowieka. Zasada Złożoności tłumaczy też rozwój ewolucyjny w którym na przestrzeni miliardów lat i milionów pokoleń proste organizmy przekształciły się  małymi zmianami  w skomplikowane istoty jakimi są ssaki i w szczególności człowiek. Warto wspomnieć  słynne wyjaśnienie Dawkinsa, który porównał ewolucję ze wspinaczką na wysoka górę (Mount Improbable [Góra nieprawdopodobieństwa]) idąc  łagodną, ale długą ścieżką.

W odróżnieniu od komputerów które są materialnymi przyrządami, sieci neuronowe są modelami symulowanymi na superkomputerach. Duże sieci zawierają 100,000 neuronów czyli milion razy mniej niż ludzki mózg. Ich zaletą jest szybkość reakcji w porównaniu ze znacznie wolniejszym mózgiem. Słabe elektryczne sygnały w ludzkim mózgu maja szybkość około 130 metrów na sekundę.  Sygnały w komputerze osiągają szybkości rzędu  szybkości światła 300,000,000m/sek. Jest to równe 30 cm na jedna nanosekundę(miliardowa część sekundy).

Co neuronowe sieci potrafią zrobić? Jak dotąd sieci potrafią się uczyć przez trening i modyfikacje swoich parametrów. Jedną z dziedzin w której sieci wykonują czlowiekopodobne czynności jest pattern recognition. Nie znam polskiego odpowiednika nazwy tej dziedziny AI, ale można przetłumaczyć pattern recognition na “rozpoznanie wzorów”.

Ta zdolność sieci neuronowych jest  wykorzystana do budowy systemów ekspertowych które potrafią sortować rożne przedmioty np przesyłki i listy. Innym zastosowaniem jest diagnoza medyczna, gdzie sieci rozpoznają rakowe komórki na podstawie zdjęć wykonanych aparatami współczesnej medycyny.

Sieć pomaga lekarzowi w identyfikacji chorych komórek organu. Jest to asysta a nie zastąpienie lekarza. Są to skromne osiągnięcia, ale pokazują, że można zbudować sztuczny system imitujący proste czynności ludzkie. Dziedzina informatyki pattern recognition odgrywa poważną role w wielu operacjach przemysłowych, medycznych  i militarnych. Do umiejętności  ludzkiego myślenia jest jeszcze daleko, ale rozumiemy zasadę złożoności tłumaczącą jak natura stworzyła bardzo złożone istoty z bardzo prostych elementów. Samo to zrozumienie jest wielkim krokiem do przodu wykonanym w drugiej połowie  dwudziestego  wieku.

Interesujące porównanie ludzkiego mózgu z siecią neuronowa można znaleźć w publikacjach Victora Stengera i Rube Goldberga. Goldberg podkreśla fakt, że mózg jest bardzo wolny w porównaniu z komputerami lub sieciami neuronowymi symulowanymi na superkomputerach, ale wyjaśnia, że natura stworzyła wolno działający mózg bo było to wystarczające do procesu naturalnej selekcji. Inaczej mówiąc ludzki mózg był minimalnie wystarczający do przeżycia w warunkach naturalnej selekcji. Przeżycie w dżungli wymagało szybkiego  rozpoznania tygrysa a nie rozwiązania miliarda równań liniowych, które szybko wykonują współczesne komputery. Goldberg wyjaśnia nam dlaczego komputery są znacznie szybsze w liczeniu ale nie potrafią wykonać wielu prostych czynności człowieka. Jednym z wyjątków jest pattern recognition.

Porównanie mózgu z komputerem wskazuje, że są to dwa wzajemnie uzupełniające się narzędzia. Wydaje się, że informatyka i robotyka powinny szukać metod współpracy tych instrumentów a nie starać się stworzyć robota który będzie czlowiekopodobny.

Japońscy informatycy są innego zdania i czasem udaje się im zbudować robota, który imituje żywe istoty włącznie z człowiekiem. Wykonują one proste czynności pomagając starszym ludziom w domu ale w niektórych funkcjach wykraczają poza  zakres klasycznego automatu. Przykładem jest sztuczny pies lub kot umilający życie samotnego człowieka i w dodatku nie sprawiający kłopotu utrzymania żywego zwierzaka.

Powstaje pytanie. Czy mozg człowieka jest bardzo zaawansowanym choć wolnym  komputerem?

Jedną z odpowiedzi dał Roger Penrose. Opiszę tą oryginalną hipotezę w następnym eseju “Czy mozg jest komputerem”. Książka Penrose’a jest pełna matematyki, ale postaram się przedstawić główne myśli autora omijając  równania i matematykę. W następnym eseju założę ze czytelnik ma średnie wykształcenie lub wyższe, ale w dziedzinach nauk nie wymagających zaawansowanej matematyki. Jak zwykle zapraszam rzeczowe komentarze i dodatkowe wyjaśnienia .

Janusz KowalikJanusz Kowalik jest emerytowanym profesorem matematyki i informatyki na Washington State University oraz byłym kierownikiem organizacji badań informatyki w firmie lotniczej Boeing Company w Seattle. Adres internetowy Janusza: j.kowalik@comcast.net

Podobne materiały

8 komentarzy

  1. Krzysztof Marczak
    22 stycznia 2016 at 12:46 - odpowiedz

    Dobry, ciekawy artykuł, Jakiś czas temu sieci neuronowe były „modne” w sektorze inwestycyjnym, dopóki nie okazało się, że sama szybkość nie wystarczy. Sam podjąłem ten temat w artykule „Options: Measuring Volatility and Volume” gdzie odniosłem się do meczu Kasparova i Deep Blue. Konkluzja moja była taka: „Today, humans still learn faster” Na EDC przerabialiśmy również temat „Digital immortality”. Jeżeli odpowiedź na pytanie w artykule jest twierdząca (a jest sporo sygnałów za tym przemawiających) to rozwój naszego gatunku może ulec znacznemu przyśpieszeniu poprzez zapis informacji zebranych w mózgu. Wiadomo jest, że z wiekiem zmniejsza się możliwość przerabiania informacji, ale rośnie możliwość analizowania. Jak do tej pory większość tej wiedzy tracimy wraz ze śmiercią mózgu-komputera (bo ewolucja nie daje szans jego nośnikom), ale to może się zmienić.
    Linki poniżej. Tematem zająłem się w „Range Indicator”;
    http://unisystems.us/markets/wp-content/uploads/2014/09/1409_Article.pdf
    http://www.futuresmag.com/2014/10/07/options-measuring-volatility-and-volume

  2. Janusz
    Janusz
    23 stycznia 2016 at 12:08 - odpowiedz

    W sumie mozemy powiedziec ze komputer jest lepszym instrumentem w wykonaniu obliczen matematyki . Ustepuje czlowiekowi w problemach ktore wymagaja intuicji i tzw heurystycznego podejscia do rpzwiazania problemu.
    Heurystyka to popularnie mowiac zdrowy rozsadek oparty na doswiadczeniu.Inna definicja to regoly ktore sa poprawne czesto ale nie zawsze.
    Kilku wybitnych informatykow uwaza ze istnieje mozliwosc dla komputera dorownania mozgowi ludzkiemu jesli komputer bedzie uczyl jak dziecko a nie bedzie programowany jak to robimy obecnie.
    Ale nawet w tym wypadku nie bedzie mozliwe stworzenie symulacji naturalnego srodowiska w ktorym komputery beda poddane naturalnej selekcji co mialo miejsce w ciagu miliardow lat ewolucji. Szansa na” wychowania i wyksztalcenia” komputera jak czlowieka jest niemal zerowa. Czyli bedziemy sie zawsze rozni chyba ze odkryjemy przelomowe fakty naukowe ktore zmienia
    sytuacje.

  3. Krzysztof Marczak
    23 stycznia 2016 at 23:46 - odpowiedz

    Właśnie o tę zdolność uczenia chodzi w zmiennym środowisku. Wiele lat temu wstecz rozpocząłem krytykę systemów komputerowych do inwestycji giełdowych i wtedy byłem (prawie) sam przeciw wszystkim. Po latach okazało się, że po początkowym dobrym okresie systemy komputerowe nie nadążają za zmianami tj. reakcjami na środowisko, które same zmieniły z udziałem ludzi. Wciąż nadają się do wyświetlania, liczenia i wykonywania zleceń, zatem są narzędziami, ale nie inteligencją. Z tą wiarą informatyków w stworzenie AI mam sam do czynienia od lat, ale nie ma żadnych dowodów na to, że potrafimy taką stworzyć, albo też zbudować środowisko do jej stworzenia. Ponieważ stale mam do czynienia z błędnymi przeświadczeniami wybitnych analityków i ekonomistów dlatego też pozostanę neutralny wobec wybitnych informatyków. Mózg ludzki już tak działa, że często mamy jakąś intuicję masowo, po czym okazuje się, że jest błędna. Na razie, jak wiemy, imigrant-analfabeta po niedługim czasie nauki będzie mógł nas zawieźć na lotnisko JFK a nasze komputery wciąż tego nie potrafią.

  4. Janusz
    Janusz
    24 stycznia 2016 at 01:58 - odpowiedz

    Nie znam zastosowania sieci neuronowych lub AI do problemow gieldy ale sadze ze jest to niezwykle trudny problem z kilku powodow. Sledze uwaznie gielde Wall Street i widze ze nawet najlepsi analitycy nie tylko nie potrafia przewidziec wahan ale czesto nawet wytlumaczyc co sie juz stalo. Tu mozemy wyroznic dwa rozne problemy. Jeden to dlugi dystans czasowy w ktorym mozna czesciowo przewidziec trendy gieldy na podstawie ekonomicznych wskaznikow zdrowotnosci ekonomii. Drugi problem to lokalne wibracje i turbulencje ktore sa klasycznym chaosem to znaczy male perturbacje powodujs duze zmiany. Tu mamy do czynienia ze zjawiskami przypadkowymi a nie deterministycznymi procesam i. Na przyklad. W pewnem dniu inwestorzy wpadli w panike bo cena ropy poszla w dol. Nastepnego dnia zaczeli inwestowac z tego samwgo powodu. Tydzien pozniej nastapil proces odwrotny. Panika kontynuowala sie bo ceny ropoy poszly w gore.
    To przypomina turbulencje powietrza podczas lotu samolotem.Pilot niczego nie przewiduje tylko liczy na wytrzymalosc kadsluba na chwilowe drgania i naprezenia
    Dobry pilot wie ze turbulencja jest niezbyt przyjemna ale samolot jest projektowany na chwilowe drgania i naprezenia poza normalnym obszarem i jest bespieczny chyba ze lot jest nisko na przyklad tuz nad gorami. To samo dotyczy ekonomii.

  5. Krzysztof Marczak
    24 stycznia 2016 at 04:04 - odpowiedz

    Analityk nie jest od przewidywania, bo wiele zachowań giełdowych jest nieprzewidywalnych. Tym bardziej niczego nie powinien tłumaczyć, bo żywy organizm, jakim jest giełda potrafi się zachowywać wbrew wszelkim wskaźnikom. A to, że wielu finansistów zazdrości pop artystom i też chce być gwiazdorami, wykorzystują media informacji finansowej. Cała ta szopka ma niewielką wartość dla asset managera. Ci, którzy tego wszystkiego słuchają nie mają szans na dłuższy pobyt w tym biznesie. Pisałem o tym tu: http://racjonalista.tv/dlaczego-gieldy-zyja-wlasnym-zyciem/

  6. Janusz
    Janusz
    24 stycznia 2016 at 20:58 - odpowiedz

    Typowe generatory liczb przypadkowych to albo tzw pseudo random number generators uzywane w obliczeniach komputerowych albo generatory oparte na zjawiskach fizyki.Bylsa tez propozycja uzycia liczb krore sa
    efektem dzialania gieldy, np DJA charakteryzujacego ceny akcji ustalonej grupy firm.
    Mozna sadzioc ze zycie czlowieka tez jest generatorem liczb przypadkowych. Determinizm w zyciu jest bardzo ograniczony.

  7. Janusz
    Janusz
    30 stycznia 2016 at 05:20 - odpowiedz

    Dotychczasowe badania i eksperymenty z sieciami neuronowymi wskazuja ze czysto materialny objerkt jakim jest siec potrafi wykonywac funkcje ktore byly powszechnie uwazane za mozliwe tylko dla ludzi. Komputer bedacy materialnym przedmiotem potrafi rozwiazywac problemy ktore poprzednio byly w domenie ludzkiego intelektu.
    To demoluje poglad teologow twierdzacych ze martwa matewria nie moze produkowac niematerialnych tworow takich jak logika lub rozpoznanie wzorow (pattern recognition). Komputer na pewno nioe ma duszy a moze
    dzialac logicznie i nasladowac pewne ludzkie zdolnosci. Rozsadek wymaga aby to samo zalozyc o mozgu, ktory jest czysto materialny (chamiczno elektryczny aparat).

  8. Janusz
    Janusz
    31 stycznia 2016 at 01:37 - odpowiedz

    Duze zamieszanie w tej materii wprowadzil Kartezjusz sugerujacy dualizm w ktorym sa dwa odrebne swiaty: materialny i duchowy. Wiemy obecnie ze swiat materialny produkuje mysli, uczucia i inne funkcje .Nic poza mozgiem nie odkryto.Co wiecej , wiemy ze uszkodzenie
    czesci mozgu powoduje iustanie lub wady funkcji takich jak pamiec lub poprawne logiczne myslenie. Nigdy nie
    znaleziono innej substancji procz m aterialnego mozgu.
    Pojecie duszy ma historyczne podstawy jak tez jest
    „Wishful thinking”ale nie ma zadnego realnego dowodu istnienia. To samo dotyczy istnienia krasnali i skandynawskich trolli. Ciekawe dla dzieci ale nie dojrzalych ludzi.

Zostaw komentarz

Wpisz kod antySPAMowy *