Ludzkie i maszynowe problemy etyczne.

„Westworld”. Fajny serial teraz na HBO leci. Nawet z momentami, to znaczy momentami warto przy nim poważnie się zastanowić nad naszą niedaleką przyszłością. Budujemy coraz bardziej sprawne komputery i wyposażamy je w przeróżne sensory analizujące kawałki dostępnej im rzeczywistości. Wstawiamy takie cudeńko np. do samochodu i już jest skupione na konkretnym działaniu. Wszystko co ma widzieć to widzi, szybciutko analizuje i …..  I  zaczyna się problem? Ma toto prawo do decyzji czy też nie? Jeżeli zaś podejmuje optymalną według niego decyzję i ktoś w wyniku tej decyzji ponosi śmierć – to co?  Kto wtedy jest za nią odpowiedzialny, kogo można oskarżyć i postawić przed sądem?

Rok powiedzmy jest 2036. Mamy sporo dolarów na zbyciu i kupujemy sobie pięknego androida, który nie tylko, iż potrafi jakoś tam myśleć, to jeszcze aby było nam fajniej został wyposażony w uczucia. Kupiliśmy go za nasze dolary i lala jest całkowicie nasza, a więc aby sobie poszaleć na całego, więc dokonujemy na niej obrzydliwego sadystycznego gwałtu. I co? I nic! Gdyż to tylko lala za którą zapłaciliśmy, jest nasza i możemy z nią uczynić to co nam się żywnie podoba? Jednych to bawi, a innych o dreszcz po plecach przyprawia.

Naprawdę „sztuczna inteligencja” na co dzień, to jest coś co już niedługo będzie oczywistością. Większa część naszych czytelników będzie żyła w takiej rzeczywistości, a moim zdaniem budzi ona cały ogrom pytań filozoficznych i moralnych, które tylko zainspirowany serialem tu zasygnalizowałem

O autorze wpisu:

38 Odpowiedź na “Ludzkie i maszynowe problemy etyczne.”

  1. Wydaje mi się, że autonomiczne pojazdy, nad którymi teraz bardzo usilnie się pracuje, nie wejdą do powszechnego użycia. I to nie z przyczyn technicznych, ale etycznych. Autonomiczny samochód będzie musiał się zdecydować, czy zabić swojego pasażera, ale uratować dwanaścioro dzieci na przystanku, czy odwrotnie — ominąć przeszkodę, uratować swojego pasażera, ale zabić dzieci na przystanku. Trzeba będzie podjąć jakąś decyzję. Ale obawiam się, że nikt nie będzie chciał wsiąść do pojazdu, wiedząc, że ów pojazd może podjąć decyzję o poświęceniu życia swojego pasażera.

    1. Obawiam się że będzie inaczej. Obawiam się, że gdyby 40 lat temu zaproponowano:
      Hej ludziska, chcecie? Damy każdemu takie małe urządzenie, które jak medalik z matką boską należy nosić przy sobie, dzięki temu urządzeniu bedzie można zlokalizować każdego a was. Urządzenie to ma też wmontowany microfon i camerke – zajebiście, nie sądzicie?! Jestem przekonany, że wtedy tylko ormowcy albo członkowie jakiejś sekty byliby zachwyceni z takiego gadżetu. Zamiast tego zapytano tak: Czy ty nowoczesny człowieku chcesz słuchawkę za złotówkę i NICZYM nieograniczone rozmowy we wszystkich sieciach?? A może chcesz żeby ci go zaszyć pod oponą mózgową? I jak się patrzy na wolnościowców jak z wypiekami na twarzach zachwalają postemp telekomunikacyjny i mówią jakie to dar oraz oznaka dobrobytu i awansu to sie serce kraje. Tak wygląda programowanie całych społeczeństw

  2. @ Zorro: Wydaje mi się, że autonomiczne pojazdy, nad którymi teraz bardzo usilnie się pracuje, nie wejdą do powszechnego użycia. I to nie z przyczyn technicznych, ale etycznych.
    ————–
    Niezależnie czy wejdą, czy nie i na ile ich decyzje będą autonomiczne, to już choćby z powodu bardzo zaawansowanych w tym zakresie prac, pytanie jest bardzo ciekawe. Warto tu dodać, iż inżynierowie, na podstawie badań i symulacji, twierdzą, iż w wielkich liczbach, gdyby wszystkie decyzje oddać komputerom pokładowym to wypadkowość zmniejszyłaby się dobrze o ponad 90%, (nawet do 99, ale już nie stu). Tylko właśnie jest pytanie jak moralnie przełożyć wielkie liczby na jednostkowe wypadki. Co ma większą wartość np. dziesięciu starców, czy jedno dziecko? Ja nie udzielam tu żadnej odpowiedzi, gdyż jej nie znam, ale stawiam sam sobie i innym pytania? „Sztuczna inteligencja”, nawet taka z uczuciami – czy tego chcemy, czy nie nadchodzi wielkimi krokami. Warto pytania stawiać wcześniej.
    ***

  3. Andrzeju Staram sie zrpzumiec dlaczego sie martwisz w tym eseju. Obecnie mamy powazmiejsze problemy z technologia.
    Przemyslowe szpiegostwo i uzycie Internetu przez zlodzieji ktorzy okradaja banki .Cyber crime jest obecnie wielkim problemem. Ja bym sie sprawami etyki nie martwil dopoki automaty sa nam poporzadkowane. Samosterujace samochody beda juz na ulicach za kilka lat. Kierowca bedzie w samochodzie aby kierowac w specjalnych okolicznosciach .Bedzie odpowiedzialny za wypadki.
    Do zupelnie samodzielnych automsatow jest daleko.

    1. @ Janusz: Andrzeju Staram się zrozumieć dlaczego się martwisz w tym eseju. Obecnie mamy poważniejsze problemy z technologia. (…) Ja bym się sprawami etyki nie martwił dopóki automaty są nam podporządkowane.
      ————-
      Tyle tylko, iż ja jestem przeciwnikiem, a nawet wrogiem wszelakiej jednomyślności. Nie przeszkadza mi wcale, iż są ludzie bardziej martwiący o np. cyberprzestępczość. Zaś mnie tu akurat martwią przyszłościowe sprawy etyczne związane z androidami, czyli czymś trochę więcej niż tylko automatami zbudowanymi do służenia mam. Choć dziś to jeszcze problemy trochę wydumane, to są to problemy z zupełnie niedalekiej przyszłości, nad którymi należy zastanawiać się już teraz.
      Na przykład mnie interesuje nasz stosunek do maszyn wyposażonych w uczucia, gdyż dobrze wiem jak człowiek wiele potrafi w zakresie panowania i upokarzania, a przecież czynienia krzywdy „maszynom” to żaden „Dekalog” nie zabrania? Tu można się naprawdę wyżyć!
      ***

  4. Pojazdy autonomiczne pojawią się szybciej niż myślimy i wsiądziemy do nich, bo po pewnym czasie (szybko) innych już nie będzie, albo zostaną zakazane jako zbyt niebezpieczne. Niebezpieczeństwo takiej przyszłości widzę raczej w możliwościach zdalnego przejęcia kontroli nad pojazdem przez złoczyńców.
    Argument, że sztuczna inteligencja będzie decydować czy rozjechać pieszych czy poświęcić pasażerów jest wg mnie niewłaściwy. Nigdy nie przeżyłem takiego zdarzenia, ale wg mnie wypadek w którym wszystko dzieje się tak nagle i niespodziewanie nie daje również ludzkiemu kierowcy żadnych szans na analizy. To już bardziej komputer sobie z tym poradzi. Czytałem kiedyś, że najbardziej niebezpieczne miejsce w aucie jest obok kierowcy, a to dlatego, że podczas wypadku każdy instynktownie tak kreci kierownicą itd. aby ochronić siebie – nie ma czasu i możliwości przemyśleń.
    Tak wiec autonomiczne auta będą raczej mieć tą wadę nad dzisiejszym autem, że zależnie od wersji software’u będzie różne prawdopodobieństwo odniesienia obrażeń w razie wypadku dla różnych stron tego wypadku.

    1. „Argument, że sztuczna inteligencja będzie decydować czy rozjechać pieszych czy poświęcić pasażerów jest wg mnie niewłaściwy. Nigdy nie przeżyłem takiego zdarzenia, ale wg mnie wypadek w którym wszystko dzieje się tak nagle i niespodziewanie nie daje również ludzkiemu kierowcy żadnych szans na analizy. To już bardziej komputer sobie z tym poradzi.” Komputery nie podejmują decyzji i nie potrafią losowo wytypować ani jednej liczby. Decyzja jest w gestii człowieka, który pisze program dla takiego samochodu. Problem jest sygnalizowany od dawien dawna i dotyczy dokonywania wyborów, a obawy autora związane są z brakiem dobrych rozwiązań. Pańskie obawy też mają sens, ale pomimo że odnoszą się do niebagatelnych zagrożeń, to przed takimi zjawiskami można się zabezpieczać a przynajmniej próbować.
      Autorowi dziękuję za cenny tekst. Tekst troczę spóźniony (o jakieś 50 lat) ale koniecznie powinno się o tym mówić.

      1. Tekst nie jest spóźniony o 50 lat. To odwrotnie: 50 lat temu myślano, że już wkrótce pojawią się androidy. Roboty utożsamiano z maszynami człowiekopodobnymi. Pięćdziesiąt lat minęło, a androidów jak nie było, tak nie ma. I nie wiadomo, czy za 20 lat będą, a może dopiero za 50. Roboty trafiły do fabryk, a nie do domów. Problem „moralności” maszyn w dalszym ciągu jest przed nami.

      2. @ darekpiotrek: Decyzja jest w gestii człowieka, który pisze program dla takiego samochodu.
        ———–
        Tak, tyle iż program pisany jest na komputerze na podstawie dotychczasowej wiedzy teoretycznej i praktycznej, a wypadek dzieje się konkretnie w drodze i zostają w nim poszkodowani prawdziwi ludzie.
        ***
        @ darekpiotrek: Problem jest sygnalizowany od dawien dawna i dotyczy dokonywania wyborów, a obawy autora związane są z brakiem dobrych rozwiązań.
        ————
        Dokładnie tak, już w dzieciństwie czytałem o problemach związanych z robotami, a w młodości zapoznawałem się z dorobkiem jednego z większych filozofów zajmujących się podobną problematyką – Stanisława Lema. Problem jest znany od dawna. Wystarczy teraz czytać „Wiedzę i Życie” oraz „Świat Nauki” aby dostrzec jak te problemy zbliżają się do nas wielkimi krokami i jak ciągle nie mamy dobrych odpowiedzi na związane z nimi kwestie moralne.
        Choć oczywiście zasygnalizowany tu problem, to problem tylko tych, którzy lubią się zastanawiać i myśleć samodzielnie, a nie wszystkich.
        ***

        1. tyt. uzupełnienia
          „Decyzja jest w gestii człowieka, który pisze program dla takiego samochodu.” – I to już jest problem jak dla mnie. Nie chce żeby za przeproszeniem programista decydował tym czy auto ma uderzyć w płot sołtysa czy wjechać w całą grupę stojących na chodniku czy tylko ma skosić rabatkę i zahaczyć światłem o dwóch starców.

          1. Oczywiście. Trzeba będzie napisać kawałek kodu i zostanie po prostu napisany. Jakiś gość napisze, co mu się wydaje poprawne. I tak zostanie nie do znalezienia w setkach tysięcy linii kodu. Ba, całkiem możliwe jest, że zostanie powołana jakaś komisja, która ustali całkiem sensowne reguły, które potem doprowadzą do sytuacji moralnie nie do zaakceptowania. W literaturze SF był kiedyś nurt implementacji „moralności” robotom, który eksploatował ten paradoks.

  5. @ Bogdan K: Pojazdy autonomiczne pojawią się szybciej niż myślimy………
    ————
    Całkowita zgoda! Specjaliści nie widzą problemu aby do 2050 roku wszystkie samochody były wyposażone w całkowicie autonomiczne systemy. Według nich wtedy wypadkowość zmniejszyłaby się o ponad 90%. Z czego wynika, iż 9 z 10 ludzi życie ludzi biorących w wypadkach też byłoby darowane. Ale tu chodzi właśnie o tego jednego. Kto ponosiłby wtedy odpowiedzialność? Stąd między innymi pomysły aby tą autonomiczność ograniczyć, gdyż wtedy choć człowiek też wiele by prawdopodobnie nie zdziałał, to już byłoby kogo oskarżyć winą.
    Moje tu pytania są znacznie mniej techniczne, gdyż to sprawa specjalistów od techniki, a bardziej moralne i filozoficzne.
    ***

    1. Andrzej Bogusławski: ” Specjaliści nie widzą problemu aby do 2050 roku wszystkie samochody były wyposażone w całkowicie autonomiczne systemy. ”

      Jestem trochę sceptyczny, ale to tylko moja prywatna opinia. W latach pięćdziesiątych-sześćdziesiątych sądzono, że w roku 2000 nie dość, że będziemy latać na inne planety, to będziemy w stanie rozmawiać z komputerem jak z człowiekiem. Ani jedno, ani drugie się nie spełniło. Niektóre problemy okazały się niebywale trudne. Takim problemem jest naśladowanie człowieka. Komputer wprawdzie błyskawicznie liczy, ale nie potrafi wykryć uczuć na obrazie twarzy. Maszyny potrafią błyskawicznie się poruszać, ale jak dotychczas nie udało się zbudować robota, który potrafi wejść po schodach w tempie człowieka. Niby proste, ale nie udało się nam tego zrobić.
      Drogi są zbudowane tak naprawdę dla ludzi, którzy jeżdżą po nich samochodami. Drogi stanowią system otwarty: kierowcy wjeżdżają, kiedy chcę, jadą, dokąd chcą, jadą tak szybko, jak chcą, zjeżdżają z drogi, gdzie chcą i jak chcą, w każdej chwili może pojawić się intruz, przy drodze stoją znaki czytelne dla ludzi, tekstowe komunikaty przeznaczone dla ludzi, kierowcy zachowują się typowo lub nietypowo itd. Zbudowanie systemu, który będzie korzystał z tych dróg i autonomicznie prowadził samochód zamiast ludzkiego kierowcy, moim zdaniem, będzie jeszcze przez lata tylko science-fiction.
      Systemy autonomicznego transportu da się zbudować dla systemów zamkniętych, gdzie nie ma intruzów, znana jest liczba pojazdów, ich trasy i prędkości. Ale dla systemów otwartych — lata pracy przed nami.

      1. @ Zorro: Jestem trochę sceptyczny,
        ————
        To bardzo dobrze! Ja wszystkim polecam taką postawę, ale moje tu refleksję wynikają tak z kilkudziesięcioletniego osobistego doświadczenia w porównaniach tego co miało nadejść do tego co nadeszło, jak i stałego krytycznego śledzenia aktualnego dorobku nauki. Dlatego choć nie wiem jaka będzie przyszłość i kiedy co nadejdzie, to już zauważam, iż Pan nie jest zbyt na bieżąco w najnowszych osiągnięciach. Jesteśmy jednak już ździebko dalej niż to się Panu wydaje. Choć sceptycyzm, wraz z dążeniem do weryfikacji każdego twierdzenia, jest wart wysokiej pochwały.

        Ale tak jak zakończyłem swój tekst inicjujący tą dyskusję nie tyle mnie tu interesują rozwiązania techniczne i ich szybkość wdrożenia – co pytania filozoficzne – miedzy innymi, choć nie tylko – z tymi rozwiązaniami powiązane. To jednak ludzie są głównym tematem mojego zainteresowania, a nie maszyny.

      2. „/../Komputer wprawdzie błyskawicznie liczy, ale nie potrafi wykryć uczuć na obrazie twarzy. Maszyny potrafią błyskawicznie się poruszać, ale jak dotychczas nie udało się/../”
        O tym trzeba myśleć w kategoriach, że jak na razie, to człowiek nie potrafi napisać odpowiedniej aplikacji, czyli to tylko kwestia czasu.

        1. Niekoniecznie. To może być problem nadmiernej złożoności. Komputery, które mamy, to przybliżenie deterministycznej maszyny Turinga, a mózg przybliża NIEdeterministyczną maszynę Turinga, co ma niebagatelne znaczenie w ogarnięciu problemów wysokiej złożoności.

          1. No nie może być bardzo złożony. Przeciętnie rozgarnięty człowiek, ma prawo jazdy i jest wstanie manualnie i obliczeniowo poradzić sobie w ruchu drogowym, zaś ten sam człowiek nie byłby wstanie zarządzać i sterować ręcznie linią produkcyjną (jakby próbować człowiekiem zastąpić sterowniki, czujniki i człony robocze)

          2. To paradoks Moraveca. To, co dla nas jest trudne, dla maszyn jest łatwe. I odwrotnie: to, co dla nas jest łatwe, dla maszyn często jest bardzo trudne. Wykonanie całkowania numerycznego, obliczenie trajektorii sondy kosmicznej, sterowanie linią produkcyjną cementu są dla nas trudne, ale dla maszyn całkiem proste i dlatego maszyny zupełnie wyparły tutaj ludzi. Ale bieg terenowy przez las dla człowieka, skakanie z bujającej się gałęzi na inną bujającą się gałąź dla kapucynki to pryszcz, dla maszyny nie do zrobienia. Wystarczy grację i finezję lotu muchy, kolibra czy nietoperza i lot najbardziej zautomatyzowanego samolotu. O rozpoznawaniu twarzy przez człowieka i komputer nawet nie będę wspominał. Zwierzęta lepiej rozpoznają „twarze” swoich współplemieńców niż maszyna.

          3. Za bardzo się spieszę 🙁
            Jest „Wystarczy grację i finezję lotu muchy”, powinno być „Wystarczy PORÓWNAĆ grację i finezję lotu muchy”

          4. Biegi terenowe są trudne dla maszyn bo nie rozwijaliśmy tego . Bo nie było komu i poco. Teraz jest dobry powód – są plany związane eksploracją Marsa – a więc są też granty więc tylko czekać jak mechaniczny kot prześcignie żywego.

          5. Tłumaczyłem Panu że dla samochodu automatycznego rozpoznawanie twarzy jest zbędne. Poza tym rozpoznawanie twarzy i miny jest w komercyjnym obiegu w aparatach fotograficznych od jakiegoś czasu.

    2. Myślę, że będzie tak samo jak w przypadku wypadków lotniczych, czyli pojawi się komisja, która będzie szukać usterki, wady, wadliwej procedury, po czym problem będzie usuwany, następnie pojawi się kolejny i kolejny problem, i one będą usuwane itd. Latanie samolotami to niekończący się eksperyment, w którym biorą udział ludzie. Co jakiś czas pojawia się zaskakująca przyczyna katastrofy, czasem będzie to nieznane wcześniej zjawisko pogodowe. I tak to się kręci powoli do przodu, efektem tego jest wzrastające bezpieczeństwo. Możliwe, że pewnego dnia o wypadku samochodowym będzie tak głośno jak o katastrofie lotniczej.

    1. „Teraz czas na drugą manipulację – że to programista podejmuje decyzję, za nas ludzi (a wiadomo, programista to stworzenie dzikie i aspołeczne). Programista koduje tylko specyfikację stworzoną przez producenta samochodu. Specyfikację rozwiązywania tego typu dylematów można w wyniku badań empirycznych i dyskusji multidyscyplinarnych – /../” Moim zdanie trochę pan przestrzelił i jest obok tematu. Postaram się trochę nakierować. Omawiany problem sprowadza się do tego, że jeśli program zostanie napisany to będzie oznaczało że dookreślono grupy ryzyka, czyli że będą minimum dwie grupy – grupa najmniejszego ryzyka i grupa największego ryzyka. W wyniku zdarzeń losowych i błędów programowych te grupy trochę będą się mieszać, niemniej znalezienie się w grupie największego ryzyka mówiąc językiem zrozumiałym jest nie fajne. A niby banał, prawda? Jak Pan się oswoi z tym banałem, to dla „relaksu” proszę pomyśleć jak „ciekawe” skutki może to przynieść. Na przykład kiedy etycy zawyrokują, producenci wyprodukują a programiści zaprogramują to okaże się, że bycie samotnym emerytem na poboczu i zarazem świadkiem/uczestnikiem wypadku to będzie oznaczało wyrok śmierci. Co spowoduje, że przy odpowiedniej ilości powtórzeń, przyjdzie taki moment że gatunek „samotny emeryt na poboczu” zostanie wybity (teoria gier się kłania w pas proszę Pana) To że rozjedziemy wszystkich emerytów nie będzie oznaczało, że pozostanie tylko grupa małego ryzyka i będziemy pławić się w młodości i . nie proszę pana, miejsce emerytów zajmą bezrobotne matki odchowanych byczków.

      1. Wydaje mi się, iż szkoda aby tak ważne refleksję pozostały niezrozumiałe. Czy nie może Pan jednak trochę jaśniej – bardziej zrozumiale – formułować swoje stwierdzenia i zarzuty wobec innych rozmówców.

        @ darekpiotrek: „Teraz czas na drugą manipulację – że to programista podejmuje decyzję, za nas ludzi (a wiadomo, programista to stworzenie dzikie i aspołeczne).
        —————-
        Manipulacja to dosyć poważny zarzut, a ja nie znajduję u nikogo stwierdzenia, iż „to programista podejmuje decyzję, za nas ludzi” a do tego jeszcze, iż „wiadomo, programista to stworzenie dzikie i aspołeczne”.
        ***
        @ darekpiotrek: Moim zdanie trochę pan przestrzelił i jest obok tematu.
        ————–
        Który pan, gdzie przestrzelił i jest obok tematu? Temat narzuciłem tu ja i zbytniego odejścia od tematu u nikogo nie dostrzegam, ale jeżeli już – to właśnie Pan będzie w czołówce tych odchodzących.
        ***
        @ darekpiotrek: Postaram się trochę nakierować.
        ————-
        Czuje Pan się upoważnionym do kierowania? Ja nawet inicjując tu ten temat chciałem tylko zabrać głos w ciekawej moim zdaniem dyskusji.
        ***
        @ darekpiotrek: Omawiany problem sprowadza się do tego, że jeśli program zostanie napisany to będzie oznaczało że dookreślono grupy ryzyka, czyli że będą minimum dwie grupy – grupa najmniejszego ryzyka i grupa największego ryzyka. W wyniku zdarzeń losowych i błędów programowych te grupy trochę będą się mieszać, niemniej znalezienie się w grupie największego ryzyka mówiąc językiem zrozumiałym jest nie fajne.
        ————–
        Tak, pan to widzi i rozumie? Moim zdaniem w sposób bardzo ograniczony, gdyż nie bierze pan pod uwagę permanentnego rozwijania programów tzw. „sztucznej inteligencji”, a różne autonomiczne systemy na niej oparte będą pracowały na innych od znanych dotychczas nam zasadach. Programiści (najbardziej inteligentni z inteligentnych i ogromnie prospołeczni, gdyż ja zakładam u wszystkich ludzi kompetencje i dobrą wolę) będą budowali „programy otwarte”, których wynikiem będzie jednak to, iż to nie programista, a właśnie maszyna podejmie ostateczną decyzję w określonej sytuacji.
        ***
        @ darekpiotrek: A niby banał, prawda? Jak Pan się oswoi z tym banałem, to dla „relaksu” proszę pomyśleć jak „ciekawe” skutki może to przynieść.
        ————
        Wie Pan? Mnie to jakoś się wydaje, iż proste wszystko, to jest dla prostaków. Ja tu – choć uważam sprawę za fascynującą – dostrzegam wiele problemów, tak technicznych, jaki i filozoficznych. Choć filozoficzne tu interesują mnie bardziej.
        ***
        @ darekpiotrek: Na przykład kiedy etycy zawyrokują, producenci wyprodukują a programiści zaprogramują to okaże się, że bycie samotnym emerytem na poboczu i zarazem świadkiem/uczestnikiem wypadku to będzie oznaczało wyrok śmierci. Co spowoduje, że przy odpowiedniej ilości powtórzeń, przyjdzie taki moment że gatunek „samotny emeryt na poboczu” zostanie wybity (teoria gier się kłania w pas proszę Pana) To że rozjedziemy wszystkich emerytów nie będzie oznaczało, że pozostanie tylko grupa małego ryzyka i będziemy pławić się w młodości i . nie proszę pana, miejsce emerytów zajmą bezrobotne matki odchowanych byczków.
        —————–
        Zauważa Pan słusznie, iż przy planowaniu komunikacji z udziałem pojazdów autonomicznie kierowanych przez automaty należy brać pod uwagę teorię gier. I ja jestem przekonanym, iż jest i będzie braną. Natomiast mnie tu bardziej interesowały problemy etyczne, a Pan – pomimo iż używa tego terminu to dosyć słabo się orientuje czym ona się faktycznie zajmuje. Dlatego dodam tu, iż Panu etyka w pas się kłania i zachęca do z nią się zapoznania. http://encyklopedia.pwn.pl/haslo/etyka;3898956.html
        ***

      2. O jej, rzeczywiście. Nie wiem czy mi się teraz uda wytłumaczyć. Postaram się jakoś odnieść do tego co pan napisał. Od razu prostuję, że mój wpis (ten który Pana najbardziej zdenerwował może nie zdenerwował ale.. ) kierowany był w całości do pana Jarka. Był pod jego komentarzem/linkiem i rozpoczyna się od cytatu z Pana Jarka. Widzę że prowadziłem nieład przedtem a teraz jeszcze trema mnie dopadła, nieważne. Panie Andrzeju. Czy możemy umówić się tak, że zacytuje całą pańską wypowiedź i powplatam w nią moje odpowiedzi, sprostowania? Dla zachowania przejrzystości będę pisał wielkimi literami
        Zatem próbuję.
        /../

        @ darekpiotrek: „Teraz czas na drugą manipulację – że to programista podejmuje decyzję, za nas ludzi (a wiadomo, programista to stworzenie dzikie i aspołeczne).
        —————-
        Manipulacja to dosyć poważny zarzut, a ja nie znajduję u nikogo stwierdzenia, iż „to programista podejmuje decyzję, za nas ludzi” a do tego jeszcze, iż „wiadomo, programista to stworzenie dzikie i aspołeczne”.
        TAK, ZARZUT MANIPULACJI MOŻE I NIE ŁADNY, ALE TO SĄ NIE MOJE SŁOWA. TO SŁOWA PANA JARKA. JEST TO CYTAT Z JEGO KOMENTARZA, KTÓRY TO KOMENTARZ PRZYPIĄŁ W POSTACI LINKA. JEGO KOMENTARZ WYBRZMIEWA JAK BY BYŁ KIEROWANY DO ROZMÓWCÓW TEŻ NIE TYLKO DO PANA. JA TO PRZECZYTAŁEM I POMYŚLAŁEM ŻE SKORO WSZYSCY JUŻ WIEDZĄ, IŻ PAŃSKI TEKST SYGNALIZUJE ASPEKTY MORALNE JEDYNIE – NIE TECHNICZNE, – WIĘC PO JUNACKU ODPOWIEDZIAŁEM PANU JARKOWI ROZPOCZYNAJĄC OD PRZYTOCZENIA JEGO SŁÓW: „Teraz czas na drugą manipulację – że to programista podejmuje decyzję, za nas ludzi (a wiadomo, programista to stworzenie dzikie i aspołeczne).”
        @ darekpiotrek: Moim zdanie trochę pan przestrzelił i jest obok tematu. TE SĄ MOJE. DOKŁADNIE TAK – W TYM SENSIE, ŻE PRZECIEŻ ROZMAWIAMY POD PAŃSKIM TEKSTEM A U NIE O SZCZEGÓŁACH TECHNICZNYCH WIĘC CZEPIANIE SIĘ I ZARZUCANIE MANIPULACJI JEST DZIWNE.
        ————–
        Który pan, gdzie przestrzelił i jest obok tematu? Temat narzuciłem tu ja i zbytniego odejścia od tematu u nikogo nie dostrzegam, ale jeżeli już – to właśnie Pan będzie w czołówce tych odchodzących. MAM NADZIEJĘ, ŻE W TYM MIEJSCU JUŻ JEST WSZYSTKO JASNE KTÓRY PAN I DLACZEGO PRZESTRZELIŁ.
        LUBIĘ KIEDY ROZMOWA PORUSZA WIELE RÓŻNYCH ASPEKTÓW I KIEDY WĄTKÓW PRZYBYWA. PAN JAREK ZECHCIAŁ POSZERZYĆ POLE ROZMÓW O KWESTIE INNE NIŻ TYLKO TE O KTÓRYCH JEST PAŃSKI TEKST, I CHWAŁA I DALSZA ROZMOWA PRZENIOSŁA SIĘ POD JEGO TEKST.
        ***
        @ darekpiotrek: Postaram się trochę nakierować.
        ————-
        Czuje Pan się upoważnionym do kierowania? Z DOBROCI SERCA Ja nawet inicjując tu ten temat chciałem tylko zabrać głos w ciekawej moim zdaniem dyskusji. PAN INICJUJE ALE CZY MA PAN JAKIEŚ PRAWA WŁASNOŚCI DO ROZMOWY POD PANA TEKSTEM? JEST PAN NADRZĘDNY – MODERUJĄCY.
        ***
        @ darekpiotrek: Omawiany problem sprowadza się do tego, że jeśli program zostanie napisany to będzie oznaczało że dookreślono grupy ryzyka, czyli że będą minimum dwie grupy – grupa najmniejszego ryzyka i grupa największego ryzyka. W wyniku zdarzeń losowych i błędów programowych te grupy trochę będą się mieszać, niemniej znalezienie się w grupie największego ryzyka mówiąc językiem zrozumiałym jest nie fajne. TAK ,BO PANA TEKST JEST O TYM A ROZMOWA POD PANA TEKSTEM MA BYĆ O PANA TEKŚCIE. WIEMY
        ————–
        Tak, pan to widzi i rozumie? Moim zdaniem w sposób bardzo ograniczony, gdyż nie bierze pan pod uwagę permanentnego rozwijania programów tzw. „sztucznej inteligencji”, a różne autonomiczne systemy na niej oparte będą pracowały na innych od znanych dotychczas nam zasadach. Programiści (najbardziej inteligentni z inteligentnych i ogromnie prospołeczni, gdyż ja zakładam u wszystkich ludzi kompetencje i dobrą wolę) będą budowali „programy otwarte”, których wynikiem będzie jednak to, iż to nie programista, a właśnie maszyna podejmie ostateczną decyzję w określonej sytuacji. ZUPEŁNIE W INNYM KONTEKŚCIE ..ALE NIC TO. JEST TO JEST PANA OPINIA NATURY TECHNICZNEJ – NIE FILOZOFICZNEJ PRZEZ TO OPINIA DYLETANCKA Z KTÓRĄ MOGĘ POLEMIZOWAĆ TYLKO NIE WIEM CZY MOGĘ (?) „U PANA” BO MOŻE BYĆ TROCHĘ TECHNICZNIE. ALE NIE BĘDĘ PRZYNUDZAŁ BO CI KTÓRY ZAGADNIENIE OD TECHNICZNEJ STRONY ROZUMIEJĄ MOGĄ SIĘ NUDZIĆ A POZOSTALI NIE ZROZUMIEĆ. ZAMIAST MOICH WYPOCIN PROPONUJĘ KRÓTKĄ LEKTURĘ http://home.agh.edu.pl/~mweg/Metrologia/Metrologia_instrukcje/W%B3asno%9Cci%20dynamiczne%20przetwornik%F3w%20pomiarowych%20II-go%20rz%EAdu.pdf
        WIEM, ŻE PANU MOŻE SIĘ TO NIJAK NIE ŁĄCZYĆ Z TEMATEM I Z PANA KOMENTARZEM:
        „Moim zdaniem w sposób bardzo ograniczony, gdyż nie bierze pan pod uwagę permanentnego rozwijania programów tzw. „sztucznej inteligencji”, a różne autonomiczne systemy na niej oparte będą pracowały na innych od znanych dotychczas nam” ALE PROSZE MI WIERZYĆ, ŻE MA TO ZWIĄZEK IMMANENTNY I ŻADNE NOWE METODY PROGRAMOWANIA NIE ZLIKWIDUJĄ STRUMIENIA USZKODZEŃ WIĘC TRZEBA BĘDZIE PROGRAMOWAĆ TAK BY GINĘLI JEDNI A NIE DRUDZY. I ANI PAŃSKIE ANI NASZE ROZTERKI ZWIĄZANE Z TYM FAKTEM MAJĄ ŹRÓDŁA NIE W TRANSCENDENCJI TYLKO WYTRYSKUJĄ „Z POD ŚRUBKI” BEZ WIEDZY NIKT NIE JEST WSTANIE WYOBRAZIĆ SOBIE NATURY PROBLEMU.
        ***
        @ darekpiotrek: A niby banał, prawda? A NIE PRAWDA? Jak Pan się oswoi z tym banałem, to dla „relaksu” proszę pomyśleć jak „ciekawe” skutki może to przynieść. TE SŁOWA NOMINALNIE BYŁY SKIEROWANE DO PANA JARKA, ALE TERAZ NABIERAJĄ NOWEGO KONTEKSTU I KIERUJE JE DO PANA, ANDRZEJU.
        NA MARGINESIE: MIAŁEM TO DODAĆ POD TEKSTEM PANA JARKA ALE SKORO JESTEM TU I JEST PAN TO PODZIELĘ SIĘ REFLEKSJĄ: PROSZĘ POMYŚLEĆ..KIEDY PRZYNALEŻNOŚĆ DO GRUPY GINĄCYCH NAJCZĘŚCIEJ BĘDZIE PROGRAMOWANE TO JAKIE TO BĘDZIE MIAŁO DALEKOSIĘŻNE SKUTKI DLA ŻYCIA SPOŁECZNEGO I RODZINNEGO. CHODZI MI O TO, ŻE KIEDY FAKT BYCIA DZIADKIEM ŚCIĄGA NIESZCZĘŚCIE W POSTACI UDERZAJĄCEGO SAMOCHODU, TO BĘDZIE OZNACZAŁO ŻE POSYŁANIE DZIECKA DO SZKOŁY Z DZIADKIEM BĘDZIE ZWIĘKSZAŁO RYZYKO DZIECKA A ZMNIEJSZAŁO RYZYKO DZIADKA. INSTYTUCJA DZIADKA ZOSTANIE ZBRUKANA
        TYLE REFLEKSJI, WRACAM DO WYTŁUMACZENIA SIĘ.
        ————
        Wie Pan? – WIEM. Mnie to jakoś się wydaje, iż proste wszystko, to jest dla prostaków. Ja tu – choć uważam sprawę za fascynującą – dostrzegam wiele problemów, tak technicznych, jaki i filozoficznych. Choć filozoficzne tu interesują mnie bardziej. NASTĘPNYM RAZEM PROSZĘ NAPISAĆ „PROSTACZKÓW” BĘDZIE MI MILEJ. TEŻ DOSTRZEGAM WIELE PROBLEMÓW ALE O NICH PISZEMY POD TEKSTEM PANA JARKA. BO ON NIE SYGNALIZOWAŁ ŻE JEGO TEKST PORUSZA TYLKO FILOZOFICZNE PROBLEMY…
        ***
        @ darekpiotrek: Na przykład kiedy etycy zawyrokują, producenci wyprodukują a programiści zaprogramują to okaże się, że bycie samotnym emerytem na poboczu i zarazem świadkiem/uczestnikiem wypadku to będzie oznaczało wyrok śmierci. Co spowoduje, że przy odpowiedniej ilości powtórzeń, przyjdzie taki moment że gatunek „samotny emeryt na poboczu” zostanie wybity (teoria gier się kłania w pas proszę Pana) To że rozjedziemy wszystkich emerytów nie będzie oznaczało, że pozostanie tylko grupa małego ryzyka i będziemy pławić się w młodości i . nie proszę pana, miejsce emerytów zajmą bezrobotne matki odchowanych byczków.
        —————–
        Zauważa Pan słusznie, iż przy planowaniu komunikacji z udziałem pojazdów autonomicznie kierowanych przez automaty należy brać pod uwagę teorię gier. I ja jestem przekonanym, iż jest i będzie braną. Natomiast mnie tu bardziej interesowały problemy etyczne, – NO WŁAŚNIE, WIĘC PANU JARKOWI ZASYGNALIZOWAŁEM ŻE PANA TU BARDZIEJ INTERESOWAŁY PROBLEMY ETYCZNE (KTÓRE WPRAWDZIE WYNIKAJĄ Z PRZYCZYN TECHNICZNYCH..ALE ETYCZNE BRZMI WYNIOŚLE) – WSZYSTKIE INNE SĄ RÓWNIEŻ CIEKAWE ALE.. a Pan – pomimo iż używa tego terminu to dosyć słabo się orientuje czym ona się faktycznie zajmuje. Dlatego dodam tu, iż Panu etyka w pas się kłania i zachęca do z nią się zapoznania. http://encyklopedia.pwn.pl/haslo/etyka;3898956.html DZIĘKUJĘ POSTARAM SIĘ SKORZYSTAĆ

        ***NA KONIEC DODAM, ŻE MAM NADZIEJĘ PAN MNIE COKOLWIEK ZROZUMIAŁ.

        1. @ darekpiotrek: O jej, rzeczywiście. Nie wiem czy mi się teraz uda wytłumaczyć.
          ————–
          Zdecydowanie tu trudno zachować jasność naszego dyskursu. Problemy zasygnalizowałem tu:
          http://racjonalista.tv/informatycy-a-racjonalizm/ a sam wypracowałem sobie jakąś tam – możliwą tu metodę. Jak na razie ją polecam.
          ***
          @ darekpiotrek: TAK, ZARZUT MANIPULACJI MOŻE I NIE ŁADNY, ALE TO SĄ NIE MOJE SŁOWA.
          ————
          Uznajmy całość za niedomówienia, a ja postaram odnieść się do moim zdaniem merytorycznej części.
          ***
          @ Andrzej Bogusławski: Tak, pan to widzi i rozumie? Moim zdaniem w sposób bardzo ograniczony, gdyż nie bierze pan pod uwagę permanentnego rozwijania programów tzw. „sztucznej inteligencji”, a różne autonomiczne systemy na niej oparte będą pracowały na innych od znanych dotychczas nam zasadach. Programiści (najbardziej inteligentni z inteligentnych i ogromnie prospołeczni, gdyż ja zakładam u wszystkich ludzi kompetencje i dobrą wolę) będą budowali „programy otwarte”, których wynikiem będzie jednak to, iż to nie programista, a właśnie maszyna podejmie ostateczną decyzję w określonej sytuacji.
          @ darekpiotrek: ZUPEŁNIE W INNYM KONTEKŚCIE ..ALE NIC TO. JEST TO JEST PANA OPINIA NATURY TECHNICZNEJ – NIE FILOZOFICZNEJ PRZEZ TO OPINIA DYLETANCKA Z KTÓRĄ MOGĘ POLEMIZOWAĆ TYLKO NIE WIEM CZY MOGĘ (?) „U PANA” BO MOŻE BYĆ TROCHĘ TECHNICZNIE. ALE NIE BĘDĘ PRZYNUDZAŁ BO CI KTÓRY ZAGADNIENIE OD TECHNICZNEJ STRONY ROZUMIEJĄ MOGĄ SIĘ NUDZIĆ A POZOSTALI NIE ZROZUMIEĆ. ZAMIAST MOICH WYPOCIN PROPONUJĘ KRÓTKĄ LEKTURĘ…………
          ————
          A ja zamiast moich dyletanckich wynurzeń daję takie króciutkie wrzuty:
          http://www.cs.put.poznan.pl/jstefanowski/aed/TPDANN.pdf
          http://www.k0pper.republika.pl/sieci.htm
          Na tematy sztucznych sieci neuronowych oraz sztucznej inteligencji można w internecie sporo znaleźć, a przecież specjaliści dalece tylko do internetu się nie ograniczają i więcej czytają.
          ***
          @ darekpiotrek: ALE PROSZE MI WIERZYĆ, ŻE MA TO ZWIĄZEK IMMANENTNY I ŻADNE NOWE METODY PROGRAMOWANIA NIE ZLIKWIDUJĄ STRUMIENIA USZKODZEŃ WIĘC TRZEBA BĘDZIE PROGRAMOWAĆ TAK BY GINĘLI JEDNI A NIE DRUDZY. I ANI PAŃSKIE ANI NASZE ROZTERKI ZWIĄZANE Z TYM FAKTEM MAJĄ ŹRÓDŁA NIE W TRANSCENDENCJI TYLKO WYTRYSKUJĄ „Z POD ŚRUBKI” BEZ WIEDZY NIKT NIE JEST WSTANIE WYOBRAZIĆ SOBIE NATURY PROBLEMU.
          ————-
          Dlaczego miałbym Panu nie wierzyć. Proponuję tylko Panu jednak odróżnić programowanie algorytmów dla automatów od otwartego programowania dla sztucznej inteligencji. Tu będzie trochę jak z dzieckiem. Programista będzie starał się go wyposażyć najlepiej jak potrafi, ale na trasie to już on będzie podejmował konkretne decyzje. Inteligencja to także algorytmy, ale inteligencja to coś znacznie więcej niż algorytmu. Trzeba będzie programować tak aby nikt nie ginął i jednocześnie liczyć się z tym, iż całkowite uniknięcie błędów jest praktycznie niemożliwym.
          ***
          @ darekpiotrek: PROSZĘ POMYŚLEĆ….KIEDY PRZYNALEŻNOŚĆ DO GRUPY
          ———-
          Nie zgadzam się z tym Pańskim tokiem myślenia. Ze względów właśnie etycznych nie mogą zostać zaproponowane żadne grupy do pierwszeństwa do ewentualnej eliminacji, choć mogą być grupy zwiększonej ochrony – np. dzieci. Niby podobne, ale etycznie to już nie to samo.

          &&&&&&&&&&&&&&&&&

          Wracając zaś do „prztyczków”:
          @ darekpiotrek: Postaram się trochę nakierować.
          @ Andrzej Bogusławski: Czuje Pan się upoważnionym do kierowania?
          @ darekpiotrek: Z DOBROCI SERCA Ja nawet inicjując tu ten temat chciałem tylko zabrać głos w ciekawej moim zdaniem dyskusji. PAN INICJUJE ALE CZY MA PAN JAKIEŚ PRAWA WŁASNOŚCI DO ROZMOWY POD PANA TEKSTEM? JEST PAN NADRZĘDNY – MODERUJĄCY.
          ————-
          Nie, nie czuję się moderatorem dyskusji pod moimi tekstami, ale tym bardziej nie daję takiego prawa nikomu innemu. No chyba iż ktoś stanowiłby jakiś tam autorytet wiedzy w danej dziedzinie.
          Bardzo się cieszę z dyskusji pod moimi tekstami, ale jednak ci, którzy chcieliby nimi kierować, to powinni inicjować własne tematy i przedstawiać własne problemy. Takie przynajmniej mam tu zdanie.
          ***
          @ Andrzej Bogusławski: Mnie to jakoś się wydaje, iż proste wszystko, to jest dla prostaków. Ja tu – choć uważam sprawę za fascynującą – dostrzegam wiele problemów, tak technicznych, jaki i filozoficznych. Choć filozoficzne tu interesują mnie bardziej.
          @ darekpiotrek: NASTĘPNYM RAZEM PROSZĘ NAPISAĆ „PROSTACZKÓW” BĘDZIE MI MILEJ.
          ————
          Daję sobie radę z językiem polskim, wiem co chcę napisać i jestem odpowiedzialny za słowo. Mam szacunek dla ludzi i właśnie dlatego raczej nie użyłbym słowa „prostaczków”. To było stwierdzenie ogólne i zupełnie niepotrzebnie odnosi je Pan do siebie. W żadnym wypadku nie dał Pan powodu aby Pana do prostaków zaliczyć.
          ***
          @ darekpiotrek: TEŻ DOSTRZEGAM WIELE PROBLEMÓW ALE O NICH PISZEMY POD TEKSTEM PANA JARKA. BO ON NIE SYGNALIZOWAŁ ŻE JEGO TEKST PORUSZA TYLKO FILOZOFICZNE PROBLEMY…
          ————–
          No właśnie, a może warto pilniej czytać teksty i starać się je zrozumieć, gdzie ja napisałem, iż mój tekst porusza TYLKO filozoficzne problemy albo, iż TYLKO filozoficzne problemy mnie interesują. W moim języku „bardziej” to jeszcze daleko nie TYLKO.
          ***
          @ Andrzej Bogusławski: Zauważa Pan słusznie, iż przy planowaniu komunikacji z udziałem pojazdów autonomicznie kierowanych przez automaty należy brać pod uwagę teorię gier. I ja jestem przekonanym, iż jest i będzie braną. Natomiast mnie tu bardziej interesowały problemy etyczne, –
          @ darekpiotrek: NO WŁAŚNIE, WIĘC PANU JARKOWI ZASYGNALIZOWAŁEM ŻE PANA TU BARDZIEJ INTERESOWAŁY PROBLEMY ETYCZNE.
          ———–
          Powiedzmy, iż tak, ale wolę to sam robić.
          ***
          @ darekpiotrek: (KTÓRE WPRAWDZIE WYNIKAJĄ Z PRZYCZYN TECHNICZNYCH.. ALE ETYCZNE BRZMI WYNIOŚLE) – WSZYSTKIE INNE SĄ RÓWNIEŻ CIEKAWE ALE..
          ————
          Gdyż jak to wynika z dalszej części zdania, poziom Pańskiego zrozumienia postawionych przeze mnie problemów jest delikatnie mówiąc średni. Cały przedstawiony przeze mnie tu problem to właśnie są zagadnienia filozoficzne (etyczne) które właśnie wynikają z przyczyn technicznych, które trzeba brać pod uwagę, a do takiego brania jakaś tam wiedza jest jednak potrzebną.
          ***
          @ darekpiotrek: NA KONIEC DODAM, ŻE MAM NADZIEJĘ PAN MNIE COKOLWIEK ZROZUMIAŁ.
          Łudzę się podobną nadzieją.
          ***

          1. Andrzej Bogusławski: „Proponuję tylko Panu jednak odróżnić programowanie algorytmów dla automatów od otwartego programowania dla sztucznej inteligencji.”
            —-
            Ale ja to odróżniam. I rozumiem, że ukuto nazwę „sieci neuronowe” tyle, nie za wiele wynika z tego, że odkryto nazwę.
            —–
            @ darekpiotrek: NA KONIEC DODAM, ŻE MAM NADZIEJĘ PAN MNIE COKOLWIEK ZROZUMIAŁ.
            Bogusławski: Łudzę się podobną nadzieją.
            —-
            Myślę że nie wszystko zrozumiał. Wie Pan dlaczego?
            —-
            Bogusławski: Trzeba będzie programować tak aby nikt nie ginął i jednocześnie liczyć się z tym, iż całkowite uniknięcie błędów jest praktycznie niemożliwym.
            —-
            Nie ma czegoś takiego jak pisanie programu aby nikt nie ginął. I nawet gdyby dysponować sztuczną inteligencją to czegoś jej trza będzie do łba nakłaść – czyli zaprogramować. Bo jeśli śie tego nie zrobi to maszyna sobie wypracuje własną etykę niekoniecznie kompatybilną z naszą. Było nie było pedagogika jakaś formą programowania więc zaprogramowanie tego jest elementem koniecznym. Najgorsze problemy to te,które wynikają nie z chciejstwa tylko z uwarunkowań fizykalnych, fizycznych, technicznych. A takim problemem jest to, że trzeba będzie maszynie dookreślić co ma zrobić gdy ma tylko dwa wyjścia śmierć dziecka i śmierć starca.
            Proszę zrozumieć, że tego wyboru się nie uniknie nie zależnie czy programował będzie Informatyk Rafał czy Terminator. I problem nie leży w tym że akurat Terminator a nie Rafał – Problemem jest, że kiedy to ruszy w dużej skali, prawdopodobnie globalnie, to to będzie maszynka do wybijania dziadków. Od początku do końca, bezlitośnie i nieodwołalnie. Taki dziadek jedyne na co będzie mógł liczyć to na jakiś błąd w programie, zły pomiar, zdarzenie losowe (fuks) że samochodowi w tym czasie odpadnie koło i jednak nie w dziadka a w babke.

          2. Bogusławski: Nie, nie czuję się moderatorem dyskusji pod moimi tekstami, ale tym bardziej nie daję takiego prawa nikomu innemu.

            Dziwie się, że tak to zostało odebrane. Nie rozumiem dlaczego odbiera mi prawo nakierowywania na jakąś myśl, jakiś wątek, w rozmowie czy też w próbie rozmawiania. Naprawdę, dla mnie to dziwne i odbieram to jako czepialstwo o nic.

  6. @ darekpiotrek: NA KONIEC DODAM, ŻE MAM NADZIEJĘ PAN MNIE COKOLWIEK ZROZUMIAŁ.
    Bogusławski:
    @ Andrzej Boguslawski: Łudzę się podobną nadzieją.
    @ darekpiotrek: Myślę że nie wszystko zrozumiał.
    ————-
    Już teraz się nie łudzę. Ja wiem, iż Pan tego co tu napisałem nie zrozumiał, gdyż nie do moich wypowiedzi się Pan odnosi. Czasem tylko do tego co Pan myśli, iż ja myślę. Nie chcę i nie mogę polemizować z Pańskimi wyobrażeniami o tym co niby ja myślę. Nie przekonuje mnie też Pańska wiedza w zakresie problematyki, o której tu rozmawiamy. Programowanie sztucznej inteligencji, to nie jest pisanie programów z algorytmami dla automatów. To znacznie coś więcej.

    Jeszcze nam daleko do takich programów. Nawet z praktycznym wykorzystaniem prostych sieci neuronowych nie mamy zbyt wielu doświadczeń, ale gdyby nauka już stała już na odpowiednim poziomie, to nie powierzyłbym Panu zaprogramowania sztucznej inteligencji dla autonomicznych pojazdów, nawet wtedy gdyby Pan miał ku temu dostateczną wiedzę techniczną ze względu na Pański sposób rozumowania i tu widzę zasadniczy problem, gdyż ktoś taki może właśnie takie zadanie dostać.
    ***
    @ darekpiotrek: Wie Pan dlaczego?
    ———-
    Przecież to oczywiste. Nie zrozumiał Pan, gdyż nie chciał lub nie potrafił zrozumieć tego co ja napisałem i cały czas powtarza Pan to co Pan wie i w co Pan wierzy, a ja Pańskiej wiary nie podzielam. Mam własne przekonania, które tu przedstawiłem, a Pan w moim odbiorze, przy swoim uporze, nijak ich nie podważył.
    ***
    @ darekpiotrek: Dziwie się, że tak to zostało odebrane.
    ————-
    Mnie też bardzo dziwi jak Pan moje teksty odczytuje i jak Pan nimi nieudolnie manipuluje, ale taki ping pong wcale mnie nie bawi i już dalszej możliwość merytorycznego sporu, tu nie dostrzegam.
    ***

  7. Pańskie przekonania są tego typu: „Napiszemy dobry program otwarty tak żeby maszyna wiedziała że jej niewolno zabijać ludzi! Oraz napiszemy algorytm na brak algorytmu!” – Infantylne/ignoranckie. Powiem Panu z czego to może wynikać. Oczywiście mogę się mylić ale chodzi chyba o to, że naczytał sie pan jakiś piśmideł o tematyce prawie ze naukowej, w których prawie że wiedzący o czym piszą dziennikarze realizują swoje pasje pisarskie. I teraz na podstawie tak zdobytej „wiedzy’ myśli sobie pan że wie o czym rozmawia.

    1. @ darekpiotrek: Pańskie przekonania są tego typu:

      Tak, ten typ już tak ma, iż określa typy przekonań innych, nie potrafiąc uporządkować sobie własnego i napisania czegoś sensownego. Guzik Pan wie o moich przekonaniach, nawet nie potrafiąc zrozumieć prostego tu przekazu. Wiem i rozumiem to co piszę, ale nie odnoszę żadnego wrażenia, iż Pan zdolnym jest to zrozumieć? Tak, ma Pan rację, iż naczytałem się wiele, ale czytam głównie publikacje na akademickim poziomie. Ponadto tu swoim poziomem nie warto się chwalić, tu nasz poziom tu z każdej naszej wypowiedzi wychodzi. Czy wydaje się Panu, iż chamskim epitetami pod moim adresem wykaże Pan swoją rację, gdy żadnych sensownych argumentów nie potrafi Pan tu przedstawić?

      Szkoda nawet tego komentować i schodzić na zaproponowany tu przez Pana poziom rozmowy, więc dodam tylko, iż do zbudowania konkretnego technicznego programu sztucznej inteligencji potrzebna jest spora inteligencja wraz z techniczną wiedzą merytoryczną, ale tu trzeba dołożyć też uzupełnienie, które nijak do Pana nie dociera, iż inteligencja to znacznie coś więcej niż technika i zdecydowanie więcej niż algorytmy dla maszyn pisane – nawet przez tych mniej inteligentnych – informatyków. Programy dla AI muszą przygotowywać najinteligentniejsi z inteligentnych, ci którzy łatwo rozumieją na czym polega inteligencja.

      1. Bogusławski: /../ ci którzy łatwo rozumieją na czym polega inteligencja.
        —-
        Z całą pewnością można spekulować na czym inteligencja nie polega

    2. Teraz już i ja odnoszę wrażenie że nie jestem wstanie Pana zrozumieć. Proszę dać mi szansę, jeszcze.
      Proszę wskazać konkretnie:
      1 Moje chamskie odzywki. To przeproszę bo nie chciałem Pana zranić.
      2.Moje wyobrażenia o tym co niby Pan myśli.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

jeden × trzy =