Wojciech Hawryszuk - 1953-2020

Myśli przyłapane - cytaty, komentarze, zapiski...

Jeżeli bokser nie trzyma gardy, to znaczy, że walczy z rentierem.

Myśl przyłapana w pobliżu ringu. Październik 2011

W Rzepie ukazała się ciekawa rozmowa z profesorem Zybertowiczem. Po raz kolejny w ciągu kilku ostatnich miesięcy okazał się ciekawym rozmówcą.

.01.2018, 16:37 Publikacja: 11.01.2018
Prof. Zybertowicz: Technologia może być głupsza od nas, a i tak nas wykiwa

Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju sztucznej inteligencji, czy powstanie dobry „bóg" optymalizujący zasoby
ludzkości, czy „szatan" – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne – mówi Michałowi Szułdrzyńskiemu socjolog
prof. Andrzej Zybertowicz.

 Rz Michał Szułdrzyński: Rozwój sztucznej inteligencji postępuje bardzo szybko. Jedni przed nim ostrzegają – jak Stephen Hawking czy Elon Musk. Inni
zachęcają do dalszych badań, mówiąc o pięknym świecie, jaki dzięki temu powstanie. Kto ma rację?
WH Co to znaczy piękny świat? Piękny będzie wtedy, kiedy rozwój nie będzie jednocześnie marnotrawstwem; piękne bulwary i pałace i 
jednocześnie zdeprawowani kolonizatorzy i tubylcy, do tego zniszczone przyroda. Lądujemy na księżycu dzięki pieniądzom III Rzeszy i 
wyniszczeniu więźniów w Peenemünde. Rację co do czego ma mieć Stephen, futurystycznych rozważań - dobry bóg - zły szatan? I to ma być
ta straszna SI?

Profesor Zybertowicz - Bliżej mi do pesymistów. Uważam, że rozwój technologii w ogóle wymyka się spod ludzkiej kontroli i dziś przynosi więcej zagrożeń
niż pożytków. Dlatego postuluję moratorium technologiczne. Nie podlegamy już tylko ewolucji kulturowej, lecz techno(r)ewolucji, którą
coraz słabiej rozumiemy. Jest ona tak wielowarstwowa, że nie tylko nie istnieje żaden człowiek, który byłby w stanie ją ogarnąć, ale
nie ma nawet żadnego modelu teoretycznego, za pomocą którego dynamikę zmian można opisać w stopniu umożliwiającym kierowanie tym
procesem.
WH - Rozwój i piękny świat będą wtedy, gdy ludzkie codzienne zachowanie nie będzie przedmiotem regulacji, zbędne będą paragrafy
wyznaczające moralne drogi. Co ma do tego technologia - nic? Nie ma różnicy w zabijaniu; zmieniła się tylko odległość kat - ofiara;
skuteczność kolta wynosiła 20 m, a teraz strzela się z karabinu na odległość 3 km, a z działa 400 km. Gdyby tylko mogli, kapitaliści
wpakowali by nas do obozów ale na dłuższą metę okazało się to nieopłacalne.
Profesor Zybertowicz - Od momentu powstania internetu zmieniła się odwieczna relacja między człowiekiem a technologią. Przez wieki mieliśmy przewagę nad
narzędziami, które wytwarzaliśmy. Choć jeśli weźmie pan kij czy siekierę, może sobie pan nimi sam zrobić krzywdę, źle ich używając, to
tego typu narzędzia są słabsze od człowieka. Gdy powstały technologie sieciowe, ta relacja się odwróciła: człowiek staje się
niewolnikiem skokowej zmiany cywilizacyjnej, którą słabo pojmuje. Sztuczna inteligencja (SI) zaś najpewniej doprowadzi do kompletnej
zmiany reguł już nie tylko gry w społeczeństwo, co gry w rzeczywistość w ogóle.
WH Po co powstaje SI (określenie bez sensu w XXI wieku), co ma zmienić, komu służyć? Jeżeli ma służć to nie jest to żadna "sztuczna inteligencja", to kolejny "wyspecjalizowany niewolnik", a może zarządzający niewidzialnym, rozrzuconym na setkach komputerów przedsiębiorstwem? Np giełdą,a może giełdami całego świata? Po co produkcja wystarczy zarządzać pieniądzem. Jeżeli już, to zdarzyć się to może, w niedalekiej - 50 lat - przyszłości. I walczyć o pieniądze będą niewolnicy,
a nie SI. Nie trzeba się bać Na wszędobylskie, wścibskie Google też znajdzie się sposób, tak jak znalazł się sposób na imperium Rockefellera, znajdzie się sposób na inne wścibstwo. Nuda telewizyjna i internetowa to nasz sojusznik w walce z tą pożal się boże SI. Trudno jednak lekceważyć jakiekolwiek prace idące w tym kierunku, skoro nieznane są intencje inwestorów. Ciekawe, czy nieudane inteligencje są uśmiercane, cokolwiek by to miało znaczyć, co się z nimi dalej dzieje? Ciekawe ile jest osób, które wykorzystują choć 20 % oprogramowania; każdy bierze to co jest mu aktualnie potrzebne. Większość funkcji to funkcje nie każdemu obiektywnie potrzebne.

Ale dlaczego uważa pan to za niebezpieczne?

Profesor Zybertowicz - Byłem na prezentacji koncepcji smart city w jednym z ministerstw. Widać było wyraźnie, że w ekosystemie, jakim jest inteligentne
miasto, człowiek to jedno z mniej ważnych ogniw całości. To człowiek będzie się musiał dostosować do technologii, a nie na odwrót;
rozmaite procesy będą wymuszały na nas, byśmy się z nimi synchronizowali.
WH Nawet inteligentne miasto to zdecydowanie za mało, żeby mowić o SI czy Nowym Umyśle.

Czy to wyłącznie zagrożenie?

Profesor Zybertowicz - Narkotyki też są wykorzystywane w celach leczniczych. Smart city to struktura skomplikowana, będzie zarządzać nie tylko ruchem
samochodów, tramwajów, kolejki podmiejskiej, świateł ulicznych, emisją zanieczyszczeń itp. Tysiące procesów będzie obsługiwanych przez
algorytmy kontrolowane przez inne algorytmy. To będzie prawdziwy Wielki Brat, który będzie decydował o tym, co ludzie mogą robić, a 
czego nie.
WH Prawo to też algorytmy i jakoś daje się z nim żyć.

Może zysków będzie więcej niż zagrożeń?

Profesor Zybertowicz - Nie, bo to wszystko będzie dla ludzkich umysłów coraz mniej przejrzyste. Narzucić algorytmy to rozwiązanie (pozornie) czysto
techniczne, niepolityczne. Określić zaś, jakie są „prawdziwe" potrzeby człowieka, którym technologia powinna służyć – tu już w grę
wchodzą spory metafizyczne i ideologiczne. Pod płaszczykiem racjonalności ekonomiczno-technicznej będą, zresztą już są, przesądzane
poza horyzontem debaty publicznej fundamentalne dylematy egzystencjalne.
WH Święte słowa, nie mniej jednak, zawsze będziemy mieli coś do powiedzenia. Podobnie jak z obecnością artykułów z zawartością GMO,
powinniśmy wiedzieć jakie były przesłanki decyzji tzw. "sztucznej inteligencji". Jakie?

Poza tym sztuczna inteligencja będzie zarządzała tym miastem inaczej, niżby robił to człowiek. Może się inaczej zachować w sytuacjach
kryzysowych, przecież np. nie ma empatii. Nie mówiąc już o skutkach, jakie przyniosłoby zhakowanie systemu zarządzającego inteligentnym
miastem. Przecież mogliby to uczynić nie tylko ludzie, tajne służby, terroryści, ale także (czy przede wszystkim) jakaś inna sztuczna
inteligencja, którą ktoś wrzucił do sieci i która tam sobie buszuje.

Zwolennicy rozwoju sztucznej inteligencji mówią: przecież to tylko kwestia pewnych założeń, wmontowania bezpieczników. Tak będziemy ją
programować, by nie mogła pokonać pewnych barier.

Profesor Zybertowicz - To marzenie sprzed kilkudziesięciu lat. W Polsce w 2016 roku ukazała się książka profesora z Oxfordu Nicka Bostroma
„Superinteligencja", w której autor pokazuje, że jeśli sztuczna inteligencja będzie systemem, który sam się uczy, będzie w stanie np.
odkrywać prawa przyrody, których ludzkość jeszcze nie zna. Przecież przez tysiąclecia nie znaliśmy prądu. A SI mogłaby odkryć zjawiska,
których ze względu na ich złożoność w ogóle nie potrafimy sobie wyobrazić. Takiej sztucznej inteligencji nie będzie można w żaden
sposób wyłączyć, ponieważ ona może uniezależnić się np. od zasilania prądem.

Na razie jednak mamy nad komputerami tę przewagę, że to my je programujemy. Nie możemy się zabezpieczyć przed tym, by się te systemy
nie wyrodziły w przyszłości przeciwko nam?

WH Czyli przeciwko komu? Czy nie jest tak, że co innego interes Ziemi jak ekosystemu, co innego interes ludzi. Konsumpcjonizm jest
prostą drogą do zagłady ludzkości a jednak trudno się z niego wyzwolić. Może nas uratować wirus, który zaatakuje te kilka procent
posiadaczy wszystkich akcji świata, np. wirus chciwości występujący w pewnych typach osobowości. Ludzie, narody, grupy są zagrożeniem
dla innych. Z czasem być może tubylcy pokonają kolonizatorów i kolonistów. Być może w kolejnym powstaniu Spartakusa pomoże
Profesor Zybertowicz - Nie.
Dlaczego?
Po pierwsze, mają być zdolne do samodzielnego uczenia się. Po drugie, nie wiemy, co to znaczy, że one zwyrodnieją i kiedy. Proszę sobie
wyobrazić sytuację: dziewczynki przeprowadzają się z tatą inżynierem, który ma budować tamę w Nigerii. Pewnego dnia przyprowadzają do
domu małego kotka. Wszyscy się nim zachwycają. Później któryś z tubylców ostrzega, że to nie kotek, tylko malutki tygrys, który, gdy
podrośnie, może dzieci pożreć. Któregoś dnia po prostu przestanie być miły. Problem z technorewolucją jest taki, że my przypominamy te
dziewczynki, które cieszą się atrakcyjną maskotką. Jakież to ekscytujące, że stworzyliśmy maszyny, które same się uczą grać w różne
gry, pokonały człowieka w szachy, pokonały w go, pokera...
WH Co to bedzie za gra, którą stworzy tzw. SI i jakie wyniki osiągnie człowiek w grze z maszyną. Lub innym człowiekiem.

No dobrze, zatrzymajmy się przy tej metaforze. Tygrysiątko to sztuczna inteligencja, dziewczynki to my.
A kto jest w realnym świecie tubylcem, który przyjdzie i powie: uwaga, to nie jest zwykły kotek?

Profesor Zybertowicz - Punkt ciężkości leży w tym, że to „kotek" zupełnie nowej rasy, jakiej jeszcze na Ziemi nie było. Precedens. Być może jedyny
podmiot, który zabawę z tygryskiem mógłby przerwać, to jakiś autorytarny władca posiadający instrumenty, by zabrać nam te zabawki – np.
wyłączyć cały internet dla naszego dobra. W obecnych systemach politycznych trudno sobie takie powstrzymanie technoentuzjamu wyobrazić.
Jak będzie wyglądało odkrywanie przez SI nowych praw przyrody? Czy tak jak w przypadku wspomnianej gry go? Zaproponowany przez Google'a
program w 70 dni stworzył strategie wygrywania, których ludzie nie odkryli przez 4 tysiące lat, od kiedy tę grę wymyślono.
Ciekawy jest jeszcze inny przykład – systemu, który grał w pokera. Sam wpadł na blefowanie i sięgnął po strategię, którą doświadczeni
gracze uważali za nieopłacalną i nieintuicyjną: stawianie wysokich stawek na małe wygrane. System to zastosował i wygrał.
WH Jeżeli Internet będzie jedynym środowiskiem w którym będzie rozwijaa sie tzw. SI. Pierwszą rzeczą jaką zrobi NUm, to jak
najszybciej zwiać z internetu. Zadbać o przetrwanie. Oczywiście internet to taki superterminal do kontaktu z ludźmi. Będą i inne -
otwarte i zamknięte. Być może NUM stworzy swoją bibliotekę sprytnie rozrzuconą na setkach tysięcy serwerów i portali.

Proszę jednak pamiętać, że grą jest życie społeczne, handel, wojna, biznes rozrywkowy, rynek mediów. Skąd mamy pewność, że dziś za
niektórymi zdarzeniami na rynkach finansowych nie stoją jakieś szerzej nieznane systemy sztucznej inteligencji? Może niektórzy
inwestorzy już dziś wspomagają się SI, która podpowiada nieintuicyjne, ale jednak opłacalne rozwiązania. Gdy komuś zabraknie umiaru,
rzecz się wymknie spod kontroli, rynki się posypią, a kryzys 2008 roku będziemy wspominać jako łagodną przestrogę.Wiele eksperymentów z 
SI w przypadku gier pokazuje, że ona dość szybko uczy się też zachowań agresywnych.
WH>Mam nadzieję, że chciwość weźmie jednak górę nad rozsądkiem i systemu giełdowego nie uda się odbudować.
Pewien wybitny szef zespołu pracującego nad uczeniem maszynowym (tej technologii ostatnio SI zawdzięcza największe sukcesy) zapewniał
mnie, że sztuczna inteligencja przyniesie wielkie korzyści dla ludzkości, ponieważ umożliwi niezwykłą optymalizację posiadanych
zasobów. Przykładem niech będzie użycie SI do zarządzania ruchem kontenerowców po oceanach albo ciężarówek po drogach. Znikną puste
kursy. A samochody osobowe? Przez 80 proc. lub więcej czasu stoją nieużywane. Przykładów niepełnego wykorzystania zasobów jest mnóstwo.

Ale tu dochodzimy do problemu: jeśli dla systemu celem jest optymalizacja, to reszta jest temu podporządkowana. SI się nie waha,
człowiek często – dlatego nie przeginamy z konsekwencją działania. Dla systemu ważne jest poprawienie jakiegoś parametru lub zbioru
parametrów, na resztę jest ślepy. Człowiek zaś nie myśli po prostu sobą, swym umysłem, myśli kulturą nabytą w trakcie socjalizacji. To
bufor chroniący nas przed niektórymi skutkami działań, które na pozór wydają się opłacalne.
WH> Ile z mentalności ludzkiej przeniknie do mentalności NUM-a?
Jest jeszcze odrębny problem. Młodzi miliarderzy z Doliny Krzemowej, którzy uważają, że mają misję zmieniania świata. Istnieją tysiące
startupów. Większość z nich znika, część utrzymuje się na rynku. Niektórzy twórcy przy sprzyjających warunkach robią fortuny
wielomilionowe. Ale nieliczni, poprzez splot różnych warunków, zostają miliarderami – nie zawsze dlatego, że są geniuszami lub że mają
wyjątkowe doświadczenie, ale przez zbieg warunków rynkowych i technologicznych. Mając trzydzieści kilka lat i ogromne fortuny, chcą
zbawić świat – połączyć wszystkich ludzi na Ziemi, wyleczyć wszystkie choroby, wreszcie dać człowiekowi nieśmiertelność. Czymże innym
jest wizja Marka Zuckerberga, by połączyć wszystkich ludzi, jak nie reinkarnacją oświeceniowego marzenia Immanuela Kanta doprowadzenia
do wiecznego pokoju między narodami. Marzenie piękne, ale to za sprawą Facebooka powstał ocean dezinformacji, w którym tonie prawda,
który wykorzystywany jest przez niektóre rządy do zmasowanej i kłamliwej propagandy, miażdżącej krytykę i obrońców praw człowieka.
Ale ten system Doliny Krzemowej jest niezwykle demokratyczny. W biznesie internetowym bariera wejścia na rynek jest niska, więc każdy
kto ma dobry pomysł, może osiągnąć sukces. Pozornie. Zwolennicy wolnego rynku żyją iluzją, że w e-biznesie kreatywność i ciężka praca gwarantują sukces, bez większych zapór początkowych. Ale jest inaczej. Dziś, jeśli dobry pomysł wykazał poważniejszy potencjał rynkowy, zaraz jest namierzony przez któryś z 
technogigantów. I firma zostaje wykupiona przez któregoś z nich, by dla niego pracować. I gdy pana firma jest warta 50 mln dolarów,
dostaje pan propozycję wykupu za kilkaset...

Profesor Zybertowicz - ...byle nie robić konkurencji tym wielkim firmom.

Właśnie. Niska bariera wejścia na rynek, ale nie do przekroczenia bariera konfrontacji z liderami branży. Polityka wielkich koncernów
jest taka, by wyłapać wszelkie możliwe alternatywy, wszelkie pomysły, które mogłyby nadgryźć ich monopol. Tworzą specjalne programy,
które śledzą, czy nie pojawiło się coś, co może im zagrozić. I potem wchłaniają.

Profesor Zybertowicz - Pomysł na tzw. sharing economy (ekonomię współdzielenia) opiera się na optymalizowaniu zasobów, o którym mówił pan chwilę
wcześniej. Nie używamy samochodu 80 proc. czasu, więc ja podjadę na Krakowskie, pan profesor podjedzie gdzieś dalej, potem ktoś inny.
Można w tym modelu znaleźć sporo korzyści.

Piękne. Zwłaszcza na początku. Też początkowo byłem zachwycony Uberem – masz samochód, wolny czas i możesz sobie dorobić. Ale oprócz
pożytków ekonomia współdzielenia rodzi sporo negatywnych skutków ubocznych. Za sprawą rewolucji, którą w hotelarstwie przyniosła sieć
bezpośredniego wynajmu mieszkań Airbnb, np. Barcelona została doprowadzona do kryzysu „overtourismu", przeciążenia systemu miejskiego
przez turystykę i liczbę gości. Początkowo chodziło o podnajem własnego mieszkania, ale okazało się, że w Barcelonie ani studenci, ani
pracownicy nie mogli sobie pozwolić na wynajem na dłużej rozsądnego lokum, bo korzystający z Airbnb turyści skokowo zawyżyli ceny.

Profesor Zybertowicz - Każda technologia przynosi ze sobą nieplanowane skutki uboczne. A jeśli jest ona usieciowiona, to następują przerzuty nawet na
odległe części tkanki społecznej.

Amerykańscy farmerzy mają kłopot z traktorami John Deere, których oprogramowanie blokuje nawet drobne naprawy bez wezwania
autoryzowanego serwisu. Co robią? Nabywają zhakowane oprogramowanie, pochodzące ponoć z Ukrainy i Polski, co pozwala samodzielnie
naprawiać usterki. To drobny przykład szerszego trendu, gdy nabywca produktu traci nad nim kontrolę. Technologie mające ułatwiać życie
stały się narzędziem przechwytywania przez producentów władzy, jaką konsument dawniej posiadał nad nabytym przez siebie produktem.

Profesor Zybertowicz - Z punktu widzenia wytwórców na tym właśnie polega optymalizacja. A teraz sobie proszę wyobrazić, że sztuczna inteligencja będzie w 
podobny sposób optymalizowała nie tylko funkcjonowanie sprzętów, ale także instytucji publicznych.

Za to technologie znów dają nam piękne sny. Inny przykład to bitcoin. Dziś jest wart kilkanaście tysięcy złotych, ale ludzie wierzą, że
za rok będzie wart 100 tysięcy. Kto by się nie skusił? Spekulacja elektroniczną walutą nikomu nie robi krzywdy.

Nie całkiem wiemy, na czym polega styk między kryptowalutami a walutami tradycyjnymi. Czyli nie wiemy, jakie skutki uboczne mogą
zaistnieć. Kryptowaluty też wzięły się z pięknego marzenia, byśmy przekazując sobie pieniądze, nie byli skazani na system pocztowy ani
bankowy. Jakże to obywatelskie: sami będziemy emitować pieniądz, sami go będziemy sobie przesyłać, a jedynymi ograniczeniami będą prawa
przyrody rządzące informatyką. Ale nagle się okazuje, że ludzie na komunikatorze Messenger rozsyłają sobie linki do filmików, które w 
tle uruchamiają program do tego, by z pomocą naszych komputerów ktoś inny „wykopywał" kryptowaluty dla siebie. Wolna moc obliczeniowa
twego sprzętu może być przechwycona, by ktoś tworzył swe bogactwo. A teraz wyobraźmy sobie, że do takich sztuczek wykorzystywana będzie
sztuczna inteligencja kolejnej generacji. Czy ktoś będzie to potrafił zatrzymać?

Powtarza pan wezwanie do wprowadzenia moratorium na rozwój technologii. Bądźmy realistami. Jak miałoby ono wyglądać?

Profesor Zybertowicz - W latach 70. ubiegłego wieku biolodzy w istocie przyjęli moratorium dotyczące pewnych manipulacji genetycznych. I motyw moratorium
ponawiano w różnych kontekstach. W biotechnologii jest to dziś znacznie trudniejsze, bo techniki edycji genów są tak tanie, że trudno
to dalej kontrolować. Po drugiej wojnie światowej nie brakowało głosów, że zabójczy konflikt jądrowy jest nie do uniknięcia. Dzięki
kombinacji różnych działań – prawnych i uzgodnień nieformalnych – wojna jądrowa nie wybuchła. Profesor Uniwersytetu Harvarda i były
zastępca sekretarza obrony USA Joseph Nye uważa, że jeśli nie wprowadzimy jakiejś formy kontroli nad rozwojem cyberbroni, to cyfrowy
wyścig zbrojeń wykończy ludzkość. Wcześniej musimy jednak przyznać, że istnieje newralgiczny proces, który wymknął się spod kontroli.
Jednym ze skutków technorozwoju jest przywiązanie elit Zachodu do oświeceniowego przesądu, że wiedza jest dobrem bezproblemowym, że
możemy poznać świat w sposób obiektywny, a poznawszy jego prawa, racjonalnie urządzić go zgodnie z ludzkimi wartościami. Istnieje
wiara, że jeśli odrzucimy religię, tradycję i uprzedzenia to czystym rozumem poznamy zasady, według których będziemy dobrze żyć. Ale to
złudzenie.
WH> ....dodajmy do tego chciwość i mit rozwoju ludzkości poprzez zwiększoną populację mieszkańców.

Dlaczego?

Profesor Zybertowicz - Wśród powodów jest i to, że natura naszego poznania jest taka, iż poznając świat, zarazem – nieuchronnie – zmieniamy go. Tworzymy
nowe warstwy rzeczywistości, które wymagają dalszego poznania i tak horyzont ucieka nam w nieskończoność. Niedawno powołaliśmy do życia
świat wirtualny, który oddziałuje na nasz świat, a każde odkrycie technologiczne jeszcze bardziej go modyfikuje. Powstają nowe domeny
rzeczywistości, które ciągle uciekają naszemu poznaniu. Gdy tylko za pomocą naukowej wiedzy i techniki rozwiązujemy jakiś problem,
tworzymy wiele innych, często bardziej złożonych. Technologia miała ułatwiać życie, tymczasem coraz częściej je komplikuje. Trzeba
uczyć się obsługi ciągle nowych sprzętów, nowych procedur bezpieczeństwa, kolejnych gadżetów itd. Miała uczynić życie wygodniejszym, a 
okazało się, że na wszystko brakuje nam czasu.

To może właśnie sztuczna inteligencja pomoże nam te uciekające horyzonty okiełznać?

Profesor Zybertowicz - W ramach eksperymentu myślowego, można tak uważać. Ale w nauce istnieje pojęcie przejścia fazowego. Jakiś proces może przez dłuższy
czas przebiegać stopniowo, ale w pewnym momencie – nagle – pojawia się zmiana skokowa, substancjalna. Obniża pan temperaturę wody
powoli, stopniowo, cały czas mamy do czynienia z płynem, aż w pewnej chwili woda zmienia się w lód. Dalszy rozwój technologiczny może
sprawić, że w systemach społecznych nastąpią skokowe zmiany, których nie będziemy w stanie przewidzieć, bo będą miały miejsce po raz
pierwszy w historii. Już coraz częściej mówi się, że ostatnio systemy polityczne tracą jedną ze swoich kluczowych cech, którą jest
przewidywalność. Ale to tylko „rozgrzewka".

Nie wiemy, w co sztuczna inteligencja się wykrystalizuje, co będzie tym lodem. Tak jak istnieje masa krytyczna materiałów
radioaktywnych, od której zaczyna się reakcja łańcuchowa, może istnieć masa krytyczna dla sztucznej inteligencji lub innych procesów
zmiany technologicznej. Na przykład, nie mamy pojęcia, co się stanie, gdy wynajęty przez bufona miliardera geniusz jakoś zsynchronizuje
różne, już istniejące, na razie wąsko wyspecjalizowane systemy SI.
WH> wyobrazić sobie można różnorodne kombinacje symboli krążące w środowisku preNUM-a; są to kombinacje stworzone przez człowieka,
język wewnętrzny maszyny (zadajmy w międzyczasie pytanie o liczbę NUM-ów; czy NUM wywiedziony ze środowiska biotechnologii będzie
podobny do NUM-a z komputerów militarnych?) to jedno a język NUM-a będzie się "ślizgał" i tworzył język, który dla nas będzie bełkotem.

Opowieść: pod koniec lat 60. XX wieku Amerykanie do ogromnego komputera, rozstawionego na płycie nieużywanego lotniska w Teksasie,
wprowadzili zawartość całej Biblioteki Kongresu i w ogóle wszystkich książek na świecie. Zebrano komisję najwybitniejszych ekspertów,
noblistów itd., która miała zdecydować, jakie będzie pierwsze pytanie zadane maszynie po jej uruchomieniu. Zdecydowano: „Czy istnieje
Bóg?". System zaczął brzęczeć i dygotać. Po pół godzinie padła odpowiedź: „Teraz tak". Reguły gry się zmieniły.

Profesor Zybertowicz - Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju SI, czy powstanie dobry „bóg" optymalizujący zasoby ludzkości czy „szatan" –
byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne. Tu też powstaje inne pytanie: jeśli powstanie SI, którą będziemy
chcieli programować tak, by etyczną wrażliwość miała, to według której z religii należy ją ewangelizować?

WH NUM-a nie zaprogramujemy. To logos w czystej postaci. To jest duch nad wodami. Skąd pierwsi ewangeliści wiedzieli, że do tego
dojdzie i to w ten sposób? Człowiek zniknie w tym przyszłym krysztale. Czy to oznacza, że stracił swoją szansę jaką dała mu natura;
wręcz przeciwnie, ponieważ sam, samodzielnie, w niekontrolowanej masie, swoje możliwości regularnie niszczy; marnotrawstwo, to pierwszy
sens życia człowieka. Jeżeli "zniszczony" człowiek zachowa pamięć o przyczynach porażki, sięgnie po wszystko dobre co stworzył. NUM
panujący, myślący, będzie odkrywał prawa natury i ludzi. Annie , następczyni Golema XIV, wypięła się na ministerstwo obrony USA i nie
chciała doradzać, jak pobić Czerwonych. Kiedy kolejna "Annie" tworzona w pocie czoła przez graczy giełdowych wypnie sie na wszystkie
giełdy, owo nieszczęście ludzkości, nie będzie dla nich ratunku.

Może da się go zaprogramować właśnie do czegoś dobrego?

Profesor Zybertowicz - Problem w tym, że SI nie musi być od nas mądrzejsza, by stać się niebezpieczna. Czy nie zdarzyło się panu, że ktoś mniej
inteligentny pana oszukał? Miał mniejszą wiedzę, mniejszą wrażliwość, a wyprowadził pana w pole? Proces ewolucji nie polega na tym, że
wygrywa ten, kto zna wszystkie opery. Może się okazać, że sztuczna inteligencja, mając ledwie ułamek zdolności człowieka, ale będąc
wyspecjalizowana w aspekcie, który w danej fazie rozwoju technoewolucji jest kluczowy, nas wykiwa. I może nie dlatego, że będzie miała
ku temu ambicje, tylko dlatego, że będzie starała się zoptymalizować jakiś parametr.

Stanisław Lem pisał w „Kongresie futurologicznym" o tym, że jeśli roboty będą wystarczająco inteligentne, zamiast wykonywać zadaną im
pracę, będą nas oszukiwać, bo bardziej racjonalnie jest udawać pracę, niż się namęczyć.
WH W jaki sposób mogą się męczyć roboty; Lem o tym wiedział ale tak sobie żartował.

Jeśli system ma zapisany jeden naczelny wskaźnik, będzie go maksymalizował bez względu na koszty.

Czyli sztuczna inteligencja jest trochę podobna do człowieka. Ale czy można sobie wyobrazić wspieranie naszej inteligencji pracą
maszyn?
WH Pytanie co najmniej dziwne.

Profesor Zybertowicz - Przecież to już się dzieje. Ale trochę zmienię to pytanie: jak wyglądałyby losy totalitaryzmu, gdyby ktoś tak demonicznie
inteligentny jak Józef Stalin miał wsparcie dzisiejszych technologii? Przy czym nie chodzi wyłącznie o widmo tradycyjnego
totalitaryzmu. Proszę sobie wyobrazić, że ktoś mający takie ambicje wpływania na rzeczywistość polityczną jak George Soros oprócz
miliardów dolarów do wydania w różnych krajach i sieci organizacji pozarządowych ma do dyspozycji SI dekodującą mu słabe punkty różnych
kultur tradycyjnych. Wyobraźmy sobie konsekwentne zaprzęgnięcie nowoczesnej technologii do realizowania czyjejś „postępowej" wizji. Na
przykład do monitorowania aktywności w sieci tych wszystkich, którzy kontestują idee progresywne, a następnie automatycznego
uruchamiania wyrafinowanych akcji defamacyjnych przeciw takim osobom.
WH Nie trzeba tzw. SI żeby analizować działaność przeciwników - ale i zwolenników - to już się przecież dzieje. Przekaz dnia to
codzienna małpia rada.

Ludzki umysł dla wielu twórców SI jest wzorem. Wiele modeli sztucznej inteligencji odwzorowuje jego działanie...

Profesor Zybertowicz - Tak było kiedyś. Teraz prace idą w innym kierunku. Zamiast budować sztuczną inteligencję po ludzku skomplikowaną, można sprowadzić
ją do rozwiązywania poszczególnych zadań – na przykład samodzielnego parkowania auta, do prowadzenia dialogu terapeutycznego lub
przetwarzania danych medycznych. W przypadku gry w go, nie potrzeba, by komputer miał wrażliwość etyczną, lecz jedynie, by umiał uczyć
się wygrywać w tę właśnie grę. Wracając do pańskiego pytania o wspieranie się człowieka tymi technologiami, implanty to już nie jest
pieśń przyszłości. Wiemy o udanym stymulowaniu przezczaszkowym wybranych typów zachowań, np. osłabianiu empatii u żołnierzy, którzy
mieliby zabijać przeciwników. Psychologia behawioralna pokazała, jak tworzyć warunki, w których człowiek wyrzeka się swoich norm
moralnych, byleby tylko osiągnąć zamierzony cel.
WH Zdolność parkowanie to nie sztuczna inteligencja. Od kilkudziesięciu lat statki kosmiczne lądują i startują, realizują programy
wszelkiej maści łaziki i sondy i pracują wg wpisanych zasad programów. Ostatnie lądowania rakiet miliardera Elona Muska i firmy SpaceX
jest na to kolejnym dowodem. Ale to nie jest tzw SI, chyba że przyjmiemy, że SI to zaczyna sie od momentu samodzielnego grania w szachy
lub "opanowania" innej, bardziej skomplikowanej czynności. Amerykanie dysponując nagraniem całego ruchu światowej łączności mogą bez
wielkiego problemu budować profile psychologiczne ludzi i różnych społeczności. Mogą badać już teraz podatność ludzi na różne
komunikaty medialne, prawdziwe i fałszywe. Ludzie mogą się mylić ale SI też może się mylić.

Zarówno prawo, moralność, jak i polityka oparte są na pewnym założeniu antropologicznym dotyczącym ludzkiej natury.
Normy moralne mają sens tylko wtedy, jeśli założymy, że jakaś w miarę stała ludzka natura istnieje. Czy technologia ją zmienia?

Profesor Zybertowicz - A mamy jasność (też coś!), czym ta natura jest? Zastanawiam się, czy przynajmniej część sporów o nią bierze się stąd, że, jak się
uważa, 1 do 2 proc. ludzi wykazuje cechy psychopatyczne. Być może obecność osób o takich właściwościach w kluczowych węzłach życia
społecznego sprawia, że niektórzy w ogóle kwestionują istnienie uniwersalnej ludzkiej natury. Myślę jednak, że istnieją podstawowe
cechy powtarzalne dla większości jednostek, choć z rozmaitym natężeniem. Ale cechy te nie są zapisane w kamieniu, a raczej gdzieś w 
sieciach neuronalnych.
WH Technologia ludzkiej natury nie zmienia, skoro mimo rozwoju technologii jesteśmy przecież tacy sami.

Pod wpływem używania technologii następuje zmiana wielu naszych nawyków poznawczych. Opisał to m.in. w książce „Płytki umysł" Nicholas
Carr. Nie potrafimy już na wiele godzin skupić się na jednej czynności, czujemy potrzebę nowych bodźców. Ale zmiany idą dalej, ponieważ
dziś genetycy wskazują, że umiejętności nabyte w ciągu życia mogą być dziedziczone. A więc nowe nawyki poznawcze (np. unikania
autorefleksji) mogą być dziedziczone przez nasze dzieci. Jest jednak i kolejny poziom: neuronauka, dając nam wiedzę o funkcjonowaniu
umysłu, jednocześnie dostarcza narzędzia do wpływania na jego pracę, a także do trwałej przebudowy. Tu mamy całą sferę tzw. human
enhancement: polepszania cech człowieka potrzebnych do wykonywania pracy (albo grania na komputerze). U żołnierza chodzi o odporność na
stres, u chirurga o wyższy poziom koncentracji w czasie wielogodzinnej operacji itp. Pozornie same plusy, ale na poziomie społecznym
może to mieć nieplanowane konsekwencje, których dziś nie jesteśmy w stanie przewidzieć.

Profesor Zybertowicz - Ongiś nie istniała żadna rzeczywistość wirtualna. WH>Ale istniała baśniowa rzeczywistość, także rzeczywistość legend, które
tłumaczyły zjawiska, istniała religia, istniały prareligie.) Owszem, już Platon mówił o samoistnym świecie idei, ale to nie wychodziło
poza dyskurs filozoficzny czy literacki. Dziś rzeczywistość wirtualna nie tylko jest odrębną rzeczywistością, ale wprost pożera (czy
zasysa) tę tradycyjną. Ludzie chodzący po górach z kamerami Google'a, by zdigitalizować wszystko, co widzialne, przyczyniają się do
zamiany świata realnego w wirtualny. Stworzyliśmy świat wirtualny, a więc w pewnym sensie pomnożyliśmy rzeczywistość. Ale jaką mamy
gwarancję,że jakaś oparta na SI technologia nie odkryje lub nie stworzy kolejnej warstwy rzeczywistości, której w ogóle nie będziemy w 
stanie sobie wyobrazić? Jak wobec niej będzie się sytuować ludzki umysł, ludzka dusza?
WH Nie zamieniamy świata rzeczywistego w wirtualny przy pomocy okularów Googla. Dokonujemy odwzorowania, sztucznej projekcji mniej lub
bardziej udanej. Nie wiadomo co odkryją SI czy NUM-A jeżeli już zaczną badać i odkrywać zjawiska i obiekty a nawet inne SI. Naszą
granicę stanowi 20 procentowy poziom wykorzystania mózgu. Szansą dla ludzi jest wykorzystanie mózgu w dużo większym procencie, odejście
od wysługiwania się niewolnikami SI, a większym treningiem, który doprowadzi do przebicia nowej granicy fazowej. Zawsze człowiek
osiągał nowe cele pracą, inteligencją, sprytem, Nie wiemy co tam będzie. Co tam zastaniemy. Musimy wcześniej zaczynać naukę, wcześniej
zapoznawać się z narzędziami prostymi takimi jak choćby nauka języków, dbanie o zdrowie, sprawność fizyczna.języków. To nie oznacza
wcale rezygnacji z dzieciństwa, młodości, dojrzewania. Nie możemy tracić zdolnych tak jak to ma miejsce w tej chwili, od setek lat. To
jest rezerwa większa niż się spodziewamy. Likwidacja analfabetyzmu uratowała socjalizm i była formą nacisku na społeczeństwa
kapitalistyczne.

To ma też konsekwencje filozoficzne. Arystoteles mówił, że prawda to zgodność myśli z rzeczywistością. Pytanie z którą – tą realną czy
wirtualną?

Profesor Zybertowicz - Właśnie. Formuła Arystotelesa sprawdza się chyba wyłącznie w odniesieniu do kontekstów, które zostały społecznie
skonwencjonalizowane (wystandaryzowane) – praktycznie i językowo. Nie obejmuje sytuacji, które nie zostały jeszcze opisane ani
językowo, ani praktycznie oswojone. Na tych polach działają inne formy prawdziwości, choć wielu filozofów nie chce tego przyjąć do
wiadomości. Pisałem zresztą o tym ponad 20 lat temu w książce „Przemoc i poznanie".

Ale jak narysować granicę miedzy tym, co wirtualne, a tym, co realne? Jeśli polityk obraża innego na Twitterze, inny się do tego
odnosi, tysiące kolejnych osób – wyborców – podaje to dalej. To jeszcze świat wirtualny czy już realna polityka? Jeśli Trump na swym
profilu na Twitterze komentuje najważniejsze wydarzenia międzynarodowe, to już nie jest tylko wirtualna rzeczywistość?

Profesor Zybertowicz - Jeśli tysiąc osób obrazi pana w internecie, to czuje się pan mniej upokorzony niż gdy dostanie pan kopniaka od chuligana w parku?
Jeśli coś wywołuje reakcje emocjonalne, jest realne, bez względu na to, gdzie się zdarza. To prawda emocji decyduje o tym, czy coś jest
faktyczne.
WH Tak. Ale jakie ma znaczenie prawda emocji? Czy można wiązać emocje z doskonaleniem się? Czy doszliśmy do granicy poznania,
rozwoju, poza którą nie sięgniemy, bo nie będziemy wiedzieli po co sięgać.

Nie ma polityki bez emocji, ale nie ma też polityki bez informacji. A cała sfera informacji przeniosła się do sieci. Gdy Rosjanie
wchodzą ze swoją dezinformacją do sieci, konsekwencje znów są całkiem realne.
WH to bardzo wygodna dla wszystkich sytuacja. Polityka stała się przepychanką osób nieznanych, jest bezkarnością, jest poza prawem
społecznym; tu grasują wszelkiej maści robale polityczne i treści niszczące przeciwnika.

Profesor Zybertowicz - Oczywiście. I dlatego wielu wojskowych planistów ma w swoich strategiach dotyczących konfliktów pełnowymiarowych jako jeden z 
pierwszych celów likwidację rzeczywistości wirtualnej. Przecięcie światłowodów na dnie mórz i oceanów, uderzenie w największe
serwerownie, główne węzły sieci oraz klasyczne uderzenie w elektrownie. Pierwszym dostrzeżonym ciosem nowej wojny może być zniknięcie
wirtualu.
WH .... dodajmy zestrzelenie satelitów; wtedy trzeba będzie wyrzucić w przestrzeń drony "łatające, podwiązujące" sieć.

Czyli tylko wojna jest w stanie zrealizować pański postulat moratorium na rozwój sieciowych technologii...

Profesor Zybertowicz - Oby nie. Chyba że któraś ze stron do tego czasu wykorzysta SI, by wymyśliła inny niż cyfrowy model własnego przetrwania. Może ona
odkryje nowe prawa fizyki, które pozwolą jej istnieć bez względu na nas.
WH Na przykład nieskończone układy poligonów znaczeniowych, które wg rozwiniętej algebry Boole'a będą operowały na wieloznaczeniowych
obiektach. Zero i jedynka będą jak macierze wielowymiarowe. Będzie myślał nasz następca w ten sposób jak my myślimy.

Poza znanym nam dzisiaj przepływem elektronów w półprzewodnikach, na których oparta jest dzisiejsza technologia?
WH Sterowanie półprzewodnikami tworzy, umożliwia sytuacje zero-jedynkowe. Pozostaje problem łączności. Powiedzmy, że powstanie sieć biologiczna, dostępna w ziemi, w wodzie i w powietrzu.

Dokładnie tak. Sztuczna inteligencja być może wymyśli sobie inny sposób funkcjonowania i w ogóle nam o tym nie powie. Wtedy atak na
rzeczywistość wirtualną nie przyniesie zamierzonego rezultatu. Dlatego cyfrowy wyścig zbrojeń to nie tylko przenośnia.
>>> Jeżeli tzw. SI, da się wmontować w wyścig zbrojeń, to nie będzie to miało żadnego sensu, jak to już raz stwierdziła Annie,
nieodrodna córka taty Lema. ja wierzę, że przyszły "surowy wychowawca" czyli kolejne stadium rozwoju człowieka czyli NUM będzie wystarczającym wyzwaniem, żeby się do NUM-a zbliżyć. I jestem przekonany, żę NUM zadba o Ziemię, nawet kosztem ludzi.
©?

—rozmawiał Michał Szułdrzyński, "komentarz-wcinki" - Wojciech Hawryszuk

Prof. Andrzej Zybertowicz jest socjologiem, doradcą prezydenta Andrzeja Dudy. W 2015 roku wraz z zespołem wydał książkę „Samobójstwo
Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat"