Rozwój SI odbywał się przez lata bez udziału rozważań etycznych. Napędzały go ciekawość, wynalazczość i chęć zysku. Teraz wiemy, że nie da się do końca oddzielić ekonomii od etyki - mówi Ajay Agrawal ekonomista z Uniwersytetu w Toronto
W książce „Pianola” Kurt Vonnegut roztacza smutną wizję: przyszłość to świat maszyn będących w stanie przewidywać zachowania ludzi. Naprawdę jesteśmy aż tacy nieskomplikowani? Tak łatwo nas rozgryźć?
To zagadnienie stanowi rdzeń zagadnień związanych ze sztuczną inteligencją (SI). Jesteśmy bardziej przewidywalni, niż nam się wydaje. Wyjątkowość maszyn wynika nie z ich technologicznego zaawansowania, a z tego, że człowiek po prostu nie jest aż tak unikalny.
Rozczarowujące.
Ostatnie lata rozwoju SI to właśnie rozwój komputerowych technik prognozowania naszych zachowań. Te techniki radykalnie obniżają koszty wytwarzania dóbr i usług w całej gospodarce. Gdy mówię o tym nieekonomistom, to są oni zawiedzeni, że SI nie idzie w kierunku wytyczonym przez scenarzystów „Star Treka” czy „Westworld”, ale ów spadek kosztów prognozowania ma równie wielkie znaczenie dla gospodarki, co fantazyjne wynalazki z tych seriali. Dzięki niemu zakres czynności, które mogą potencjalnie wykonywać automaty, nieustannie się rozszerza i zaczyna wykraczać poza rutynowe i powtarzalne zadania. SI może skutecznie zajmować się pracami, które dotąd były zarezerwowane dla specjalistów. Wystarczy dostarczyć jej odpowiednie dane.
Czy nie istnieje jednak jakaś nieprzekraczalna dla maszyn granica? Życie jest skomplikowane. Łatwo maszynie rozdysponować towar w centrum logistycznym, trudniej wydać wyrok w sądzie?
Maszyn – sędziów jeszcze nie ma, ale skąd wiemy, że ich nie będzie? W USA już wprowadzono pilotażowe programy, w ramach których SI realizuje niektóre kompetencje sędziów. Chodzi np. o decydowanie, czy aresztant może wyjść za kaucją. Głównym kryterium jest tu ocena, czy po zwolnieniu taka osoba stawi się na przesłuchanie bądź na rozprawę, czy może ucieknie. Jeśli istnieje szansa, że zniknie, nie orzeka się kaucji i podtrzymuje postanowienie o areszcie.

I skąd komputer ma to wiedzieć?
W badaniach nad rozwojem SI doszło w ostatniej dekadzie do przełomu: uznano, że maszyny nie powinny bazować na tworzonych przez człowieka algorytmach, tylko uczyć się zachowywać jak ludzie. W USA o kaucji sądy rozstrzygają dziesiątki tysięcy razy rocznie, istnieje więc ogromna baza danych do nauki dla maszyn. Mogą one prześledzić, jakie decyzje, w jakich warunkach i z jakim rezultatem podejmowali sędziowe, a potem próbować ich naśladować. Inżynierowie poszli dalej – zamiast kopiować ludzkie rozstrzygnięcia, kazali maszynom szacować szanse na to, że aresztant po wpłaceniu kaucji zwieje, i podejmować decyzje na tej podstawie. Okazuje się, że maszyny bywają skuteczniejsze niż sędziowie. Ich decyzje nie są obciążone uprzedzeniami, np. rasowymi. Znacznie częściej niż ludzie zasądzają kaucje Latynosom czy czarnoskórym.
I dane historyczne im wystarczą? Gdy ludzie biorą się do przewidywania zachowań innych, to oprócz kwantyfikowalnych danych, biorą pod uwagę np. emocje, ukryte motywy, a tego maszyny nie potrafią, bo nie mają zdolności do empatii.
Mówiąc kolokwialnie, na samych danych historycznych maszyny mogą naprawdę daleko zajechać. Skoro o jeździe mowa, świetnym przykładem są autonomiczne pojazdy. Właściwie od ponad trzech dekad stosowano takie auta w przemyśle – jeździły w fabrykach, magazynach i były programowane algorytmicznie. Ponieważ wiadomo było z góry, co konkretnie mają robić i jakie będą ich trasy, można było zapisywać im proste instrukcje: „Jeśli widzisz człowieka, to zatrzymaj się”, „Jeśli półka jest pusta, to jedź do kolejnej” itd. Środowisko ich działania było zamknięte, więc liczba koniecznych „Jeśli X, to Y” była ograniczona. Eksperci jeszcze 5–6 lat temu twierdzili, że przyczyną, dla której autonomiczne pojazdy nigdy nie wyjadą na ulice, jest to, że jazda w niekontrolowanych warunkach oznaczałaby konieczność zaprogramowania w maszynie nieskończonej liczby zachowań. A jednak, gdy na zagadnienie SI spojrzano nie jak na problem programowania, tylko predykcji, uczenia się i doboru właściwych danych, to ograniczenie zniknęło.
Brzmi to dość niejasno. Co to oznacza w praktyce?
Pozwolono maszynom się uczyć. „Posadzono” SI niejako obok doświadczonych zawodowych kierowców testowych, na siedzeniu pasażera. Ci prowadzili różne pojazdy w najróżniejszych warunkach, a SI zapisywała ich reakcje na dane zdarzenia, próbując jednocześnie przewidywać kolejne ruchy. Zgodzi się pan, że 40-latek to zazwyczaj lepszy kierowca niż 18-latek, prawda?
Owszem.
A dlaczego?
Bo ma doświadczenie.
Dokładnie. Ma doświadczenie pozwalające mu odróżniać to, co istotne, od tego, co nieistotne na drodze. Ma za sobą także więcej nietypowych zdarzeń niż 18-latek, wie, jak reagować, a jego mózg zautomatyzował wiele ważnych czynności, takich jak zmiana biegów. Niech pan sobie teraz wyobrazi, że autonomiczny samochód to kierowca liczący 1000 lat albo kierowca, który przejechał 1 mln km po różnych nawierzchniach, w różnych warunkach, z różną prędkością, różnymi pojazdami. Testy takich aut w warunkach niekontrolowanych trwają już od dawna i SI osiąga tu znacznie lepsze wyniki, jeśli chodzi np. o zmniejszenie liczby wypadków, niż ludzie kierowcy. Jeśli 40-latek ma za sobą jedną nocną jazdę górską ścieżką we mgle, to kierowca – maszyna odbył taką jazdę wielokrotnie przy różnych zmiennych. A to mgła, a to deszcz, a to nowiutka nawierzchnia, a to dziurawy asfalt. Ma więc zdolność bardziej adekwatnego reagowania niż zwykły człowiek. Analogiczne mechanizmy uczenia się znajdują zastosowanie w innych dziedzinach, np. w tłumaczeniach. W ciągu kilku lat komputerowy tłumacz na bazie SI będzie robił przekłady porównywalne do przyzwoitego tłumacza człowieka.

Dlaczego to tysiącletnie doświadczenie SI nie uchroniło rowerzystki przed śmiertelnym potrąceniem przez jeden z autonomicznych pojazdów testowych Ubera?
Z dostępnych informacji wynika, że do tego wypadku wyszło z winy obsługi, która ustawiła parametry auta tak, że pozostały nieczułe na obecność rowerzystki. To znaczy, że „zmysły” sztucznej inteligencji na nią nie zareagowały, choć zapewne ją wykryły. Wina SI polega na tym, że egzekwowała zaprogramowane przez człowieka parametry. Dotykamy tu ważnego zagadnienia: kwestii subiektywnej oceny, co w danej sytuacji należy zrobić, a nie tylko, co można robić.
Właśnie. Załóżmy, że ulicą biegnie człowiek z karabinem i strzela do przechodniów. Kierowca człowiek nie będzie się wahał przed potrąceniem terrorysty, z kolei pojazd autonomiczny zareaguje tak, jak go zaprogramowano i być może „ocali” zbrodniarza.
Maszyny tylko przewidują. Jednak sama prognoza nie jest decyzją. Żeby ją podjąć, potrzeba zarówno prognozy, jak i subiektywnego osądu. To drugie jest domeną człowieka. Pozostańmy przy przykładach samochodów. Sterująca autem SI może oszacować prawdopodobieństwo, że hamując na czerwonym świetle przed skrzyżowaniem wpadnie w poślizg, i zestawić je z prawdopodobieństwem, że – przyspieszając – zdąży przejechać przed zmianą światła. Ale to tylko człowiek może osądzić, który z tych wariantów będzie lepszy. Wróćmy teraz do czysto ekonomicznej perspektywy. W ekonomii mówi się o dobrach komplementarnych, które są konsumowane jednocześnie, np. smarfton i aplikacje albo – bardziej tradycyjnie – chleb i masło. Jeśli cena chleba spada, cena dobra komplementarnego, w tym przypadku masła, zazwyczaj rośnie. Przewidywanie to chleb, a SI to technologia, dzięki której jego cena maleje. Subiektywny ludzki osąd i decyzja to masło, którego cena rośnie.
Osądzajcie, żeby lepiej zarabiać?
(śmiech) Tak. Osoby zdolne do podejmowania decyzji na bazie dostarczonych przez SI prognoz będą coraz cenniejsze na rynku.
Nie obawia się pan, że SI w końcu przejmie także i tę dziedzinę, zacznie – niczym ludzie – mieć swoje opinie i będzie dążyć do rozstrzygnięć?
Niektórym wydaje się, że już tak jest, ale ulegają oni dwóm złudzeniom. Po pierwsze, maszyny mogą nas naśladować na podstawie odpowiedniej liczby danych historycznych o naszych osądach. Wydaje nam się wówczas, że maszyny podejmują decyzje, gdy tak naprawdę tylko nas imitują. Z tym właśnie mamy do czynienia w przypadku aut autonomicznych. SI przewiduje decyzje ludzkiego kierowcy. Jednak bez danych historycznych nie byłaby w stanie tego zrobić. Po drugie, maszyny mogą uczestniczyć w procesie o nazwie „uczenie się ze wzmocnieniem” (reinforcement learning – red.). Człowiek określa cel, który mają osiągnąć, i pozostawia im dobór narzędzi oraz metod. Maszyny kojarzą ze sobą narzędzia i metody, i – badając korelacje – sprawdzają, która z kombinacji najbardziej zbliża je do celu. W pewnym sensie jest to nauka za pomocą prób i błędów, którą można łatwo pomylić ze świadomym dążeniem do założonego wyniku.
A więc nie ma zagrożenia, że to maszyny, a nie człowiek, będą wyznaczać cele w gospodarce, polityce, życiu społecznym?
Nie ma żadnych dowodów, że możemy stworzyć maszyny, które mają zdolność odczuwania, a to ona jest podstawą wartościowania i określania celu działań.
Jeśli jednak się uda...
To, czy te „ludzkie maszyny” będą podejmowały lepsze od nas decyzje? Owszem, będą miały znacznie mniej zaburzeń poznawczych od nas i będą formułować swoje sądy w oparciu o lepsze dane. Człowiek jest zapominalski, wolniej i mniej efektywnie się uczy, jego myślenie podlega różnym wpływom i wypaczeniom. Natomiast jeśli osąd z samej swojej natury jest subiektywny, a więc w pewnym sensie ułomny, to możliwe, że w suwerennym podejmowaniu decyzji maszyny byłyby równie ułomne co ludzie. Obecnie to jednak czyste SF. Istnieje natomiast innego typu zagrożenie – że SI do realizacji celów wytyczonych przez człowieka użyją szkodliwych dla nas metod. Załóżmy, że maszyny dostają taki cel: przeciwdziałać zmianom klimatycznym. Mogą dojść do wniosku, że najlepszym sposobem na jego realizację jest pozbycie się gatunku ludzkiego.

Czy to znaczy, że należy wprogramować maszynom przykazanie „Nie zabijaj”? Że trzeba stworzyć dla nich kodeks moralny?
Tak. Rozwój SI odbywał się przez lata bez udziału rozważań etycznych. Napędzały go ciekawość, wynalazczość i chęć zysku. Teraz wiemy, że nie da się do końca oddzielić ekonomii od etyki. Na Uniwersytecie w Toronto mamy specjalny program badawczy poświęcony ekonomii w dobie SI – uczestniczą w nim właśnie filozofowie i etycy.
Google pochwaliło się niedawno aplikacją, która może za nas wykonywać połączenia telefoniczne. Tak perfekcyjnie udaje naturalny sposób mówienia człowieka, że rozmówca może nie zorientować się, że rozmawia z komputerem. Czy to nie jest o krok za daleko? Czy to dobrze, że w innowacje już na dzień dobry wpisuje się pewnego rodzaju oszustwo?
Oszustwo jest złe, ale z ekonomicznej perspektywy nie widzę tu problemu. Także moralnego.
Nie?
Spójrzmy na to, jak na wynalezienie e-maila. E-mail uczynił tradycyjne listy zbędnymi, obniżając radykalnie koszty wysyłania wiadomości. Skoro coś kosztuje mało albo wcale, pojawia się nadpodaż. W przypadku e-maili był to spam, niechciane wiadomości rozsyłane przez program komputerowy do tysięcy adresatów. Wymyślono sposoby na ich filtrowanie. Opracowały je te same firmy, które jednocześnie zapewniały serwery i konta e-mailowe. Było to w ich interesie. Inaczej ludzie przestaliby w ogóle korzystać z poczty elektronicznej, nie będąc w stanie odróżnić ważnej wiadomości od śmieci. Podobnie będzie, jeśli rozwiną się robo-rozmowy telefoniczne. Wynalazek Google’a obniży jeszcze bardziej ich koszt. Już są supertanie, a dzięki niemu nie będzie trzeba wydawać na nie nie tylko pieniędzy, lecz także i tracić czasu. W związku z tym powstanie nadpodaż. Jeśli nikt z tym nic nie zrobi, nierównowaga ta spowoduje, że ludzie przestaną odbierać telefony, bo będą ich otrzymywać po prostu zbyt wiele. Trzeba więc będzie wprowadzić mechanizm identyfikacji i selekcji, by na robo-dzwoniącego mógł odpowiadać robo-odbieracz rozmów, a nie człowiek. Może zresztą zostaną też wprowadzone rozwiązania prawne analogiczne do tych dotyczących e-maila. W wielu krajach zakazane jest np. wysyłanie wiadomości do osób, które wcześniej nie wyraziły na to zgody. Może ktoś zakaże robotelefonów do osób, którego tego nie chcą?
Przekonuje pan, że biznes będzie coraz bardziej korzystał z rozwoju SI. Czy nie istnieje jednak zagrożenie, że skoncentruje się na SI zbyt mocno, a przez to skupi się na opieraniu swoich decyzji o dane z przeszłości i w rezultacie przestanie być kreatywny i innowacyjny?
Nie mam takich obaw. SI to narzędzie, jak każde inne. Ono wyzwoli naszą kreatywność. Nie zdusi jej. Przykład historyczny z innej trochę parafii: wynalazienie arkusza kalkulacyjnego. Zanim do tego doszło, księgowi musieli posiadać dwie podstawowe umiejętności: szybkiego pisania oraz szybkiego dodawania. Innym zadaniem, które na uczelniach otrzymywali do wykonania adepci księgowości, było przepisywanie i dodawanie numerów z kartki wydartej z książki telefonicznej. Trzecią istotną umiejętnością było zadawanie trafnych pytań, w oparciu o które przeprowadzano symulacje księgowe – np. co byłoby, gdyby przychód firmy X w IV kw. spadł o 5 proc. Żeby na takie pytanie odpowiedzieć, trzeba było ręcznie przepisać i przeliczyć długie kolumny danych, a to zajmowało mnóstwo czasu. Wynalezienie arkusza kalulacyjnego sprawiło, że dwie pierwsze umiejętności stały się zbędne i wyzwoliło kolejne pytania. Oto teraz można zadawać ich więcej, a arkusz sam przeprowadza odpowiednie symulacje. Szansa, że nie zadamy właściwego pytania, zmalała. Księgowi mogą zatem wykorzystać uzyskany w ten sposób czas na bardziej kreatywne zajęcia. SI, dając nam lepsze narzędzia predykcji, działa podobnie. Jedna z firm założonych w Toronto, Atomwise, opracowała na bazie SI program pozwalający przewidywać, co wyniknie z danych połączeń białkowych. Dzięki temu w laboratorium nie wykonuje się niepotrzebnych testów, a tylko te konieczne. Spada koszt poszukiwania nowych leków, dla którego takie testy są fundamentalne. W marketingu z kolei SI może dopasowywać rodzaje designu reklam do konkretnych nisz rynkowych, żeby nie strzelać reklamami na ślepo.
To wszystko sektor prywatny. A czy sektor publiczny, np. polityka gospodarcza, może jakoś skorzystać na rozwoju SI i spadku kosztu prognozowania? W końcu politycy powinni dbać o to, by potencjalne skutki ich pomysłów były znane.
W tej kwestii ograniczeniem są dane. Rząd zajmuje się często reagowaniem na sytuacje, które nigdy wcześniej nie miały miejsca. W tym kontekście tworzy też scenariusze. Załóżmy, że w kraju X chcemy wprowadzić obowiązkowe opłaty za korzystanie z plastikowych torebek, żeby ograniczyć zanieczyszczenie środowiska. Wiemy, że w kraju Y to zadziałało. Ale to nie wystarczy maszynie, by potwierdzić, że rozwiązanie skuteczne w Y zadziała u nas w X. Kraj X to inne uwarunkowania społeczne, kulturowe, ekonomiczne itd. niż Y. Nie wiadomo, jakie taka polityka przyniesie rezultaty.
A czy polityka pieniężna nie wydaje się być idealnym przykładem dziedziny, która mogłaby być zarządzana przez SI. Mamy w niej do czynienia z zagadnieniami takimi jak dostosowania stóp procentowych do potrzeb rynku.
Jest. I banki centralne coraz częściej odwołują się do cyfrowych prognoz, ale nigdy nie oddadzą całkowicie pola maszynom. Zawsze ostateczną decyzję będzie podejmował człowiek. Tutaj istotne są pozamerytoryczne czynniki – polityka, władza, ale nie tylko. Ważnym powodem jest to, że jako całość dzisiejsza gospodarka nie ma nic wspólnego z wczorajszą. Gospodarka to organizm dynamiczny, a nie statyczny, a to znacznie ogranicza przydatność danych historycznych do podejmowania decyzji dotyczących przyszłości.
Mówiąc o SI, robotyzacji, automatach odwołuje się pan do pojęć i praw tej tradycyjnej, ortodoksyjnej ekonomii. Wielu jednak wierzy, że zmiany technologiczne zmieniają także prawa ekonomii.
Fakt. Nowa ekonomia. To pojęcie, które utarło się pod koniec lat 90., gdy rosła bańka dotcomowa (bąbel spekulacyjny na rynku firm z branży informatycznej; do załamania się tego rynku doszło w 2001 r. – red.). Internet miał zmienić wszystko. Tak mówili ci, którzy nie byli ekonomistami. Nie ma żadnej nowej ekonomii czy nowej gospodarki. Wszystko, co zapisano w podręcznikach o podaży i popycie, cenach i kosztach, produkcji i konsumpcji, pozostaje w mocy. Nie trzeba zmieniać nawet litery. Ekonomiści na nowe technologie patrzą przez pryzmat zmiany, którą te ze sobą niosą: ograniczenia kosztów. Internet ograniczył koszt dystrybucji dóbr i usług, wyszukiwania, komunikacji. Spadły zatem ceny. W ekonomicznych modelach nic się jednak nie zmienia. Ja wiem, że to, co mówię, odbiera pewną magię tej dramatycznej narracji o nowych technologiach jako przyczynie rewolucji w teorii ekonomii, ale nic na to nie poradzę. Za każdym razem, gdy pojawia się innowacja, ekonomiści zadają pytanie, jakie koszty ona obniża, a nie jakie prawa zmienia. Weźmy półprzewodniki. Gdy się upowszechniły, doszło do rewolucji cenowej. Gospodarka zaczęła wszystko konwertować na zagadnienia arytmetyczne. Wynaleziono aparat cyfrowy i fotografia, zagadnienie z dziedziny chemii, nagle stała się zagadnieniem arytmetycznym. W tym świetle rozwój SI oznacza rewolucję, w ramach której wszystko przekładane jest na problem predykcji.
Zatem te optymistyczne prognozy, że dzięki nowym technologiom nastanie era, w której wszystkiego będzie pod dostatkiem, a więc skończy się problem ograniczonych zasobów, także są przesadzone?
Zdecydowanie. Owszem, dzięki internetowi, SI i innym wynalazkom niektóre rzeczy staną się bardzo tanie i powszechnie dostępne. Ale wówczas zaczniemy odczuwać brak innych dóbr. Kiedyś powszechny był niedobór żywności, dzisiaj – przynajmniej na Zachodzie – nie ma z tym problemu. 2 proc. naszej populacji wytwarza więcej żywności niż 47 proc. sto lat temu. Dziś ludzie walczą o inne zasoby. Jeśli dobra materialne ze względu na ich zamożność nie stanowią dla nich problemu, walczą o władzę, miłość, autorytet. To dziedziny, w których zawsze odczuwalne będą deficyty.