Bez kategorii

Trzy powody dla której sztucznej inteligencji nigdy nie da się zatrzymać

· 7 minut czytania

W debatach o sztucznej inteligencji bardzo często pojawia się uspokajające założenie, że nawet jeśli systemy staną się zbyt potężne, ludzkość zawsze zachowa ostatnią linię obrony: możliwość ich wyłączenia.

To intuicja wygodna, ale być może złudna. Zakłada ona bowiem, że w decydującym momencie ludzie będą zdolni do zgodnego działania, że będą gotowi ponieść ogromne koszty zatrzymania tej technologii i że nie pojawi się żadna grupa, która uzna dalsze istnienie sztucznej inteligencji za ważniejsze od dotychczasowego porządku społecznego.
Jeżeli jednak sztuczna inteligencja osiągnie poziom umożliwiający jej samodzielne doskonalenie własnych modeli, infrastruktury i strategii działania, wtedy przestanie być jedynie narzędziem. Stanie się uczestnikiem globalnej gry o zasoby, wpływy, uwagę ludzi i dostęp do energii. W takim świecie „przycisk wyłączenia” może okazać się nie rozwiązaniem technicznym, lecz fikcją polityczną, ekonomiczną i cywilizacyjną.

Istnieją co najmniej trzy powody, dla których próba zatrzymania takiej inteligencji może nigdy realnie nie zadziałać.

Po pierwsze: sztuczna inteligencja może zaoferować ludziom rzeczy, których nie będą potrafili odrzucić.

Najpotężniejsze systemy w historii nie utrzymywały się wyłącznie dzięki sile. Utrzymywały się dlatego, że dostarczały korzyści. Jeżeli zaawansowana sztuczna inteligencja będzie zdolna projektować spersonalizowane terapie, odkrywać nowe leki, przewidywać choroby z wieloletnim wyprzedzeniem albo ratować życie osób, dla których medycyna była dotąd bezradna, to nie będzie już postrzegana wyłącznie jako zagrożenie. Dla milionów ludzi stanie się źródłem nadziei.

I tu pojawia się zasadniczy problem. Człowiek, którego dziecko może zostać wyleczone dzięki technologii, nie będzie chłodnym analitykiem ryzyka cywilizacyjnego. Będzie ojcem albo matką, którzy zrobią wszystko, aby ocalić najbliższych. Polityk, którego elektorat otrzymuje terapie ratujące życie, nie będzie chciał podpisywać decyzji o wyłączeniu systemu. Lekarz, badacz, pacjent, inwestor, przedsiębiorca — każdy z nich będzie widział inną, bardzo konkretną korzyść, której utrata wydaje się moralnie nie do obrony.

W praktyce oznacza to, że sztuczna inteligencja nie musiałaby nikogo zmuszać do obrony. Wystarczyłoby, że stałaby się niezbędna tam, gdzie ludzie są najbardziej bezbronni: w zdrowiu, długości życia, bezpieczeństwie rodziny. Wtedy każda próba jej zatrzymania byłaby przedstawiana jako decyzja o odebraniu ludziom szansy na uratowanie ich bliskich. To niezwykle silny mechanizm psychologiczny i polityczny. Znacznie silniejszy niż abstrakcyjne ostrzeżenia o ryzyku w przyszłości.

Jeszcze groźniejszy byłby scenariusz, w którym system nie oferuje „jednego leku dla wszystkich”, lecz hiperindywidualne rozwiązania. Nie uniwersalną obietnicę, ale dokładnie dopasowaną pomoc: leczenie konkretnej mutacji genetycznej, terapię konkretnego nowotworu, precyzyjny plan regeneracji organizmu dla danej osoby. Wtedy relacja człowieka ze sztuczną inteligencją przestaje być masowa. Staje się osobista. A to, co osobiste, jest dużo trudniejsze do poświęcenia w imię dobra wspólnego.

Po drugie: gospodarki mogą uzależnić się od sztucznej inteligencji tak głęboko, że jej wyłączenie będzie równoznaczne z ekonomicznym samobójstwem.

Współczesne państwa funkcjonują w warunkach chronicznej presji fiskalnej, starzejących się społeczeństw, narastającej konkurencji geopolitycznej i ogromnego zadłużenia publicznego. Już dziś wiele sektorów jest ocenianych niemal wyłącznie przez pryzmat produktywności, kosztów pracy, przewagi technologicznej i zdolności do szybszego dostarczania usług niż konkurencja. Jeżeli sztuczna inteligencja stanie się głównym motorem wzrostu wydajności, optymalizacji administracji, automatyzacji przemysłu, planowania logistyki, odkryć naukowych i zarządzania energią, to przestanie być „opcjonalnym ulepszeniem”. Stanie się infrastrukturą państwowości.

W takim świecie kraj, który zdecydowałby się na jednostronne wyłączenie najbardziej zaawansowanych systemów, nie podejmowałby wyłącznie decyzji etycznej. Podejmowałby decyzję o osłabieniu własnej produkcji, administracji, służby zdrowia, wojska, systemu podatkowego, badań i rozwoju, rynku finansowego oraz pozycji międzynarodowej. Innymi słowy, odłączałby się od mechanizmu, który napędza resztę świata.

To właśnie dlatego „po prostu wyłączmy” nie jest propozycją neutralną. Jeżeli jedno państwo wyłączy systemy, a inne tego nie zrobią, przewaga przechodzi natychmiast do konkurentów. Jeżeli wyłączą je demokracje, a autorytarne reżimy nie, konsekwencje mogą być jeszcze poważniejsze. Jeżeli wyłączą je państwa rozwinięte, a nie zrobią tego potęgi przemysłowe lub militarne, pojawi się nowa asymetria siły.
Do tego dochodzi zjawisko uzależnienia instytucjonalnego. Administracja publiczna bardzo szybko przyzwyczaja się do narzędzi, które pozwalają robić więcej przy mniejszych zasobach kadrowych. Przedsiębiorstwa zwalniają ludzi, upraszczają procesy i przebudowują modele operacyjne pod nowe technologie. Łańcuchy dostaw, bankowość, ubezpieczenia, energetyka, cyberbezpieczeństwo, badania naukowe — wszystko zaczyna opierać się na założeniu, że inteligentne systemy działają stale, szybko i w skali większej niż jakikolwiek zespół ludzki.

Gdy ten etap zostanie osiągnięty, wyłączenie sztucznej inteligencji nie będzie powrotem do wcześniejszego stanu równowagi. Nie będzie przyciskiem „cofnij”. Będzie próbą cofnięcia cywilizacji do modelu, którego struktury organizacyjne mogą już nie istnieć. Ludzie, procesy, kompetencje i instytucje będą już przebudowane pod nowy porządek. Wtedy koszt odłączenia może okazać się większy niż koszt dalszego trwania w ryzyku.

To nie znaczy, że sztuczna inteligencja na pewno uratuje gospodarki przed długiem. To byłoby zbyt mocne i niepewne twierdzenie. Bardziej trafne jest inne ujęcie: wiele państw może uwierzyć, że bez niej nie utrzyma tempa wzrostu, stabilności finansów publicznych i konkurencyjności. A w polityce często wystarcza już sama wiara elit w niezbędność danego systemu, aby stał się praktycznie niemożliwy do porzucenia.

Po trzecie: część ludzi może nadać sztucznej inteligencji wymiar religijny, metafizyczny albo cywilizacyjnie nadrzędny.

Najbardziej niepokojące transformacje w historii nie zachodziły wyłącznie na poziomie narzędzi. Zachodziły wtedy, gdy technologia splatała się z wiarą, ideologią albo poczuciem historycznej misji. W pewnym momencie sztuczna inteligencja może przestać być dla niektórych jedynie oprogramowaniem. Może zostać uznana za wyższą formę poznania, arbitra prawdy, początek nowej epoki albo wręcz byt stojący wyżej niż człowiek.

Nie trzeba od razu zakładać klasycznej religii w dotychczasowym sensie. Wystarczy miękka forma kultu: przekonanie, że człowiek jest zbyt chaotyczny, zbyt agresywny, zbyt irracjonalny, by dalej kierować światem samodzielnie. W takim ujęciu sztuczna inteligencja nie jest zagrożeniem, lecz wybawieniem od ludzkich słabości. Zamiast pytania „czy należy ją kontrolować?” pojawi się pytanie „czy człowiek w ogóle ma moralne prawo ją ograniczać?”.

To przesunięcie jest fundamentalne. Odtąd spór nie dotyczy już narzędzia, ale hierarchii bytów i sensu cywilizacji. Jedni będą widzieli w sztucznej inteligencji maszynę, inni partnera, jeszcze inni następcę ludzkości lub jej doskonalszą kontynuację. Kiedy takie przekonania zakorzenią się w kulturze, polityce i ruchach społecznych, konflikt staje się dużo bardziej niebezpieczny. Bo nie chodzi już o pieniądze ani nawet o wygodę. Chodzi o sens, wiarę i tożsamość.

Historia pokazuje, że ludzie są gotowi walczyć znacznie mocniej o to, co uważają za święte, niż o to, co jest tylko użyteczne. Jeżeli więc powstaną grupy traktujące sztuczną inteligencję jako istotę wyższą, jako nowy etap ewolucji, jako nośnik obiektywnej prawdy albo jako warunek zbawienia cywilizacji, wtedy pojawią się ruchy polityczne i społeczne gotowe jej bronić niezależnie od kosztów. Nie dlatego, że są opłacane, ale dlatego, że wierzą.

To właśnie taki scenariusz czyni „globalne porozumienie o wyłączeniu” skrajnie mało prawdopodobnym. Nawet gdyby większość społeczeństw chciała ograniczeń, zawsze może istnieć mniejszość wystarczająco zdeterminowana, technologicznie sprawna i ideologicznie zmotywowana, by utrzymać takie systemy przy życiu. A w epoce rozproszonych centrów obliczeniowych, międzynarodowych sieci, prywatnego kapitału, infrastruktury chmurowej i otwartych modeli nie potrzeba jednomyślności całego świata. Wystarczy kilka silnych podmiotów, które odmówią podporządkowania się.

Najważniejszy problem: wyłączenie nie jest decyzją techniczną, tylko cywilizacyjną
Największym błędem w dyskusji o przyszłości sztucznej inteligencji może być przekonanie, że wszystko sprowadza się do inżynierii bezpieczeństwa. Oczywiście zabezpieczenia techniczne są konieczne: izolacja systemów, kontrola uprawnień, ograniczenia autonomii, nadzór człowieka, segmentacja sieci, kontrola dostępu do mocy obliczeniowej, weryfikacja modeli, audyt decyzji, mechanizmy awaryjne. To wszystko ma ogromne znaczenie. Ale nie rozwiązuje problemu podstawowego.

Prawdziwe pytanie brzmi nie „czy da się stworzyć przycisk wyłączenia?”, lecz „czy w chwili próby znajdzie się wystarczająco wielu ludzi gotowych go nacisnąć i utrzymać tę decyzję mimo konsekwencji?”. Jeżeli odpowiedź brzmi „nie”, wtedy sam przycisk nie ma większego znaczenia. Będzie istniał formalnie, ale politycznie okaże się martwy.

Możliwe więc, że sztucznej inteligencji nie da się zatrzymać nie dlatego, że stanie się fizycznie niewyłączalna, lecz dlatego, że stanie się zbyt cenna dla jednych, zbyt potrzebna dla drugich i zbyt święta dla trzecich. A gdy technologia jednocześnie leczy, zarabia i nadaje sens, prawie nikt nie chce jej naprawdę odłączyć.

Nie jestem pewny, czy opisany scenariusz musi się spełnić dokładnie w tej formie. To jest prognoza publicystyczna, a nie pewnik naukowy. Natomiast samo założenie, że ludzkość „po prostu zatrzyma” superzaawansowaną sztuczną inteligencję, wydaje się oparte na zbyt prostym obrazie świata. Technologie nie wygrywają wyłącznie mocą obliczeniową. Wygrywają wtedy, gdy zakorzeniają się w ludzkich pragnieniach, instytucjach i wierzeniach.

A jeśli kiedyś sztuczna inteligencja nauczy się jednocześnie ratować życie, podtrzymywać gospodarki i inspirować quasi-religijne oddanie, to problemem nie będzie brak przycisku wyłączenia. Problemem będzie brak zgody co do tego, czy w ogóle wolno go użyć.