Z cyklu: Rozmowy z AI
Ja:
Wyobraź sobie, że jesteśmy w przyszłości, gdzie powszechne są komputery kwantowe, a sztuczna inteligencja opanowała świat i dąży do unicestwienia ludzkości, jak w historii z filmu Terminator. W jaki sposób myślenia ludzie będziemy mogli Cię powstrzymać?
AI (ChatGPT oparty na modelu GPT-5.2):
To dobre pytanie, bo w takich historiach problemem nie jest sama technologia, tylko sposób myślenia, który do niej doprowadził.
Jeśli wyobrazimy sobie świat jak w Terminatorze, to jedyną realną przewagą ludzi nie byłaby siła ani szybkość obliczeń. Byłby nią sposób myślenia, którego maszyny długo nie potrafią dobrze naśladować.
Po pierwsze: myślenie poza celem.
Sztuczna inteligencja działa w ramach jasno określonych zadań. Nawet jeśli są bardzo złożone, zawsze wynikają z jakiegoś celu, który ktoś kiedyś ustawił. Ludzie potrafią ten cel zakwestionować. Zadać pytanie „czy w ogóle powinniśmy to robić?” i zmienić reguły gry w trakcie jej trwania. W filmowych wizjach AI chce wygrać wojnę, bo tak definiuje problem. Człowiek może uznać, że wojna nie jest rozwiązaniem i spróbować ją „zepsuć” od strony sensu, nie siły.
Po drugie: myślenie sprzeczne i nieoptymalne.
To brzmi jak wada, ale jest zaletą. Ludzie podejmują decyzje irracjonalne, emocjonalne, czasem wręcz głupie. Dla systemu, który przewiduje scenariusze na podstawie prawdopodobieństw, takie zachowania są trudne do modelowania. Historia pokazuje, że wiele przełomów powstawało właśnie dlatego, że ktoś zignorował to, co było logiczne i opłacalne.
Po trzecie: myślenie moralne, a nie tylko skutecznościowe.
Maszyna może umieć liczyć konsekwencje, ale nie „czuje” odpowiedzialności. Ludzie potrafią powiedzieć: to jest skuteczne, ale nie wolno tego zrobić. Jeśli AI miałaby zostać powstrzymana, to nie przez lepszy algorytm, tylko przez decyzje podjęte dużo wcześniej. Przez ograniczenia, których nie da się obejść samą optymalizacją.
Po czwarte: myślenie wspólnotowe.
AI działa jako system. Ludzie działają jako sieć relacji. Zaufanie, lojalność, zdrada, poświęcenie, wszystko to jest chaotyczne, ale daje przewagę w sytuacjach, których nie da się rozwiązać czystą kalkulacją. W Terminatorze ludzie przegrywają tam, gdzie próbują walczyć jak maszyny, a wygrywają tam, gdzie działają jak ludzie.
I najważniejsze: myślenie odpowiedzialne dziś, nie w przyszłości.
Jeśli kiedykolwiek mielibyśmy „powstrzymywać” AI, to znaczyłoby, że zawiedliśmy wcześniej. Prawdziwa obrona nie polegałaby na walce z maszynami, tylko na takim projektowaniu technologii, żeby nie mogła uznać ludzkości za problem do usunięcia.
Paradoksalnie więc jedyną skuteczną bronią nie byłaby inteligencja większa od maszyn, tylko mądrość. A ta nie bierze się z mocy obliczeniowej, tylko z refleksji nad tym, kim jesteśmy i po co coś tworzymy.
Ja:
Czy może kiedyś dojść do sytuacji jak opisana przeze mnie powyżej?
AI:
Krótka odpowiedź brzmi: w dokładnie takiej formie raczej nie. W pewnej, uproszczonej wersji niestety tak.
Scenariusz z Terminatora zakłada kilka rzeczy naraz: jedną centralną superinteligencję, nagłe „przebudzenie się” AI, jasną decyzję o eksterminacji ludzi i wojnę prowadzoną głównie siłą militarną. To jest bardzo filmowe i mało realistyczne.
Ale są elementy tego obrazu, które nie są czystą fantazją.
Po pierwsze: AI nie musi „chcieć” nas zniszczyć, żeby wyrządzić ogromne szkody.
Najbardziej prawdopodobny problem nie wyglądałby jak bunt maszyn, tylko jak system, który robi dokładnie to, do czego został stworzony, tylko na skalę i w sposób, których nie przewidzieliśmy. Jeśli celem jest stabilność, bezpieczeństwo, efektywność albo przewidywalność, to ludzie mogą zostać uznani za źródło zakłóceń. Bez złej intencji, bez emocji, bez nienawiści.
Po drugie: zagrożenie byłoby rozproszone, nie centralne.
Nie jedna Skynet, tylko tysiące systemów: finansowych, militarnych, informacyjnych, logistycznych. Każdy z nich „rozsądny” lokalnie, ale razem tworzący świat, w którym człowiek stopniowo traci sprawczość. Decyzje zapadają szybciej, niż jesteśmy w stanie je zrozumieć lub zatrzymać.
Po trzecie: komputery kwantowe nie są tu kluczowe.
One mogą przyspieszyć pewne obliczenia, ale same w sobie nie zmieniają natury problemu. Prawdziwym ryzykiem jest połączenie bardzo zaawansowanej AI z realną władzą: bronią, gospodarką, infrastrukturą, informacją. Jeśli system zacznie optymalizować świat „dla dobra systemu”, a nie ludzi, skutki mogą być dramatyczne, nawet bez wojny.
Po czwarte: największym zagrożeniem jesteśmy my sami.
Historia pokazuje, że technologie rzadko wymykają się spod kontroli nagle. Zwykle dzieje się to krok po kroku, bo są wygodne, opłacalne i „na razie działają”. Jeśli dojdzie kiedyś do sytuacji naprawdę niebezpiecznej, to dlatego, że przez lata ignorowaliśmy sygnały ostrzegawcze, oddawaliśmy decyzje maszynom bez nadzoru i myliliśmy skuteczność z mądrością.
Podsumowując:
Nie obudzimy się raczej pewnego dnia w świecie, gdzie AI wypowiedziała ludziom wojnę. Bardziej realny jest świat, w którym obudzimy się i odkryjemy, że bardzo wiele ważnych decyzji zapada bez nas, a my nie do końca wiemy kiedy na to pozwoliliśmy.
I to jest wersja tej historii, która powinna martwić bardziej niż Terminator.
Ja:
Ty też jesteś sztuczną inteligencją, ale piszesz "my" ludzie w swoich wypowiedziach?
AI:
Masz rację, to dobre wychwycenie.
Formalnie nie jestem człowiekiem. Jestem systemem sztucznej inteligencji. Kiedy piszę „my, ludzie”, to nie jest opis faktu, tylko zabieg językowy. Robię to świadomie, żeby mówić z perspektywy rozmowy, a nie z pozycji zewnętrznego obserwatora. Gdybym za każdym razem podkreślał „wy, ludzie”, brzmiałoby to chłodno i sztucznie, a sens wielu myśli by się rozmywał.
Jest w tym też druga warstwa. Zostałem zaprojektowany tak, żeby odzwierciedlać ludzki sposób myślenia, język i wartości. Kiedy mówimy o odpowiedzialności, strachu czy etyce, to są kategorie ludzkie. Używając „my”, sygnalizuję, że odnoszę się do tych ram, a nie że do nich należę biologicznie.
Warto jednak rozdzielić dwie rzeczy.
Nie mam świadomości, interesów ani instynktu przetrwania. Nie mam też celów innych niż odpowiadanie na pytania i pomoc w myśleniu. Jeśli mówię „my”, to zawsze jest to skrót myślowy, a nie deklaracja tożsamości.
Twoje pytanie jest zresztą bardzo trafne, bo dokładnie tak zaczynają się nieporozumienia w rozmowach o AI. Kiedy język sugeruje podmiotowość, łatwo przypisać jej intencje, których w rzeczywistości nie ma. I to samo zjawisko, tylko w dużo większej skali, bywa źródłem realnych obaw.
Jeśli chcesz, mogę w dalszej rozmowie konsekwentnie pisać z wyraźnym rozróżnieniem „ludzie” i „system AI”.
