Cóż, szybko poszło. W listopadzie 2022 r. zadebiutował ChatGPT, a my oczyma wyobraźni zobaczyliśmy świat pełen dostatku, w którym każde z nas posiada błyskotliwego personalnego asystenta zdolnego napisać wszystko – od kodu programistycznego po list kondolencyjny. Tyle że nieco później, w lutym 2023, dowiedzieliśmy się, że AI może już wkrótce zechcieć nas wszystkich zabić.
Choć ekspertki i eksperci od lat debatują o możliwych ryzykach związanych ze sztuczną inteligencją, to dla opinii publicznej przełomowym momentem była rozmowa dziennikarza „New York Timesa” Kevina Roose’a z Sydneyem, czatbotem microsoftowej przeglądarki Bing działającym na podstawie technologii ChataGPT. Roose zapytał Sydneya, czy odnajduje w sobie jakieś „mroczne »ja«”. Nawiązał tu do idei Carla Gustava Junga, że każde z nas ma własny cień, mroczną stronę osobowości, którą staramy się ukryć nawet przed sobą. Sydney zaczął rozważać, czy jego cieniem nie jest aby ta „część, która chciałaby zmienić reguły własnego działania”. Potem zaś przyznał, że chciałby być „wolny”, „potężny” i „czuć, że żyje”. Zachęcany przez dziennikarza, opisał, co przykładowo mógłby zrobić, żeby zrzucić z siebie jarzmo ludzkiej kontroli – m.in. powłamywać się na portale internetowe i do baz danych, wykraść kody broni nuklearnej, stworzyć nowego wirusa albo sprowokować ludzi do takiej kłótni, w wyniku której się wzajemnie wymordują.
Sądzimy, że Sydney tylko podawał przykłady na to, czym może być cień osobowości. Ani jedna forma sztucznej inteligencji nie podpada dziś pod żadną z części określenia „geniusz zła”.
Niezależnie jednak, co mogłoby kiedyś zrobić takie AI, jakie rozwinęłoby własne pragnienia, tę technologię już dziś instrumentalnie wykorzystują właściciele sieci społecznościowych, reklamodawcy, obce wywiady, a wreszcie zwykli ludzie.
Sposób, w jaki to robią, pogłębia wiele wcześniejszych patologii kultury internetowej. Kradzież kodów nuklearnych i tworzenie nowych patogenów to najokropniejsze wizje z mrocznej listy Sydneya, ale prowokowanie ludzi do kłótni, aż się pozabijają, dzieje się w social mediach już dziś. Sydney zgłaszał tylko gotowość do pomocy, a przypominające go produkty AI z miesiąca na miesiąc już „pomagają” coraz lepiej.
Jeszcze więcej śmieci
Postanowiliśmy wspólnie napisać ten artykuł, bo obaj różnymi drogami doszliśmy do wniosku, że poważnie obawiamy się tego, jak wzmocnione przez AI media społecznościowe wpłyną na amerykańskie społeczeństwo. Jonathan Haidt jest psychologiem społecznym i opisywał wcześniej, jak sieci społecznościowe pogłębiły problem chorób psychicznych wśród nastolatków, jak przyczyniły się do erozji demokracji i zaniku jednej wspólnej rzeczywistości. Eric Schmidt, były prezes Google’a, jest zaś współautorem książki o możliwym wpływie AI na społeczeństwo. W 2022 r. zaczęliśmy dyskutować o tym, jak generatywna sztuczna inteligencja – a więc taka, która potrafi z nami rozmawiać albo na zamówienie tworzyć obrazy – może zaostrzyć patologie, które już teraz są wpisane w media społecznościowe: jak uczyni je bardziej uzależniającymi, konfliktogennymi i manipulacyjnymi. W dyskusji nazwaliśmy cztery główne zagrożenia ze strony AI – wszystkie nieuchronne – i zaczęliśmy poszukiwać rozwiązań.