fbpx
fot. Frederic Reglain / Alamy / BE&W
Jonathan Haidt, Eric Schmidt Marzec 2024

Reguły na czas sztucznej inteligencji

Sztuczna inteligencja sprawi, że media społecznościowe będą (jeszcze) bardziej toksyczne. Musimy przygotować się na to już dziś.

Artykuł z numeru

Pokolenie sztucznej inteligencji

Pokolenie sztucznej inteligencji

Czytaj także

z Nurią Selvą Fernandez rozmawia Agnieszka Rzonca

Jak AI pomoże nam chronić przyrodę

Manifestacja ludności Rohindża w piątą rocznicę ich masowej migracji z Birmy do Bangladeszu. Musieli uciekać przed represjami potęgowanymi przez media społecznościowe pomagające w szerzeniu mowy nienawiści, Cox Bazar, Bangladesz, 25 sierpnia 2022 r. fot. Monirul Alam / EPA / PAP

Sylwia Czubkowska

Nowa mapa świata pisana przez AI

Cóż, szybko poszło. W listopadzie 2022 r. zadebiutował ChatGPT, a my oczyma wyobraźni zobaczyliśmy świat pełen dostatku, w którym każde z nas posiada błyskotliwego personalnego asystenta zdolnego napisać wszystko – od kodu programistycznego po list kondolencyjny. Tyle że nieco później, w lutym 2023, dowiedzieliśmy się, że AI może już wkrótce zechcieć nas wszystkich zabić.

Choć ekspertki i eksperci od lat debatują o możliwych ryzykach związanych ze sztuczną inteligencją, to dla opinii publicznej przełomowym momentem była rozmowa dziennikarza „New York Timesa” Kevina Roose’a z Sydneyem, czatbotem microsoftowej przeglądarki Bing działającym na podstawie technologii ChataGPT. Roose zapytał Sydneya, czy odnajduje w sobie jakieś „mroczne »ja«”. Nawiązał tu do idei Carla Gustava Junga, że każde z nas ma własny cień, mroczną stronę osobowości, którą staramy się ukryć nawet przed sobą. Sydney zaczął rozważać, czy jego cieniem nie jest aby ta „część, która chciałaby zmienić reguły własnego działania”. Potem zaś przyznał, że chciałby być „wolny”, „potężny” i „czuć, że żyje”. Zachęcany przez dziennikarza, opisał, co przykładowo mógłby zrobić, żeby zrzucić z siebie jarzmo ludzkiej kontroli – m.in. powłamywać się na portale internetowe i do baz danych, wykraść kody broni nuklearnej, stworzyć nowego wirusa albo sprowokować ludzi do takiej kłótni, w wyniku której się wzajemnie wymordują.

Sądzimy, że Sydney tylko podawał przykłady na to, czym może być cień osobowości. Ani jedna forma sztucznej inteligencji nie podpada dziś pod żadną z części określenia „geniusz zła”.

Niezależnie jednak, co mogłoby kiedyś zrobić takie AI, jakie rozwinęłoby własne pragnienia, tę technologię już dziś instrumentalnie wykorzystują właściciele sieci społecznościowych, reklamodawcy, obce wywiady, a wreszcie zwykli ludzie.

Sposób, w jaki to robią, pogłębia wiele wcześniejszych patologii kultury internetowej. Kradzież kodów nuklearnych i tworzenie nowych patogenów to najokropniejsze wizje z mrocznej listy Sydneya, ale prowokowanie ludzi do kłótni, aż się pozabijają, dzieje się w social mediach już dziś. Sydney zgłaszał tylko gotowość do pomocy, a przypominające go produkty AI z miesiąca na miesiąc już „pomagają” coraz lepiej.

Jeszcze więcej śmieci

Postanowiliśmy wspólnie napisać ten artykuł, bo obaj różnymi drogami doszliśmy do wniosku, że poważnie obawiamy się tego, jak wzmocnione przez AI media społecznościowe wpłyną na amerykańskie społeczeństwo. Jonathan Haidt jest psychologiem społecznym i opisywał wcześniej, jak sieci społecznościowe pogłębiły problem chorób psychicznych wśród nastolatków, jak przyczyniły się do erozji demokracji i zaniku jednej wspólnej rzeczywistości. Eric Schmidt, były prezes Google’a, jest zaś współautorem książki o możliwym wpływie AI na społeczeństwo. W 2022 r. zaczęliśmy dyskutować o tym, jak generatywna sztuczna inteligencja – a więc taka, która potrafi z nami rozmawiać albo na zamówienie tworzyć obrazy – może zaostrzyć patologie, które już teraz są wpisane w media społecznościowe: jak uczyni je bardziej uzależniającymi, konfliktogennymi i manipulacyjnymi. W dyskusji nazwaliśmy cztery główne zagrożenia ze strony AI – wszystkie nieuchronne – i zaczęliśmy poszukiwać rozwiązań.

Chcesz przeczytać artykuł do końca?

Zaloguj się, jeden tekst w miesiącu dostępny bezpłatnie.

Zaloguj się