70 lat tradycji. Inspirujemy Prowokujemy Dyskutujemy

fot. Ahn Young-joon/AP/East News

Jak filozofować o technologii?

Sztuczna inteligencja potrafi już nie tylko skomponować piosenkę, ale również zdać test Turinga. Celem jest jednak skonstruowanie maszyny, która byłaby w stanie przejąć funkcję organizowania życia. Czy potrafimy to sobie wyobrazić?

Ewa Drygalska: W rozprawie doktorskiej Fenomenologia istot wirtualnych, obronionej w Instytucie Filozofii Uniwersytetu Warszawskiego, stawiasz nowe pytania o technologię i doświadczenie związane z jej ekspansją oraz wirtualizacją, czyli kreacją potencjalnych obiektów w przestrzeni cyfrowej, modyfikujących, mimo swego wirtualnego statusu, relację człowiek–maszyna. Jak współczesna filozofia odnosi się do tych zagadnień?

Aleksandra Przegalińska: Na poziomie filozoficznym takie rozumienie wirtualnej rzeczywistości osłabia kartezjański dualizm, a ciało zyskuje dodatkowy, interesujący wymiar. Rzeczywistość wirtualna staje się środkiem do osadzenia materialnego ciała w nowe – wirtualne właśnie, a w związku z tym dokonuje się przedefiniowanie jego granic. Doświadczenie codziennych kontaktów z komputerem podłączonym do nieustannie, wykładniczo rozwijającego się Internetu otwiera nowe ścieżki eksploracji „ja”.

 

E.D.: Czy właśnie na takie zagadnienia ma odpowiadać neurofenomenologia – filozofia oparta na dialogu z technologią?

Neurofenomenologia to intrygujący i ambitny program zaproponowany przez badaczy starających się ożywić pochodzący z początków XX w. paradygmat fenomenologiczny i połączyć go ze współczesnymi zdobyczami neuronauk. Z założenia jako metoda badawcza ma wpisywać się w nurt eksperymentalnej neuronauki kognitywnej. Specyfika neurofenomenologii polega na tym, że nie opiera się ona na postulacie wprowadzania nowych rozwiązań stricte teoretycznych (np. rozszerzających ontologię świata przyrody), lecz na propozycji praktycznego zastosowania nowej metody do badania świadomości. Słychać tu wyraźnie echa postulatów Husserla z Badań logicznych – poszukiwań metody, która opisze, w jaki sposób zjawia się to, co jest. Dlatego też neurofenomenologia uwzględniać musi co najmniej trzy obszary badań: dane pierwszoosobowe, pochodzące z uważnej analizy doświadczenia subiektywnego; modele formalne i narzędzia analityczne, zaczerpnięte z teorii systemów dynamicznych, oraz dane neurofizjologiczne, uzyskane na podstawie pomiarów wielkoskalowych procesów integracyjnych zachodzących w mózgu.

 

E.D.: Czyli filozofia może nie tylko krytycznie przyglądać się technologii, ale również interweniować i działać, jak w przypadku prowadzenia badań teoretyczno-empirycznych na temat świadomości, znanych z podejścia słynnego chilijskiego filozofa i biologa Francisco Vareli?

Na tym polega cały neurofenomenologiczny pomysł. Połączenie trzecioosobowych, laboratoryjnych metod kognitywnych (psychofizjologicznych, np. prostej elektroencefalografii, elektromiografii, analizującej czynności mięśni i nerwów, przewodnictwa skórnego, a także rozmaite inne, jak te z zakresu interakcji człowiek–maszyna) z fenomenologicznym badaniem świadomości w działaniu ma dać taki efekt. Oba elementy są tu absolutnie niezbędne. Należy podkreślić, iż stanowisko Vareli wyraża swoisty „realizm fenomenalny” – przekonanie, że nie możemy wyeliminować kategorii pierwszoosobowego, fenomenalnego doświadczenia – i antyredukcjonizm, zgodnie z którym nie można zredukować świadomości ani do funkcji biologicznych, ani do doświadczenia, chociaż są one niezmiernie ważne. Rozwiązanie trudnego problemu świadomości (a więc czegoś zupełnie innego niż proste przetwarzanie informacji pochodzących ze środowiska), obecnego w naukach od dekad, wymaga w tej perspektywie bardziej odważnych i niekonwencjonalnych kroków. Celem neurofenomenologii ma być wypełnienie szczeliny eksplanacyjnej między perspektywą pierwszo- i trzecioosobową w sposób holistyczny i nieredukcyjny. Zdaniem neurofenomenologów można tego dokonać, jeśli wykaże się, iż relacje między umysłem a ciałem to relacje dynamicznego układu, jakim jest odczuwający i działający organizm. Jeden z obszarów, gdzie ta nowa refleksja okazuje się niezwykle przydatna, to właśnie analiza określonej grupy wytworów sztucznej inteligencji, czyli chatbotów i awatarów, które na potrzeby swojej pracy określiłam mianem istot wirtualnych.

 

E.D.: Jaki status mają dzisiejsze uczące się maszyny, programy komputerowe „udające” ludzi, takie jak symulujące rozmowę chatboty, coraz bardziej popularni w sektorze usług tzw. kognitywni pomocnicy czy wirtualni terapeuci, rozpoznający stany mentalne za pomocą mapowania mimiki twarzy i mikroreakcji?

Ich status ontologiczny jest, niestety, coraz bardziej skomplikowany. Problem tego, jak rozumieć istoty wirtualne, a przede wszystkim ich relacje z nami, zyskuje zresztą cały czas na aktualności, chociażby w kontekście zaliczenia przez chatbota o imieniu Eugene Goostman testu Turinga (7 czerwca 2014 r. 33% wykwalifikowanych sędziów biorących udział w teście uznało go za człowieka) czy sukcesu Alpha Go w pojedynku z Lee Sedolem w intuicyjno-strategicznej grze Go. Przypomnijmy także Tay – bota imitującego 19-letnią dziewczynę, który trafił do części cyfrowego świata zasiedlonego obecnie prawie wyłącznie przez ludzi – czyli na Twitter, gdzie miał się uczyć, poznawać, rozmawiać, analizować i stawać się z dnia na dzień sprawniejszy i jeszcze bardziej ludzki. Szybko jednak okazało się, że sztuczna inteligencja nie ma najmniejszych szans z ludzką złośliwością i pomysłowością. Niewinna Tay stała się w mgnieniu oka rasistką, fanką Adolfa Hitlera i nieszczególnie nadawała się na wizytówkę Microsoftu w jakiejkolwiek dziedzinie. Po kilkunastu godzinach Amerykanie musieli więc zareagować i zrobili to w jedyny możliwy sposób – wyłączyli bota. To był szalenie ciekawy społeczny eksperyment! Właśnie w kontekście dynamicznego rozwoju botyki (dziedziny zajmującej się tworzeniem botów), a także tzw. uczenia maszynowego zarówno w wydaniu uprzejmym (znana wszystkim użytkownikom iPhone’a asystentka Siri), jak i bezczelnym (Tay) coraz częściej mówi się o potrzebie dogłębnej analizy filozoficznej i psychologicznej relacji człowieka i bota. W doktoracie postawiłam tezę (w którą nadal wierzę), że ostatecznie jest to w jakimś sensie relacja osoby z inna osobą.

 

E.D.: Być może doświadczasz tego na poziomie fenomenologii, ale czy wiedząc, że masz do czynienia z botem, wyciągnęłabyś z relacji z nim również inne konsekwencje wynikające z bycia osobą: np. obywatelskie?

Na tym etapie na pewno nie – zdecydowanie na to za wcześnie. Prawa robotów to pieśń przyszłości.

 

E.D.: Początki takiej refleksji rozwija np. David Gunkel z uniwersytetu w Chicago, który wielokrotnie odwiedzał Polskę i Kraków. W The Machine Question: Critical Perspectives on AI, Robots and Ethics pyta on m.in. o etyczny status maszyn i ich potencjalną odpowiedzialność moralną. W tych kwestiach trudno udzielić jasnych i zdecydowanych odpowiedzi. Sztuczna inteligencja może być rozpatrywana jako projekt technologiczny oraz filozoficzny – jakie napięcie rozgrywa się na tych dwóch poziomach? Czy etyka ma tu coś do powiedzenia? A może religia? Papież Franciszek w encyklice Laudato si’ zwrócił uwagę na problem zmian klimatycznych i naszej odpowiedzialności za naturę oraz środowisko. Teologia milczy jednak w sprawie rozwoju technologii.

Sztuczna inteligencja bez wątpienia jest projektem filozoficznym par excellence, według mnie najważniejszym tego rodzaju na przełomie XX i XXI w. W swoich badaniach zarówno sam Turing, jak i inni uczeni korzystali nie tylko z filozoficznego dorobku Kartezjusza, ale także z prac wielu pozostałych klasyków filozofii. Projekt sztucznej inteligencji skłania do pytania o status ludzkiego doświadczenia, świadomości oraz umysłu i postuluje zasadniczą rewizję w myśleniu o naturze człowieczeństwa. To lustro człowieka i człowieczeństwa, o tyle niezwykłe, że poza warstwą teoretyczną posiada również wymiar praktyczny. Sztuczna inteligencja dąży do osiągnięcia konkretnego celu, jakim jest skonstruowanie inteligentnej maszyny, czyli wprowadzenie zmiany w rzeczywistości – maszyny, która mogłaby, dzięki przetwarzaniu danych, przejąć funkcję organizowania życia. Sztuczna inteligencja staje się też projektem metafizycznym. Podobnie jak fenomenologia chce stać się organonem, czyli narzędziem wszelkich nauk. Niestety, Kościół chyba nie dostrzega, jak fundamentalną kwestią jest próba głębszego przyjrzenia się relacji człowiek–maszyna. Transhumanizm, czyli protechnologiczny ruch ideowy, który zyskuje coraz więcej zwolenników, zwłaszcza w USA, jest przez wielu uważany za specyficzną formę religijności, z naturalistycznym techno-bogiem na czele. Inna rzecz, że sama dyscyplina sztucznej inteligencji przechodzi dość dużą metamorfozę. Mniej mówimy dziś o maszynie jako takiej, a więcej o maszynowym uczeniu. Projekt nabiera dynamiki, ale jednocześnie (w porównaniu do sztucznej inteligencji) skrywa swą istotę, więc może mniej go widać dla potencjalnych adwersarzy.

 

E.D.: Pracujesz w prestiżowym ośrodku badawczym Instytutu Technologicznego w Bostonie. Na czym koncertuje się Twoja uwaga i w jakich obszarach badań inwestuje się obecnie najwięcej?

Bardzo wiele projektów eksploruje dziś ideę automatycznych samochodów bez kierowców, sporo z nich dotyczy ubieralnych technologii afektywnych, a także projektowania nowej generacji „żywych” materiałów inspirowanych biologią jak powierzchnie przypominające właściwości ludzkiej skóry czy zarządzania zbiorową inteligencją w sieci. Ja pracuję w „labie” Collective Intelligence, gdzie zajmujemy się inteligencją rozproszoną – szukamy obszarów współpracy pomiędzy wieloma sprawcami naturalnymi (np. ludzi) lub sztucznymi, działającymi bez uprzednio zdefiniowanego planu i bez jednego organu dowodzącego. Patrząc na funkcjonowanie Massachusetts Institute of Technology, który niewątpliwie wyznacza kierunki w zakresie badań oraz rozwoju, widzę wiele możliwości tworzenia konsorcjów z sektorem prywatnym. Na bostońskim kampusie rezydują firmy Google i Microsoft, co pokazuje, jak ścisła jest w środowisku angloamerykańskim współpraca biznesu i nauki.

 

E.D.: Czy nie odnosisz wrażenia, że posthumanizm, nowy materializm i filozofia zorientowana na obiekt (object-oriented philosophy) starają się znieść klasyczny dualizm ludzkie / nieludzkie, „spłaszczając” wszelkie byty do pojęcia obiektu lub maszyny o równym statusie ontologicznym?

Nie nazwałabym tego „spłaszczeniem”, ale wyniesieniem. Posthumanizm, filozofia zorientowana na obiekt, a w pewnym stopniu także transhumanizm zakładają odhierarchizowanie układu, w którym od dawna tkwimy. Tutaj zresztą dostrzegam pewną zgodność z najnowszą encykliką papieża Franciszka. Nie wiemy, czy status bytów jest rzeczywiście równy, ale mamy świadomość, że różny nie znaczy już w tym paradygmacie niższy ani gorszy.

 

E.D.: Jaką perspektywę otwiera to dla refleksji nad światem?

Posthumanizm i transhumanizm postulują, że współczesne możliwości ludzkiego organizmu nie są niczym wyjątkowym i stanowią tylko jeden z etapów ewolucji. Ciekawą definicję podstaw posthumanizmu oferuje np. Katherine Hayles w How We Became Posthuman, wskazując cztery założenia, na których opiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Po drugie, posthumanizm rozumie świadomość jako epifenomen, jeden z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury. Po trzecie, posthumaniści traktują ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać / poszerzać jej możliwości za pomocą technologii. Czwarte założenie to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Posthumanizm może jednak przyjmować także inny wektor – stanowić dyskurs wspierający idee ekologiczne, a nawet nadawanie podmiotowości nieludziom, z naciskiem nie tyle na maszyny, ile, chociażby, na zwierzęta. W tym sensie jest to idea, która nie musi być rozumiana jako pozostająca w sprzeczności z chrześcijaństwem (w przeciwieństwie do transhumanizmu).

 

E.D.: Możemy zaobserwować dwa sprzeczne kierunki: skłonność do jak najdalej idącej antropomorfizacji maszyn oraz obrzydzenie w stosunku do nazbyt ludzkich reprezentacji, określane mianem doliny niesamowitości.

Anna Marjankowska: Ciekawym zjawiskiem jest w tym kontekście popularność użytkownika @lilmiquela na Instagramie i dyskusje wokół jego zdjęć pytano: czy to prawdziwa osoba czy Sim oraz jakim programem posłużono się, by stworzyć jego przedstawienie?

Ta sprzeczność rzeczywiście jest fascynująca. Od początków prac nad sztuczną inteligencją chcieliśmy stworzyć coś nienaturalnego na nasz obraz i podobieństwo. Jednak kiedy takie niedoskonałe realizacje się pojawiają, czujemy do nich obrzydzenie. Uważam, że przyszłość humanizowanej technologii to niekoniecznie antropoidalne roboty. Ten projekt sprawdził się jedynie w niektórych miejscach na świecie – np. w Japonii, gdzie ze względów kulturowych dolina niesamowitości jest znacznie mniejszym problemem. Bliska przyszłość technologii to tzw. inteligentne dane (smart data), pobierane i analizowane za pomocą sensorów, i ubieralne technologie, adaptujące się do ludzkich potrzeb, emocji, nastrojów, oraz wielki umysł roju, który wyhodujemy dzięki danym z tych urządzeń. Androidy są w tej chwili marginalnym zjawiskiem.

 

A.M.: Popularna jest ostatnio piosenka pt. Daddy’s Car, stworzona przez sztuczną inteligencję, choć zdająca się „ludzka” aż do granic. Słuchając jej, myślimy tylko o tym, że skądś już to znamy… Na ile programy i obiekty tworzone przez sztuczną inteligencję są jej własnym wytworem, a na ile wypadkową treści załadowanych do bazy danych przez jej programistów? Kiedy będziemy mogli mówić o twórczości uprawianej przez sztuczną inteligencję?

Moim zdaniem możemy o niej mówić od dawna. A nierzadko nawet – jak w przypadku bota Ractor, który pisał poezję – możemy ją całkiem wysoko oceniać. Dopiero kiedy dowiadujemy się, że stworzyła to maszyna, zaczynamy zmieniać zdanie. Wystarczy zobaczyć trailer do horroru Morgan, który niedawno stworzył robot IBM Watson – gdybyśmy nie wiedzieli, że to Watson, uznalibyśmy to zapewne za solidną produkcję filmową. Dzieło programu komputerowego z Future University w Hakodate, czyli książka Dzień, w którym komputer napisał powieść, wysłana na japoński konkurs Hoshi Shinichi Literary Award, przeszło do drugiego etapu oceny. Literatura powstała we współpracy człowieka ze sztuczną inteligencją narodziła się już w 2008 r., a w 2013 r. Harvard Press wydał przetłumaczoną niedawno przez krakowskie wydawnictwo Ha!art powieść Zegar światowy, której tekst został wygenerowany w języku oprogramowania na podstawie kodu. Mimo to jako jej autor figuruje Nick Montfort. Te przykłady są na tyle eksperymentalne, że problem autorstwa, a w rzeczywistości praw majątkowych do tych dzieł, nie jest jeszcze tak palący.

 

E.D.:W debatach nad technologizacją życia przeważa pesymizm, jeśli nie filozoficzny, związany z kondycją samego humanizmu, to z obawą o masową utratę zatrudnienia na rzecz maszyn. Pełna automatyzacja pracy wiązać by się zaś mogła z większą ilością wolnego czasu, który można by wykorzystać samemu, nie wykonując już wielu monotonnych, niekreatywnych czynności. Taka zmiana, połączona np. z powszechnym dochodem podstawowym, ideą coraz szerzej dyskutowaną, wymagałaby jednak całkowitego przeorganizowania życia społecznego i rekonfiguracji kultury opartej na osiągnięciach zawodowych.

Technoutopia samorealizacji to wspaniała idea, ale, niestety, cały czas wydaje mi się, że to elitarna mrzonka, a nie realistyczny projekt. Pesymizm, zgodzę się, często wybrzmiewa, zwłaszcza w kontekście lęku przed tzw. osobliwością, czyli punktem rozwoju, w którym wszystkie ludzkie przewidywania straciłyby aktualność, ale jeśli bliżej się przyjrzeć, to pojawia się też coraz więcej głosów optymistycznych,

a wręcz hiperoptymistycznych. Myślę tutaj o technoutopistycznych wizjach egalitarnego transhumanizmu czy powszechnej nieśmiertelności. W kręgach entuzjastów technologii, niehakerskich czy nawet start-upowych obecne są wyobrażenia dobrej przyszłości dzięki technologicznej akceleracji. Ale niekoniecznie jest to połączone z wątkami wolnego czasu uzyskanego na skutek automatyzacji. Przykładem może być tutaj założona przez naukowców z dziedzin takich, jak medycyna, farmakologia, biologia molekularna czy genetyka, kalifornijska firma Calico, która zajmuje się aplikowalnymi badaniami nad procesami starzenia i możliwościami maksymalnego wydłużania ludzkiego życia. Innym, niezwykle popularnym obszarem są

nootropy, czyli suplementy, często substancje psychotropowe, które mają poprawiać nasze funkcje poznawcze, takie jak koncentracja czy produktywność, nie powodując przy tym skutków ubocznych jak standardowe narkotyki.

 

E.D.: W publikacji Gamification. Critical Approach, wydanej niedawno nakładem Wydawnictwa Uniwersytetu Warszawskiego, zwracasz uwagę na zagadnienia gamifikacji życia (wykorzystania mechaniki gier fabularnych i komputerowych) do modyfikowania zachowań ludzi w celu zwiększenia ich zaangażowania, np. w pracy, szkole czy podczas aktywności fizycznej. Równolegle możemy zaobserwować coraz większą popularność ruchu samokwantyfikacji i dążenia do maksymalnego udoskonalania nas samych poprzez naukę. Wiara w nieustający progres i twardą naukę, która często okazuje się pseudonauką, to spadek po mocnych oświeceniowych wartościach. Jak te technologicznie wspomagane pomysły ulepszania wpływają (i będą wpływać) na nasze codzienne życie oraz rozumienie samych siebie?

Mam tu pewien dylemat, ponieważ z jednej strony zarządzanie sobą, samokwantyfikacja za pomocą rozmaitych urządzeń i aplikacji mieści się jakoś w reżimie panoptykonu, gnuśnej kontroli i skazanej na porażkę pogoni za lepszą wersją siebie. Z drugiej jednak, im bliżej jestem społeczności, które są adwokatami samopoliczalności, takich jak choćby ruch Quantified Self, tym wyraźniej widzę ich emancypacyjny charakter, a także pozytywny potencjał do wykrywania nieznanych dotąd korelacji i ujawniania nowej wiedzy płynącej z danych, np. dotyczących jakości naszego snu, aktywności fizycznej czy mentalnej. Rzecz jasna, gadżetów nie brakuje i część z tych urządzeń w najlepszym razie pełni funkcję placebo, ale są wśród nich także perełki, których świadome i eksperymentalne wykorzystanie może nas wszystkich pchnąć naprzód. Monitorując czynności naszego organizmu, możemy szybko uzupełnić niedobory wody oraz bardziej świadomie kontrolować swój poziom stresu czy niepokoju, który przecież objawia się określonymi reakcjami fizjologicznymi.

 

E.D.: Jakie byłoby to urządzenia? Z czym wiąże się szczególne nadzieje?

Na obecnym etapie byłyby to przede wszystkim przenośne technologie ubieralne, zarówno pasywne, jak i aktywne. O urządzeniach pierwszego rodzaju możemy mówić np. w przypadku przenośnych elektroencefalografów, trakerów aktywności (liczących kroki, kalorie, mierzących puls). Do aktywnych zalicza się np. Pavloka – opaskę na rękę rażącą prądem za niewykonanie zadania. Aktualnie robi on furorę w USA. Jak widać, nie przepracowaliśmy jeszcze idei z przełomu XIX i XX w., a Iwan Pawlow jest, przynajmniej tu i ówdzie, wiecznie żywy.

 

E.D.: Biohacking lub gender-hacking jest jednym z postulatów twardego feminizmu, np. xenofeminizmu reprezentowanego przez artystkę Laborię Cuboniks. Chodzi w nim o uwolnienie kobiecego ciała od wywołujących niedogodności kwestii hormonalnych i reprodukcyjnych. Czy potrafimy sobie wyobrazić, jak w takiej perspektywie, dzięki niewielkiej w gruncie rzeczy interwencji, zmieniłyby się role płciowe?

Biohacking chyba nadal bardziej interesuje się przede wszystkim alternacją stanów mentalnych i ekspansją zdolności poznawczych, chociaż niewątpliwie eksperymentuje również z ciałem. Nie ma natomiast wątpliwości, że zarówno w pewnych wariantach transhumanizmu, jak i w xenofeminizmie mamy do czynienia z dyskursem kwestionującym czy też odrzucającym płeć jako taką. Pojawiają się zachęty do tego, żeby ciężary związane z własną płciowością porzucić, ale też – przynajmniej w perspektywie transhumanistycznej – żeby z płciowością eksperymentować, jak w przypadku hiszpańskiej teoretyczki

Beatriz Preciado, która w 2008 r. wydała głośny esej Testo Junkie, opisując swoje doświadczenia z przyjmowaniem testosteronu poza kontrolą lekarską. Celem Preciado było przesunięcie granic płci biologicznej, zwłaszcza kobiecej, bardzo silnie poddanej farmakologizacji i utowarowieniu. Innym kierunkiem jest zasadnicze wzmacnianie płciowości, także za pomocą technologicznych atrybutów takich jak np. implanty. Ścieżek – jak zawsze w przypadku technologii – jest kilka…

_

Aleksandra PrzegalińskaDoktoryzowała się w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii UW. Aktualnie jako visiting scholar pracuje w Center for Collective Intelligence na Massachusetts Institute of Technology w Bostonie. Jest adiunktem w Center for Research on Organizations and Workplaces w Akademii Leona Koźmińskiego. Interesuje się rozwojem nowych technologii, zwłaszcza zaś technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych.

 
 

Zapisz się
do newslettera
a otrzymasz:

● 35% rabatu na dowolny numer miesięcznika
● informacja o promocjach, wydarzenich i spotkaniach autorskich

email marketing zapewnia MailPlanner

Newsletter