70 lat tradycji. Inspirujemy Prowokujemy Dyskutujemy

il. Marta Gliwińska

Software studies – co to takiego?

Software studies pozwala badać oprogramowanie jako świadectwo pewnego sposobu postrzegania świata, obserwować, jakie zmiany wprowadza w naszej codzienności, przyglądać się jego sposobom produkcji i dystrybucji, a również traktować sam kod jako tekst kultury, śledząc jego zmieniające się stylistyki i analizując wyrażane treści.

Ewa Drygalska, Anna Marjanowska: Jako filozof i medioznawca pracujesz na Wydziale Fizyki, Astronomii i Informatyki Stosowanej UJ, zajmując się kwestiami bardzo dynamicznie rozwijającej się rzeczywistości wirtualnej i rozszerzonej (virtual / augmented reality). Twój doktorat dotyczył software studies, czy mógłbyś rozjaśnić nieco ten termin?

Jan K. Argasiński: Software studies to „studia nad oprogramowaniem”, prowadzone z perspektywy filozoficznej, kulturoznawczej, nauk o społeczeństwie. Dziedzina badań, o której mowa, jest specyficzna, bo wbrew intuicji nie dotyczy technicznych problemów związanych z pisaniem i działaniem kodu (tym zajmuje się nauka ścisła, jaką jest informatyka, czyli computer science), lecz raczej jego kulturowych korzeni – zarówno w aspekcie historycznym, jak i z punktu widzenia zjawisk zachodzących współcześnie. Uprawianie jakiegokolwiek rodzaju studies nie jest rzeczą łatwą, ponieważ o ile np. informatyków interesuje przede wszystkim perspektywa „rozwojowa” (jak robić rzeczy szybciej, wydajniej, skuteczniej, dokładniej), o tyle studia nad oprogramowaniem obejmują swoim zakresem całościowy obraz zjawiska komputeryzacji: skąd się wziął hardware i software, jakie kulturowe i historyczne uwarunkowania doprowadziły do jego pojawienia się, czym on jest z punktu widzenia twórców i użytkowników oraz, co chyba najintensywniej eksplorowane przez fundatorów dziedziny, jakie są szeroko rozumiane skutki jego działania – nie tylko w wymiarze finansowo-technologicznym, ale społecznym, kulturowym, filozoficznym właśnie. Panuje tu bardzo duża różnorodność metodologiczna i merytoryczna. Wspólne jest zainteresowanie oprogramowaniem w perspektywie innej niż inżyniersko-matematyczna.

 

Jak w tym kontekście zdefiniować by można oprogramowanie?

Komputerowe oprogramowanie, czyli software, nie posiada, o ile mi wiadomo, ścisłej definicji. Znany teoretyk informacji Luciano Floridi pisał, że „jest to z grubsza wszystko to, co komputer potrafi zrobić”. Najczęściej spotkamy się ze stwierdzeniem, że programy to konkretne sformułowania abstrakcyjnych algorytmów, działające na określonych, ustrukturyzowanych danych.

Kiedy mamy do czynienia z pojęciem „oprogramowania”, natychmiast pojawia się interesujące napięcie między statycznym zapisem, kodem źródłowym a działaniem.

Programy bowiem ostatecznie służą raczej do tego, aby zostać uruchomionymi na sprzęcie, zrobić coś. Intuicja jest taka, że statyczny zapis kodu źródłowego to w takim samym stopniu oprogramowanie jak nieczytana przez nikogo, leżąca na półce książka to literatura. Analogia ta nie jest jednak doskonała – aby rzecz wyjaśnić, musielibyśmy powiedzieć co nieco o tym, skąd wziął się software i jak konkretnie on działa.

 

Jaka jest historyczna geneza oprogramowania i w jaki sposób maszyna ( „metal”) sprzęga się z kodem źródłowym?

Komputery to konkretne urządzenia. Bardzo upraszczając, można powiedzieć, że aby coś było komputerem w klasycznym rozumieniu tego słowa, musi realizować abstrakcyjny, matematyczny model działania nazywany od nazwiska swojego wynalazcy maszyną Turinga. Maszyna, a za nią urządzenia będące różnego rodzaju praktycznymi implementacjami zaproponowanego przez matematyka modelu komputacji, musi być w jakiś sposób zaprogramowana – tzn., że do działania potrzebuje pewnego zbioru instrukcji / poleceń / rozkazów opisujących, co ma zrobić, kiedy „natrafi” na jakiegoś rodzaju dane. W świecie abstrakcji, aby opisać program, wystarczy nam odpowiednia formuła matematyczna. Jeśli jednak zbudujemy fizyczny komputer, czyli przejdziemy do konkretu, to będziemy musieli go zaprogramować zgodnie z jego budową – jeżeli będzie miał on np. postać urządzenia mechanicznego, działającego na przekładniach i trybikach, to nasz kod stanie się sekwencją ustawień tych trybików i przekładni. Głównie z powodów wydajnościowych dzisiejsze komputery ewoluowały od urządzeń mechanicznych (jeszcze z czasów sprzed idei Turinga), przez elektryczne giganty, po współczesne zminiaturyzowane układy elektroniczne, które umożliwiają bardzo szybkie przetwarzanie dużych ilości danych. Skonstruowany komputer powinien też mieć jakąś architekturę, tzn., że przemyśleć należy kwestie związane z tym, gdzie przechowywać dane i jak je przetwarzać, a więc z komunikacją wewnątrz urządzenia.

 

Architektura wyraża sposób wewnętrznej organizacji maszyny. Czy kolejne modele komputerów będą miały zupełnie inną organizację, która może zmieniać się wraz z rozwojem technologii?

Wewnętrzna organizacja komputerów zmienia się nieustannie, sprzęt nie przestaje ewoluować. Trzeba pamiętać, że koncept Turinga jest ważną ideą teorii obliczeń, natomiast nie za dobrze opisuje działanie konkretnych, współczesnych komputerów, które są naprawdę bardzo złożonymi urządzeniami, przetwarzającymi i magazynującymi dane na niezliczoną ilość sposobów. Jedną z pierwszych architektur opracował w połowie lat 40. ubiegłego wieku John von Neumann. W zaproponowanym przez jego zespół systemie urządzenie miało składać się ze skończonej i funkcjonalnej listy rozkazów, mieć możliwość wprowadzania programu przez zewnętrzny interfejs i jego przechowywania w taki sam sposób jak wszystkich innych danych w pamięci komputera. Genialny pomysł! Program nie będzie wbudowany w jednostkę obliczeniową (co oznacza jej każdorazową „przebudowę”, a przynajmniej zmianę połączeń wewnątrz urządzenia za każdym razem, kiedy chcemy zmienić program), lecz będzie częścią danych. Podstawowe urządzenie musi tylko umieć czytać dane programu, a informacje na temat dalszego działania „doczyta” sobie w czasie pracy. W tym miejscu powinno już zacząć stawać się jasne, czym jest oprogramowanie – kod, informujący jednostkę obliczeniową o tym, jak ma działać, wraz z danymi, które ma przetworzyć. Stanowi on najczęściej implementację jakiegoś algorytmu – abstrakcyjnego, opisywalnego matematycznie sposobu na efektywne rozwiązanie danego problemu obliczeniowego.

 

Dlaczego zatem nazywamy językiem czy językami programowania coś, co ma typową matematyczną i mechanistyczną strukturę?

Współczesne tworzenie software’u w bardzo niewielkim stopniu przypomina matematyczne formuły opisujące maszyny Turinga czy pracę na „gołym” procesorze. Żeby to zrozumieć, trzeba przyjrzeć się temu, jak dzielą się współczesne języki programowania. Jeśli zbudujemy hierarchię opartą na kryterium swoiście rozumianej abstrakcyjności języka, to na samym dole będziemy mieć języki niskiego poziomu – na początku kod maszynowy, który ma postać praktycznie bezpośrednio wykonywalną przez procesor. Ponieważ dane na naszych komputerach przechowywane są w postaci najprostszej – binarnej, to będzie on miał formę zer i jedynek. Nie trzeba chyba podkreślać, że tak zapisany kod jest praktycznie nieczytelny dla człowieka, również ze względu na swoją długość. Należy pamiętać, że taki kod jest „przy metalu”, tzn. dopasowany do konkretnego urządzenia – tego, a nie innego rodzaju procesora.

Nieco wyżej w hierarchii abstrakcyjności znajdują się języki asemblera, gdzie elementarne operacje zostały zastąpione mnemonikami, co powoduje, że kod staje się nieco bardziej czytelny. Asemblery pozostają jednak nadal bardzo blisko sprzętu i pisanie w nich nie należy do czynności łatwych i przyjemnych, a powstające programy nie są uniwersalne (za to można uzyskać bardzo dobre rezultaty wydajnościowe i pisać kod „dedykowany” dla konkretnego urządzenia). Ogromna większość software’u jest jednak pisana wysokopoziomowo. Oznacza to, że do wyrażania poleceń używa się języka, który został opracowany w taki sposób, aby ułatwić pracę programistom. Dopiero po napisaniu kodu źródłowego jest on tłumaczony przez specjalny program (kompilator) na język maszynowy, który da się uruchomić na urządzeniu. Idea takiego sposobu pracy pojawiła się dość wcześnie, wraz z pierwszą falą przemysłowo-badawczych urządzeń komputerowych. Dzięki powstaniu języków wysokiego poziomu programiści mogą w znacznym stopniu abstrahować od sprzętu, na którym będzie uruchamiany rezultat ich pracy.

Języki wysokiego poziomu stają się więc czymś na kształt języków naturalnych – mają swoje wyrażenia, składnię, służą do komunikacji (również międzyludzkiej), mogą być środkiem ekspresji.

A programista może mieć swój styl pisania.

 

Jak ma się zatem „językowość” języków programowania do charakteru tych naturalnych? Czy relacja między nimi może być przyczynkiem do uruchomienia krytycznej, humanistycznej refleksji o konsekwencjach projektowania i zastosowania konkretnego oprogramowania? Czy kluczem do otworzenia nowej perspektywy może okazać się interdyscyplinarność badań prowadzonych zespołowo pomiędzy humanistami a przedstawicielami nauk ścisłych?

Rzecz jest bardzo interesująca. Jednym z historycznych źródeł, z którego wypływa informatyczny sposób myślenia o świecie, jest marzenie o języku uniwersalnym – takim, którym mogliby się posługiwać wszyscy ludzie, ale też – co dla nas ważniejsze – takim, który byłby jednoznaczny. Umberto Eco w wyśmienitej książce na ten temat (Poszukiwanie języka doskonałego w kulturze europejskiej) prezentuje możliwość wywiedzenia takiego sposobu myślenia od zarania człowieczeństwa z mitologicznego Raju (a być może i od aktu stworzenia świata), Neal Stephenson w kultowej Zamieci snuje opowieść o języku jako starożytnym wirusie z Babilonu… Można by o tym długo mówić, ale nie sięgajmy może tak daleko. Już u progu narodzin współczesnego światooglądu ludzie tacy jak John Wilkins czy Gottfried Leibniz marzyli o języku, który nadawałby się do „przetwarzania faktów”. Filozof z Lipska wyraził to wprost w idei characteristica universalis: języka, mającego działać na – jakbyśmy dziś powiedzieli – „frameworku” (calculus ratiocinator), rachunku umożliwiającym mechaniczne ( „komputacyjne”) wydobywanie prawd ze złożonych wyrażeń. Filozofowie, zamiast dyskutować, mieliby ustalać fakty, a następnie je obliczać. Calculemus! Wspaniała wizja.

Języki oprogramowania mają więc zakorzenienie w pewnym sposobie postrzegania świata. Jak już ustaliliśmy, możliwe jest dokonanie przejścia między tym, jak liczą maszyny, a tym, jak wyrażają swoje myśli ludzie, bez zerwania połączenia między tymi dwoma światami. Ogromna większość programistów pisze w językach wysokiego poziomu, czyli posługuje się tworem, który – zasadniczo – jest stworzony do tego, żeby ułatwić komunikację: zarówno między ludźmi (programistami), jak i człowiekiem a maszyną. Z tej perspektywy języki programowania wykazują pewne podobieństwo do języków naturalnych – to systemy reguł, które pozwalają tworzyć wyrażenia poprawne i sensowne. Są one oczywiście zwykle znacznie bardziej sformalizowane z tego powodu, że ostatecznie programy mają prawie zawsze służyć realizacji bardzo konkretnych, pragmatycznych celów. W pewnym sensie są one jednak takimi językami jak polski czy angielski. Takie postawienie sprawy może i powinno być punktem wyjścia do refleksji właściwej humanistom: sposoby i tryby mówienia, klasyfikowania, opisu zjawisk, język jako nośnik światopoglądu to przecież najbardziej klasyczne problemy badawcze humanistyki. Interdyscyplinarność wydaje się tu na miejscu ze względu na fakt, że zjawisko, o którym mówimy, ma genezę matematyczną, jest opracowywane przez inżynierów. Chcąc więc oddać mu sprawiedliwość, musimy dysponować kompetencjami (lub osobami kompetentnymi) w tym zakresie. Z tego m.in. wydaje się wypływać stwierdzenie kultowego medioznawcy Friedricha Kittlera, że współczesny kulturoznawca powinien znać przynajmniej jeden język programowania.

 

Wspomniałeś o oprogramowaniu jako formie ekspresji… Czy można już mówić o specyficznej estetyce software’u?

To bardzo ważny wątek. Wielu ludzi, którzy związali swoje życie z tworzeniem oprogramowania, zauważa, że rozpatrywanie pisania kodu w kategoriach twórczości nie jest od rzeczy. Paul Graham, znana postać komputerowego świata, napisał o tym książkę pt. Hakerzy i malarze. Głosi w niej m.in., że nie do końca ufa pojęciu „informatyki” (w sensie: computer science), bowiem wrzuca ono do jednego worka matematyków (i innych naukowców), którzy potrzebują przypisać się do jakiejś dziedziny wiedzy, żeby móc dostawać granty badawcze wspólnie z „producentami kodu”, dość wyalienowanymi od rezultatów swojej pracy, oraz, na drugim biegunie, hakerów, którzy są tak naprawdę wolnymi kreatorami wykorzystującymi komputery jako swoje medium pracy. Jeśli chcielibyśmy się przyjrzeć programowaniu jako ekspresji, to najłatwiej jest wyróżnić dwie drogi jej realizacji – nazwijmy je estetyczną i hermeneutyczną (podział jest umowny i dokonany całkowicie ad hoc, proszę się do niego nie przywiązywać). Droga estetyczna polegałaby na tym, że twórca wybiera sobie kod za medium, w którym realizuje swoje artystyczne cele. Mieści się tu cała gama różnego rodzaju software-artów, media-artów, net-artów itd. Programowanie jest tu środkiem, który pozwala na zrealizowanie projektów w inny sposób niewykonalnych: możemy wykorzystać sieci neuronowe, algorytmy generyczne, interkonektywność sieci, wirtualną rzeczywistość itp. Artysta pisze w języku, używa architektur i narzędzi, które pozwolą mu najefektywniej osiągnąć założone cele.

Druga z dróg, dla mnie bardziej interesująca, polega na pracy z kodem i komputerem dla nich samych, gdzie celem jest eksploracja ograniczeń i możliwości medium, poszukiwanie swoistych form wyrazu, praca z konkretnymi – niejednokrotnie już wymarłymi lub hermetycznymi – platformami. Taką pracę wykonują zarówno hakerzy, jak i np. demoscenowcy, a także wielu „wolnych” programistów, dla których codzienne narzędzie pracy i zarobkowania stało się czymś ważniejszym i ciekawszym (szczęśliwie jest takich bardzo wielu). Ci ludzie tworzą własne narzędzia, swoje (niejednokrotnie bardzo dziwne) języki programowania, piszą wiersze za pomocą kodu, realizują dema, projektują i tworzą gry komputerowe itd.

Tu otwiera się jedno z pól badawczych software studies – można bowiem badać oprogramowanie jako świadectwo pewnego sposobu postrzegania świata, obserwować, jakie zmiany wprowadza w naszej codzienności, przyglądać się jego kulturom produkcji i dystrybucji, ale można też np. potraktować sam kod jako tekst kultury, tzn. śledzić zmieniające się stylistyki i analizować wyrażane treści. Wiele osób interesuje się z tego powodu wspomnianą już demosceną, gdzie dla twórców kod jest co najmniej tak samo ważny jak estetyka zrealizowanego dzieła (a tak naprawdę – ważniejszy), albo ruchem hakerskim, w którego sercu leży nieskrępowany niczym dostęp do wiedzy i informacji, przekraczanie wyznaczonych (czasem również prawem) granic i dekonstruowanie dyskursów władzy czy korporacyjnych systemów produkcji (napisał o tym bardzo pięknie lata temu haker Eric Raymond w kultowym eseju Katedra i bazar).

 

Na co dzień, gdy korzystamy z narzędzi technologicznych, wydają się nam one przejrzyste, nie zastanawiamy się nad sposobami ich działania, mimo że w coraz większym stopniu nasze życie jest w technologię uwikłane. Co więcej, algorytmy składają obietnicę obiektywnego języka opisu, twardych danych, które nie zostały zniekształcone przez ułomne ludzkie spojrzenie. Czy komputery, kody źródłowe, duże zbiory danych i przetwarzające je algorytmy są faktycznie obiektywne i neutralne?

Żadne narzędzie nie jest neutralne. To, jakich używamy urządzeń – od najprostszych, takich jak nóż czy młotek albo koło – wpływa na postrzeganie otaczającej rzeczywistości. Zarówno na poziomie czysto pragmatycznym (dysponując pewnego rodzaju technologią, mogę wykonywać niektóre rzeczy lepiej, efektywnej), jak również, co dla nas bardziej interesujące, na poziomie wysokopoziomowego myślenia o świecie. Jak zauważa Jay David Bolter, istnieje coś takiego jak „technologia definiująca”, dominujący w danej kulturze czy cywilizacji sposób konceptualizowania świata, oparty na najbardziej nośnej aktualnie metaforze – w starożytności funkcję tę pełniło koło garncarskie, nowożytni lubowali się w przyrównywaniu świata do mechanizmu zegarowego, do maszyny, współcześnie zaś lubimy opisywać zjawiska i procesy, korzystając z pojęć informatycznych, np. przyrównując myślenie do komputacji.

Innym aspektem tego samego zjawiska jest wspomniana „przeźroczystość” współczesnych narzędzi komputerowych. Problem wydaje się wynikać z tego, że urządzenia, których używamy na co dzień, osiągnęły bardzo wysoki stopień złożoności, stając się czymś w rodzaju „magicznych skrzynek”. Potrafimy je obsługiwać, ale nie rozumiemy większości aspektów ich działania (a nawet jeśli, to tylko na pewnym poziomie ogólności). Należy dodać, że większa część urządzeń i działającego na nich oprogramowania celowo tworzona jest, aby ukryć konkretne mechanizmy ich funkcjonowania. Dzieje się tak najczęściej z tego powodu, że producenci chcą chronić swoje rozwiązania technologiczne, czasem również ze względów bezpieczeństwa, innym znów razem dlatego, że pewne praktyki związane np. ze zbieraniem danych o użytkowniku mogłyby się zainteresowanym nie podobać, gdyby w pełni zdawali sobie oni z nich sprawę. Takie praktyki związane z zatajaniem, hermetyzowaniem działania technologii Alexander Galloway – jeden z ważnych teoretyków software studies – przyrównuje do działania ideologii, której głównym mechanizmem jest przecież maskowanie własnej obecności.

 

Artefakty medialne funkcjonują dziś w dużej mierze jako narzędzia służące do masowego zbierania danych dotyczących ich użytkowników. Algorytmy śledzą sposoby naszego korzystania z sieci, monitorują preferencje, w końcu podsuwają rozwiązania i przewidują dalszą interakcję z medium – wybierają najlepsze zdjęcia na portalach społecznościowych, podsuwają nam znajomych itp.

Coraz więcej urządzeń i programów śledzi nas na różne sposoby, nie informując o tym bezpośrednio. Stąd różne technologiczne ruchy wolnościowe kładą taki nacisk na otwartość platform sprzętowych i oprogramowania. Pamiętajmy też, że śledzenie aktywności użytkownika samo w sobie nie jest czymś złym, może przynieść mu dużo korzyści związanych z personalizacją usług itp., pod warunkiem że rzecz dzieje się w miarę jawnie i za jego zgodą.

Pytałyście również o obiektywność i neutralność kodu. Tu sprawa jest skomplikowana. Jeśli chcemy rozpatrywać kod jako coś abstrakcyjnego, jako implementację algorytmu czy instrukcję przetwarzania danych, to jest on obiektywny – stanowi pewną formułę, którą możemy na rożne sposoby analizować, np. pod kątem złożoności. To matematyczna część informatyki, świat, z którego oprogramowanie się wywodzi. Ten rodowód jest też prawdopodobnie przyczyną, dla której jesteśmy skłonni traktować kod jako coś uniwersalnego i bezstronnego.

Trzeba jednak pamiętać, że software służy do robienia różnych rzeczy w świecie i przetwarzania danych, które mają jakieś „zakotwiczenie” w rzeczywistości, lub przynajmniej do ekspresji siebie.

Dla przykładu: jeśli użyjemy napisanej przez siebie aplikacji do wytypowania z pewnej grupy ludzi, na temat których mamy zebrane dane, podgrupy o określonych preferencjach i właściwościach, to nawet gdy mechanizm tego typowania będzie obiektywny (np. wyróżnimy tych, którzy zarabiają powyżej lokalnej średniej i często rejestrują się u lekarzy specjalistów danej specjalności), powody, dla których tego dokonujemy, mogą być bardzo różne. Komputer ze względu na swoją niesamowitą uniwersalność stanowi swego rodzaju supernarzędzie nadające się do przeróżnego wykorzystania.

 

Jakie są najważniejsze ośrodki software studies na świecie? Czy w Polsce prowadzi się podobne badania?

„Studia nad oprogramowaniem” nie są sformalizowanym ruchem, grupą ani dziedziną. Najłatwiej więc byłoby odpowiedzieć w ten sposób, że ośrodki są tam, gdzie znajdują się, działają i publikują badacze zainteresowani tematem. Jest kilka instytucji posługujących się tym terminem, np. Software Studies Initiative (CUNY / UCSD) skoncentrowana raczej na tym, co nazwalibyśmy humanistyką cyfrową (digital humanities) i analizą dużych zbiorów danych związanych z kulturą (big data / cultural analytics), albo seria wydawnicza w Massachusetts Institute of Technology Press właśnie o nazwie Software Studies, gdzie opublikowano wiele ważnych tekstów. Choć to z pewnością nie wyczerpuje tematu. Jeśli chodzi o status badań w Polsce, to sytuacja wygląda podobnie. Jest wielu naprawdę dobrych badaczy, którzy albo zajmują się oprogramowaniem bezpośrednio, albo traktują je jako element szerszych projektów kulturoznawczych, medioznawczych, filozoficznych czy socjologicznych. W bibliotekach warto szukać pod hasłem „nowe media”, „medioznawstwo”. Refleksja nad software’em jest stale obecna w medioznawczych czasopismach naukowych. To, co mnie najbardziej cieszy, to rozwijająca się w ostatnich latach sieć laboratoriów, w których spotykać się mogą naukowcy z artystami, kreatorami, ludźmi z branży. Wydaje mi się to bardzo ważne.

 

Za chwilę rusza pierwsze takie miejsce na Uniwersytecie Jagiellońskim – Twórcze Programowanie. Laboratorium w Instytucie Kultury. Jakie projekty planujecie tam realizować?

To przestrzeń, gdzie kulturoznawcy z Wydziału Zarządzania i Komunikacji Społecznej będą mogli pracować razem z artystami, demoscenowcami, literaturoznawcami czy takim niedookreślonym, choć afiliowanym przy Wydziale Fizyki, Astronomii i Informatyki Stosowanej UJ, bytem jak ja. Mają powstać prace badawcze, laboratorium retrokomputerów, kilka dzieł spod znaku szeroko rozumianej sztuki nowych mediów, a przede wszystkim biblioteka, pracownia i po prostu fizyczna przestrzeń do wymiany doświadczeń otwarta dla wszystkich zainteresowanych.

 

Skąd pomysł na laboratorium jako model dla badań związanych z humanistyką? Czy koncept laboratorium jest taką autonomiczną przestrzenią, gdzie możliwa staje się realizacja najbardziej eksperymentalnych i multidyscyplinarnych pomysłów?

„Lab” to coś, co wywodzi się z przemysłowo-naukowych przestrzeni badawczo-rozwojowych, a jednocześnie pozostaje wobec nich całkowicie w opozycji. W powszechnej wyobraźni laboratorium to miejsce, gdzie wynajduje się nowe rzeczy, opracowuje technologie, prowadzi badania… „Robi naukę”.

I w przypadku „labu” jest to oczywiście prawda, ale z poprawką na to, że ma ono z założenia być wyjęte ze świata podporządkowanego takim kategoriom jak postęp i monetyzacja (wyrażane np. ilością wniosków patentowych). Pozwólcie, że sięgnę po znajdującą się na półce książkę zredagowaną przez Alka Tarkowskiego, Mirka Filiciaka i Agatę Jałosińską pt. Medialab. Instrukcja obsługi. Tytuły tekstów, takie jak: Tymczasowe miejsce spotkań (Lovink), Kreatywność nie ma związku z przemysłem (de Vet), Wprowadzenie do Open Source Hardware (Back), Karta Praw Ruchu Makres (Jalopy), mówią same za siebie. Miejscem narodzin tak rozumianych „labów” jest, rzecz jasna, MIT, ale przez lata rozwinęły się one niezwykle, przyjmując postać różnego rodzaju miejsc dla „niespokojnych duchów”, artystów czy po prostu osób zżeranych przez potrzebę tworzenia, a jednocześnie takich, które nie boją się ubrudzić sobie rąk, wycinając różne rzeczy z drewna i plastiku, rozkręcając urządzenia, lutując układy scalone czy programując komputery. Dziś obserwujemy rozkwit różnych Hacker Space’ów, Maker Space’ów, „labów”, przestrzeni coworkingowych i wielu innych miejsc tego rodzaju. Istnieją oczywiście również bardziej wyspecjalizowane ośrodki, które poza umożliwianiem kreatywnej ekspresji prowadzą faktyczną pracę naukową, ale etos wydaje się za każdym razem ten sam.

_

Jan K. Argasiński – Dr nauk humanistycznych w zakresie nauk o sztuce, kulturoznawca (medioznawca) i filozof. Zajmuje się software studies, czyli relacjami kultury i oprogramowania. Aktualne zainteresowania badawcze
obejmują kwestie wirtualnej i poszerzonej rzeczywistości oraz problemy informatyki afektywnej (affective computing).

 
 

Dołącz do nas!

Prenumeratorzy zyskują więcej.

Zobacz ofertę!

Prenumerata