Ilustracja przedstawiająca kobietę odwróconą tyłem, widoczną od ramion w górę. Na jej karku znajdują się prostokątne drzwi, z których wychodzi mała postać biegnąca w stronę zielonych drzew. Tło jest jednolicie różowe
Ilustracja: Adela Madej
z Jowitą Michalską rozmawia Martyna Słowik maj 2026

Nie musisz być ciągle dostępny

Ludzie o podejściu wolnościowym mówią, że w cyfrowym świecie powinniśmy mieć swobodny wybór. Jednak w przypadku internetu i mediów społecznościowych w telefonach trafiamy do środowiska, w które celowo wprowadzono mechanizmy uzależniające. To nie jest gra fair play i dlatego potrzebujemy silnych regulacji

Artykuł z numeru

Analogowe nawyki

Analogowe nawyki

Czytaj także

Mały rudzik siedzący na gałęzi drzewa, odwrócony bokiem w prawą stronę. Ptak ma pomarańczową pierś i gardło, szarawy brzuch oraz brązowo‑oliwkowy grzbiet. Tło jest jasnozielone, bez wyraźnych szczegółów

Elżbieta Łapczyńska

My, ptasiary

Część z nas „zachłysnęła” się możliwościami sztucznej inteligencji, ale nie zdaje sobie sprawy z zagrożeń, które niesie jej używanie. Jak określiłaby Pani poziom świadomości społecznej w Polsce dotyczący bezpiecznego korzystania z AI?

Jako niski. Istnieje ogromna przepaść między możliwościami narzędzi technologicznych a tym, jak my z nich korzystamy. Używanie narzędzi AI wydaje się bardzo proste. Ściągam aplikację, loguję się, wybieram wersję płatną bądź bezpłatną i „rozmawiam” z AI jak z koleżanką. Różnica między osobą, która w taki sposób korzysta ze sztucznej inteligencji, a tą, która przeszła kilka kursów, potrafi ustawić swoją narrację, zadawać precyzyjne pytania, jest ogromna. Można powiedzieć, że każda z nich, choć pracuje na tej samej architekturze, to używa zupełnie innego narzędzia – dającego inną jakość odpowiedzi.

Mamy tendencję, by nie zawracać sobie głowy zabezpieczeniami. Przykładem może być chociażby czytanie, a w zasadzie nieczytanie regulaminów. A w praktyce ich znajomość daje konkretne efekty w kilku obszarach. W UE (dzięki RODO) większość platform musi honorować częściowe zgody, można np. wyłączyć używanie danych do trenowania modeli AI (Meta, Google już to oferują), zrezygnować z personalizacji reklam czy ograniczyć profilowanie.

W przypadku narzędzi AI jest twardsza granica: żeby w ogóle korzystać z modelu, musimy zgodzić się na przetwarzanie swoich promptów przynajmniej w czasie sesji. Bez tego usługa po prostu nie działa. Możemy natomiast zazwyczaj wyłączyć używanie rozmów do trenowania i to warto zrobić świadomie.

Nie ma takich osób, które obawiają się używania sztucznej inteligencji?

Są. Czasami piszą do mnie, np. na Instagramie, że nie korzystają z AI, ponieważ się boją: utraty prywatności, niewłaściwego użycia przez model informacji, które tam włożą. I poniekąd słusznie: bardzo wrażliwych informacji, np. niezanonimizowanych danych medycznych, nie zaleca się wprowadzać do modeli językowych. Mówię tutaj o prywatnym użyciu. W służbowym to inna sprawa – firma musi korzystać z modelu, który jest bezpieczny, i pracownik powinien być dobrze przeszkolony w zakresie tego, co może robić z tym narzędziem, a czego mu nie wolno.

Krótko mówiąc, obecnie jesteśmy kiepsko przygotowani do odpowiedzialnego korzystania ze sztucznej inteligencji. Warto jednak pamiętać o tym, że to nie jest tylko kwestia AI. Mamy w domu inteligentne odkurzacze czy oczyszczacze powietrza, które skanują nasze mieszkanie, łączą się z innymi sprzętami, mającymi różnych właścicieli czy dostawców usługi, niekoniecznie w Unii Europejskiej. Nie wiemy, że możemy wyłączyć opcję przekazywania danych – żeby np. odkurzacz nie mógł wysyłać nigdzie zdjęć z naszego domu.

Czym to skutkuje, pokazuje niedawna historia: programista z Hiszpanii Sammy Azdoufal chciał sterować swoim odkurzaczem za pomocą Playstation, a przypadkowo uzyskał dostęp do kamer kilku tysięcy podobnych robotów odkurzaczy z całego świata.

Chcesz przeczytać artykuł do końca?

Zaloguj się, jeden tekst w miesiącu dostępny bezpłatnie.

Zaloguj się