Część z nas „zachłysnęła” się możliwościami sztucznej inteligencji, ale nie zdaje sobie sprawy z zagrożeń, które niesie jej używanie. Jak określiłaby Pani poziom świadomości społecznej w Polsce dotyczący bezpiecznego korzystania z AI?
Jako niski. Istnieje ogromna przepaść między możliwościami narzędzi technologicznych a tym, jak my z nich korzystamy. Używanie narzędzi AI wydaje się bardzo proste. Ściągam aplikację, loguję się, wybieram wersję płatną bądź bezpłatną i „rozmawiam” z AI jak z koleżanką. Różnica między osobą, która w taki sposób korzysta ze sztucznej inteligencji, a tą, która przeszła kilka kursów, potrafi ustawić swoją narrację, zadawać precyzyjne pytania, jest ogromna. Można powiedzieć, że każda z nich, choć pracuje na tej samej architekturze, to używa zupełnie innego narzędzia – dającego inną jakość odpowiedzi.
Mamy tendencję, by nie zawracać sobie głowy zabezpieczeniami. Przykładem może być chociażby czytanie, a w zasadzie nieczytanie regulaminów. A w praktyce ich znajomość daje konkretne efekty w kilku obszarach. W UE (dzięki RODO) większość platform musi honorować częściowe zgody, można np. wyłączyć używanie danych do trenowania modeli AI (Meta, Google już to oferują), zrezygnować z personalizacji reklam czy ograniczyć profilowanie.
W przypadku narzędzi AI jest twardsza granica: żeby w ogóle korzystać z modelu, musimy zgodzić się na przetwarzanie swoich promptów przynajmniej w czasie sesji. Bez tego usługa po prostu nie działa. Możemy natomiast zazwyczaj wyłączyć używanie rozmów do trenowania i to warto zrobić świadomie.
Nie ma takich osób, które obawiają się używania sztucznej inteligencji?
Są. Czasami piszą do mnie, np. na Instagramie, że nie korzystają z AI, ponieważ się boją: utraty prywatności, niewłaściwego użycia przez model informacji, które tam włożą. I poniekąd słusznie: bardzo wrażliwych informacji, np. niezanonimizowanych danych medycznych, nie zaleca się wprowadzać do modeli językowych. Mówię tutaj o prywatnym użyciu. W służbowym to inna sprawa – firma musi korzystać z modelu, który jest bezpieczny, i pracownik powinien być dobrze przeszkolony w zakresie tego, co może robić z tym narzędziem, a czego mu nie wolno.
Krótko mówiąc, obecnie jesteśmy kiepsko przygotowani do odpowiedzialnego korzystania ze sztucznej inteligencji. Warto jednak pamiętać o tym, że to nie jest tylko kwestia AI. Mamy w domu inteligentne odkurzacze czy oczyszczacze powietrza, które skanują nasze mieszkanie, łączą się z innymi sprzętami, mającymi różnych właścicieli czy dostawców usługi, niekoniecznie w Unii Europejskiej. Nie wiemy, że możemy wyłączyć opcję przekazywania danych – żeby np. odkurzacz nie mógł wysyłać nigdzie zdjęć z naszego domu.
Czym to skutkuje, pokazuje niedawna historia: programista z Hiszpanii Sammy Azdoufal chciał sterować swoim odkurzaczem za pomocą Playstation, a przypadkowo uzyskał dostęp do kamer kilku tysięcy podobnych robotów odkurzaczy z całego świata.


