Mateusz Chrobok: czatboty AI zbierają dużo danych o użytkownikach, mogą one trafić w niepowołane ręce [WYWIAD]
Dane z czatbotów AI mogą dostać się w ręce cyberprzestępców, zagranicznych służb czy reklamodawców i zostać wykorzystane na niekorzyść użytkowników - ostrzega w rozmowie z PAP Mateusz Chrobok, ekspert ds. cyberbezpieczeństwa. Zalecił stosowanie higieny cyfrowej i sceptycyzm wobec generowanych treści.
PAP: Jakie dane zbierają o nas twórcy czatbotów sztucznej inteligencji?
Mateusz Chrobok: Firmy uczą swoje modele AI na treściach, które znajdują w internecie, m.in. w social mediach. Na tej podstawie oraz danych, którymi dzielimy się z czatbotem, jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane. Firmy zbierają więc informacje na podstawie promptów, które wpisujemy (zapytań – PAP), w których mogą być dane np. o języku jakim się posługujemy, wyglądzie w przypadku zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Inne firmy dodatkowo proszą o dostęp do informacji z naszego urządzenia, np. kontaktów, lokalizacji. Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani.
Zdarza się, że jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści.
PAP: Istnieje też ryzyko wycieku naszych danych.
Mateusz Chrobok: To prawda. Jedna z największych wpadek, która miała miejsce dwa lata temu, to pomylenie indeksów użytkowników ChatGPT przez firmę OpenAI. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miał historię rozmów innej osoby. Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób.
Innym zagrożeniem bezpieczeństwa w przypadku czatbotów jest atak ATO, czyli Account Takeover (przejęcie konta – PAP). Cyberprzestępca może mieć wtedy dostęp do danych w historii konwersacji, które tam wrzuciliśmy, np. imienia, nazwiska, numeru telefonu, może kiedyś przez przypadek udostępniliśmy numer karty kredytowej. Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota.
PAP: Jak się zabezpieczyć przed takim wyciekiem?
Mateusz Chrobok: Część firm umożliwia użytkownikom wyłączenie opcji szkolenia modelu na ich danych. Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, że nasze dane nie wyciekną.
PAP: Zbierane dane mogą też posłużyć do tworzenia profilowanych reklam. Czym to grozi?
Mateusz Chrobok: Wyobraźmy sobie, że mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, że byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk.
PAP: Czy kraj pochodzenia czatbota, z które korzystamy, może mieć wpływ na ochronę naszych danych?
Mateusz Chrobok: DeepSeek czyli chińska firma, która tworzy świetne modele takie jak r1, jest blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom. W przykładowej sytuacji, w której amerykański urzędnik pisałby z czatbotem i opowiadał mu o swoich problemach z rodziną, czy biznesem, zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, że ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację. Dodatkowo badania pokazują, że modele odzwierciedlają poglądy ich twórców. Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - PAP) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie. A więc, każdy model to pewna bańka informacyjna; one nie są neutralne, nawet, jeśli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać.
PAP: Część osób używa czatbotów jako wsparcie emocjonalne, a nawet terapeutę. Czy to bezpieczne?
Mateusz Chrobok: W 2023 roku w Belgii miało miejsce pierwsze samobójstwo po rozmowie ze sztuczną inteligencją. Mężczyzna, który był bardzo świadomy problemów związanych z globalnym ociepleniem, pisał na ten temat z czatbotem. W pewnym momencie AI podpowiedziała mu, że jeśli chce zmniejszyć ilość CO2, którą generuje, to najlepiej, gdyby go nie było, wskutek czego mężczyzna odebrał sobie życie.
To jest ekstremum, które jednak pokazuje, co może nam grozić, kiedy prosimy AI o radę, dzielimy się z nią swoim stanem psychicznym i poglądami. Odpowiedzi, których udziela, są oparte na statystyce, co oznacza, że nie zawsze będą trafne. Dzięki postępowi technologii w coraz większym stopniu takie właśnie są, co sprawia, że najczęściej im ufamy, a to może uśpić naszą czujność. A im bardziej specjalistyczne zagadnienie, tym bardziej – przynajmniej na chwilę obecną - modele sztucznej inteligencji się mylą. Można to znacznie poprawić technicznymi metodami jak Deep Research (zaawansowana metoda analizy informacji - PAP), ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty.
PAP: Jakie zagrożenia związane z czatbotami mogą występować w miejscu pracy?
Mateusz Chrobok: Podam najgłośniejszy przykład. W 2023 r. pracownik firmy Samsung wrzucił w ChatGPT prezentację, w której były tajne dane. A więc one wyciekły i mogła je zdobyć konkurencja. Tego boi się wiele firm, managerów i zdarza się, że całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga. Bez tej technologii firmy będą mniej konkurencje. Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać.
PAP: Czyli jak?
Mateusz Chrobok: Trzeba zacząć od edukacji samych przełożonych, a dalej pracowników. Nazywamy to higieną AI. Po drugie, ważne są środki techniczne. Istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention (ochrona przed wyciekiem danych - PAP), w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie. W każdej organizacji powinny istnieć zasady korzystania z AI, z których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.
PAP: Myślisz, że mimo ryzyk sztuczna inteligencja powinna być implementowana w każdej firmie?
Mateusz Chrobok: Wiem, że to nieludzkie, aby zmuszać wszystkich do AI. Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna. Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest. Inteligencja ludzka jest ograniczona. Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze.
PAP: Nie boisz się tego?
Mateusz Chrobok: Trochę niepokoi mnie podejście do pracowników, które wyciekło w mailu prezesa pewnej firmy, czyli “zanim zatrudnisz człowieka, przetestuj kilka modeli AI". Być może taka przyszłość nas czeka, jeżeli po drodze nie pojawią się inne rozwiązania. Mimo wszystko jestem fanem implementowania sztucznej inteligencji, aby polepszyć naszą pracę. Mówienie o “chwilowej modzie”, czy “hajpie na AI” to moim zdaniem przesypianie ważnego momentu.
Monika Blandyna Lewkowicz (PAP)
mbl/ ał/ kgr/