O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

Mateusz Chrobok: czatboty AI zbierają dużo danych o użytkownikach, mogą one trafić w niepowołane ręce [WYWIAD]

Dane z czatbotów AI mogą dostać się w ręce cyberprzestępców, zagranicznych służb czy reklamodawców i zostać wykorzystane na niekorzyść użytkowników - ostrzega w rozmowie z PAP Mateusz Chrobok, ekspert ds. cyberbezpieczeństwa. Zalecił stosowanie higieny cyfrowej i sceptycyzm wobec generowanych treści.

Zdjęcie ilustracyjne Fot. PAP/EPA/ETIENNE LAURENT
Zdjęcie ilustracyjne Fot. PAP/EPA/ETIENNE LAURENT

PAP: Jakie dane zbierają o nas twórcy czatbotów sztucznej inteligencji?

Mateusz Chrobok: Firmy uczą swoje modele AI na treściach, które znajdują w internecie, m.in. w social mediach. Na tej podstawie oraz danych, którymi dzielimy się z czatbotem, jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane. Firmy zbierają więc informacje na podstawie promptów, które wpisujemy (zapytań – PAP), w których mogą być dane np. o języku jakim się posługujemy, wyglądzie w przypadku zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Inne firmy dodatkowo proszą o dostęp do informacji z naszego urządzenia, np. kontaktów, lokalizacji. Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani.

Zdarza się, że jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści.

Więcej

Wicepremier, minister cyfryzacji Krzysztof Gawkowski. Fot. PAP/Jakub Kaczmarczyk
Wicepremier, minister cyfryzacji Krzysztof Gawkowski. Fot. PAP/Jakub Kaczmarczyk

Impact 2025. Gawkowski: wdrażanie AI w administracji idzie dobrze [NASZE WIDEO]

PAP: Istnieje też ryzyko wycieku naszych danych.

Mateusz Chrobok: To prawda. Jedna z największych wpadek, która miała miejsce dwa lata temu, to pomylenie indeksów użytkowników ChatGPT przez firmę OpenAI. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miał historię rozmów innej osoby. Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób.

Innym zagrożeniem bezpieczeństwa w przypadku czatbotów jest atak ATO, czyli Account Takeover (przejęcie konta – PAP). Cyberprzestępca może mieć wtedy dostęp do danych w historii konwersacji, które tam wrzuciliśmy, np. imienia, nazwiska, numeru telefonu, może kiedyś przez przypadek udostępniliśmy numer karty kredytowej. Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota.

PAP: Jak się zabezpieczyć przed takim wyciekiem?

Mateusz Chrobok: Część firm umożliwia użytkownikom wyłączenie opcji szkolenia modelu na ich danych. Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, że nasze dane nie wyciekną.

Więcej

Open space w biurze. Fot. PAP/Adam Warżawa
Open space w biurze. Fot. PAP/Adam Warżawa

Firmy wdrażają AI. Czy pamiętają o cyberbezpieczeństwie?

PAP: Zbierane dane mogą też posłużyć do tworzenia profilowanych reklam. Czym to grozi?

Mateusz Chrobok: Wyobraźmy sobie, że mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, że byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk.

PAP: Czy kraj pochodzenia czatbota, z które korzystamy, może mieć wpływ na ochronę naszych danych?

Mateusz Chrobok: DeepSeek czyli chińska firma, która tworzy świetne modele takie jak r1, jest blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom. W przykładowej sytuacji, w której amerykański urzędnik pisałby z czatbotem i opowiadał mu o swoich problemach z rodziną, czy biznesem, zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, że ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację. Dodatkowo badania pokazują, że modele odzwierciedlają poglądy ich twórców. Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - PAP) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie. A więc, każdy model to pewna bańka informacyjna; one nie są neutralne, nawet, jeśli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać.

PAP: Część osób używa czatbotów jako wsparcie emocjonalne, a nawet terapeutę. Czy to bezpieczne?

Mateusz Chrobok: W 2023 roku w Belgii miało miejsce pierwsze samobójstwo po rozmowie ze sztuczną inteligencją. Mężczyzna, który był bardzo świadomy problemów związanych z globalnym ociepleniem, pisał na ten temat z czatbotem. W pewnym momencie AI podpowiedziała mu, że jeśli chce zmniejszyć ilość CO2, którą generuje, to najlepiej, gdyby go nie było, wskutek czego mężczyzna odebrał sobie życie.

Więcej

Aleksander Kutela z RASP oraz Prezes Polskiej Agencji Prasowej Marek Błoński Fot. PAP/Jakub Kaczmarczyk
Aleksander Kutela z RASP oraz Prezes Polskiej Agencji Prasowej Marek Błoński Fot. PAP/Jakub Kaczmarczyk

Impact 2025. Szef PAP: traktujmy nowe technologie jako szansę, a nie zagrożenie

To jest ekstremum, które jednak pokazuje, co może nam grozić, kiedy prosimy AI o radę, dzielimy się z nią swoim stanem psychicznym i poglądami. Odpowiedzi, których udziela, są oparte na statystyce, co oznacza, że nie zawsze będą trafne. Dzięki postępowi technologii w coraz większym stopniu takie właśnie są, co sprawia, że najczęściej im ufamy, a to może uśpić naszą czujność. A im bardziej specjalistyczne zagadnienie, tym bardziej – przynajmniej na chwilę obecną - modele sztucznej inteligencji się mylą. Można to znacznie poprawić technicznymi metodami jak Deep Research (zaawansowana metoda analizy informacji - PAP), ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty.

PAP: Jakie zagrożenia związane z czatbotami mogą występować w miejscu pracy?

Mateusz Chrobok: Podam najgłośniejszy przykład. W 2023 r. pracownik firmy Samsung wrzucił w ChatGPT prezentację, w której były tajne dane. A więc one wyciekły i mogła je zdobyć konkurencja. Tego boi się wiele firm, managerów i zdarza się, że całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga. Bez tej technologii firmy będą mniej konkurencje. Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać.

PAP: Czyli jak?

Mateusz Chrobok: Trzeba zacząć od edukacji samych przełożonych, a dalej pracowników. Nazywamy to higieną AI. Po drugie, ważne są środki techniczne. Istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention (ochrona przed wyciekiem danych - PAP), w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie. W każdej organizacji powinny istnieć zasady korzystania z AI, z których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.

PAP: Myślisz, że mimo ryzyk sztuczna inteligencja powinna być implementowana w każdej firmie?

Mateusz Chrobok: Wiem, że to nieludzkie, aby zmuszać wszystkich do AI. Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna. Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest. Inteligencja ludzka jest ograniczona. Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze.

PAP: Nie boisz się tego?

Mateusz Chrobok: Trochę niepokoi mnie podejście do pracowników, które wyciekło w mailu prezesa pewnej firmy, czyli “zanim zatrudnisz człowieka, przetestuj kilka modeli AI". Być może taka przyszłość nas czeka, jeżeli po drodze nie pojawią się inne rozwiązania. Mimo wszystko jestem fanem implementowania sztucznej inteligencji, aby polepszyć naszą pracę. Mówienie o “chwilowej modzie”, czy “hajpie na AI” to moim zdaniem przesypianie ważnego momentu.

Monika Blandyna Lewkowicz (PAP)

mbl/ ał/ kgr/

Zobacz także

  • Panel „Media Przyszłości”. Fot. PAP/Marcin Obara
    Panel „Media Przyszłości”. Fot. PAP/Marcin Obara

    Panel „Media Przyszłości”: sztuczna inteligencja jest narzędziem i częścią rzeczywistości społecznej

  • Skumani.pl - Kinga Włodarczyk, nauczycielka matematyki platformy, wyłoniona w konkursie „Nauczyciele Przyszłości"
    Skumani.pl - Kinga Włodarczyk, nauczycielka matematyki platformy, wyłoniona w konkursie „Nauczyciele Przyszłości"

    Skumani.pl: korepetycje drogie jak nigdy. Pomoże nowoczesna nauka online i AI

  • Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT
    Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT

    Raport: młodzi coraz częściej weryfikują informacje za pomocą chata GPT i uznają, że podaje prawdę

  • TOURISE 2025 zapoczątkowuje Agentic Tourism Initiative, kładąc podwaliny pod opracowanie zasad kształtowania inteligentnych podróży

Serwisy ogólnodostępne PAP