O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

Eksperci: część materiałów AI z rozebranymi dziećmi jest Polsce legalna. "Musimy pilnie zmienić to prawo"

Wygenerowane przez AI materiały z rozebranymi dziećmi są w Polsce legalne, jeśli nie przedstawiają czynności seksualnych; należy pilnie zmienić to prawo - alarmują w rozmowie z PAP biegli sądowi Amanda Krać-Batyra i Tomasz Sidor.

Sztuczna inteligencja (zdjęcie ilustracyjne). Fot. EPA/Enric Fontcuberta
Sztuczna inteligencja (zdjęcie ilustracyjne). Fot. EPA/Enric Fontcuberta

Zgodnie z 202 art. Kodeksu karnego rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze pozbawienia wolności od 3 miesięcy do 5 lat. Chodzi o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna.

Natomiast posiadanie i rozpowszechnianie materiałów wytworzonych czy przetworzonych przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko, czy też ukazane w stylu bajkowym, ale bez czynności seksualnej, nie jest w Polsce karane – wskazała w rozmowie z PAP biegła z zakresu antropologii sądowej Amanda Krać-Batyra. Jak dodała, podobnie jest w przypadku materiałów z dziećmi ubranymi w sposób seksualizujący (np. w samą bieliznę, stroje kąpielowe, kabaretki czy pończochy), które nie ukazują jednak rzeczywistych czynności seksualnych ani prawdziwych, żyjących dzieci.

W Polsce legalne są też opowieści, czyli słowny opis czynności seksualnych wobec dziecka oraz nagrania audio w tym zakresie - dodał w rozmowie z PAP biegły z zakresu informatyki śledczej Tomasz Sidor.

Więcej

Błażej Kmieciak. Fot. PAP/Marcin Obara
Błażej Kmieciak. Fot. PAP/Marcin Obara

Prof. Kmieciak: bliska relacja z dzieckiem to podstawowy element prewencji pedofilii

Aspekt prawny

Jak wskazali eksperci, problemem jest definicja zawarta w artykule 202 Kodeksu karnego, który penalizuje produkcję, posiadanie i rozpowszechnianie materiałów „przedstawiających wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej”.

- Musimy pilnie zmienić to prawo – alarmują biegli. Jak wskazała Krać-Batyra, prace nad nową treścią artykułu 202 kk już trwają, postulują je głównie środowiska pozarządowe oraz część instytucji publicznych (np. Dyżurnet działający przy NASK), związanych z ochroną dzieci. Główny postulat to zastąpienie pojęcia „treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej” terminem przyjętym w prawodawstwie unijnym, czyli „materiały ukazujące seksualne wykorzystanie dziecka” (z ang. „child sexual abuse material” – CSAM) – wskazała ekspertka.

"Słowo 'pornografia' nie powinno być używane w przepisach odnoszących się do dziecka, bo pornografia to legalny biznes rozrywkowy skierowany dla dorosłych".

Amanda Krać-Batyra

Jak przekazał Tomasz Sidor, część krajów UE, w tym Słowenia, Belgia czy Niemcy podchodzą bardziej restrykcyjne do przepisów związanych z materiałami CSAM.

"Tego typu przestępstwa przekraczają granice państw. Tymczasem w jednym kraju pewne zachowania są penalizowane, a w innym legalne. W związku z tym występuje poważny problem z międzynarodowym ściganiem przestępstw popełnianych przez osoby z zaburzonymi preferencjami seksualnymi".

Tomasz Sidor

Wykorzystanie sztucznej inteligencji 

Jak wskazał, generowanie CSAM jest możliwe przez modele AI ogólnodostępne w internecie, co stanowi poważne wyzwanie. Są też modele, które można uruchomić na swoim urządzeniu i przygotować tak, by omijały filtry nakładane przez producentów. - Nie potrzeba do tego specjalnego sprzętu. Często wystarczy laptop z dedykowaną kartą graficzną - mówił Tomasz Sidor. Dodał, że istnieją również modele AI specjalnie trenowane w celu „rozbierania” przedstawionych na zdjęciach dzieci lub generowania materiałów CSAM, do których dostęp na zasadzie subskrypcji cyberprzestępcy sprzedają w Darknecie.

Więcej

Transparenty protestujących przeciwko pedofilii Fot. PAP/Leszek Szymański
Transparenty protestujących przeciwko pedofilii Fot. PAP/Leszek Szymański

Ekspert: pomoc sprawcom wykorzystania seksualnego dzieci jest elementem ochrony najmłodszych

Praca nad materiałami CSAM, których jeden podejrzany potrafi mieć na urządzeniu tysiące, niesie ze sobą ogromne obciążenie psychiczne dla biegłych, którzy często są przeciążeni albo wypaleni zawodowo – podkreśliła Amanda Krać-Batyra. Jak wskazała – zdaniem biegłych jest wytypowanie podejrzanych materiałów i opisanie ich w opinii, która trafi do policji, prokuratury czy sądu. Zaznaczyła, że organy te weryfikują nadesłane materiały, decydują o np. powołaniu seksuologa, który może zbadać preferencje podejrzanego, czy o postawieniu zarzutów i na końcu - o wydaniu wyroku.

Zawsze wskazuję materiały, które są według mnie są podejrzane, nawet jeśli w świetle polskiego prawa ich posiadanie nie jest zabronione. Jednak rzadko kiedy w takich sprawach zapadają wyroki skazujące. Kiedyś zgłosiłam, że podejrzany miał na urządzeniu setki reklamowych zdjęć niemowlaków w śpioszkach, które pobrał ze stron sprzedających ubranka. Prokurator zadzwonił do mnie z pretensjami, że przecież tam nie ma nic nielegalnego – wspomina ekspertka.

Część biegłych korzysta ze sztucznej inteligencji, która ma pomóc we wstępnym wytypowaniu CSAM, jednak i tu pojawiają się problemy. – Zdarzają się „fałszywe pozytywy” (z ang. false positive), czyli sytuacje, w których AI oznacza jako podejrzane materiały w ogóle nie związane z dziećmi, np. zdjęcia, na których były pierogi ze śmietaną, pyzy ze skwarkami, czy borsuk – mówiła biegła. Jak dodała, zdarzają się też tzw. „fałszywe negatywy” (z ang. false negative), czyli sytuacje, w których AI nie wykrywa CSAM.

"Jeśli źle zakwalifikowany materiał trafi do sądu, będzie go bardzo łatwo podważyć. A biegły odpowiada karnie za złożenie fałszywej opinii, nawet jeśli zrobi to nieumyślnie".

Amanda Krać-Batyra

Jak wskazali eksperci, aby narzędzia AI mogły skutecznie pomagać w wykrywaniu CSAM, powinny być specjalnie w trenowane w tym celu oraz wyjaśnialne, co oznacza, że dostępna jest informacja, dlaczego algorytm podjął taką, a nie inną decyzję. Jednak twórcy AI strzegą tajemnic związanych z algorytmami – wskazała ekspertka. Nie są też chętni do udzielania informacji ani udostępniania narzędzi do wykrywania materiałów wygenerowanych przez AI - dodał Tomasz Sidor.

Monika Blandyna Lewkowicz (PAP)

mbl/ malk/ lm/ grg/

Zobacz także

  • Panel „Media Przyszłości”. Fot. PAP/Marcin Obara
    Panel „Media Przyszłości”. Fot. PAP/Marcin Obara

    Panel „Media Przyszłości”: sztuczna inteligencja jest narzędziem i częścią rzeczywistości społecznej

  • Skumani.pl - Kinga Włodarczyk, nauczycielka matematyki platformy, wyłoniona w konkursie „Nauczyciele Przyszłości"
    Skumani.pl - Kinga Włodarczyk, nauczycielka matematyki platformy, wyłoniona w konkursie „Nauczyciele Przyszłości"

    Skumani.pl: korepetycje drogie jak nigdy. Pomoże nowoczesna nauka online i AI

  • Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT
    Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT

    Raport: młodzi coraz częściej weryfikują informacje za pomocą chata GPT i uznają, że podaje prawdę

  • TOURISE 2025 zapoczątkowuje Agentic Tourism Initiative, kładąc podwaliny pod opracowanie zasad kształtowania inteligentnych podróży

Serwisy ogólnodostępne PAP