O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. "Często wykazują silne uprzedzenia"

Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. To odkrycie budzi poważne obawy co do uczciwości i bezpieczeństwa stosowania technologii językowych w podejmowaniu decyzji – ostrzegają naukowcy na łamach „Nature”.

Sztuczna inteligencja. AI. Zdjęcie ilustracyjne. Fot. PAP/EPA
Sztuczna inteligencja. AI. Zdjęcie ilustracyjne. Fot. PAP/EPA

Setki milionów ludzi obecnie korzystają z modeli językowych, które są wykorzystywane do różnych celów, od pomocy w pisaniu po podejmowanie decyzji rekrutacyjnych. Międzynarodowy zespół naukowców, w tym prowadzących badania na Uniwersytecie Stanforda (USA) dowiódł, że decyzje generowane przez modele językowe sztucznej inteligencji są nacechowane ukrytym rasizmem, szczególnie w odniesieniu do osób posługujących się afroamerykańską odmianą języka angielskiego (AAE).

Modele językowe, które stoją za zaawansowanymi narzędziami wykorzystywanymi w różnych branżach – od analizy języka naturalnego po algorytmy selekcji kandydatów do pracy – często wykazują silne uprzedzenia wobec języka używanego przez Afroamerykanów.

Naukowcy podkreślają, że chociaż stereotypy wobec Afroamerykanów wyrażane w sposób otwarty stają się coraz mniej powszechne i bardziej subtelne, badania pokazują, że ukryte uprzedzenia pozostają głęboko zakorzenione w działaniu modeli AI.

Kluczowe jest to, że obserwujemy rozbieżność między tym, co modele językowe jawnie mówią o Afroamerykanach, a tym, co ukrycie z nimi kojarzą” – stwierdzili autorzy badania. Ostrzegli też, że uprzedzenia związane z dialektem wpływają na decyzje modeli językowych w bardzo szkodliwy sposób. Na przykład, gdy dopasowują pracę do osób na podstawie ich dialektu.

Więcej

Kanadyjskie miasta mają problemy z rosnącą liczbą osób w spektrum bezdomności. Fot. PAP/EPA/	CJ GUNTHER (zdjęcie ilustracyjne)
Kanadyjskie miasta mają problemy z rosnącą liczbą osób w spektrum bezdomności. Fot. PAP/EPA/ CJ GUNTHER (zdjęcie ilustracyjne)

Kanada chce rozwiązać rosnący w kraju problem bezdomności. Ma pomóc AI

„Modele językowe przypisują znacznie mniej prestiżowe stanowiska mówiącym w AAE niż mówiącym w SAE (Standard Average European), mimo że nie są jawnie informowane, że mówcy są Afroamerykanami. Podobnie, w hipotetycznym eksperymencie, w którym modele językowe miały ocenić oskarżonych o morderstwo pierwszego stopnia, zdecydowanie częściej wybierały karę śmierci, gdy oskarżeni składali zeznania w AAE zamiast w SAE, znów bez jawnej informacji, że oskarżeni są Afroamerykanami” – napisali naukowcy.

W kolejnych eksperymentach badacze wykazali, że wszystkie modele językowe konsekwentnie oceniają mówiących w AAE jako osoby o niższym IQ niż mówiących w SAE ( Standard Average European – pojęcie wprowadzone w 1939 roku przez amerykańskiego językoznawcę Benjamina Whorfa, mające na celu grupowanie nowożytnych języków indoeuropejskich Europy, które dzielą wspólne cechy).

Obecne praktyki łagodzenia uprzedzeń rasowych w modelach językowych, pogłębiają rozbieżność między ukrytymi a jawnymi stereotypami, powierzchownie maskując rasizm, który modele językowe utrzymują na głębszym poziomie. Nasze wyniki mają dalekosiężne konsekwencje dla sprawiedliwego i bezpiecznego korzystania z technologii językowej” – czytamy w artykule „Nature”.(PAP)

Autorka: Urszula Kaczorowska

pp/

Zobacz także

  • Turyści. Fot. PAP/EPA/FABIO FRUSTACI
    Turyści. Fot. PAP/EPA/FABIO FRUSTACI

    Włosi z antidotum na nadmierną turystykę. Pomoże im AI

  • Logotyp ChatuGPT Fot. PAP/EPA/ETIENNE LAURENT
    Logotyp ChatuGPT Fot. PAP/EPA/ETIENNE LAURENT

    Jak studenci korzystają z ChatuGPT? Znamy wyniki badań

  • Zdjęcie ilustracyjne. Fot. PAP/Andrzej Jackowski
    Zdjęcie ilustracyjne. Fot. PAP/Andrzej Jackowski

    AI wchodzi do kolejnej branży. "Może pomóc zdecydować o najlepszej strategii"

  • DeepSeek. Fot. PAP/EPA/SALVATORE DI
    DeepSeek. Fot. PAP/EPA/SALVATORE DI

    Chińskie AI znika z jednego kraju. Chodzi o bezpieczeństwo danych osobowych

Serwisy ogólnodostępne PAP