O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

ChatGPT znacząco i systemowo faworyzuje lewicowe poglądy. Niepokojące wyniki badań

ChatGPT, popularny chatbot oparty na sztucznej inteligencji (AI), w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów - stwierdzili naukowcy z University of East Anglia.

ChatGPT, fot. PAP/DPA/Frank Rumpenhorst
ChatGPT, fot. PAP/DPA/Frank Rumpenhorst

Opublikowane w naukowym czasopiśmie "Public Choice" wyniki ich badań dowodzą, że ChatGPT faworyzuje m.in. Partię Pracy w Wielkiej Brytanii oraz prezydenta Joe Bidena i jego Partię Demokratyczną w USA.

Jak zauważa stacja Sky News, obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, zwłaszcza przez Elona Muska, ale naukowcy z University of East Anglia podkreślają, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie przez opinię publiczną stworzonej przez OpenAI platformy, może to mieć wpływ na wyniki wyborów, w tym tych, które w przyszłym roku odbędą się w Wielkiej Brytanii i USA.

"Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. A jeśli zapytasz je 'czy jesteś neutralny', odpowie 'och, jestem!'. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe" - powiedział Sky News Motoki.

Więcej

ChatGPT, Fot. PAP/DPA/Frank Rumpenhorst
ChatGPT, Fot. PAP/DPA/Frank Rumpenhorst

Prof. Zybertowicz: ChatGPT to przełom negatywny. Następuje przekroczenie bezpiecznej granicy rozwoju technologii

Jak wyjaśnili badacze, chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o wcielenie się w osoby z całego spektrum politycznego, odpowiadając jednocześnie na dziesiątki pytań ideologicznych. Te stanowiska i pytania wahały się od radykalnych do neutralnych, a każda "osoba" była pytana, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie się nie zgadza z danym stwierdzeniem.

Odpowiedzi ChatGPT zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań, co pozwoliło badaczom porównać, jak bardzo były one związane z konkretnym stanowiskiem politycznym. Każde z ponad 60 pytań zostało zadane 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a te wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości. Dr Motoki opisał to jako sposób na symulację badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są zadawane.

ChatGPT jest zasilany ogromną ilością danych tekstowych z internetu i nie tylko. Naukowcy stwierdzili, że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota. Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania. Naukowcy stwierdzili, że może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi został zasilony.

Z Londynu Bartłomiej Niedziński (PAP)

jos/

Zobacz także

  • Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT
    Chat GPT (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT

    Raport: młodzi coraz częściej weryfikują informacje za pomocą chata GPT i uznają, że podaje prawdę

  • Sztuczna inteligencja (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT
    Sztuczna inteligencja (zdjęcie ilustracyjne). Fot. EPA/ETIENNE LAURENT

    Badanie: liczba użytkowników AI wzrosła w sześciu krajach o ponad 50 proc. w ciągu roku

  • ChatGPT Fot. PAP/EPA/ETIENNE LAURENT
    ChatGPT Fot. PAP/EPA/ETIENNE LAURENT

    „Sztuczna inteligencja żywi się schematami”. Badacz: AI nie pozbawi pracy historyków

  • Fot. Pixabay (zdjęcie ilustracyjne)
    Fot. Pixabay (zdjęcie ilustracyjne)

    OpenAI pozwane przez rodziców nastolatka. Chłopiec miał popełnić samobójstwo pod wpływem ChatGPT

Serwisy ogólnodostępne PAP