O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

Sztuczna inteligencja karmiona danymi generowanymi przez AI może się "załamać"

Modele sztucznej inteligencji (AI) upadają, gdy są trenowane na danych generowanych przez AI – dowodzą naukowcy na łamach „Nature”. Podkreślają też konieczność używania wiarygodnych danych do trenowania modeli AI.

Zdjęcie ilustracyjne. Fot. PAP/EPA/Robert Ghement
Zdjęcie ilustracyjne. Fot. PAP/EPA/Robert Ghement

Używanie zestawów danych generowanych przez AI do trenowania przyszłych generacji modeli uczenia maszynowego może zanieczyścić ich wyniki, co jest koncepcją znaną jako „upadek modelu” (model collapse). Badania pokazują, że w ciągu "życia" kilku generacji modeli sztucznej inteligencji oryginalna treść zostaje zastąpiona niepowiązanymi ze sobą nonsensami.

Narzędzia generatywnej sztucznej inteligencji, takie jak duże modele językowe (LLM), zyskały na popularności i były głównie trenowane za pomocą danych generowanych przez ludzi. Jednakże – jak dowodzą naukowcy – w miarę, jak te modele AI będą się rozprzestrzeniać w internecie, treści generowane komputerowo mogą być używane do trenowania innych modeli AI — lub siebie samych — co określa się za pomocą pojęcia pętla rekurencyjna.

Ilia Shumailov z Uniwersytetu Oksfordzkiego w Wielkiej Brytanii i jego współpracownicy, korzystając z modeli matematycznych, przedstawili, jak modele AI mogą doświadczać upadku. Autorzy pokazali, że AI może pomijać pewne wyniki (na przykład mniej powszechne fragmenty tekstu) w danych treningowych, co powoduje, że trening odbywa się tylko na części zestawu danych.

Więcej

Fot. PAP/EPA/RITCHIE B. TONGO
Fot. PAP/EPA/RITCHIE B. TONGO

Prof. Mądry o rozwoju AI: sztuczna inteligencja to autostrada do postępu

Naukowcy zbadali również, jak modele AI reagują na zestaw danych treningowych, który w większości został stworzony przez sztuczną inteligencję. Odkryli, że karmienie modelu danymi generowanymi przez AI powoduje, że kolejne generacje degradują, jeśli chodzi o zdolność do uczenia się, co ostatecznie prowadzi do upadku modelu. Niemal wszystkie testowane przez naukowców modele językowe trenowane rekurencyjnie wykazywały tendencję do powtarzania fraz. Badacze podali za przykład test, w którym wykorzystano do treningu tekst o średniowiecznej architekturze. Okazało się, że w dziewiątej generacji sztuczna inteligencja zamiast o architekturze, podawała informacje o zającach.

Autorzy badania wskazują, że upadek modelu jest nie do uniknięcia, jeśli do treningu AI będą używane zestawy danych tworzonych przez poprzednie generacje. Ich zdaniem skuteczne trenowanie sztucznej inteligencji na jej własnych wynikach nie jest niemożliwe, ale filtrowanie wygenerowanych danych należy traktować poważnie. Jednocześnie – zdaniem naukowców – firmy technologiczne, które będą wykorzystywały do trenowania AI tylko treści generowane przez ludzi, zyskają przewagę w porównaniu do konkurencji, która przyjmie inną strategię.

(PAP)

Autorka: Urszula Kaczorowska

pp/

Zobacz także

  • Logo Google, zdjęcie ilustracyjne, fot. PAP/EPA/CAROLINE BREHMAN
    Logo Google, zdjęcie ilustracyjne, fot. PAP/EPA/CAROLINE BREHMAN

    KE wszczęła postępowanie wobec Google'a. Chodzi o AI. "Podejrzenie naruszenia reguł"

  • Konferencja "Media Przyszłości" organizowana przez PAP. Fot. PAP
    Konferencja "Media Przyszłości" organizowana przez PAP. Fot. PAP

    Dziś VI konferencja "Media Przyszłości" organizowana przez PAP

  • Zdjęcie ilustracyjne Fot. Adobe Stock/peshkova
    Zdjęcie ilustracyjne Fot. Adobe Stock/peshkova
    Specjalnie dla PAP

    Ekspertka z Google’a: już dzieci muszą wiedzieć, że za AI stoją ludzie [WYWIAD]

  • Papież Leon XIV. Fot. PAP/EPA/FABIO FRUSTACI
    Papież Leon XIV. Fot. PAP/EPA/FABIO FRUSTACI

    Papież zaapelował o ochronę godności dzieci w dobie AI

Serwisy ogólnodostępne PAP