Ekspert: w 2026 r. opadła ekscytacja AI, firmy zaczynają dostrzegać jej wady
W 2026 r. opadła pierwsza ekscytacja AI; firmy zaczynają dostrzegać jej wady i weryfikować swoje potrzeby w tym zakresie - ocenił w Studiu PAP ekspert ds. wdrażania sztucznej inteligencji dr Michał Nowakowski. Firmy zaczną też lepiej rozumieć, jak działa AI i budować nad nią ramy nadzoru - dodał.
- Dochodzimy do takiego momentu, w którym zaczynamy dostrzegać pewne wady i wyzwania, które są związane z wykorzystywaniem sztucznej inteligencji - wskazał Nowakowski, pytany co czeka firmy w 2026 r. w związku z rozwojem tej technologii. Jego zdaniem, opadła pierwsza ekscytacja związana z demokratyzacją tego typu rozwiązań, a przedsiębiorstwa zaczynają weryfikować swoje potrzeby w zakresie AI.
- Myślę, że w związku z większą dojrzałością organizacje zaczną budować ramy nadzoru, monitorowania, kontroli nad AI; zaczynają lepiej rozumieć, w jaki sposób to działa - mówił ekspert.
Pytany, czy agenci AI, czyli technologia, która jest w stanie wykonywać wiele skomplikowanych zadań jednocześnie, zaczną być szeroko wykorzystywane w przedsiębiorstwach w tym roku, dr Nowakowski odpowiedział, iż nie sądzi, aby zaszła wielka zmiana w tym zakresie. - Na pewno nie będzie to żadna rewolucja - ocenił.
Jego zdaniem, należy budować odporność „na marketingowy i PR-owy szum” związany z AI. - Wydaje mi się, że trochę jest tego za dużo, za bardzo jesteśmy naciskani (...). Nie musimy mieć wszędzie AI. Nie zawsze zaawansowana analityka będzie miała uzasadnienie - mówił ekspert.
Przypomniał, że 2 sierpnia br. ma wejść w życie większość unijnego aktu o sztucznej inteligencji (AI act), m.in. przepisy związane z systemami wysokiego ryzyka oraz obowiązkiem transparentności, czyli oznaczania treści wygenerowanych przez AI. Dodał, że w listopadzie 2025 r. Komisja Europejka przedstawiła tzw. omnibus cyfrowy, czyli propozycje uproszczeń przepisów, które mogą przesunąć wejście w życie przepisów AI Act.
- Żyjemy w takim momencie, w którym nie do końca wiemy, czy powinniśmy się dostosowywać, czy może niekoniecznie powinniśmy się dostosowywać do tych przepisów. Ja wychodzę z założenia, że dojrzałe organizacje, które inwestują w budowanie swojej odporności i w zwiększanie efektywności, powinny to robić z użyciem czegoś, co ja określam mianem „AI governance”, czyli całościowej opieki nad projektami tego typu, uwzględniającymi kwestie compliance'owe (zgodności - PAP) wynikające m.in. z AI Actu - mówił ekspert.
Pytany o możliwość uzyskania autonomii przez sztuczną inteligencję, dr Nowakowski ocenił, że „nie jest to technologia, która ma szansę zacząć samodzielnie myśleć”. - Nie jestem w stanie sobie wyobrazić, żeby jakikolwiek duży model językowy miał stać się autonomiczny. Jasne, mogę się mylić (...), ale korzystając z wiedzy autorytetów, wydaje mi się, że to jest utopia - wskazał. Dodał, że wiele zależy m.in. od tego, co rozumiemy, używając terminu „autonomia”.
- W tej dyskusji nie rozumiem, po co my właściwie zastanawiamy się nad tą kwestią. Problemy są zupełnie gdzie indziej. To chociażby kwestie ryzyk etycznych, które mają istotne znaczenie z punktu widzenia całych społeczności - zaznaczył dr Nowakowski. - Nie sądzę, że nagle będziemy mieli Skynet (sztuczna inteligencja z filmów z serii „Terminator” - PAP). Jeżeli powstanie, to dla mnie większym problemem będzie to, kto będzie stał za tym Skynetem i czy on będzie postępował w odpowiedni sposób. Narzędzia zawsze do kogoś należą; ktoś podejmuje decyzję o tym, jak je wykorzystać - podsumował.
Akt o sztucznej inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 r. z pewnymi wyjątkami. W lutym 2025 r. mocy nabrały m.in. przepisy dotyczące systemów AI, które są w UE zakazane. Do 2 sierpnia ub.r. kraje członkowie miały czas na powołanie organu nadzoru rynku. W sierpniu br. zastosowanie będzie mieć cały akt z wyjątkiem jednego artykułu. W pełni zacznie on obowiązywać w 2027 roku.
19 listopada 2025 r. Komisja Europejska przedstawiła projekt uproszczenia przepisów cyfrowych - Digital Omnibus (omnibus cyfrowy). Zakłada on opóźnienie o co najmniej rok, nawet do grudnia 2027 r., obowiązywanie części przepisów unijnego aktu o sztucznej inteligencji, zmiany w przepisach RODO dotyczące m.in. ochrony danych, uproszczenie regulacji dotyczących plików cookie oraz sprawozdawczości w zakresie cyberbezpieczeństwa.
Monika Blandyna Lewkowicz (PAP)
ppa/