Hakerzy z Korei Płn. wykorzystują obrazy AI do wyłudzania danych wojskowych
Północnokoreańska grupa hakerska Kimsuky przeprowadziła atak w celu wyłudzenia poufnych danych od południowokoreańskich agencji wojskowych, wykorzystując do tego wygenerowane przez sztuczną inteligencję (AI) kopie legitymacji służbowych - poinformował w poniedziałek Genians Security Center (GSC).
Według raportu instytutu GSC, zajmującego się cyberbezpieczeństwem, hakerzy przeprowadzili w lipcu atak typu spear-phishing, polegający na wysyłaniu wiadomości z adresów e-mail przypominających adresy zaufanych osób lub instytucji w celu wyłudzenia informacji.
Sposób działania hakerów
W wiadomościach hakerzy prosili o weryfikację załączonych wzorów identyfikatorów dla cywilnych pracowników wojska. Korespondencja była jednak obarczona złośliwym kodem, zdolnym do pozyskiwania danych z urządzeń odbiorców.
W raporcie nie ujawniono, która jednostka powiązana z wojskiem padła ofiarą ataku.
Według GSC do stworzenia fałszywych dokumentów Kimsuky wykorzystała AI, która potrafi generować realistyczne, lecz nieprawdziwe obrazy. Analiza metadanych pliku wskazała bezpośrednio na modele GPT-4o i ChatGPT firmy OpenAI. Zdaniem ekspertów instytutu, hakerom udało się obejść zabezpieczenia platform AI, które blokują tworzenie kopii oficjalnych dokumentów, prosząc o stworzenie „przykładowego wzoru” zamiast bezpośredniej reprodukcji rzeczywistego dokumentu.
Rosnące zagrożenie sztucznej inteligencji
Raport podkreśla rosnące zagrożenie związane z wykorzystaniem sztucznej inteligencji do coraz bardziej wyrafinowanych działań przez Koreę Północną. „Chociaż usługi AI są potężnymi narzędziami zwiększającymi produktywność, stanowią również potencjalne ryzyko, gdy są niewłaściwie używane, stanowiąc zagrożenia cybernetyczne na poziomie bezpieczeństwa narodowego” – stwierdzono w raporcie.
Krzysztof Pawliszak (PAP)
krp/ ap/ mdr/