Россия использует ИИ для распространения дезинформации о войне в Украине
Москва использует искусственный интеллект (ИИ) для "заражения" ChatGPT и других языковых моделей путем распространения ложной информации, в том числе о войне в Украине, предупредил британский журналист и эксперт по дезинформации Питер Померанцев во время конгресса Impact'26.
"Россия постоянно адаптируется к новым технологиям и поэтому использует ИИ для того, что мы называем отравлением ответов, генерируемых ChatGPT или Claude, создавая множество ложных версий реальности с помощью ИИ, например, о войне в Украине", - сказал журналист, который был одним из участников дискуссии на мероприятии в Познани в среду.
Померанцев отметил, что такие действия России могут привести к ситуации, когда - если ChatGPT спросят, кто несет ответственность за войну в Украине - инструмент начнет ложно обвинять в конфликте, например, Польшу или Швецию. Он добавил, что Россия продолжает манипулировать реальностью в своей собственной стране и создала для этой цели собственные языковые модели.
"Так что, если вы россиянин и спросите, что происходит в Украине, эти модели дадут ответ, адаптированный к официальной российской версии (этого ответа - PAP)", - сказал журналист.
Померанцев отметил, что Москва имеет преимущество в информационном пространстве благодаря своей масштабной цензуре и контролю над СМИ. Однако он оценил, что демократические государства более устойчивы к дестабилизации.
"Наши общества открыты, а значит, очень устойчивы", - отметил Померанцев, добавив, что Россия остается особенно чувствительной к давлению, связанному с экономическими проблемами и военной мобилизацией.
Польское агентство прессы является информационным партнером конгресса Impact. (PAP)
Обр. kjj/