Foreign Affairs: наддержави повинні почати говорити про штучний інтелект, як колись говорили про небезпеку ядерної зброї
Чи можна приборкати штучний інтелект, як ядерну зброю? Ще не надто рано розпочати серйозні переговори між Америкою та Китаєм, однією з наддержав, щодо штучного інтелекту, вважає Генрі Кіссінджер, ветеран американського політикуму та професор Грем Еллісон у статті "Шлях до контролю над озброєннями штучного інтелекту", опублікованій журналом "Foreign Affairs".
Автори вважають, що уроки, винесені з історії зменшення ризику ядерної зброї, можуть бути використані при вирішенні поточних проблем розвитку штучного інтелекту. Однак вони стверджують, що ці два типи ризиків мають фундаментальні відмінності.
По-перше, розвиток ядерних технологій відбувався під керівництвом урядів, тоді як сучасні досягнення в галузі штучного інтелекту рухаються приватними підприємцями, технологами і компаніями. І вони значно випереджають будь-які аналогічні зусилля уряду.
"Більше того, компанії конкурують між собою. Це прискорює інновації, але оскільки приватні гравці зосереджені на звіті про прибутки і збитки, національні інтереси "будуть недооцінені в цьому розрахунку", - підкреслюють в повідомленні.
По-друге, створення ядерної зброї вимагало складної інфраструктури на кожному етапі: від збагачення урану до проектування ядерної зброї. Продукти були фізичними об'єктами, а отже, піддавалися кількісній оцінці. Там, де можна було бачити, що робить супротивник, можна було створити обмеження. Штучний інтелект, навпаки, представляє зовсім інший виклик.
Як пишуть автори, його основні еволюції відбуваються у свідомості людей. "Його застосування розвивається в лабораторіях, і його реалізацію важко спостерігати. Ядерна зброя є матеріальною; сутність штучного інтелекту є концептуальною", - діагностують експерти.
По-третє, штучний інтелект розвивається і поширюється зі швидкістю, яка унеможливлює тривалі переговори. Контроль над озброєннями розвивався десятиліттями, але обмеження для ШІ повинні з'явитися до того, як ШІ буде вбудований в структуру безпеки будь-якого суспільства, а отже, до того, як машини почнуть встановлювати свої власні цілі (а це може статися в найближчі п'ять років).
На щастя, зазначають вони, великі компанії, які зробили США провідною наддержавою в галузі штучного інтелекту, усвідомлюють, що несуть відповідальність не лише перед своїми акціонерами, а й перед країною та людством загалом. Багато з них вже розробили власні рекомендації щодо оцінки ризиків перед розгортанням, зменшення упередженості навчальних даних та обмеження небезпечного застосування своїх моделей. Значним кроком у правильному напрямку стала ініціатива адміністрації Байдена зібрати в Білому домі керівників семи найбільших AI-компаній, щоб спільно взяти на себе зобов'язання розробити керівні принципи для забезпечення "безпеки, захисту та довіри".
Масштаб загрози, яку несе необмежений розвиток штучного інтелекту, вимагає від лідерів як в уряді, так і в бізнесі діяти якнайшвидше, незважаючи на гострі політичні розбіжності, що існують у США, кажуть експерти.
Будь-яка компанія, що володіє великими обчислювальними можливостями для навчання нових моделей штучного інтелекту, і будь-яка компанія або дослідницька група, що розробляє нові моделі, повинні сформувати групу для аналізу гуманітарних і геополітичних наслідків своїх комерційних операцій зі штучним інтелектом.
"Для цього необхідна взаємодія обох політичних партій", - підкреслюють експерти. Президент і Конгрес повинні призначити національну комісію з відомих, безпартійних колишніх лідерів приватного сектору, Конгресу, військових і розвідувального співтовариства, щоб запропонувати детальні обов'язкові гарантії. Вони повинні включати вимоги щодо постійного моніторингу обчислювальних потужностей, необхідних для навчання моделей штучного інтелекту, таких як GPT-4, а також щодо того, що перед тим, як компанії запускають новий продукт або модель, вони повинні тестувати їх на стійкість до екстремальних загроз.
Аналітики відзначають, що починати серйозні переговори з єдиною в світі АІ-наддержавою ще зовсім не рано. Китайські лідери в технологічному секторі - Baidu (провідна пошукова система країни), ByteDance (творець TikTok), Tencent (творець WeChat) і Alibaba (лідер електронної комерції) - створюють власні китайськомовні аналоги ChatGPT, хоча політична система Китаю створює особливі труднощі для АІ. Тому Байден і Сі Цзіньпін повинні зустрітися найближчим часом для приватної розмови про контроль над озброєннями за допомогою ШІ.
Кожен з них повинен обговорити, як він оцінює загрози, які несе штучний інтелект, що робить його країна для запобігання застосувань, які становлять катастрофічні ризики, і як його країна протидіє експорту загроз вітчизняними компаніями. Вони повинні сформувати консультативну групу з американських і китайських дослідників штучного інтелекту та інших фахівців, які розглядали наслідки цих подій. Цей підхід можна було б змоделювати за зразком існуючої дипломатії "другого шляху" в інших сферах, де групи складаються з осіб, відібраних за їхню розсудливість і доброчесність, хоча формально вони не схвалені урядом їхньої країни. Ґрунтуючись на наших розмовах з провідними науковцями в обох урядах, ми впевнені, що це може бути дуже продуктивна дискусія, зазначають аналітики.
На думку авторів, зусилля США і Китаю будуть лише частиною глобальної дискусії про штучний інтелект. У довгостроковій перспективі буде потрібен глобальний порядок щодо штучного інтелекту. Робота над ним має розпочатися з національних зусиль, спрямованих на запобігання найбільш небезпечним і потенційно катастрофічним наслідкам штучного інтелекту. Всі ці ініціативи повинні бути доповнені діалогом між вченими з різних країн.
Якщо Байден, Сі та інші світові лідери почнуть діяти зараз, щоб протистояти викликам штучного інтелекту, як це робили їхні попередники проти ядерної загрози в попередні десятиліття, чи будуть вони такими ж успішними? Дивлячись на історію та зростаючу поляризацію, важко бути оптимістом. Тим не менш, той факт, що минуло 78 років миру між ядерними державами, повинен надихнути всіх на те, щоб опанувати революційні, неминучі виклики нашого майбутнього за допомогою штучного інтелекту, підсумовують Генрі Кіссінджер і Грем Еллісон.. (PAP)
Опрац. Iryna Hirnyk
ira/