Штучний інтелект воює в Україні

ШІ допомагає рятувати, вбивати і провокує суперечки

20:00, 12 грудня 2023

Штучний інтелект допомагає ідентифікувати російських солдатів, шукати цілі або перехоплювати ворожі комунікації. Він також є невід'ємною частиною проведення пропагандистських та дезінформаційних кампаній. Цей багатоцільовий інструмент викликає чимало суперечок щодо його використання у воєнний час. Зокрема, використання ШІ на війні викликає багато запитань щодо міжнародного гуманітарного права під час збройних конфліктів.

«В одному з українських шпиталів виявили чоловіка, який стверджував, що він наш солдат. За його словами, він постраждав від шоку, спричиненого бомбардуванням. Казав, що пережив травму і все забув. Лікар надіслав нам фото, і ми змогли ідентифікувати його лише за кілька хвилин. Ми знайшли його профіль у соціальній мережі і з'ясували, що він росіянин. Звичайно, він був притягнутий до відповідальності», – хвалиться Михайло Федоров, міністр цифрової трансформації України, на сайті американської компанії Clearview AI. Від початку російської агресії він шукає шляхи використання сучасних технологій на службі своєї країни. Відчайдушно потребуючи підтримки, Україна стала випробувальним майданчиком для цифрових рішень. Зокрема, продукти, які викликають суперечки в більш спокійних частинах світу, проходять тут бойове хрещення.

Ми хочемо повідомити матерям, що вони втратили своїх синів

Встановити особу солдата, про якого говорив Федоров, допоміг власне штучний інтелект Clearview АІ. Його інструмент розпізнавання облич має вражаючі можливості – все, що потрібно зробити, це завантажити фотографію в додаток, і завдяки вдосконаленим алгоритмам він зіставить її з одним із 10 мільярдів зображень у базі даних. Для його створення компанія за допомогою спеціальних комп'ютерних програм автоматично завантажила фотографії зі сервісів: з американських Facebook чи Instagram, а також російських «ВКонтакте» та «Одноклассники». Як хвалиться компанія, кожне п'яте зображення в її інвентарі походить з двох останніх соціальних мереж.

Технологія, яку надає Clearview AI, швидко стала одним з важливих цифрових інструментів в Україні. Сьогодні її використовують сім різних відомств, зокрема військовики та прикордонники, а доступ до бази даних мають понад 900 користувачів. Загалом у системі вже виконано 125 тисяч пошукових запитів. За даними української влади, за допомогою цієї технології було ідентифіковано 7,5 тисяч підозрюваних у скоєнні злочинів, а 125 російським солдатам висунуто звинувачення. Clearview АІ допоміг возз'єднати сім'ї, знайти зниклих безвісти, виявити дезінформацію, посилити безпеку на контрольно-пропускних пунктах і викрити шпигунів. Він також став основою однієї з найнеймовірніших операцій в інформаційній війні.

Завдяки алгоритмам штучного інтелекту Clearview AI може розпізнавати навіть обличчя зі значними пораненнями. Тож українці почали ідентифікувати за його допомогою тіла вбитих російських солдатів, а потім зв'язуватися з їхніми родинами. «Ми поширюємо інформацію через соціальні мережі. Це люб’язність до матерів, ми хочемо хоча б повідомити сім'ї, що вони втратили своїх синів, а потім дати їм можливість приїхати і забрати їхні тіла», – прокоментував Федоров. Інші члени його команди стверджували, що це могло вплинути на повільний хід мобілізації в Росії.

Всі так роблять

Як Clearview AI опинився в Україні? Компанія сама запропонувала свої послуги. На початку березня 2022 року її генеральний директор Гоан Тон-Тат запропонував українському уряду не лише безкоштовний доступ до технології, а й навчання як її використовувати. «Моє серце з українцями, я сподіваюся, що наша технологія може бути використана для запобігання шкоді, для порятунку невинних людей і захисту життів», – запевнив він.

Хоча українці, згідно з офіційною інформацією, не платили за передову систему, насправді нічого не буває безкоштовним. Адже цей кейс став своєрідною CSR-війною (corporate social responsibility – корпоративна соціальна відповідальність), тобто пакетною угодою, в якій одна сторона отримує допомогу від компанії, а сама компанія – покращення свого іміджу. Саме зі сайту компанії, до речі, взято всі цитати українських чиновників, використані в цій статті. Для Clearview AI це було потрібно, оскільки, коли Ton-That пропонувала свою допомогу українському уряду, вона перебувала під слідством європейських та американських регуляторів, які звинувачували її в грубих порушеннях приватності інтернет-користувачів. Дані про них збиралися з порушенням правил і положень про соціальні мережі. Ton-That стверджував у ЗМІ, що «всі так роблять».

Невдовзі після пропозиції, яку Ton-That зробив українському уряду, італійський орган захисту даних наклав на Clearview AI штраф у розмірі 20 млн євро. Це найвищий можливий розмір штрафу, передбачений GDPR (General Data Protection Regulation – Загальний регламент про захист даних). У травні британський регулятор додав ще 8 млн, а потім Греція та Франція – по 20 млн. Для компанії це немало – за даними галузевого порталу CB Insights, загальна вартість випущених акцій компанії становила 38 млн доларів.

І це ще не все – їй також наказали видалити фотографії жителів цих країн зі своєї бази даних і заборонили збирати їх у майбутньому. У штаті Іллінойс компанії Clearview AI заборонили продавати свої продукти – як сервісам, так і підприємствам – протягом наступних п'яти років.

Що ви бачите в Palantir

Ще одна технологічна компанія, яка надає послуги українській армії, – це Palantir. Компанія, назва якої відсилає до магічної «кришталевої кулі» з «Володаря перснів» Джона Р. Толкіна, займається аналітикою даних. Серед її клієнтів – Міністерство оборони США, ЦРУ та ФБР.

В Україні Palantir стає критично важливим для вирішення чимраз більшої кількості завдань – від надання гуманітарної допомоги до ведення бойових дій. Які приклади? Невдовзі після повномасштабного вторгнення Росії в Україну виникла нагальна потреба знайти домівки для тих, хто тікав від війни. Велика Британія звернулася по допомогу до американської компанії. Спираючись на своє програмне забезпечення, вона запустила Homes for Ukraine – додаток для залагодження безпечного розселення біженців. Протягом 24 годин після запуску програма отримала понад 120 тисяч пропозицій щодо житла.

Palantir також допомагає документувати російські військові злочини – він надав генеральному прокурору країни програмне забезпечення, яке пов'язує ймовірні злочини з російськими військовими підрозділами. У майбутньому розроблені ним рішення стануть ключовими для відбудови країни. Очікується, що, наприклад, аналізуючи дані про розподіл учнів, вони допоможуть визначитися з місцем розташування нових шкіл. Інвестори не сумніваються, що це буде прибутковий бізнес для компанії: щойно було оголошено про партнерство, вартість акцій Palantir підскочила більш ніж на 10%.

І на цьому справа не зупиняється: у лютому 2023 року генеральний директор Palantir Алекс Карп зізнався, що українці використовують його технологію і в суто військових цілях – відстежують за її допомогою цілі. Система, яку українці використовують для цього, називається MetaConstellation. Вона ґрунтується на даних, зібраних з комерційних супутників, теплових датчиків або розвідувальних безпілотників, а також на більш традиційних джерелах, тобто просто на шпигунах. Наскільки ефективна така технологія? Як зізнався в інтерв'ю The Times генерал Річард Барронс, який командував британськими підрозділами в Іраку та Афганістані, якщо ще два десятиліття тому армійське командування могло відстежувати 10 цілей на день, то сьогодні той самий підрозділ може відстежувати 300.

Алекс Карп усе частіше порівнює володіння передовими системами штучного інтелекту з ядерною зброєю. І не тільки він. У лютому цього року уряд Нідерландів скликав перший міжнародний саміт з питань відповідального використання штучного інтелекту у військовій сфері. На його відкритті з такою ж заявою, як і генеральний директор Palantir, виступив віцепрем'єр-міністр і міністр закордонних справ Нідерландів Вопке Гукстра. У саміті взяли участь 50 країн, зокрема Китай (Росія не була запрошена). Учасники підписали декларацію, в якій зобов'язалися спільно працювати над забезпеченням належних гарантій і людського нагляду за використанням систем на основі штучного інтелекту.

У Польщі також обговорюється питання використання ШІ в армії. У квітні цього року президент Анджей Дуда підписав постанову про основні напрямки розвитку польських збройних сил на 2025–2039 роки. Серед систем, якими мають бути оснащені військові, нарівні зі системами протиповітряної оборони, фігурують ШІ та програми аналізу big data.

Зеленський «капітулює», Путін «оголошує» воєнний стан

Однак ШІ, який воює в Україні, – це не лише великі системи, розроблені спеціалізованими компаніями. Це також інформаційні партизани, які використовують інструменти генеративного ШІ, такі як ChatGPT, що поширюються з блискавичною швидкістю. Після того як у листопаді 2022 року OpenAI зробив його загальнодоступним, Україна витратила майже пів року на те, щоб сервіс став доступним і на її території (спочатку він був заблокований, як і в Росії та Ірані).

Великі мовні моделі (LLM – Large Language Models) – це просунуті системи штучного інтелекту. Вони здатні генерувати тексти з величезних обсягів навчальних даних і можуть бути використані для різних завдань, таких як розуміння природної мови, переклад і генерація контенту. Чат-боти на їхній основі можуть стати потужним інструментом в інформаційній війні. Вони легко створюватимуть тексти будь-якою мовою і навіть у стилі конкретної людини. Створюватимуть сайти. Аналізуватимуть документи. Звісно, вони мають і темний бік: дані, які ми вводимо в них, збираються виробниками і допомагають тренувати наступне покоління алгоритмів. Саме тому багато компаній – наприклад, Samsung – забороняють їх використання: занадто високий ризик розкриття секретів компанії. Не кажучи вже про військову таємницю.

Використання штучного інтелекту в пропаганді – справа рук обох сторін конфлікту. Алгоритми допомагають створювати, наприклад, відео, так звані deep fake, зі зображенням політиків. Ще в березні 2022 року росіяни виклали в інтернет відео, на якому президент України Володимир Зеленський закликає співвітчизників скласти зброю. Його швидко визнали неправдивим і видалили з таких платформ, як YouTube і Facebook. Однак на початку червня цього року на російському телебаченні з'явилося відео, в якому Володимир Путін оголошує воєнний стан і попереджає, що віддасть наказ про загальну мобілізацію. Це також було сфабриковано. Однак авторів цієї акції так і не знайшли.

Хоча поширення дезінформації не є чимось новим, штучний інтелект пропонує безпрецедентні можливості для масштабування таких кампаній. Особливо в поєднанні з охопленням, яке пропонують соціальні медіаплатформи. Один лише Telegram, де завдяки ліберальній політиці модерації контенту поширюється інформація про війну, має мільярд користувачів. У такому середовищі легко запустити в обіг брехню, створену за допомогою штучного інтелекту.

Коли дрон плутає цілі

Використання алгоритмів в ухваленні військових рішень є надзвичайно суперечливим. Це пов'язано з тим, що системи штучного інтелекту – навіть у цивільному застосуванні – оповиті таємницею. Хоча загальні принципи їхньої роботи відомі, навіть самим творцям важко простежити, чому вони ухвалюють ті чи інші рішення. Пояснюваність алгоритмів досі цікавить дослідників. На проведення такого аналізу цього року грант від Європейської дослідницької ради отримав професор Пьотр Санковський з Варшавського університету. На його думку, якщо люди не знають, чому комп'ютер пропонує ті чи інші рішення, він не завоює їхньої довіри.

«У військовій справі це також має значення. Штучний інтелект тут може використовуватися двома способами: для підтримки людських рішень або як суб'єкт, що ухвалює рішення самостійно. Перший варіант використання набагато менш суперечливий. Штучний інтелект вже роками використовується саме так – він обробляє супутникові дані, дані розвідки, зображення з камер. Справжні проблеми почнуться, якщо армії вирішать передати ухвалення рішень алгоритмам», – вважає докторка Кая Ковальчевська, юристка з Вроцлавського університету та авторка публікації «Штучний інтелект на війні. Погляд на міжнародне гуманітарне право збройних конфліктів».

Що це означає? Наприклад, використання безпілотників, які шукають, а потім самі знищують ціль. Тобто вбивають людину. «Якщо солдат ухвалив хибне рішення, він може відповісти перед судом. Його командир також може бути притягнутий до відповідальності. А що відбувається, якщо помилка зроблена пристроєм? Відповідати має держава, яка його використовувала. Але хто особисто – покупець, виробник чи, можливо, програміст, який створив недосконалий алгоритм?» – міркує вголос Ковальчевська. Однак вона додає, що, незалежно від використовуваної технології, всі сторони конфліктів пов'язані міжнародним гуманітарним правом. «Правила, описані там, повинні застосовуватися всіма сторонами», – стверджує вона.

На думку пані Ковальчевської, буде важко регулювати використання штучного інтелекту на міжнародному рівні. «Країни поділяються на тих, хто каже, що цю технологію потрібно заборонити, тих, хто каже, що потрібно розробити загальні правила, і Китай, думка якого полягає в тому, що ШІ не можна використовувати на війні, але можна виробляти і продавати такі рішення», – каже юристка, додаючи, що, на її думку, найважливішим було б запровадити правило, що кожне рішення ШІ контролюється людиною.

***

Переклад з польської

Текст опубліковано в межах проєкту співпраці між ZAXID.NET і польським часописом Nowa Europa Wschodnia.

Попередні статті проєкту: Україна – ЄС: гарячий фініш переговорів, Україна – втеча від вибору, Східне партнерство після арабських революцій, У кривому дзеркалі, Зневажені, Лукашенко йде на війну з Путіним, Між Москвою й Києвом, Ковбаса є ковбаса, Мій Львів, Путін на галерах, Півострів страху, Україну придумали на Сході, Нове старе відкриття, А мало бути так красиво, Новорічний подарунок для Росії, Чи дискутувати про історію, Мінський глухий кут

Оригінальна назва статті: Sztuczna inteligencja walczy w Ukrainie