Перша стратегія штучного інтелекту США: інновації VS етика

Перша стратегія штучного інтелекту США: інновації VS етика
У лютому 2019 року Пентагон оприлюднив “Короткий зміст стратегії міністерства оборони щодо штучного інтелекту на 2018 рік”. Це анотація документа, написаного ще у 2018 році, що закладає основувикористання технологій штучного інтелекту (ШІ) у військовій сфері на найближчі роки.

На початку 2019 р. в американському Конгресі розгорнулася дискусія про технологічне відставання США від Китаю і РФ у сфері розвитку ШІ. На думку голови Комітету Сенату США зі збройних сил Джеймса Інхофа, “відмова від використання ШІ призведе до появи застарілих систем, що не стосуються захисту наших людей, підриву згуртованості серед союзників і партнерів, зниженню доступу до ринків, що сприятиме падінню нашого добробуту й рівня життя, зростанню викликів нашому суспільству, побудованому на індивідуальних свободах”[1].

На додаток до стратегії міноборони Білий дім видав Розпорядження, що координуватиме роботу із розвитку ШІ у федеральному уряді. На відміну від стратегії ШІ Китаю, у документі немає детальної інформації щодо методів реалізації та фінансування програми.

Екс-заступниця начальника штабу міністра оборони США Венді Андерсон, яка зараз працює в компанії Sparkcognition і займається розробкою та створенням ШІ, вважає, що багато підприємств-лідерів у сфері штучного інтелекту, представники технічної спільноти, учені, розробники й політики впродовж багатьох років чекали на цей документ. Однак вона все ж “хотіла б побачити план реалізації cтратегії й ресурси, які уряд виділяє на її втілення. Якщо ми не хочемо технологічно відставати від інших країн, нам потрібно зайнятися питаннями розвитку ШІ просто зараз”.  

Вміст документа. Стратегія передбачає прискорення використання систем ШІ в армії: від операцій зі збору розвідувальних даних до прогнозування проблем із технічним обслуговуванням літаків або кораблів. До того ж, зважаючи на впровадження штучного інтелекту в Росії й Китаї, зокрема в критичних з етичного погляду сферах, Пентагон планує долучитися до гонки озброєнь і визначити для себе рамки використання нових технологій.

У доповіді майже не йдеться про автономну зброю, однак наведена цитата з військової директиви 2012 року, яка вимагає, щоб люди контролювали ситуацію під час використання ШІ[2].

Головним і найпершим наслідком застосування штучного інтелекту, на думку Пентагону, будуть зміни у логістиці та обслуговуванні військової техніки. Під час постійного моніторингу стану військового устаткування можна розпізнати маркери її деградації раніше, ніж вона стане фактично непридатною до використання, і ефективніше застосовувати ремонтні ресурси. Це дозволить знизити операційні витрати і поліпшити співвідношення боєздатних сил до їхньої загальної кількості (“коефіцієнт оперативної напруги”).

ШІ також планують використовувати для поліпшення обізнаності щодо небезпек, які раптово виникають у різних сферах (від кіберпростору до “класичного” поля бою) і є неочевидними для людини-оператора. Це має підвищити якість оцінки ситуації і точність дій військових.

На думку міноборони США, технології ШІ повинні автоматизувати “ручну некваліфіковану працю”, щоб збільшити продуктивність праці, зменшити вірогідність помилки через людський чинник і дозволити людині-оператору зосередитися на більш складних завданнях. Усе це повинно перетворити Пентагон на важливого працедавця у сфері ШІ і підвищити ефективність внутрішніх процесів у військовому міністерстві.

Об’єднаний центр штучного інтелекту. Для реалізації цих планів оборонне відомство пропонує створити додаткову структуру – Об’єднаний центр штучного інтелекту (JAIC), що буде проміжною ланкою між розробниками і користувачами та допоможе інтегрувати технології ШІ у всі галузі військової справи. Ще одне завдання центру – зниження організаційних перешкод для використання тих самих напрацювань у різних видах військ.

Створення JAIC є кроком до концентрації компетенцій в сфері ШІ в руках однієї структури всередині Пентагону, яка, з одного боку, координуватиме впровадження технологій штучного інтелекту у військову галузь, а з іншого – відповідатиме за комунікацію у цій сфері з партнерами і науково-технічними центрами фундаментальних досліджень, як-от DARPA або університети США. JAIC найперше буде виконавчою структурою, що займатиметься розробкою, оцінкою та масштабним впровадженням прототипів, а комунікація буде лише додатком для виконання цих завдань.

Щоби стати компетентним у сфері ШІ, Пентагон хоче співпрацювати з промисловими партнерами, скоротивши час тендерних процедур. Також міноборони планує залучати академічне і open source товариство до цікавих завдань без військової специфіки, щоб не лише вирішувати свої завдання, але й відбирати професійні кадри з цієї сфери.

Пентагон цікавлять не лише нові алгоритмічні можливості, але і створення безпечного для військового використання штучного інтелекту. Саме тому оборонне відомство прагне досліджувати етичні принципи використання ШІ і боротися за їхнє міжнародне прийняття.

Етичні протиріччя. Хоча Пентагон заявляє, що турбується про розгортання технологій ШІ у військовій сфері відповідно до національних цінностей, нова стратегія вже викликала етичні дебати. Минулого року міноборони США зіткнулось із перешкодами в своїх зусиллях із розвитку ШІ, коли внутрішні протести в Google змусили компанію покинути Project Maven, який використовує алгоритми для інтерпретації аерознімків із зон військових конфліктів. Тому зараз Пентагон працює з експертами у сфері ШІ з промисловості і наукових кіл, щоби розробити етичні принципи для своїх пристроїв.

22 лютого працівники Microsoft оприлюднили лист[3], у якому закликають свою компанію розірвати півмільйонний контракт на постачання шолому доповненої реальності HoloLens 2 армії США. Пристрої адаптовані для “збільшення летальності” шляхом “підвищення здатності виявляти, приймати рішення і вступати в бій”. Працівники також стурбовані тим, що ця розробка перетворює справжню війну на імітацію відеогри. “Ми є глобальною коаліцією працівників Microsoft, і ми відмовляємося створювати технології для ведення війни і пригноблення”, – йдеться в листі. Працівники також вимагають створити незалежну експертну раду, яка стежитиме за етичністю майбутніх контрактів.

За даними Міжнародного комітету з контролю за роботизованими озброєннями, станом на березень 2018 р. майже 40 країн, зокрема США, КНР, РФ, Великобританія, Франція, Китай, Ізраїль та Південна Корея, розробляли роботів, здатних воювати без участі людей, і тільки США та Британія висловили офіційну позицію щодо створення такої зброї та перспектив її застосування. Ці дві країни на рівні офіційних міністерств та відомств активно опонують кампаніям на кшталт “Зупинимо роботів-вбивць!”, підкреслюючи, що ця сфера діяльності й без того добре врегульована міжнародним гуманітарним правом, зокрема – Женевськими конвенціями[4].Пентагон окреслив шляхи використання “роботів-вбивць” на офіційному рівні 21 листопада 2012 р., видавши директиву про застосування “автономії в системах озброєнь”, де підкреслюється, що робото-системив жодному випадку не можна скеровувати проти людей.

Отже, США відстає від інших країн у справі впровадження штучного інтелекту у військову сферу, а також за кількістю ресурсів і якістю організаційних структур, залучених до цього процесу. Тому стратегія передбачає, окрім використання ШІ, додаткове активне фінансування, залучення кадрів з цивільного і наукового сектору, а також створення спеціалізованого відомства з розвитку ШІ, що координуватиме впровадження технологій і частково реформує структуру Пентагону, збільшуючи його ефективність.

[1]BreakingDefense: ColinClark.Artificial Intelligence: Are We Losing The Race?

[2]MilitaryTimes: Matt O’Brien. Pentagon outlines its first artificial intelligence strategy

[3]BBC News: Dave Lee. Microsoft staff: Do not use HoloLens for war

[4]Автоманизовані робототехнічні системи озброєнь: новий виклик воєнній безпеці України

 

Використання матеріалів «Matrix-divergent» дозволяється за умови посилання на «matrix-info.com»
Для інтернет-видань обов’язкове зазначення автора публікації та пряме, відкрите для пошукових систем гіперпосилання у першому абзаці на конкретний матеріал. 
Думки, викладені у публікаціях, відображають позицію їх авторів. Відповідальність за достовірність фактів, цитат, власних назв та інших відомостей несуть автори. Редакція може не погоджуватись із думкою авторів публікацій.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.


З ЦИМ МАТЕРІАЛОМ ЧИТАЮТЬ