Єврокомісія підготувала етичні вимоги до розробників штучного інтелекту

У Європейському Союзі підготовлено документ «Директиви з етичного підходу до розробки штучного інтелекту», що регламентує технологічні правила розробки штучного інтелекту (ШІ). Одне з положень Директиви базується на тому, що штучний інтелект повинен створюватися на підтримку суб’єктності людини, а не навпаки.

8 квітня 2019 року Європейська комісія представила перший крок із «зміцнення довіри до штучного інтелекту». У документі вказується, що ШІ повинен «дотримуватися закону, етичних норм і бути надійним», і всі ці складові повинні враховуватися в рівній мірі. У випадку, відсутності хоча би однієї з цих складових, суспільство повинне негайно добиватися виправлення такого недоліку.

У Єврокомісії переконані, що штучний інтелект (ШІ) може бути корисним у галузі охорони здоров’я, енергоспоживанні, автомобільній безпеці, сільському господарстві, допомогти у вирішенні проблем зі зміною клімату і управління фінансовими ризиками. ШІ також може сприяти кібербезпеці та дозволити правоохоронним органам ефективніше боротися із злочинністю. Проте, як відзначають в Комісії, у процесі розвитку ШІ виникає низка нових юридичних і етичних питань.

«Етичний вимір ШІ – це не преміальна характеристика, – відзначив член Єврокомісії Андрус Ансип (Andrus Ansip), що відповідає за напрям єдиного цифрового ринку ЄС. – Наше суспільство може щось виграти від технологій лише в разі повної до них довіри».

У 41-сторінковому документі Директиви вказується, що саме зараз існує можливість упевнитися в тому, що системи ШІ будуть «людино-центричними, націленими цілком і повністю на те, щоб служити людству і загальному благу, сприяти вдосконаленню умов людського існування і свободі».

Для розробки систем ШІ європейський законодавець визначив такі основні принципи:

  • Людська діяльність та нагляд. Системи ШІ повинні забезпечувати рівноправ’я в суспільстві, підтримуючи основні права людини.
  • Надійність та безпечність. Алгоритми ШІ, що варті довіри, мають бути безпечними, надійними і достатньо сильними для вирішення помилок або невідповідностей протягом всіх фаз життєвого циклу системи.
  • Конфіденційність та управління даними. Громадяни повинні мати повний контроль над особистими даними, ці дані не можуть бути використані для заподіяння їм шкоди або дискримінації.
  • Прозорість. Необхідно забезпечити відстеження систем ШІ.
  • Різноманітність, недискримінація та справедливість. Системи ШІ повинні враховувати весь спектр людських здібностей, навичок та вимог і забезпечувати доступність для всіх.
  • Добробут суспільства та навколишнього середовища. Штучний інтелект повинен використовуватися для посилення позитивних соціальних змін та підвищення екологічної відповідальності.
  • Підзвітність. Необхідно запровадити механізми для забезпечення відповідальності та підзвітності систем ШІ та результатів їх роботи.

Ці принципи стали результатом роботи незалежної групи експертів з червня 2018 року по квітень 2019 року. Єврокомісія  пропонує промисловості, дослідницьким інститутам і державним органам детально протестувати даний перелік та оцінити його. Таким чином, Комісія запустила «пілотну фазу» практичної реалізації етичних принципів для ШІ.

У літку 2019 року Єврокомісія почне залучати до тестування етичних принципів широкий круг зацікавлених сторін. Вже сьогодні компанії, державні адміністрації і організації можуть реєструватися в Європейському альянсі зі штучного інтелекту, щоб взяти участь в пілотному проекті. Наступним кроком стане узагальнення експертами результатів пілотного проекту для Брюсселю і підготовка прийняття наступних рішень у цієї сфері.

На нашу думку, в найближчому майбутньому, можна очікувати “бій” різних систем ШІ з боку кібер-злочинців і компаній, які будують системи захисту. Наявність правил і вимог, дозволить з одного боку упорядкувати процеси розробки, але навряд чи це буде служити запобіжником для кібер-злочинців, для яких прийнятні будь-які методи, в тому числі незаконні. Час покаже, наскільки ШІ буде запроваджено в типові життєві процеси і в тому числі допоможе вирішити проблеми забезпечення кібербезпеки.

 

Використання матеріалів «Matrix-divergent» дозволяється за умови посилання на «matrix-info.com»
Для інтернет-видань обов’язкове зазначення автора публікації та пряме, відкрите для пошукових систем гіперпосилання у першому абзаці на конкретний матеріал. 
Думки, викладені у публікаціях, відображають позицію їх авторів. Відповідальність за достовірність фактів, цитат, власних назв та інших відомостей несуть автори. Редакція може не погоджуватись із думкою авторів публікацій.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписатись

Підписка

Щоб отримувати повідомлення про нові публікації, підпишіться на нашу розсилку!

Ім'я *

Email *

Виберіть категорію, яка цікавить:

Суспільство
Глобалізація
Небезпека
Світ про Україну
Геостратегія
Ти елемент Універсуму
Духовність і культура
Альтернативна історія
Геоекономіка
Наука і технології
Історія і сучасність
Роздуми

Translate

Дякую!

Тепер редактори знають.