Робот-мораліст

Робот-мораліст

У майбутньому штучний інтелект (ШІ) потребуватиме помічників у питаннях моралі – про це йдеться в одному з розділів збірника прогнозів “Світ у 2030 році”, який підготували й оприлюднили спеціалісти Аналітичного центру Deutsche Bank (DB Research), що у Франкфурті-на-Майні. Відразу виникає питання – а де ж їх взяти, цих помічників? Мабуть, їх і зараз немає, або недостатньо. Бо, оцінюючи загальну картину сучасного світу, спадає на думку, що й нинішнім міжнародним та національним елітам – урядовцям і політикам, бізнесменам і різного роду “зіркам”– теж би не зашкодили помічники з питань моралі.

На думку аналітиків з DB Research, незабаром найбільшою проблемою штучного розуму стане пошук відповідей на питання морального характеру із врахуванням різних звичаєвих та культурних норм. Причиною цього є “дивовижна слабкість ШІ при ухваленні етичних рішень”. Отже, суттєве поширення цієї технології певною мірою збільшить попит на випускників філософських та лінгвістичних факультетів. Тому, як твердять ті ж автори “прогнозів”, “і бізнес, і законодавці будуть потребувати гуманітаріїв – спеціалістів як із філософською освітою та складом розуму, так і з вмінням відчувати найтонші мовні й культурні нюанси”. 

І тут маємо підстави поставити собі ключове питання – з якого б це дива? Якщо досі ні законодавці, ні бізнес не переймалися питаннями моралі, анітрохи не зважаючи на мільйони людей – виборців, платників податків, споживачів, то для чого тепер їм раптом стане потрібним “моральний алгоритм”при застосуванні нових технологій? З огляду на роботів? Отже, ці роботи мусили б виконувати якісь незнані досі функції. Які?

Міркуючи “на хлопський розум”, підозрюю, що розвиток ШІ не вплине позитивно на моральність та етичність представників влади й бізнесу, а значить, вони хочуть цей незручний аспект взаємодії з “народом” делегувати роботам. Тобто машинам, які невдовзі значною мірою замінять людей і в торгівлі, й у сфері обслуговування, і в схемах надання соціальних послуг, і в транспорті тощо. Отже, у цій комунікації з людиною роботам знадобиться знання не тільки з професійної сфери, ще й з етичної – як не образити клієнта, як не травмувати його релігійних чи світоглядних переконань, як не принизити за статевою чи расовою ознакою. Як твердив у одному з виступів ізраїльський вчений Юваль Ной Харарі: “Багато нових професій будуть пов’язані із розумінням людських емоцій. Навіть безпілотні машини змушені будуть розуміти, як себе поводять пішоходи. І тим більше це буде актуальним, якщо машини замінять банкірів чи соціальних працівників”. 

Гаразд, а звідки ж робот візьме таке “знання”? Зрозуміло, що в його “електронну голову” це мусить записати людина. Знову ж питання: яка це буде людина й за якими критеріями вона прийматиме рішення про обсяг та конфігурацію морально-етичних норм? Чи знаємо ми таких праведників, до думки яких у сфері етики й моралі прислухалися би “сильні світу цього”? Ми ж розуміємо, у якому світі живемо. 

Ще у 2015 році в енцикліці “Laudato Si” Папа Франциск, зокрема, сказав: “Споглядаючи наш світ, стороння особа була би вражена такою поведінкою, яка іноді нагадує самогубство.[…] Коли люди ставлять себе в центрі, вони надають абсолютний пріоритет безпосередньому комфорту, а все інше стає відносним”. А в минулорічній доповіді для Римського клубу наводяться слова із книги колишнього віцепрезидента Міжнародного суду Крістофера Грегорі Вірамантрі: “Безумовно парадоксально, що сучасне покоління після 150000 років існування людства сьогодні ігнорує мудрість цих 150 тисячоліть, яка закріплена в основних ученнях великих світових релігій”. 

Отже, чи зможуть люди з неморального світу наповнити моральними нормами інструменти штучного розуму? Ідеться тут, найімовірніше, про створення так званих моральних та етичних критеріїв для управління масами за допомогою новітніх технологій у стилі запровадженої в Китаї Системи соціального кредитування (Social Credit System), про що докладніше написано в статті “Дисидент майбутнього”.

Тобто йдеться про створення владою – чи то політичних кланів, чи то бізнесових корпорацій – певних поведінкових моделей для суспільства, за порушення яких людей каратимуть або нагороджуватимуть. Тому завдання з “пошуку відповідей на питання морального характеру”для засобів ШІ, імовірно, не матиме нічого спільного із такою морально-етичною системою, яку ми собі уявляємо. 

А саме – із суспільними правилами й нормами, які б забезпечували суспільству відкритість і толерантність, а людині – свободу/рівність/братерство. Скидається на те, що йдеться про чергову спробу узурпувати владу, перетворити людину на біоробота й поставити її під контроль штучного розуму. 

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *