Добрі наміри й відповідальність

Добрі наміри й відповідальність

Кілька днів тому Джефрі Гінтон, якого вважають “хрещеним батьком” штучного інтелекту, звільнився з Google. Причиною такого рішення він назвав своє бажання вільно говорити про загрозу для людства, яку становить подальший розвиток штучного інтелекту. Дещо раніше група з кількох сотень видатних осіб у сфері високих технологій, зокрема власник Twitter, SpaceX і Tesla Ілон Маск і співзасновник Apple Стів Возняк, підписали відкритого листа з пропозицією зупинити щонайменше на пів року роботу над вдосконаленням ШІ. В основі обох прецедентів лежить нібито почуття відповідальності за долю людства. Але чи не запізно воно прокинулось?

Застереження щодо розвитку ШІ знову повертають нас до проблеми відповідальності винахідників, науковців, а також урядовців і політиків за розвиток і впровадження нових технологій. “Повертають”, бо проблема ця зовсім не нова. Візьмімо хоч би найвідоміші приклади.

Унаслідок експериментів у 1938 році німецькі хіміки Фріц Штрассман і Отто Ган змогли розбити атом урану за допомогою бомбардування його нейтронами на приблизно однакові 2 частини. А британський учений Отто Роберт Фріш пояснив, що під час поділу ядра атома виділяється велика кількість енергії. У 1939 році Фредерік Жоліо-Кюрі, французький фізик, збагнув, що ланцюгова реакція може призвести до вибуху величезної руйнівної сили, а уран є джерелом енергії. Цей висновок хіміка став поштовхом до розроблення ядерної зброї. Невдовзі було створено перші атомні бомби, дві з яких спричинили трагедії в японських містах Хіросіма й Нагасакі. Усі ці праці й експерименти пояснювалися, звичайно ж, добрими намірами, спрямованими на захист людства від Гітлера.

Адже гітлерівські вчені теж не спали. Одним із них був Вернер фон Браун. Німецький юнак зі шляхетної родини, барон, мрійник завдяки своїм фантазіям спочатку захопився астрономією, а потім — ідеями польотів у космос. У вісімнадцятилітньому віці це привело його в Берлінський технічний університет, де він приєднався до “Товариства космічних подорожей”. Він хотів будувати ракети для міжпланетних перельотів і не зважав на те, хто дасть йому таку можливість. У 1933-му таку змогу йому дав Гітлер. Щоправда, з певними корективами: новий нацистський режим заборонив цивільну роботу з ракетобудування, ракети дозволялося створювати тільки для військових потреб. Тож війна внесла поправки: перш ніж полетіти в космос, потрібно було виготовити кілька ракет, щоб англійці та інші вороги Третього Рейху “полетіли до біса”. І барон фон Браун почав будувати ракети А-4, більш відомі як “Фау-2”. І хтозна, яких вершин він ще сягнув би в цій сфері, якби Німеччина не програла війну.

З добрим наміром захисту батьківщини — СРСР — від кровожерних американців розпочав свою наукову кар’єру й талановитий російський учений Андрій Сахаров. У 1948 році він увійшов до спеціальної групи із розроблення термоядерної зброї, у якій пропрацював до 1968-го. Там він, зокрема, брав участь у проєктуванні та виготовленні першої радянської термоядерної бомби. І хоч він теж отямився і почав попереджати про небезпеку, СРСР став державою з ядерною зброєю.

Й от тепер маємо справу із черговим досягненням науки — штучним розумом. Його розробники теж, без сумніву, керувалися добрими намірами. Їх можна навіть зрозуміти, адже, озираючись навколо, ми бачимо натовпи, яким би й не зашкодило вставити якусь клепку-чип у голову, щоб стали трохи розумнішими, менш захланними й агресивними. Але ж головне запитання, як завжди, полягає в тому, хто володітиме цими клепками-чипами, хто вирішуватиме, кому й навіщо їх вставляти. Зрештою, як зауважив вищезгаданий Гінтон: “Можете собі уявити, що, наприклад, якийсь поганий діяч, як Путін, вирішив дати роботам можливість створювати власні підцілі на зразок «мені потрібно отримати більше влади»”.

А ізраїльський вчений Юваль Гарарі має ще гірші прогнози: “Мусимо усвідомити, що ШІ є першою технологією в історії, яка сама може ухвалювати рішення. Може ухвалювати рішення щодо власного використання. Також може ухвалювати їх щодо вас і щодо мене”.

Що ж, розробники технологій начебто схаменулися до того, як загроза з боку ШІ стала реальною, свідченням чого мали б бути ініціативи, описані на початку тексту. Але критики кажуть: надто пізно. Бо навіть якщо відповідальні вчені із західного світу й дійдуть консенсусу в цьому питанні, то де гарантії, що свої розробки в цій сфері заморозять Китай чи Індія, Росія чи Іран?

На завершення вартувало б написати щось оптимістичне, але я не знаю що. Мій висновок невеселий: людське почуття відповідальності обмежується власними справами чи долею найближчих, а от “відповідальність за долю людства” — це суто риторична формула, яка не має реального наповнення. Так і виходить, що майбутнім людини може заопікуватися хіба що ШІ. Водночас це майбутнє не конче може сподобатися самій людині, адже “добрі наміри” ШІ будуть також виключно “штучними”. 

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.


З ЦИМ МАТЕРІАЛОМ ЧИТАЮТЬ


Психологічна залежність і контрнаступ Україна, якої ми ще не знали