Загрози і сподівання від штучного інтелекту

Загрози і сподівання від штучного інтелекту
У глобальному розвитку штучного інтелекту закладено не менше загроз, ніж переваг, і те, яку користь чи шкоду він принесе людству, залежить від нашого розуміння проблеми. Отже, чого нам чекати від ШІ у найближчі 10-25 років?

Пристрасті довкола “розумних машин” розпалюють і фантастичні фільми, як-от “Матриця”, “Термінатор”, “Я – робот”, “Космічна Одіссея”, “Дюна”, “Страховик” тощо.

У 2017 році фізик-теоретик Стівен Гокінг висловив побоювання, що ШІ може спровокувати остаточну поразку людства –призвести до створення нової форми життя, яка замінить людей. Гокінг також сказав, що люди повинні знайти шлях до швидкої ідентифікації ризиків, пов’язаних зі ШІ, перш ніж вони вийдуть на рівень, який загрожуватиме цивілізації.

Інженер і підприємець Ілон Маск також стверджує, що нестримний розвиток штучного інтелекту – це “найбільша екзистенційна загроза” для людства. “Facebook, Google, Amazon, Apple – всі вони вже знають про вас дуже багато. Штучний інтелект, що буде створений в середині цих компаній, отримає велику владу над людьми. А концентрація влади в одних руках завжди породжує величезні ризики. Лише декілька людей в Google працюють над створенням штучного інтелекту, без будь-якого спостереження ззовні – так бути не повинно”, – застерігає Ілон Маск.

Підприємець неодноразово стверджував, що ШІ може спричинити глобальні збройні зіткнення. На його думку, змагання, яке має на меті здобуття переваг в галузі штучного інтелекту, ймовірно, завершиться Третьою світовою.

Однією із загроз ШІ найчастіше називають автономну систему зброї, що зможе обирати та ліквідовувати цілі без згоди людей. Окрім того, інші небезпеки, пов’язані з штучним інтелектом, можуть підірвати соціально-економічний порядок в сучасному світі. Розумні машини, що замінять людей у майбутньому, збільшать соціальний поділ на касти.

Майже уся рутинна робота перейде роботам, адже вони зможуть виконувати її швидше та краще. Зміни торкнуться сотні мільйонів робочих місць. Політикам доведеться відповісти на цей виклик і владнати проблему безробіття.

Під час автоматизації постраждають не лише працівники з низьким рівнем кваліфікації. Ілон Маск нещодавно заявив, що надмірна автоматизація на заводі Tesla була його великою помилкою. Він додав, що людей недооцінюють. Компанія опинилася в непростій ситуації через нестачу працівників під час автоматизації виробництва для Tesla Model 3.

Наприкінці 2015 р. Ілон Маск та Сем Альтман заснували компанію OpenA. Нещодавно компанія створила алгоритм, що генерує текст за заданим контекстом, продовжує думку, імітує тон та стиль фрагменту. Незважаючи на поширену серед дослідників штучного інтелекту практику викладати код з новими розробками у відкритий доступ, OpenAI вирішила приховати свій алгоритм. Офіційна причина: модель несе потенційну небезпеку, оскільки працює настільки добре та генерує настільки переконливий текст, що, потрапивши “не в ті руки”, може бути використана для створення фейкових новин та імітації авторських матеріалів.

І хоча для поширення вищезгаданих загроз знадобиться 10-15 років, у доповіді “Злочинне використання штучного інтелекту: прогнозування, попередження і пом’якшення наслідків”[1]наведені потенційні ризики, що можуть виникнути під час використання штучного інтелекту вже в недалекому майбутньому.

Штучний інтелект також створить нові виміри вже наявних загроз. Роботи зможуть не тільки легко і швидко генерувати фальшиві тексти та повідомлення електронної пошти, але також аудіовізуальні записи. Під час нещодавніх експериментів ШІ імітував голос після всього кількох хвилин прослуховування його запису. Упродовж наступних 5 років такі технології можуть бути загальнодоступними, що надасть злочинцям великі можливості.

Комп’ютерні алгоритми також можуть використовувати терористи.Саме тому терористи активно цікавляться новими технологіями, устаткуванням на основі ШІ та вбудованими автоматичними функціями, як-от відстеження.

Як бачимо, штучний інтелект вже зараз створює ризики для безпеки, а в майбутньому подібні загрози лише зростатимуть. Однак співзасновник Apple Стів Возняк оптимістично ставиться до розвитку ШІ, вважаючи, що роботи не зможуть витіснити людей. На його думку, “ключове слово в понятті “штучний інтелект” – не інтелект, а штучний. Інтелект – це не те саме, що людський мозок. Для нас поки загадка, як запрограмований наш мозок і як він ухвалює рішення”. За його словами, ШІ потребуватиме людського втручання, тож не варто хвилюватися, що колись роботи замінять людей чи витіснять з їхніх робочих місць.

[1]The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation

 

Використання матеріалів «Matrix-divergent» дозволяється за умови посилання на «matrix-info.com»
Для інтернет-видань обов’язкове зазначення автора публікації та пряме, відкрите для пошукових систем гіперпосилання у першому абзаці на конкретний матеріал. 
Думки, викладені у публікаціях, відображають позицію їх авторів. Відповідальність за достовірність фактів, цитат, власних назв та інших відомостей несуть автори. Редакція може не погоджуватись із думкою авторів публікацій.

 

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.


З ЦИМ МАТЕРІАЛОМ ЧИТАЮТЬ