Питання довіри

Питання довіри
Штучний розум схиляє до кращої співпраці, якщо вдає живу людину. У міру того, наскільки оснащені штучним інтелектом прилади краще нас імітують – як, наприклад, програма SI для резервування місць у ресторані чи для обслуговування інфолінії, – люди все частіше не є певними, розмовляють вони з машиною, чи з людиною. Та якби вони знали правду, такі автомати гірше б виконували свою функцію – пише Метью Гатсон у журналі Scientific American.

Найновіші дослідження показують, що ми значно менше схиляємося до співпраці, коли усвідомлюємо, що маємо справу з комп’ютером, а не з живою особою. В експерименті було використано просту, але не позбавлену нюансів гру, яка полягала в тому, що відібрані парами гравці ухвалювали одночасно багато рішень про співпрацю або зраду партнера. У перспективі співпраця для обох сторін є вигідною – але весь час виникає спокуса порушити правила і відразу здобути додаткові бали. Дослідники використали алгоритм штучного розуму, що, вдаючи людину, реалізував стратегію, завдяки якій ефективніше, ніж людина, схиляв співрозмовників до співпраці. Оскільки попередні дослідження все ж вказували на те, що люди взагалі менше довіряють машинам, дослідники зацікавились, що станеться, якщо піддослідні дізнаються, що мають справу з ботом.

Учені сподівались, що учасники, дізнавшись про ідентичність співрозмовника, оцінять його здатність переконувати (але не змушувати) і врешті-решт позбудуться недовірливості. “На жаль, ми помилялись, – каже Талал Рахван, науковець зі сфери інформатики із Нью-Йоркського університету в Абу-Дабі і співавтор статті, опублікованої у листопаді минулого року в часописі Nature Machine Intelligence. – Незалежно від того, що робив алгоритм, його співрозмовники просто залишалися зі своїми упередженнями”.

Ботові, який розкривав свою ідентичність, було важче схилити людей до співпраці, ніж людині, попри те, що стратегія штучного інтелекту була очевидно більш корисною для обох сторін. (У кожній грі бот проводив 50 партій із щонайменше 150-ма особами.) Під час додаткового експерименту учасникам відразу повідомляли: “З даних випливає, що люди мають більше користі, коли вважають бота людиною”. Однак це не дало жодного результату.

Вірджинія Дайґнум, керівниця групи, що досліджує суспільні та етичні аспекти штучного розуму в Університеті Умео у Швеції, яка не брала участі у згаданих експериментах, хвалить авторів цієї праці за те, що вони взялися за питання, як розкриття того, що бот не є людиною, впливає на ефективність його діяльності, але вона ще й з охотою подивилась би на результати тестів, проведених й у інших конфігураціях, аніж ті, які описані у статті.

На думку авторів, у публічній сфері варто було б питати, чи люди воліли б не знати, що розмовляють з ботом. Не можна цього робити при кожній подібній взаємодії, бо тоді “містифікація”, звісно, не спрацювала б. Однак згода in blanco на те, щоби бути час від часу обманутим, навіть якби її вдалося отримати, і так викликала б етичні сумніви. Дайґнум твердить, що загалом люди повинні мати можливість дізнатися постфактум, що вони контактували з ботом, однак вчена додає, що коли вона телефонує на якусь інфолінію з простим питанням, то хоче отримати кваліфіковану відповідь.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.


З ЦИМ МАТЕРІАЛОМ ЧИТАЮТЬ


Проспатись із проблемою Чому твій мозок потребує вправ?