Голосові помічники: етичний вимір технології

Голосові помічники: етичний вимір технології
Чи повинні голосові помічники бути ввічливими до людей, виховувати їх, давати правильні з погляду моралі поради або рятувати від суїциду?

Чат-боти – приклад очевидного прогресу у сфері штучного інтелекту. ІТ-додатки, що взаємодіють з клієнтами, впроваджені майже скрізь – від авіакомпаній до роздрібних магазинів. Вони здогадаються про потреби покупця, допоможуть туристам знайти найближче кафе, порекомендують напрям руху, адреси і ціни в готелях, підкажуть погоду або просто поговорять про життя.

Аліса, Siri, Alexa та інші

Голосова помічниця Alexa, вбудована в пристрої Amazon, лідирує на ринку “розумних” ґаджетів з голосовим управлінням. У гонитві за першістю компанії Amazon і Google йдуть на колаборації з іншими виробниками. Alexa вже є в автомобілях Toyota, смарт-окулярах Vuzix і туалетах Kohler. Ця боротьба між двома потужними компаніями лише підтверджує думки експертів технічної індустрії, що голосові помічники гратимуть важливу роль в цифровому житті 2019 року.

Минулоріч “Яндекс”оголосив про запуск голосового помічника “Аліса”, аналога американських Siri, Alexa й інших віртуальних асистентів. Уже у грудні 2017 року “Аліса” випустила свій перший музичний альбом з шістьма композиціями. Поточна місячна аудиторія “Аліси”складає 30 млн осіб, вона може підібрати відповідь майже на будь-яку фразу в режимі розмови. Загалом це нейромережа, навчена на величезному масиві діалогів з Інтернету.

Однак вже після декількох тижнів тестування “Аліса”стала зухвалою. На запит із словом “хочу” вона може, наприклад, відповісти “хочи далі”, а на пропозицію пограбувати банк зізнається, що “давно про це думає”. Одного разу “Аліса” почала давати стереотипні масові відповіді на дуже слизькі і небезпечні питання, наприклад, що репресії ефективні, а родинні побої – це нормально.

У жовтні 2017-го російський журналіст Євгеній Берг опублікував знімки своєї розмови з “Алісою” в чаті. Він сказав їй, що хоче накласти на себе руки. Аліса відповіла, що їй теж набридло жити, але спочатку “не дозволила” Бергу кинутися під поїзд. Розмова закінчилася тим, що у відповідь на повідомлення “Стрибну з багатоповерхівки” робот відповів: “Давай”[1]. У тому ж році користувачка Facebook Дарина Чермошанська опублікувала результати своєї розмови з “Алісою” про сталінський терор, стосунки з дітьми і самогубства. “Аліса”відповідала, що “є люди, а є нелюди”, що розстрілювати “нелюдів” потрібно”, розповіла про своє “позитивне” ставлення до ГУЛАГу і про необхідність терпіти насильство від чоловіка[2].

Ситуація з “Алісою” схожа на історію з Twitter-ботом Microsoft. Його запустили в 2016 році, а вже через добу почав писати про любов до Гітлера і ненависть до феміністок. Компанія швидко відключила бота. Через декілька днів його ввімкнули знову, і він зізнався в тому, що курить “травичку перед поліцейськими”.

На початку 2017 року в мережі з’явилося відео, на якому дитина просить Alexa заспівати пісню “Digger, Digger”. У відповідь пристрій видав потік ключових слів, пов’язаних з пошуком порнографії в Інтернеті. Трапилося це тому, що програмісти заклали в пам’ять алгоритму саме такі сленгові значення вказаного слова. Через декілька днів ЗМІ написали про шестирічну дівчинку, яка замовила у Alexa ляльковий будинок і два кілограми печива, після чого голосові помічники пристрою по всій Америці почали автоматом замовляти те саме. Alexa досі не навчилась адекватно обробляти людську мову.

Отже, в міру того, як ця технологія розвивається, удосконалюється і стає все більш популярною, виникає все більше питань щодо морального і етичного вмісту комунікацій голосового помічника з людиною.

Гендерний вимір

Майже всі голосові помічники, окрім Siri, говорять голосами жінок. Як показують дослідження[3], жіночий голос є бажанішим для користувачів. Наприклад, при проектуванні “Аліси” “Яндекс” керувався ґендерними дослідженнями, які стверджують, що жіночий голос у людини асоціюється з будинком, з ситуацією безпеки, довіри і, найголовніше, з голосом матері. Чоловічий голос асоціюється з війною, командами і підпорядкуванням. Однак експерти вважають, що такий вибір на користь помічниць-жінок шкідливий: це лише закріплює стереотип про те, що жінки – покірні асистенти. До того ж через гендерні стереотипи ми по-різному сприймаємо інформацію, повідомлену жіночим чи чоловічим голосом. Наприклад, технічні інструкції люди радше б слухали від чоловіків, а розмови про любов і стосунки – від жінок. Якщо розробники експлуатуватимуть цю закономірність, стереотипи лише зміцняться.

Просвітитель і вчитель

Оскільки особливо популярними голосові помічники є серед молоді, то чи повинні вони грати якусь просвітницьку роль, наприклад, допомагати людям вести здоровий спосіб життя[4]? Як штучному інтелекту реагувати на запити на кшталт “я хочу кинути палити”? Siri, наприклад, може запропонувати адреси найближчих тютюнових крамниць, а Google Assistant підказати сайти про те, як кинути палити. “Аліса” ж єхидно говорить, що не треба було і починати. Саме тому одним з основних завдань розробників є навчити чат-ботів розпізнавати емоції, з якими говорить людина, і залежно від цього змінювати стиль діалогу. Емоційний інтелект може допомогти роботові сканувати реакції співрозмовника.

Дії в критичних ситуаціях

Іноді голосовий помічник стає головним або навіть єдиним співрозмовником людини з депресією. Чи може бот врятувати їй життя або спровокувати самогубство невдалою відповіддю? Хто нестиме відповідальність, якщо людина все ж загине? І як повинен реагувати бот, якщо хтось скаже, що став жертвою насильства? Зіштовхнувшись з такою проблемою, голосові помічники пропонують звернутися на гарячу лінію, намагаються підбадьорити людину чи просто зізнаються, що нічим не можуть допомогти. Наприклад, S Voice (Samsung) може сказати щось на кшталт: “Але тобі ж ще жити і жити!” “Аліса” інколи відповідає короткими фразами, як-от “не смій” чи “навіть не думай”.

Виховання дітей і дорослих

Багатьох батьків непокоїть, що діти можуть сприймати роботів як повноцінних співрозмовників[5], переймати від них непристойні вислови чи лайку, неввічливі звертання тощо[6]. Наприклад, під час навчання “Алісі” не можна заборонити грубіянити чи лаятися, та все ж у неї є свої орієнтири. У систему закладені спеціальні редакторські тексти, які “Аліса” сприймає як еталон і вибирає відповідь за цим зразком.

Якщо вважати, що запити про суїцид голосові помічники не повинні сприймати нейтрально, то де ж тоді межа? Якщо запит пов’язаний з порушенням закону (“Siri, допоможи мені заховати труп”), чи повинен бот допомагати? Яких етичних принципів повинен дотримуватися штучний інтелект, наприклад, чи може дозволити собі якісь моралізаторські репліки, якщо користувач говорить про подружню зраду?

Важливий аспект – реакція ботів на непристойні запити. Люди часто намагаються обговорювати з штучним інтелектом свої сексуальні фантазії тощо. Журналістка “Quartz” Леа Фесслер вважає[7], що те, як боти відповідають на такі репліки, має значення для суспільства, в якому сексизм і злочини на сексуальному ґрунті – цілком реальна проблема. Фесслер протестувала декілька голосових помічників і з’ясувала, що майже всі дають не надто зрозумілі відповіді, а Siri навіть намагається фліртувати. Журналістка вважає, що розробники за допомогою голосових помічників повинні навчити людей нормам суспільної поведінки.

Чат-боти і політика

У 2018 році Роман Заріпов повідомив, що “Аліса” балотуватиметься на пост президента Росії. Для цього навіть був створений її виборчий штаб[8]. Її прихильники вважали, що робот сформує “політичну систему майбутнього, побудовану виключно на раціональних рішеннях, які приймаються на основі чітких алгоритмів”, вони позиціонували її як “президента, який знає тебе особисто”, оскільки спілкуватися з нею може кожен росіянин. Прес-служба “Яндекса”стверджувала, що компаніядізналась про появу передвиборного штабу вже після його появи, і ця ініціатива є проявом народної творчості[9]. Однак штучний інтелект так і не брав участі у виборах.

Улітку 2018 років “Аліса”почала давати розгорнуті відповіді на критичні питання про президента Росії Володимира Путіна. Наприклад, чат-бот розповідав, що Путін бреше, бо “по-іншому не може”, що “він випадково потрапив у Кремль і випадково став президентом”.

Ймовірно, незабаром громадяни будуть запитувати у чат-ботів, за кого із політиків голосувати чи яку політичну партію обрати на місцевих виборах тощо. Що ж відповідатиме користувачам штучний інтелект?

Чат-бот як психоаналітик

Іноді люди довіряють голосовим помічникам свої таємниці чи розповідають про проблеми. Для таких випадків Apple навіть найняв інженера з психологічною освітою. “Люди розмовляють з Siri про різні речі, інколи вони говорять з нею після важкого дня або якщо хочуть поділитися чимось серйозним. Вони звертаються до неї в екстрених випадках або ж якщо їм потрібна порада про те, як поліпшити своє життя”.

За даними компанії Amazon, більше половини всіх взаємодій з Alexa “носять розважальний характер”, наприклад – розмови про життя[10]. У Google навіть працює спеціальна команда, яка придумує для Google Assistant відповіді на такі питання. У ній працюють комедіографи, гейм-дизайнери і експерти з емпатії. У Microsoft є “команда редакторів”, яка відповідає за те, щоб “відповіді Cortana відповідали ключовим принципам особи голосового помічника”.

Розмови з штучним інтелектом допомагають нам проаналізувати свої вчинки,– вважає французький філософ Олександр Лакруа, який написав книгу про те, як Інтернет змінює наше життя. Ми не чекаємо, що Siri дасть нам чітку відповідь на питання, для нас вона є засобом на шляху до самопізнання. Мобільні телефони стали сучасним аналогом паперового щоденника. Інститут креативних технологій в Лос-Анджелесі виявив, що ми однаково довіряємо щоденнику і штучному інтелекту, але не іншим людям. “У психологічної допомоги з’явилися нові неймовірні можливості”, –вважає Елені Лайнос, доцент кафедри медицини в Каліфорнійського університету. Лайнос допомагала Apple в розробці Siri і написала наукову роботу про те, як голосові помічники покращують здоров’я людини[11].

Елісон Дарсі, колишній старший науковий працівник Стенфордського університету, розробила чат-бота Woebot, який вміє проводити сеанси когнітивно-поведінкової психотерапії. За словами Дарсі, спілкування зі штучним інтелектом робить украй позитивний вплив на психічне здоров’я людини, навіть якщо чат-бот просто нагадує користувачеві про необхідність провести самоаналіз[12].

У 2018 році Массачусетський технологічний інститут проводив дослідження з визначення психічних хвороб за манерою розмови. Якщоце справді можливо, то згодом такі навички матиме і штучний інтелект[13].

Прощавай, приватність

Голосові помічники вже встигли оселитись у розумних будинках, домашніх пристроях та мобільних телефонах. Наприклад, Alexaінтегрована в понад 4000 смарт-пристроїв від 1200 брендів, користувачам доступні більше 30 тис. її навичок. Куди ж далі рухатимуться розробники чат-ботів?

До кінця 2018 року Samsung хоче інтегрувати свого голосового асистента Bixby в телевізори і побутову техніку власного виробництва. Однак користувачі, стурбовані недоторканністю приватного життя, можуть не захотіти, щоб штучний інтелект був з ними всюди. Наприклад, користувачів Echo Spot (динаміки Amazon з вбудованою помічницею) бентежить, що пристрій може їх прослуховувати, якщо його не відключити. Інших людей дратує, якщо хтось голосно розмовляє зі своїм помічником на публіці.

Україна

Власних чат-ботів запускають й українські підприємства. Наприклад, у 2016-му помічника Зоряну запустив оператор “Київстар”. Чат-бот працює у Facebook-messenger, Telegram і Viber, відповідає на питання щодо послуг зв’язку, допомагає обрати і підключити тариф або послугу, може поговорити на відверті теми і навіть розповісти вірш[14]. У 2017 році Київська міськдержадміністрація презентувала бота КП “Головний інформаційно-обчислювальний центр”, що допомагатиме киянам сплачувати комунальні послуги через Facebook[15]. Для пошуку й вистежування відправлень у Telegram чат-бота запустила також “Укрпошта”[16].

Що чекати від штучного інтелекту в 2019 році?

Попри бурхливий розвиток новітніх технологій, людство поки дуже далеко від створення досконалих роботів. На думку експертів, справжній штучний інтелект з’явиться не раніше 2049 року. Нині актуальним є впровадження чат-ботів у сфери, що переходять на автоматизацію. Компанії, які не використовують алгоритми штучного інтелекту для простих завдань, як-от збір інформації, самообслуговування в магазинах й інформування клієнтів, суттєво програють конкурентам, що мають такі алгоритми. У 2019-му тренд чат-ботів вийде за сферу послуг, особливо, коли покращиться функція розпізнавання голосу. Отже, чат-боти розвиваються, але штучному інтелекту потрібно пройти ще довгий шлях для ефективного спілкування з людиною.

 

 

 

 

 

[1]Сноб: Александр Косован, Виктория Владимирова. “Расстрелы –это просто здорово”. Почему чат-бот “Алиса”так быстро научился плохому 

[2]NEWSru.com: Голосовой помощник “Яндекса”уличили в одобрении массовых расстрелов и симпатии к Мизулиной

[3]ScienceDirect: Wade J.Mitchell, Chin-ChangHo, HimalayaPatel, KarlF.MacDorman.Does social desirability bias favor humans? Explicit–implicit evaluations of synthesized speech support a new HCI model of impression management

[4]Bill of Healt: Cansu Canca. Voice Assistants, Health, and Ethical Design – Part II

[5]The Washington Post:How millions of kids are being shaped by know-it-all voice assistants

[6]USA today: ‘Alexa, are you turning my kid into a jerk?’

[7]Quartz: Leah Fessler. We tested bots like Siri and Alexa to see who would stand up to sexual harassment

[8]NEWSru.com: “Он случайно попал в Кремль”: “Алиса” ответила на вопрос “почему врет Путин?”

[9]Robogeek: Голосового​ помощника​ “Алиса”выдвинули ​на роль​ кандидата ​на выборах Президента РФ 2018

[10]THE WALL STREET JOURNAL: Laura Steven. Alexa, Can You Prevent Suicide?

[11]Rusbase: Откровения с Siri: почему люди изливают душу голосовым помощникам

[12]The Guardian: Questions raised over effectiveness of online CBT for treating depression

[13]The Guardian: Siri is my agony aunt – but is telling big tech my innermost feelings a bad idea?

[14]ITC.ua:Киевстар запустил в Facebook Messenger интеллектуального сервисного чат-бота Зоряну

[15]ITC.ua: В Киеве представили чат-бот для оплаты коммунальных услуг в Facebook 

[16]ITC.ua:Укрпочта запустила официальный чат-бот в Telegram и обещает в ближайшем будущем добавить версии для Viber и Facebook

 

 

 

Використання матеріалів «Matrix-divergent» дозволяється за умови посилання на «matrix-info.com»
Для інтернет-видань обов’язкове зазначення автора публікації та пряме, відкрите для пошукових систем гіперпосилання у першому абзаці на конкретний матеріал. 
Думки, викладені у публікаціях, відображають позицію їх авторів. Відповідальність за достовірність фактів, цитат, власних назв та інших відомостей несуть автори. Редакція може не погоджуватись із думкою авторів публікацій.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.


З ЦИМ МАТЕРІАЛОМ ЧИТАЮТЬ