
В одній з енергомережевих компаній відбулося дослідження по взаємодії співробітників із запропонованим помічником на базі штучного інтелекту.
Спостерігаючи за командою працівників кол-центру в Китаї, дослідники прийшли до висновку, що штучний інтелект створює більше проблем, ніж допомагає вирішувати. Для перевірки взяли транскрипції розмов, заповнення форм та розпізнавання емоцій. Замість користі, працівники отримали різноманітні незручності, тиск та розчарування. Дослідження мало на меті зрозуміти, як люди взаємодіють із неадаптованим ШІ, коли той працює коректно.
Цифровий записник, який іноді встигає, а іноді ні
Однією з найбажаніших функцій для співробітників була транскрипція розмов у реальному часі. Бо коли дзвінків багато і вони хаотичні за змістом, легко втратити зміст. ШІ мав допомогти швидко прокрутити запис назад, знайти, наприклад, потрібну адресу, номер лічильника, або ж виявити іншу пропущену інформацію.
І з даним типом задач ШІ упорався непогано. За словами працівників, він допоміг швидко запам’ятовувати довгі номери клієнтів, а іноді навіть буквально рятував ситуацію, коли обладнання операторів виходило з ладу. На цьому напрямку траплялися негаразди — часто штучний помічник плутав роздратованість із гучністю голосу, не розпізнаючи таким чином емоцію клієнта.
Geoffrey Hinton says AI agents may need emotions to be effective in human roles
For example, In a call center, if someone wants to chat all day — the AI agent acts bored or irritated to end the call
“if it behaves like it’s annoyed, i’d say it has an emotion” pic.twitter.com/O54tPtRm8c
— Haider. (@slow_developer) June 16, 2025
Інструменти, яки мали економити час не спрацювали
Після кожного дзвінка ШІ намагався створити короткий звіт про розмову, але на практиці результат потребував ручного редагування: отримані дані були занадто довгими, нечіткими, або не відповідали внутрішнім стандартам кол-центру. Деякі оператори швидше записували необхідну інформацію вручну ніж виправляли автозаповнені дані після ШІ.
Також через перемикання між ручним та автоматичним процесом виникали додаткові затримки у часі. Окремий час займала перевірка коректності даних.
Стрес
Ще одним викликом стала адаптація до програмної частини помічника. Як виявилось, співробітникам довелося застосувати немало розумових здібностей, щоб зрозуміти, як він працює, виводить інформацію і як усе це правильно інтерпретувати, виправити за необхідності. На це, у свою чергу, також йшло багато часу і як наслідок, працівники відчували додатковий стрес в ситуаціях, коли дзвінків було забагато. Один з розчарованих працівників заявив:
«Коли штучний інтелект надавав неправильну інформацію під час напруженої зміни, це відчувалося радше як втручання, ніж допомога».
Чого не вистачило при впровадженні ШІ
Як показало дослідження, програмний помічник може добре поратись із записом розмов, зберіганням важливих фрагментів і навіть інколи прийти на поміч при технічних збоях. Але для працівників ці функції відчувались не повністю інтегрованими у їхній робочий процес. Інструменти, які працювали коректно у тестових умовах, часто поводилися не так, як потрібно при реальному використанні. Щобільше, ШІ погано відчував конкретну ситуацію і там, де треба було не втручатись, цього не робив.
«Краще б замість багатьох функцій, які працюють аби як, було декілька стабільних» — заявили одразу декілька працівників компанії».
І тут проблема полягає у тому, що багато керівників зосереджуються на роботі самої технології, а не на її адаптації для персоналу. Тому попри очікування скорити персонал, все більше компаній змінює свої плани.
Згідно з аналітичною інформацією від Gartner, вже половина компаній, котрі бажають скоротити персонал до 2027 року, вирішила відмовитися від поставлених цілей. Також прогнозується, що 40% проєктів буде скасовано протягом найближчих двох років — через зростання витрат, нечітку бізнес-цінність або відсутність контролю ризиків.
40% of agentic AI projects will be canceled by the end of 2027 according to @Gartner_inc. 🤔
Why? Escalating costs, unclear business value, or inadequate risk controls. I’d add also because they’re not rethinking the flow of work and reimagining outcomes. 💸
To date, 19% of… pic.twitter.com/vNJSWjcHUE
— Brian Solis (@briansolis) June 27, 2025
Яскравим прикладом негативного використання віртуальних помічників є випадок в авіаперевізника Air Canada. Один із клієнтів запросив у них знижку на квиток на похорони бабусі, але «співчутливий» ШІ-помічник не зрозумів ситуацію та порадив купити повний квиток. Так потім він запропонував запросити знижку після прильоту, але як не важко зрозуміти, повів він себе не зовсім коректно.
Результатом його дій став позов на $800, бо після прильоту, ніяких знижок компанія вже не запропонувала, обмежившись відмовкою, що чатбот надав невірну інформацію. Потім справа дійшла до суду і компанію все ж зобов’язали сплатити обіцяний кеш-бек.
Наразі, на думку дослідників, штучний інтелект не на 100% придатний для використання у промислових умовах. Інколи він просто дратує у повсякденному робочому процесі, а інколи призвести до фінансових збитків. Також некоректна робота ШІ погіршує репутацію компанії.
Джерело: Сybernews
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: