11 марта 2025
Статья

ИИ в клиентском сервисе: почему боты раздражают и что с этим делать

ИИ обещает революцию в клиентском сервисе, но реальность часто разочаровывает: 6 из 10 россиян банковские чат-боты раздражают своей непонятливостью и медлительностью. Что с этим делать? Мнением с inTrend поделился директор по развитию бизнеса Центра лидерства Школы управления СКОЛКОВО Игорь Никифоров.
ИИ в клиентском сервисе: почему боты раздражают и что с этим делать

Представьте ситуацию: вы звоните в службу поддержки банка, чтобы срочно заблокировать украденную кредитку. Отвечает приятный голос, но вскорости вы замечаете странности: слова растягиваются, окончания пропускаются, а ответы звучат неестественно.

Вы пытаетесь четко сформулировать запрос, но бот – как вы вскоре осознаете – не может ничего толком понять и гоняет по кругу. Время идет, раздражение нарастает, пока бот наконец-то не переключает вас на оператора-человека. С ним решение занимает пару минут.

Такой негативный опыт взаимодействия с ботами — не редкость. Согласно недавнему опросу маркетплейса «Выберу.ру» (2024), 6 из 10 россиян раздражают банковские чат-боты – непонятливые и медлительные.

При этом обскурантами россиян не назвать: людям не нравятся чат-боты служб поддержки на нынешнем этапе их развития, а не чат-боты вообще. Так, судя по опросу ВТБ (2024), более половины россиян прогнозируют появление банков, в которых все основные клиентские операции будет выполнять искусственный интеллект.

Компании – не только финансовые – внедряют ИИ-инструменты в клиентский сервис, чтобы сократить затраты и ускорить обработку запросов. Согласно прогнозу Gartner (2022), к 2027 году чат-боты станут основным каналом взаимодействия клиентской службы для каждого четвертого бизнеса, но для этого предстоит решить ряд управленческих вызовов:

  • Разработать стратегию развертывания чат-бота с учетом коммуникационных рисков;
  • Повысить уровень удержания клиентов за счет повышения удобства чат-бота;
  • Определить метрики для оценки эффективности чат-бота, регулярно проводить мониторинг и тонкую настройку.

Процесс идет неравномерно. Зачастую – когда внедрение слишком глубокое без должной проработки сценариев – реальный эффект отличаются от ожидаемого: клиенты теряют доверие к бренду, продажи снижаются, и приходится пожарными методами выправлять ситуацию.

Ключевое слово тут – «баланс». Именно от умения балансировать между глубиной внедрения, проработанностью скриптов и пониманием общих ограничений ИИ и зависит успех проекта.

Большое преимущество ИИ в коммуникациях — стандартизация процессов. Например, в колл-центрах уровень обслуживания зависит от компетенций и личных качеств операторов, а чат-бот способен обеспечивать стабильное качество взаимодействия. Однако его слабость — отсутствие гибкости и эмпатии.

ИИ-инструменты часто не способны поддерживать даже минимальный уровень «человеческого» взаимодействия: вместо тепла и понимания клиенты сталкиваются с безэмоциональными ответами, от которых веет холодной машиной.

Так, знание пола, возраста или даже наличия домашних животных может значительно повысить качество взаимодействия с клиентом. Но если бот путает пол или не может запомнить имя, это мгновенно вызывает раздражение. Детализация сценариев диалогов улучшает результат, но не способна полностью заменить человека.

Иными словами, технологические ограничения все еще значительные. Реальный кейс: в России провели объемную научно-исследовательскую работу по созданию автоматизированной коучинговой платформы, анализирующей эмоции и паттерны поведения человека по видео.

По итогам проекта выяснилось, что бот-наставник распознает эмоции с точностью до 85% – показатель сам по себе неплохой, но недостаточный для практического применения. В 15% случаев система ошибается, что очень чревато для такой тонкой сферы, как общение с клиентом. НИОКР завершились, а продукт так и не вышел на рынок.

Другая часть проблемы связана опять же с технологическими особенностями больших языковых моделей. Чат-боты могут давать разные ответы на один и тот же вопрос, что создает неопределенность для пользователей.

Например, в одном из проектов нейросеть, обученная на видеозаписях коучинговых сессий, начала копировать ошибки конкретного коуча: даже хорошо обученные системы могут вести себя непредсказуемо.

Значит ли это, что от клиентских чат-ботов нужно вовсе отказываться? Вовсе нет, но нужно хорошо понимать: внедрение ИИ в клиентский сервис сопряжено не только с большими возможностями, но и с существенными рисками.

Главная задача — найти баланс между ИИ-решениями и человеческим участием. Полный отказ от автоматизации нерентабелен, но и абсолютная замена человека искусственным интеллектом пока невозможна.

Ключевые принципы внедрения ИИ-инструментов

  1. Прозрачность. Клиенты должны понимать, когда общаются с ботом, а когда — с оператором. Попытки скрыть автоматизацию приводят к разочарованию и подрыву доверия.
  2. Персонализация. Современные алгоритмы могут учитывать особенности клиента, запоминая его предпочтения и стиль общения. Ошибки в обращении, например путаница с полом или именем, снижают качество взаимодействия.
  3. Невербальные сигналы. Некоторые боты используют элементы живого общения — шутки, интонацию, паузы, что делает их более «человечными». Однако способность распознавать эмоции собеседника и реагировать на них – все еще технологический вызов.

Эти правила справедливы как для внешней коммуникационной сферы (общение с клиентами), так и для внутренней (общение с сотрудниками).

Пример успешного внедрения – «Алиса» от Яндекса, которая использует персонализацию и элементарные невербальные сигналы, повышая качество взаимодействия и стимулируя рост выручки бизнеса. Но гораздо чаще ситуация развивается не столь оптимистично.

Кейс №1: Tay от Microsoft.

Компания запустила бота в 2016 году, чтобы обучать его через взаимодействие с пользователями социальной сети Twitter (ныне X). В первые же сутки бот начал публиковать оскорбительные, расистские и провокационные сообщения, переняв их от троллей и интернет-хейтеров, в итоге инструмент пришлось отключить.

Кейс №2: Alexa от Amazon.

В 2017 году из-за ошибки в алгоритме распознавания речи помощник начал самопроизвольно смеялся над пользователями в неподходящие моменты, что вызывало у людей страх и дискомфорт. Оперативное выпущенное обновление устранило проблему, но ситуация подорвала доверие к компании и технологии.

Кейс №3: Erica от Bank of America.

Запущенный в 2018 году инструмент помощи клиентам банка часто давал некорректные ответы и не мог выполнить элементарные запросы, вызывая разочарование и отток клиентов. Банку пришлось срочно дорабатывать бота и наращивать штат человеческих операторов.

Объединяет эти негативные случаи не только недостаточная обученность ИИ-моделей и технические ограничения, но и управленческие провалы – стремление выпустить сырой инструмент без достаточного тестирования и завышенные ожидания от искусственного интеллекта, в целом.

Подробнее о выстраивании доверия в цифровую эпоху Игорь Никифоров расскажет 2 апреля на своем мастер-классе «Искусственный интеллект и человеческие связи: как строить глубокие отношения в цифровую эпоху» в рамках Leadership Day SKOLKOVO.

Leadership Day SKOLKOVO – ежегодное событие, собирающее руководителей высшего звена, практиков и исследователей для обсуждения актуальных тем, трендов и вызовов в области лидерства.

Тема конференции этого года – коммуникация лидера. В фокусе внимания – позиционирование руководителя, взаимодействие на уровне первых лиц, правила современной эффективной коммуникации руководителей, барьеры взаимодействия и другие темы.

(0)
(0)

Читайте также

Мы используем файлы cookie чтобы сделать сайт еще удобнее для Вас. Оставаясь с нами, вы соглашаетесь на обработку файлов cookie