Как бизнес в Казахстане использует ИИ
Внедрение искусственного интеллекта - длительный процесс, поэтому важно правильно управлять ожиданиями стейкхолдеров, отмечают бизнесмены
На фоне глобального интереса к искусственному интеллекту крупные компании Казахстана уже сегодня внедряют ИИ-технологии в операционные процессы, клиентский сервис и цифровые стратегии развития в целом. Во время дискуссии на состоявшемся в Алматы VK Cloud Nomad Fest представители BI Group, «Халык банка» и IT-компаний рассказали, как именно используют ИИ, по каким метрикам оценивают эффективность и с какими рисками сталкиваются на практике.
AI-директор BI Group Дмитрий Синица сразу обозначил основополагающий подход компании: «Мы не разрабатываем то, что не приносит финансовый эффект, и не беремся за проекты, которые невозможно измерить». У группы больше 8 разных направлений – от строительства и сервисных подразделений до образовательных учреждений, и выбор приоритетов для внедрения ИИ был далеко не очевиден. Однако команда сфокусировалась на четырех ключевых областях: клиентский опыт, операционные процессы, контроль качества и автоматизация рутинных процессов.
В клиентском блоке BI Group ориентируется на рост NPS, индекса потребительской лояльности. В производственной части упор делается на сокращение сроков строительства и проектной себестоимости. В области качества — на уменьшение количества дефектов, которые влияют не только на репутацию, но и на затраты. Внутренние процессы рассматриваются с точки зрения оптимизации накладных расходов. Как отметил Дмитрий Синица, для оценки результатов часто используется A/B-тестирование. Один из свежих примеров — пилотный проект по внедрению scrum kanban-подходов на строительных площадках.
«Сейчас все бригады проводят утренние дейли-митинги с бизнес-партнерами. Здесь мы используем технологию речевой аналитики. Предполагалось, что команды, которые проводят дейли по определенному чек-листу, будут строить быстрее, качественнее и с меньшим количеством ошибок. Наша гипотеза подтвердилась», - сказал спикер.
«Халык банк» также активно работает с генеративными ИИ-моделями. По словам директора департамента управления данными банка Армана Жаулбаева, каждый проект рассматривается комплексно — с изменением бизнес-процессов, инфраструктуры и организационных ролей. При этом на начальном этапе ставка делалась не на высокодоходные кейсы, а на зрелость процессов и готовность команд. «Мы создали матрицу оценки, где ключевыми были не деньги, а степень подготовленности участников и устойчивость самих бизнес-процессов. Это дало возможность быстро получить компетенции на «низковисящих плодах», — отметил Арман Жаулбаев.
Особое внимание в банке уделяется удовлетворенности внутренних клиентов, что измеряется через CSI (customer satisfaction index).
«Когда мы внедрили одного из ИИ-ассистентов, клиенты начали жаловаться на его ответы. Стали разбираться что случилось, оказалось, что ответы были корректные, по теме, по нужным документам и данным. Но он психологически не понравился конечным пользователям. Эти вещи тоже важны», — подчеркнул он.
Head of data science компании Databorn Дмитрий Забавин поделился тем, как внедряется ИИ в розничной фармацевтике. «Мы сейчас пилотируем в аптеках большую языковую модель, и на этапе предварительной модерации встречаются удивительные кейсы, когда человеку предлагается скидка в категории «круги и мешки под глазами», а модель пишет «получите скидку на круги и мешки под глазами». Такую формулировку нельзя выпускать в продакшн, потому что это прямой репутационный риск.
Плюс, внедрение ИИ - длительный процесс. Это не один агент, который решит все проблемы, по его словам, это команда агентов: писатель, валидатор и т.д.
«Не стоит надеяться, что LLM - это волшебная кнопка, на которую нажмешь и все будет безупречно. Необходимо пристальное внимание к промт-инженерии», — уточнил он.
Что касается экономических рисков, то необходимо четкое разграничение.
«Если речь идет о персонализации предложений, когда нужно выбрать конкретную категорию товаров в аптеке или кешбэк, то за это отвечает ансамбль ML-моделей. А LLM применяется там, где необходима упаковка товара, автоматизация каких-то процессов. То есть экономические риски мы закрываем тем, что четко разграничиваем области ответственности больших языковых моделей и машинного обучения», - добавил Дмитрий Забавин.
В BI Group в приоритете управление репутационными рисками. «Можно позволить LLM наговорить кучу всего нашим клиентам, а потом разгребать это все еще пару лет», - отметил Дмитрий Синица.
Также актуальны риски информационной безопасности. Есть большой соблазн «скормить» финансовый отчет GPT, чтобы он сделал чудо.
Не менее значимым вызовом является вопрос устойчивости ожиданий. По словам Дмитрия Синицы, многие разочаровываются в ИИ, когда сталкиваются с длительным циклом внедрения.
«Если ты не умеешь управлять ожиданиями — своими и стейкхолдеров — то очень быстро можно отказаться от всей технологии». Он также напомнил о соблазне «скормить» LLM корпоративные документы, например, финансовую отчетность, ради краткосрочной пользы, но здесь велик риск утечки данных — и это уже другая, гораздо более серьезная история.
В «Халык банке» главным риском считают сохранение информационной безопасности. Арман Жаулбаев отметил, что в 99% случаев банк не может использовать внешние модели из-за законодательных и технических ограничений. Поэтому ключевые решения разворачиваются внутри периметра «Халык банка».
«Сегодня LLM — это по сути черный ящик. Не до конца понятно, какие риски несет эта технология. Мы ждем, пока отрасль накопит опыт и появятся инструменты управления», — пояснил он.
Завершая дискуссию, Дмитрий Забавин подчеркнул, что сегодня как никогда доходность бизнеса находится в руках управленцев. Инструменты уже существуют: машинное обучение, генеративный ИИ, речевая аналитика. Осталось сделать шаг. Его поддержал Дмитрий Синица, указав на снижение порога входа.
«Пять лет назад нужно было быть кодером, чтобы запустить проект в big data. Сейчас достаточно уметь формулировать задачу — и этого уже хватает, чтобы сделать первый MVP», - сказал он.
Арман Жаулбаев добавил, что генеративные технологии развиваются настолько быстро, что уже начинают менять фундаментальные основы бизнес-моделей.
«Экспериментировать нужно уже сейчас. Тот, кто не начнет сегодня, завтра может просто не догнать рынок», — резюмировал он.
В свою очередь Александр Волынский, технический менеджер продукта Cloud ML Platform компании VK Cloud, рассказал о том, что компаниям эффективно работать с ИИ и машинным обучением.
Компании сталкиваются с дилеммой: строить собственную Cloud ML-платформу или использовать готовые универсальные решения. Александр Волынский рекомендует двигаться поэтапно, внедряя простые и широко поддерживаемые технологии, избегая излишнего самостроя.
Кроме того, вместо того чтобы гнаться за большими данными, эксперт предлагает сосредоточиться на качестве. Ключевые проблемы — это некачественные данные, отсутствие мотивации у владельцев источников и «узкие горлышки» в коммуникации между data warehouse и пользователями данных.
Одним из вызовов, по его мнению, является разделение между data science и классической разработкой. Это два разных мира с разными методологиями. Решение — формирование кросс-функциональных команд с участием экспертов из обеих областей и введение роли data product manager, который может выступать связующим звеном.
Важно также управлять ожиданиями бизнеса: ML и LLM — это не магия. Успех зависит не только от технологии, но и от вовлеченности экспертов в предметной области.
Исходя из этого, Александр Волынский отметил, что успешные AI-проекты — это прежде всего грамотная организация процессов и команд. Не стоит изобретать свой велосипед — лучше двигаться шаг за шагом, внедряя проверенные решения.
При работе с материалами Центра деловой информации Kapital.kz разрешено использование лишь 30% текста с обязательной гиперссылкой на источник. При использовании полного материала необходимо разрешение редакции.