Где заканчивается измеримый эффект ИИ и начинается зона неопределённой окупаемости и почему новая волна ИИ‑угроз требует защиты не «на уровне модели», а «на уровне процесса», рассказывает заместитель генерального директора Альянса в сфере искусственного интеллекта, модератор сессии на форуме FINNEXT 2026.
— Где у ИИ сейчас проходит «граница экономической целесообразности»: какие задачи уже дают измеримый эффект в PL, а где банки пока сознательно притормаживают из‑за стоимости данных/вычислений/рисков?

Н. Худов: Сегодня граница проходит между зрелыми направлениями, где эффект уже хорошо измерим, и теми, где компании пока лишь ищут понятные способы оценки отдачи от инвестиций.
Кредитный скоринг, противодействие мошенничеству и автоматизация операционных задач — уже зрелые области с прозрачной экономикой.
Банки сознательно притормаживают в тех областях, где соотношение затрат и рисков пока не в пользу масштабного внедрения: треть российских финансовых организаций не планирует инвестировать в ИИ в ближайшей перспективе — из‑за неопределённой окупаемости и высокой стоимости инфраструктуры.
Axenix в исследовании об ИИ‑агентах и организационных изменениях выделяет три таких зоны: генеративные решения в клиентских коммуникациях, автономное принятие решений в корпоративном кредитовании и комплексную перестройку операционной модели под ИИ.
В клиентских коммуникациях главный сдерживающий фактор — невозможность использовать специализированное иностранное ПО. Это вынуждает банки разрабатывать собственные решения или переходить на открытые архитектуры, что обходится дороже и занимает больше времени.
По данным НИУ ВШЭ, 58 % организаций считают высокие затраты на внедрение ИИ главной преградой – финансовый сектор здесь не исключение.
В корпоративном кредитовании и управлении рисками коварство кроется в непрозрачных моделях. Когда алгоритмы скрыты, растёт шанс системных сбоев: одинаковые архитектуры приводят к однородным решениям, а значит – к одинаковым ошибкам.
Но к этому ещё добавляется более тихий барьер – отсутствие методики подсчёта финансовой отдачи. Если нельзя измерить выгоду, инвесторы принимают решения «по вере», а проекты просто застревают.
Мы взяли эту проблему в свои руки. Совместно с Ассоциацией ФинТех и ведущими игроками рынка создали отраслую методику оценки эффекта ИИ. Это своего рода общий язык для тех, кто пишет код, и тех, кто контролирует бюджеты: как задать базис, какие показатели включать и где часто ошибаются.
Результат прост – инвестиция перестаёт быть ставки на удачу. Когда расчёт ясен, проекты ускоряют масштабирование.
Новая волна угроз от ИИ уже на подходе. Синтетические идентичности, промпт‑инъекции, автоматизированные фейковые заявки – всё это может обрушить кредитный портфель, если процессный щит не готов.
Считаю, что главная работа лежит не в доработке моделей, а в пересмотре процессов: проверка источников данных, аудит решений, разделение ответственности между ИТ и бизнесом. Как говорил Н. Худов, каждая технологическая волна приносит новые способы злоупотреблений. Финансы уже прошли через такие штормы, и сейчас время укреплять процессный фундамент, а не только подгонять алгоритмы.
Пять компаний из каждых двадцати всё ещё считают интеграцию ИИ в бизнес‑процессы слишком сложной, сообщает НИУ ВШЭ. Барьером служат не только технические трудности, но и законодательные ограничения. В ответ отрасль меняет подход: защита модели отступает, а в центр – защита самого процесса.
Термин «синтетические личности» звучит громко, но суть проста – мошенники используют языковые модели, чтобы подделать голос или текст. Для банков это значит, что однократная проверка клиента уже не спасет.
Ключевые шаги, которые уже внедряют прогрессивные финансовые институты:
1️⃣ Динамический мониторинг – вместо одноразовой аутентификации система постоянно сравнивает поведение клиента с его историей;
2️⃣ Чёткое распределение ответственности – бизнес, риск‑отдел и IT‑команда совместно решают, кто отвечает за каждое действие алгоритма;
3️⃣ Регулярное тестирование уязвимостей – фокус смещён с оценки точности модели на поиски слабых мест в её эксплуатации;
4️⃣ Обучение персонала – сотрудники учатся распознавать аномалии, которые машины могут пропустить.
Банки, которые запустили эти процессы заранее, уже ощущают уверенность: количество инфо‑инцидентов падает, а реакция на угрозы ускоряется.
Никита Худов, глава аналитического центра банка «Тинькофф», выступит на форуме FINNEXT 2026 7 апреля. Он расскажет, как ИИ и переориентация финансовых потоков меняют стратегии игроков рынка в ближайшие годы.
— Один из самых сложных компромиссов 2025–2026: приватность/суверенность данных vs. качество моделей. Какие практики реально работают, а какие оказались красивой теорией?
Н. Худов: Это действительно важная проблема текущего периода, но отрасль уже выработала рабочие подходы, которые позволяют двигаться вперед, не жертвуя ни качеством моделей, ни защитой данных.
KEPT формулирует главный принцип четко: надежная защита строится на сочетании технических, организационных и правовых механизмов — ни один из них по отдельности не решает задачу полностью.
Локальная обработка данных. Передача данных за пределы контура организации исключается уже на уровне архитектуры — не политиками, а техническим проектированием. Axenix называет это базовым проектным требованием, а не дополнительной опцией. Показательно, что 23 % российских организаций уже разрабатывают ПО для ИИ собственными силами, предпочитая контроль над данными готовым внешним решениям.
Синтетические данные. При разработке и тестировании моделей реальная клиентская информация заменяется искусственными наборами, которые статистически близки к оригиналу. Качество обучения сохраняется — риск утечки исключается.
Разграничение доступа по ролям. Модель видит только те атрибуты профиля, которые нужны для конкретной задачи. Доступ к полной истории клиента не предоставляется по умолчанию.
Стандартное обезличивание как самодостаточная мера. Современные методы перекрестного сопоставления нескольких источников позволяют восстанавливать личность даже из формально обезличенных данных.
По данным НИУ ВШЭ, в России каждый пятый ИТ‑проект сталкивается с законодательными ограничениями, мешающими перенести обработку клиентских данных в публичный облако. KEPT прямо предписывает: алгоритмы должны исключать любую возможность повторной идентификации. Выбор между собственным периметром и внешним облаком теперь измеряется не только техническими характеристиками, а полным набором рисков.
Ни один банк не решит эту задачу без людей. Как отмечает Н. Худов, граница между автоматическим и человеческим решением определяется стоимостью ошибки и тем, как быстро её можно исправить, а не сложностью технологий. Где потоки данных измеряются тысячами запросов в секунду, а цена отдельного промаха минимальна, алгоритм берёт всё на себя: розничный кредитный скоринг, детекция мошенничества в реальном времени, краткосрочное управление ликвидностью. Здесь скорость и объём делают ручной контроль невозможным.
Противоположный сценарий — крупные корпоративные кредиты, планирование капитала, стресс‑тесты на уровне правления, реструктуризация и спорные клиентские случаи. За каждым из этих решений стоит репутационная и правовая ответственность, которую нельзя делегировать машине. Банки сохраняют человеческий контроль, потому что ошибка в этих областях дорого стоит и её исправление требует времени.
Итог прост: модели уже берут на себя рутину, где число операций и цена ошибки позволяют автоматизацию, но в стратегических, юридически значимых вопросах человеческий фактор остаётся решающим. Банки продолжают искать баланс, проверяя, где риск оправдывает полное доверие к ИИ, а где нужен человек в роли последней проверки.
Сложные сценарии в бизнес‑процессах иногда решаются алгоритмами, но их роль не ограничивается чистой математикой. Точность расчёта – лишь часть уравнения; куда переходит ответственность, когда решения влияют на людей?
1. Честность Если клиент спросил, с кем он разговаривает, он заслуживает прямого ответа. Сокрытие участия ИИ подрывает доверие, а без доверия технология быстро теряет смысл.
2. Запрет на манипуляцию Алгоритмы могут обнаруживать слабости поведения, но использовать их для продажи товаров, которые клиенту не нужны, опасно. Краткосрочный рост продаж не стоит разрушения долгосрочных отношений.
3. Право на живого человека Искусственный интеллект может стать первой точкой контакта, но клиенту должна быть возможность переключиться к реальному сотруднику. Это особенно важно в чувствительных вопросах – и это не «фича», а обязательный элемент архитектуры.
4. Право на оспаривание Решения, которые закрывают счёт или ограничивают операции, нельзя оставлять без механизма обжалования. Когда ставки высоки, клиенту нужен путь показать, что его голос слышат.
Вопрос, какие реальные выгоды от участия в FINNEXT, задавали себе многие. По словам Н. Худова, мероприятие остаётся одной из немногих, где обсуждение ИИ в финансовом секторе проходит без упрощений и без академической отдалённости. Платформа даёт возможность не только услышать, но и протестировать идеи, которые могут стать стандартом в отрасли.
Итог Технологии уже умеют считать. Главное – решить, где заканчиваться их автономии, а где начинать человеческую ответственность. Финтеху стоит построить процесс так, чтобы каждый из четырёх пунктов стал встроенной проверкой, а не после‑мистом, а тогда доверие превратится в конкурентное преимущество.
Для меня как для модератора это возможность не просто обозначить важные темы, но и услышать, как их воспринимает сама отрасль: что уже стало консенсусом, а что по‑прежнему вызывает споры. Именно такой открытый обмен мнениями сегодня особенно ценен, потому что рынок находится в точке реального перехода.
Ожидаю, что для рынка результат конференции будет еще более практическим: будут подняты вопросы, напрямую влияющие на технологическое развитие организаций. Программа форума отражает ключевой сдвиг, который происходит сейчас: от «ИИ как инструмента» к «ИИ как операционной основе» — от Co‑Pilot к Autopilot, от точечных решений к мультиагентным системам. Это не просто смена терминологии — это изменение логики принятия решений. И здесь важно, чтобы индустрия двигалась синхронно: иначе разрыв между теми, кто уже перестроился, и теми, кто только начинает, будет нарастать.
Если FINNEXT помогает сдвинуть разговор от «нужен ли нам ИИ» к «как правильно его масштабировать», это уже конкретный вклад в зрелость рынка. А именно эта зрелость сейчас во многом определяет, кто окажется среди лидеров следующего технологического цикла.





