Дедлайн приближается

2 августа 2026 года — дата, которую финансовый сектор Европы обводит красным в календаре. В этот день вступают в силу основные положения EU AI Act (Регламента ЕС об искусственном интеллекте), касающиеся систем высокого риска. А большинство ИИ-систем в финансах попадают именно в эту категорию.

Какие финансовые ИИ-системы считаются высокорисковыми

Согласно Приложению III EU AI Act, к системам высокого риска относятся ИИ-системы, используемые для:

  • Оценки кредитоспособности физических лиц
  • Кредитного скоринга — определения условий кредита
  • Ценообразования страховых продуктов на основе личных данных
  • Оценки рисков при страховании жизни и здоровья
  • Автоматической торговли — алгоритмические торговые системы могут подпадать под требования для финансового сектора, хотя прямое включение HFT в Приложение III обсуждается
  • Антифрод-систем — автоматическое выявление мошенничества

Основные требования

1. Система управления рисками (Article 9)

Необходимо внедрить непрерывную систему оценки и управления рисками, включающую:

  • Идентификацию и анализ известных и предсказуемых рисков
  • Оценку рисков при использовании системы по назначению и при предсказуемом неправильном использовании
  • Меры по минимизации рисков
  • Тестирование системы

2. Качество данных (Article 10)

Обучающие, валидационные и тестовые датасеты должны:

  • Быть релевантными, репрезентативными и по возможности свободными от ошибок
  • Учитывать особенности географического, поведенческого и функционального контекста
  • Содержать данные для выявления предвзятости (bias)

3. Техническая документация (Article 11)

Каждая система должна иметь подробную документацию:

  • Описание системы и её предназначения
  • Архитектура, алгоритмы, процесс обучения
  • Метрики производительности и ограничения
  • Меры кибербезопасности

4. Логирование (Article 12)

Системы должны автоматически вести логи:

  • Каждого использования системы
  • Принятых решений и их оснований
  • Входных данных и результатов

5. Прозрачность (Article 13)

Пользователи должны понимать, как система работает:

  • Понятная инструкция по использованию
  • Информация о возможностях и ограничениях
  • Уровень точности и известные ошибки

6. Человеческий контроль (Article 14)

Система должна обеспечивать возможность:

  • Полного понимания возможностей и ограничений
  • Мониторинга работы в реальном времени
  • Переопределения или остановки системы человеком

Штрафы

Нарушение Штраф
Использование запрещённых ИИ-систем До €35 млн или 7% мирового оборота
Несоблюдение требований для высокорисковых систем До €15 млн или 3% оборота
Предоставление ложной информации До €7.5 млн или 1.5% оборота

Для сравнения: максимальные штрафы по GDPR — €20 млн или 4% оборота.

Кто должен готовиться

Банки и финтех

Любой банк, использующий ИИ для кредитного скоринга, AML-проверок или автоматизации решений, должен привести системы в соответствие.

Страховые компании

ИИ-модели для ценообразования и андеррайтинга требуют полной документации и аудита.

Инвестиционные фонды

Алгоритмические торговые системы, использующие ML-модели, подпадают под требования Article 9-14.

Брокеры

Если брокер предлагает ИИ-рекомендации клиентам — это система высокого риска.

Практические шаги

  1. Проведите инвентаризацию всех ИИ-систем в организации
  2. Классифицируйте каждую по уровню риска согласно EU AI Act
  3. Назначьте ответственных за compliance
  4. Начните документирование — это самая трудоёмкая часть
  5. Внедрите систему мониторинга и логирования
  6. Проведите аудит данных, используемых для обучения

До дедлайна осталось менее 5 месяцев. Если вы ещё не начали — самое время.