截止日期临近

2026年8月2日 ——欧洲金融行业在日历上用红笔圈出的日期。这一天,EU AI Act(欧盟人工智能法规)中关于高风险系统的核心条款正式生效。而金融领域中的大多数AI系统恰恰属于这一类别。

哪些金融AI系统被视为高风险

根据EU AI Act附件III,高风险AI系统包括用于以下目的的系统:

  • 个人信用评估
  • 信用评分 ——确定贷款条件
  • 保险产品定价 ——基于个人数据
  • 风险评估 ——人寿和健康保险
  • 自动化交易 ——算法交易系统可能受金融行业要求约束,尽管HFT是否直接纳入附件III仍在讨论中
  • 反欺诈系统 ——自动化欺诈检测

主要要求

1. 风险管理系统(第9条)

必须实施持续的风险评估和管理系统,包括:

  • 识别和分析已知及可预见的风险
  • 评估系统按预期使用及可预见的误用时的风险
  • 风险缓解措施
  • 系统测试

2. 数据质量(第10条)

训练、验证和测试数据集必须:

  • 相关、具有代表性,且尽可能无误
  • 考虑地理、行为和功能背景的特点
  • 包含用于检测偏见(bias)的数据

3. 技术文档(第11条)

每个系统必须具备详细文档,涵盖:

  • 系统描述及其预期用途
  • 架构、算法和训练过程
  • 性能指标和局限性
  • 网络安全措施

4. 日志记录(第12条)

系统必须自动记录:

  • 每次系统使用
  • 做出的决策及其依据
  • 输入数据和输出结果

5. 透明度(第13条)

用户必须理解系统的工作方式:

  • 清晰的使用说明
  • 关于功能和局限性的信息
  • 准确度水平和已知错误

6. 人工监督(第14条)

系统必须提供以下能力:

  • 完全理解系统的功能和局限性
  • 实时监控系统运行
  • 由人类覆盖停止系统

处罚

违规行为 罚款
使用被禁止的AI系统 最高3500万欧元或全球营业额的7%
不符合高风险系统要求 最高1500万欧元或营业额的3%
提供虚假信息 最高750万欧元或营业额的1.5%

对比:GDPR最高罚款为2000万欧元或营业额的4%。

谁需要做好准备

银行和金融科技

任何使用AI进行信用评分、反洗钱检查或自动化决策的银行都必须使其系统合规。

保险公司

用于定价和核保的AI模型需要完整的文档和审计。

投资基金

使用ML模型的算法交易系统受第9-14条要求约束。

经纪商

如果经纪商向客户提供AI推荐——这就是高风险系统。

实际步骤

  1. 盘点组织中所有的AI系统
  2. 根据EU AI Act对每个系统进行风险等级分类
  3. 指定合规负责人
  4. 开始编写文档 ——这是最耗费人力的部分
  5. 实施监控和日志系统
  6. 审计用于训练的数据

距离截止日期不到5个月。如果您还没有开始——现在正是时候。