当我们谈论AI+Finance的时候,风险从何而来?(续)

本文的内容整理自ArXiv上最新的一篇文章“Black-box model risk in finance”,文章作者来自艾伦·图灵研究院(英国国家数据科学和人工智能研究院)。作为一篇综述性质的文章,作者从数据和模型两个方面阐述了将深度模型应用于金融领域可能引发的风险,不仅对于具体的应用有指导意义,对相关的研究也有非常好的参考价值,非常值得推荐。因为原文的精华内容比较多,为了便于阅读,分成数据风险和模型风险两部分来写,本文主要介绍模型风险。

1. 模型风险

当深度模型应用于金融场景中时,模型带来的风险主要有四种:结构风险(Structural Risk),模型敏感性(Model Sensitivity),对抗攻击(dversarial Attacks),模型漂移(Model Drift)。

1.1 结构风险

使用以神经网络为代表的深度模型,意味着模型会自动去寻找合适的结果,这种端到端的方式提供了很大的便利。但代价是通过这种方式得到的模型可能不是最优的。

此外,在模型训练过程中有众多的参数和训练技巧,这为模型引入了许多不同来源的随机性,如dropout、early stopping,随机梯度下降等,这些因素都会导致模型输出结果的不确定。此外,这些随机性对于模型的表现也有着重要的影响。

lipton在2018年的研究中给出了模型透明的三个要素:可模拟性(simulatibility,人们可以在一个合理的时间内模拟模型的每一步操作),可分解性(decomposability,模型的每一部分在直觉上都是可解释的,并且可以被独立理解),算法透明(algorithmic transparency, 算法有理论上的保证)。很明显,深度模型不符合可模拟性和可分解性的要求。这种不可解释会给模型带来隐藏的风险。

1.2 模型敏感性

深度模型在使用高维输入的时候是非常脆弱的。一方面是因为模型可获得数据是有限的,当模型遇到训练中未出现的情景时的行为难以预料。另一方面,模型使用了太多的特征,有些未来在实践中可能获取不到。

我们可以使用一些事后的解释方法来评估模型的学习效果,但这些解释方法本身也存在问题,可能带给用户的只是虚假的安全感。

1.3 对抗攻击

近些年,众多对深度模型进行攻击的方法被发展起来。一个深度模型应用于市场上存在两方面的风险。一是信息泄露,其他人可能通过一些攻击手段获知你的交易策略。二是操纵,你的一些对手可能针对你的模型制造针对性的对抗样本,诱导你的模型做出错误的判断或行动,以此牟利。

一些常见的攻击方式如下表所示:



1.4 模型漂移

金融市场行为是随时可能发生变化的。人们普遍相信因为无套利的限制,衍生品的价值和它的内在价值是一致的。但在2008年的金融危机中,这一假设破灭了,因为逃离计算没有考虑竞争对手的信誉问题。

所以,当市场环境发生改变,模型可能不能做出适当的操作。

此外,线下的训练对于实际市场环境缺乏鲁棒性。例如,训练好的航空定价模型在covid-19疫情期间完全失灵,数据科学家们不得不转而求助传统的计量模型。

在线学习也许是解决上述问题的一个好方法,但是这仍然需要解决一个问题:我们应该以多快的速度更新模型?短期的数据往往具有高波动性和高随机性,过快的更新可能会让模型结果出现大幅波动。

2 解决方案

文章不仅提出了问题,也给出了几个解决问题的方案,这里简单聊一聊:

  1. 只将机器学习作为一种数值工具。如使用深度学习求解偏微分方程。
  2. 引入找专家知识。如在训练阶段使用数据增强,添加损失函数的惩罚项、使用知识图谱等。
  3. 构建benchmarks。仿照其他AI领域构建大规模、公认的benchmark。
  4. 对抗防御。在模型训练中使用对抗学习的技巧、加入随机性等
  5. 可解释性。让模型变得更加可解释,但现在基本上没啥好办法。
  6. 监控模型。为了避免模型漂移,应当随时监控模型的表现,并做出适当的调整。
0 0 投票数
Article Rating
订阅评论
提醒
0 评论
内联反馈
查看所有评论