6月6日周四,美国财政部长耶伦出席了金融稳定监督委员会(FSOC)有关人工智能与金融稳定的会议,并在开幕致辞中警告金融机构使用人工智能技术的潜在风险。

有分析称,这是耶伦迄今为止对人工智能作出的最广泛评论。据一位美国财政部官员向媒体透露,耶伦本人也尝试用过人工智能聊天机器人

上述委员会在2008年金融危机之后由美国财政部牵头其他监管机构成立。本次为期两天的会议与美国智库布鲁金斯学会合办,“美国版银监会”货币监理署OCC的负责人也会发表讲话。

会议主题是讨论金融服务领域使用AI带来的潜在系统性风险,并分享鼓励创新与有效监管的洞察。与会者包括监管部门,科技公司、保险公司和资产管理机构的高管,以及学者和银行代表。

耶伦眼中的金融业利用AI“重大风险”:头寸过于拥挤,放大市场波动?

耶伦在演讲中透露,人工智能与金融稳定是拜登政府高度重视的话题,“在未来几年只会变得更加重要”。金融公司使用人工智能带来的“巨大机遇和重大风险”已成为美国财政部和金融稳定监督委员会的首要议题

耶伦承认,人工智能为金融系统提供了巨大机遇,例如通过AI的预测能力进行投资组合管理,利用AI检测异常的能力来打击欺诈和非法融资,客服也开始实现自动化。在最新的发展中,自然语言处理、图像识别和生成式人工智能有助于金融服务成本更低和更易于获取:

“我们看到,如果使用得当,人工智能可以提高效率、准确性和金融产品的可及性。”

但她同时警告称,金融机构使用AI在促进机遇的同时伴随着“重大风险”(significant risks):

“特定的脆弱性可能源于人工智能模型的复杂性和不透明性,风险管理框架不足以应对人工智能风险,以及由于许多市场参与者依赖相同的数据和模型而出现的相互关联特征。

开发模型、提供数据和云服务的供应商集中度过高,也可能会加剧现有的第三方服务提供商风险。数据不足或有缺陷则可能延续现有的偏见或引入新的金融决策偏见。”

有分析指出,耶伦意在警告,如果许多投资者都依赖于产生相同结果的AI工具,这可能导致某些热门交易的仓位押注拥挤,从而加剧市场上行或下行的走势。

同时,如果只有少数几家公司有能力提供AI模型,一旦其中一家公司出现问题,许多金融机构可能受到波及。更别提AI模型有时会产生有偏差或者歧视性的结果,但耶伦没提AI系统产生错误答案的“幻觉”问题。

美国财政部也在利用AI打击金融犯罪,FSOC去年首次警告AI对金融体系构成威胁

有美国财政部官员透露,FSOC正在努力探究人工智能如何对金融系统构成威胁,包括加大力度监控人工智能在金融行业的使用情况。

耶伦承认,美国财政部早就在利用AI技术来打击非法金融行为,例如检测洗钱、恐怖主义融资和逃避制裁等“我们面临的一些最大风险”,美国国税局则用AI来增强逃税的欺诈检测能力。

未来,美国政府和金融监管机构将继续扩大利用最新技术的能力、深入了解AI在金融服务领域的用例,并将公开征求市场参与者、消费者、学者和社会公众对金融领域AI应用的意见。

美国财政部还将举办人工智能和保险行业的圆桌会议,讨论保险公司如何防止AI造成贷款歧视等潜在的消费者保护措施,并将同美国国内与国际的金融监管机构定期对话,共同探究和监测AI对国际金融体系和全球经济的影响。

耶伦提到,除了促进信息共享和对话之外,金融稳定监督委员会及其成员机构将加强AI监管能力,在已有风险管理指导框架的基础上,还会引入“场景分析”(scenario analysis)的方法:

“鉴于人工智能技术发展迅速,金融公司和市场参与者的潜在用例也在快速演变,场景分析可以帮助监管机构和企业识别未来潜在的脆弱性,并告诉我们可以采取哪些措施来增强抵御能力。”

去年12月,美国金融稳定监督委员会在2023年度报告中首次警告称“人工智能对金融体系构成潜在威胁”,将人工智能在金融服务领域的广泛应用视为一个“新兴弱点”,AI可能带来的某些风险包括网络安全、合规和用户隐私保护等问题。

在报告中,监管机构还提到了对ChatGPT生成式AI模型“复杂性”的担忧,除了这些模型可能会产生“幻觉”而提供有缺陷的结果之外,一些人工智能系统像是外部人员无法洞察的“黑箱运作”,令评估系统概念是否合理变得困难,进而增加对其适用性和可靠性的不确定风险。

例如,监管机构担心,如果银行依赖“神秘的”人工智能模型,就很难理解其底层系统到底有多安全。AI系统也可能产生并掩盖有偏见或不准确的结果,导致公平借贷等消费者保护问题。

耶伦也在本次演讲中援引了FSOC年报,称美国财政部希望解决与人工智能相关的直接运营风险、网络安全和欺诈挑战。去年的年报特意指出:

“随着人工智能方法的复杂性增加,错误和偏见会变得更加难以识别和纠正,这凸显了AI技术开发者、使用该技术的金融行业公司,以及监管这些公司的监管机构必须保持警惕。”