人工智能时代的金融监管
金融强国建设与中国金融体系现状
金融强国建设是当前金融政策的重要方向,其内涵十分丰富。我的理解是,一个真正的金融强国应当具备三个方面的特征:高效、稳健和国际影响力,其中国际影响力尤为关键。
对于中国金融体系的现状,通过多年研究和《径山报告》等系列研究,我们对其特点有了较为清晰的认识。中国金融体系可以概括为“规模大、管制多、监管弱、银行主导”这四个特点。从总体上看,中国金融业规模已经相当庞大。
最近中央金融工作会议对中国金融体系问题做出了重要判断:“支持实体经济的质量欠佳,金融风险比较多,同时金融乱象和腐败频发,金融监管能力有待提升”。这是一个相当严肃的评估,表明未来金融监管政策必然会进行调整,实际上相关调整已经开始。
金融监管政策的动态平衡
从金融监管政策或金融政策角度看,动态调整可能是一个永恒的主题。最根本的原因是需要平衡效率和稳定之间的关系。在不同阶段,不同经济体的金融体系所面临的主要矛盾可能有所不同。我们观察到,一个国家发生金融危机后,监管政策通常会收紧;当收紧到一定程度影响了效率,又会适当放松。这种调整是监管的正常过程。
当前中国面临的困难在于需要同时实现两个任务:一方面改善对实体经济的支持力度,这意味着监管可能需要放松;另一方面,要守住不发生系统性金融风险的底线,又意味着需要收紧监管。在一段时间内如何平衡这两个目标是一个重大挑战。这涉及科创金融等具体领域,支持创新需要放宽政策,但当前又面临诸多风险。
因此,解决之道不是简单地判断当前应该收紧还是放松监管,而是要找到平衡点,或者在不同领域采取差异化策略。这种协调需要更加细致的考量和设计。
人工智能在金融领域的应用特点
人工智能确实为金融发展提供了很多机会,技术的一系列进步带来了诸多可能性。
在数字金融的研究中,我曾向一位在北京大学本科就读计算机科学、如今正在攻读金融学博士学位的学生请教,我们过去使用的算法是否算作人工智能。他认为这也属于人工智能的范畴,只是层次不同。他绘制的人工智能层次图得到了计算机学会院士的认可,说明许多人对人工智能的概念定义存在问题。
如果使用得当,人工智能可以同时帮助改善金融服务质量并提升风险管理水平,实现当前我们希望达成的两大目标。
人工智能在金融领域有多种应用场景,其核心功能是提升数据分析能力、增强行为理解透明度、预测市场、管理风险以及改善服务。
我曾将数字技术对金融的改变概括为“三升三降”:扩大服务规模、提高效率、改善体验;降低成本、减少接触、控制风险。目前多数人工智能应用仍体现了这些功能。
生成式AI在金融领域有许多新场景,大致可分为三个领域:营销运营、分析决策和中后台应用。不同技术在不同业务中的效果各异,有些领域的应用非常好,而有些效果不尽理想。特别是智能投顾领域,目前直接用于帮助客户解决问题的应用还未达到预期效果。原因可能有多种:或许是人工智能技术尚未成熟,或是市场没有足够多的可配置资产,也可能是个人接受度的问题。
从实践来看,数字技术和人工智能在金融领域的成功应用主要集中在支付和信贷两个领域。这可能是因为在这些领域,风险识别和承担的主体主要是平台或机构,能够承受一定比例的违约,只要总体风险可控即可。而在投资顾问等领域,如果效果不佳,后果可能更为严重。因此,目前人工智能最有价值的应用可能是交流咨询和情绪价值提供等场景。
大科技信贷研究与风险机制变化
我们对数字科技信贷进行的研究发现,大数据和人工智能算法的应用在普惠金融领域取得了显著效果。传统的大科技信贷主要利用机器学习方法对大数据进行深入、全面的分析,之后则开始出现用多模态融合或生成式人工智能等技术评估并管理信用风险。从普及范围和风险控制角度看,普惠金融发展的成效相当显著,堪称革命性变化。
前不久与尤努斯教授交流时,谈到他创立的格莱珉银行在孟加拉国等地取得了成功,但在中国的发展空间却很有限。原因之一是中国大型银行已广泛开展相关业务,更重要的是中国数字技术革新已大幅改变了金融服务模式。
任何新业务模式必然会对风险机制产生影响。我们已听到一些监管部门的担忧,例如使用数据模型进行风控和信用风险评估是否会导致风险趋同化,因为机构使用类似逻辑和模型。近期也有银行抱怨数据造假问题日益突出,这使问题变得更加复杂:是数据造假导致方法失效,还是因为使用的不是真正的大数据而仅是个别数据,容易被伪造?
我们另一项研究发现,使用大数据和算法进行信用风险评估可能改变金融运行机制。伯南克曾提出“金融加速器”机制,特别是在信贷领域:抵押品价格上升导致信贷条件宽松,信贷条件宽松又进一步推高抵押品价格,形成正反馈。许多国家因房价下跌导致信贷紧缩,甚至引发严重金融危机。但在大科技信贷模式下,由于数据替代了房价作为决策依据,这种机制被打破了。
这一发现虽只是局部现象,但给我们的启示是:当使用大数据或人工智能辅助金融决策时,某些风险机制可能发生变化,这对金融稳定和监管政策具有重要意义。
人工智能应用的挑战与隐忧
人工智能虽然解决了一些问题,但也引发了更多讨论和担忧。这些担忧包括:一是数据隐私问题。二是算法透明度问题,AI决策过程难以解释。三是道德风险和伦理问题。四是风险集中问题,不同机构使用相似算法可能导致风险在系统中积累。算法误差可能带来的系统性影响。五是网络安全问题。六是AI发展出独立意识的可能性,如果未来AI的目标与人类不一致,可能对金融体系造成冲击。
有些问题如网络安全已在其他领域出现过,但所有这些问题都值得金融监管者未来密切关注。
欧洲已推出人工智能监管框架,对不同AI创新实施风险分级监管。这一思路值得借鉴,尽管具体分级方式可能需要调整。欧洲监管严格程度常受批评,过度管制可能抑制创新,但风险分级作为监管思路有其价值,值得我们借鉴。
最近我还见到了Deepmind联合创始人、现任微软AI CEO的苏莱曼。他对人工智能可能对人类造成的冲击,特别是对国家地位的影响表示担忧。他在著作中提出,如果处理不当,这种冲击将是灾难性的。他提出十大策略方案,主张以更系统、更稳健谨慎的方式推动人工智能创新,特别强调政府部门应深度参与企业创新过程,甚至设置特殊机制在风险突发严重时有权放缓或关闭相关进程。作为AI行业先驱,他的担忧值得关注,尽管我不完全赞同他的全部观点。
人工智能时代的金融监管建议
人工智能的发展对金融监管有哪些启示?虽然我没有系统性思考这一问题,且人工智能本身仍在发展过程中,但我可以提出四点初步看法:
第一,加强监管能力建设。如果人工智能确实正在改变经济社会生活各方面,包括金融领域,监管部门必须加大人力和智力技术投入。金融领域的变化已经明显可见,未来可能出现更多变化。如果监管部门不能跟上,无法充分了解这些变化,未来风险将更大。
第二,建立技术监管机制。技术在金融中可能成为独特的风险源。在现有的功能监管、机构监管、行为监管、审慎监管基础上,可考虑设立专门的技术监管,对金融交易、业务、产品和机构进行技术风险评估。提出这一建议是因为虽然许多技术风险问题在其他监管类别中有所涉及,但识别和应对这些风险需要特殊专业能力,而这不是每位监管人员都具备的。
第三,设立算法审计制度。在利用人工智能和大数据时,不可避免地会遇到数据保护和数据共享的问题,如何在这两者之间找到平衡点是一个关键议题。除此之外,算法黑箱现象也是一个重大挑战。因此,可以考虑设立算法审计制度,审计不一定由政府直接执行,可采用市场化的做法,目的是提高算法的可解释性和透明度。
第四,应用监管沙盒概念。面对具有不确定性但可能带来巨大效率提升的人工智能金融创新,监管部门可以与创新机构共同合作,创新机构侧重业务模式,监管部门重视风险管控,一方面测试人工智能应用的效果,另一方面监测潜在风险,实现共同研发、数据共享的目的。
无论是苏莱曼的建议还是欧洲的风险分级模式,核心理念是对风险程度不同的技术采取差异化监管。有些技术风险较小,监管部门无需深入跟踪;但对直接涉及数十亿用户且增长迅猛的应用,监管部门应与创新机构建立合作模式,包括共同研发和数据共享。从机构角度看重点是合规,从监管角度看重点是控制风险,双方共同目标是尽可能发挥人工智能改善金融服务的作用,同时确保风险可控。
作者黄益平系CF40第四、五届学术委员会主席、北京大学国家发展研究院院长,本文为作者在2025·金融四十人年会暨闭门研讨会“人工智能时代的金融与科技”上所做的主题交流。文章仅代表作者个人观点,不代表CF40及作者所在机构立场,未经许可不得转载。