人工智能的风险与全球治理的策略
近年来,人工智能技术的发展突飞猛进、日新月异。自ChatGPT问世以来,各种大模型层出不穷,其能力也在不断增强。在中国,这一领域更是上演了所谓的“百模大战”,反映出对技术创新与突破的强烈诉求。
尽管如此,对于人工智能巨大潜力的评估和预测始终伴随着对其潜在风险的担忧。这些风险不仅涉及技术层面,还广泛触及伦理安全、国家治理以及社会应用等多个方面。因此,如何有效地进行人工智能的风险管理,成为伴随其发展的不容忽视的重要议题。
人工智能系统的主要风险
人工智能系统蕴含的主要风险可被归纳为四个主要层面。
其一,与人工智能系统本身相关的风险。首先是安全漏洞问题,人工智能系统的复杂性和广泛应用,使其易于受到攻击。例如,机器学习模型可能受到数据病毒攻击,从而影响其决策能力。
其次是人工智能模型的不透明性问题,许多深度学习模型如同“黑箱”,人们难以解释其决策过程,这可能导致无法充分理解系统作出决策的原因,尤其是在医疗或法律等关键领域。
此外,还存在人工智能系统的失控问题。随着通用人工智能实现的可能性越来越大,人们愈发担心人工智能系统的自主性过强,从而带来其超出人类控制的风险。
其二,人工智能系统在开发与应用中存在违反社会伦理道德标准的风险。首先,其存在侵犯个人隐私的风险。人工智能技术,如面部识别和行为分析算法技术等,如果未经严格监管,可能会被用于企业对员工不合理的监控。又如,人工智能系统通常需要收集和处理大量个人数据,如果这些数据的采集和使用未遵循隐私保护标准,就可能导致数据泄露或滥用,侵犯个人隐私权。
其次是算法偏见问题。人工智能系统训练数据中存在的偏见可能带来不公正的决策和歧视性结果。比如,面试筛选系统可能因偏见数据而对某一特定种族或性别的候选人产生歧视。
再次是责任和问责不清问题。当人工智能系统的决策产生负面后果时,确定谁应该为这些决策负责是一个难题,开发人员、操作人员或使用者之间的责任归属常常含糊不清。
与此同时,深度学习模型的不透明性使得系统的决策过程在伦理审查中难以理解和评估,尤其当AI用于医疗、金融或执法等领域时,这种不透明性可能伴生严重的伦理问题。
最后,还存在涉及道德边界的跨越问题。人工智能系统有可能被应用于影响人类生存、健康等基本权利的领域(如自动驾驶汽车和医疗诊断),如果人工智能系统发生故障或错误,可能会引发深远的伦理争议。
其三,人工智能系统存在被误用、滥用或恶用的风险。一是人工智能系统可能被用于深度伪造和信息操控。人工智能技术可以生成逼真的视频和音频,如深度伪造技术,这些技术可能被用于制造假新闻或虚假信息,误导公众舆论,进而威胁公共管理和社会稳定。
二是人工智能系统可能被用于操控行为。利用人工智能的行为分析和个性化推荐技术,公司或组织能够设计出极具针对性的广告或信息流,可以影响甚至操控用户行为和决策,削弱个体自主权。
更为极端的是,人工智能系统可能存在被恐怖组织恶用的风险。如果无人驾驶技术与人工智能技术结合起来,可能被非法组织用于实施复杂且难以预防的袭击。例如,恐怖组织可能利用人工智能系统用来增强其作战和宣传能力,使用无人机进行攻击或利用自动化工具传播极端主义内容。
其四,人工智能系统存在被用于威胁国家政治和军事安全的活动的风险。一是考虑到信息战的存在与虚假信息的传播,人工智能系统已构成威胁国家政治安全的一大风险。例如,人工智能技术可以生成高度逼真的虚假内容(如深度伪造视频和图像),这些虚假信息可能被用于传播不实消息、煽动公众情绪和扰乱社会稳定。又如,人工智能技术可被用于分析和预测选民行为,为设计精准的政治宣传和操控手段提供便利。
二是在网络等基础设施安全方面,人工智能技术可被用于增强网络攻击的复杂性和自动化程度,使得攻击更难检测和防御。这些攻击可能针对关键基础设施,如电网系统、交通系统和政府数据库,对国家安全构成严重威胁。
三是在军事方面,人工智能技术可被用来开发自主武器系统。此类系统甚至可能在无人工干预的情况下作出生死决策,增加了误判、冲突升级和不必要暴力行为的风险。
四是人工智能技术可能导致军备竞赛与地缘政治紧张。目前,各国竞相发展人工智能技术以获取军事优势,可能引发新一轮军备竞赛,导致技术扩散和地区或全球性冲突的风险增加,威胁全球安全平衡。
国际社会对于上述风险的认识随着人工智能技术的发展而不断深化。特别是自ChatGPT发布以来,全球对于大语言模型可能引发的安全隐患给予了更多关注。在过去的一年多时间里,我们见证了多项旨在加强国际合作与交流的重大举措。
比如,联合国秘书长古特雷斯于2023年10月组建了一个高级别专家组,专门研究人工智能治理问题;英国于2023年11月主办了首届人工智能安全峰会,并于2024年与韩国共同举办了第二届会议;欧盟通过了具有里程碑意义的《人工智能法案》;2024年7月,联合国还通过了一项由中国主导发起的提案,旨在促进各国在提升人工智能方面的协作。所有这些行动都表明,无论是政府机构还是私营部门,都已经深刻认识到构建一个健全有效的人工智能治理体系的重要性。
清醒地认识到人工智能技术可能带来的风险,并不意味着我们就能够对这些风险进行有效治理,不仅如此,由于人工智能技术的特性,我们原来所熟悉的治理手段和方法似乎正在失效。
人工智能全球治理的主要挑战
一方面,人工智能带来的风险涉及各个方面和各个领域;另一方面,由于人工智能技术尚处于发展阶段,社会各界对其风险的认识也不尽相同,人工智能的收益和风险的权衡仍充满不确定性。而全球层面来看,各国在治理体系、技术能力、经济发展水平的差异,更是给人工智能的全球治理带来了诸多挑战。
第一个挑战是未来通用人工智能发展技术路径的不确定性问题。虽然大多数专家对规模定律(scaling Law)坚信不疑,认为只要有足够的算力,大模型就会带来众多新场景和一系列令人惊艳的表现,最终实现通用人工智能,但最近一段时间,已有越来越多的专家对规模定律提出质疑。规模定律是否是提升系统性能的唯一办法?是否还有其他可行的技术路径?这些新的技术路径发展的不确定性,将在人工智能治理的基础层面引发新的问题。
第二个挑战是技术治理与技术创新步调协调的问题。人工智能技术的发展日新月异,但技术治理的法律法规制定及相关机构、制度的变革却相对缓慢,导致两者之间存在步调不一致的现象。这种现象在全球范围内普遍存在,这种步调不一致使得治理似乎总是滞后于人工智能技术的发展,这也是为什么我们总在强调“敏捷治理”的重要性。
第三个挑战是国际治理机制的多元性和复杂性问题。全球治理中存在所谓的“机制复合体”(regime complex)问题,这是全球治理学者在研究其他全球治理问题时发现的一个现象,同样适用于人工智能治理。也就是说,在复杂的全球性问题上,可能存在一系列不同的治理机制,它们都有一定的发言权,但这些机制之间并无上下从属关系,它们可能相互重叠、相互冲突,甚至完全矛盾。
例如,在基因数据的全球治理中,生物医学专业组织、国际组织、基金会、政府部门以及立法机构等都可能参与治理,它们各自拥有不同的治理工具,如专业标准、国际宣言、法律等,形成了一个较为混乱的局面,让企业或人工智能技术应用者感到无所适从。
第四个挑战是人工智能治理的监督执行问题。不少人曾提议用监管核技术的方式来监管人工智能技术,虽然这在机制上可能实现,但在技术上存在很大差异。比如,核技术的提炼过程需要大规模设备,容易被监管方发现;而人工智能系统则不同,人的大脑类似一个实验室,监督人工智能系统是否合规存在较大难度。
第五个挑战是地缘政治带来的问题。对人工智能治理来说,地缘政治带来的核心挑战是中美科技脱钩问题。关于中美两国科技合作及其影响,可以借助图1来分析。
横轴表示合作研究是否加强国防,纵轴表示合作研究是否促进经济。这样就形构了四个象限:第一个象限(Q1)的活动既不促进经济也不加强国防,属于基础研究类型;第二个象限(Q2)的活动加强国防但不促进经济,属于军民两用技术类型;第三个象限(Q3)的活动既可能加强国防又可能促进经济,属于前沿技术领域,其研究影响具有不确定性;第四个象限(Q4)的活动主要是促进经济但不加强国防,属于商业技术领域。
在2017年之前,中美两个国家在Q1象限对应的基础研究方面是全世界合作最密切的两个国家,中美学者联合发表的论文数量在全球联合发表论文中位居前列。在Q2军民两用技术象限中,由于存在瓦森纳协定,美国等西方国家对中国等社会主义国家实施了联合禁运,导致双方在这一领域几乎没有任何合作。在Q3前沿技术象限中,中美两国在应对气候变化领域有一定合作,而在人工智能和新能源等领域则存在竞争与合作并存的局面。在Q4商业技术象限中,双方主要是商业技术的经济合作,主旨是相互促进经济发展。
2017年之后,美国采取了“小院高墙”策略,意在与中国科技脱钩,其实质是将Q2象限的做法推广到其他象限,其他象限的合作空间也因此受到了极大的挤压。尤其是在Q3和Q4象限,美国滥用WTO规则,将国防安全的特例应用于几乎所有的前沿和商业技术领域,一大批中国公司和研究机构都被列入实体清单,难以进入国际市场或开展国际交流与合作。
在这样的国际环境下,要讨论人工智能在安全领域的合作,如果仅讨论政策或治理问题,或许尚有空间,但一旦涉及具体的技术问题,就势必面临重重屏障。在随时可能受到技术打压的背景下,中国的技术企业和专家很难与美国同行就如何防范人工智能的风险进行深入交流。因此,如何为人工智能安全治理的国际合作划出一块“安全区”,是我们当前面临的最为紧迫的任务。
应对人工智能 全球治理挑战的关键策略
面对人工智能全球治理的诸多挑战,我们需要采取系统性、多层次的方法来寻求解决方案,以下是未来一段时间亟待考虑和努力落地的若干关键策略。
第一,针对人工智能全球治理整体性的挑战,需要分类梳理并推动分工合作。人工智能治理挑战复杂多样,需要进行分类梳理,明确不同机制和机构的角色。当下,试图一次性构建一个全面的治理体系可能会遇到诸多障碍,因为目前有多种不同的治理机制同时运作。因此,可以通过自上而下与自下而上相结合的方式,将治理任务分解到更加具体的领域,并匹配相应的组织或治理机制。这种分层次、分领域的治理方法有助于进一步提高效率,促进各参与方之间的协同治理。
第二,针对技术路径的挑战,需要把治理思维纳入技术开发的起点。大语言模型的成功标志着人工智能技术发展的一个重要转折点,未来还会有更多的技术突破。把治理思维纳入技术开发的起点,意味着要采取源头治理的策略,对技术开发人员进行技术伦理和风险识别的培训和教育,建立起人工智能风险识别与消除机制,从而确保无论人工智能技术发展遵循何种路径,都有稳健的风险防控机制加以应对。
第三,针对技术治理与技术创新步调不一致的挑战,可以通过敏捷治理的方式完善技术治理体系。敏捷治理强调政策工具的快速反应和适应性演化,以及政府作为权威主体在其中扮演的主导性角色。
敏捷治理要求技术风险监管部门改革传统的风险监管思路,把监管者与被监管者之间的“猫鼠”关系改变为深度交流与相互依赖的互动关系;对产业发展过程中的风险进行及时评估;发现问题苗头后及时采取引导性、指向性而非惩罚式、选择式的监管策略。与此同时,敏捷治理也强调不同主体的广泛参与。
第四,针对国际治理机制多元性和复杂性的挑战,一方面要推广全球公共产品的理念,将人工智能面临的各种风险应对视为全球公共产品,而非少数国家或利益集团的专属资源。当前,不少国际研讨依然带有排他性,这显然与人工智能作为全球公共产品的属性相悖,不利于形成广泛的合作氛围。
例如,2023年,在英国举办人工智能安全峰会前,西方媒体对于是否邀请中国参会的巨大争议就反映了一些国家的狭隘态度。实际上,鉴于中国在人工智能领域的快速发展及其重要地位,任何旨在确保人工智能安全的国际努力都必须包括中国方面的参与。只有遵循开放包容的理念,才可能建立起真正有效的全球治理框架。
另一方面要努力发挥联合国作为全球治理总体框架的协调作用,梳理多元发展环境下形成的各种机制,合并完全重叠或相似的机制,重点发展针对空白领域所需要的治理机制,争取形成一个相对有序的人工智能治理生态。
第五,针对人工智能风险监管执行难的挑战,一方面要积极推动人工智能相关领域的技术标准制定并加大执行力度,另一方面要推动各国人工智能安全研究机构合作研究并制定风险应对预案,以应对人工智能系统可能出现的自主性强、难以控制所带来的突发事件。
这类研究不仅需要技术层面的支持,而且需要跨学科的合作,特别是社会科学领域的贡献。建立国际合作项目,可以更好地应对未知的风险,并发展出更为有效的管理措施。
第六,针对地缘政治领域的挑战,尤其是美国对中国科技创新领域的打压态势,要有选择性地推动中美科技合作。尽管全面恢复中美两国在科技领域的合作关系面临较大困难,但在特定领域内开展有针对性的合作仍具有重要意义。考虑到人工智能作为一项全球性技术,其安全性关乎所有国家的利益,美国从自身利益出发也会考虑与中国共同探讨相关议题。
令人欣慰的是,2024年5月14日,中美两国政府已经启动了一轨对话,二轨对话也在进行中。这些初步交流为双方未来更深入的合作奠定了基础。与此同时,还应进一步拓展多渠道、多层次的双边及多边交流平台,加强专家之间的沟通与理解,这对于修复和构建互信关系至关重要。
综上所论,只要我们细致地梳理问题并合理分工、推广全球公共产品理念、充分发挥联合国综合协调的作用,加强中美合作以及中国与其他国家间的合作,国际社会就有望逐步克服人工智能全球治理中的主要障碍,共同构建全面综合的人工智能风险治理体系,从而为这一新兴技术的健康发展奠定坚实基础。
作者薛澜系清华大学苏世民书院院长、公共管理学院教授,本文原载于《探索与争鸣》2025年第1期,具体内容以正刊为准。文章仅代表作者个人观点,不代表CF40及作者所在机构立场。