姚期智对话迈克尔·欧文·乔丹:未来人工智能的变革图景

发布时间:2025-10-29 20:32:37
简介:10月25日,图灵奖获得者、中国科学院院士、清华大学人工智能学院院长姚期智与“机器学习之父”、美国科学院院士、英国皇家学会会士迈克尔·欧文·乔丹(Michael I. JORDAN)在2025外滩年会上展开对话,探讨未来人工智能的变革图景等关键议题。上海科技大学教育、创新与可持续发展研究中心主任杨燕青主持对话。
作者:姚期智 等

55

杨燕青:我叫杨燕青,来自上海科技大学,很荣幸能够在当前关键时刻主持本次会议——当下技术发展的速度前所未有,而相关概念的模糊性却空前突出,二者之间存在明显的落差。

今天,我们非常荣幸地邀请到两位世界顶尖的计算和科学领域的专家,请允许我非常简要地介绍一下他们。

姚期智教授,清华大学交叉信息研究院院长兼人工智能学院院长。他是图灵奖和京都奖的获得者,他的开创性工作奠定了现代计算复杂性和密码学的理论基石。姚教授是中国科学院院士,也是美国科学院和美国艺术与科学学院的外籍院士。热烈欢迎姚教授。

迈克尔·欧文·乔丹(Michael I. JORDAN)教授,加州大学伯克利分校的杰出教授。他是一位奠基者,成功搭建起统计科学、机器学习和经济学等学科间的桥梁。他是美国国家科学院和英国皇家学会的院士,被《科学》杂志评为全球最具影响力的计算机科学家。

非常感谢乔丹教授今天能在线出席,乔丹教授家里突发急事,而且加州现在快午夜了。再次向乔丹教授致以最诚挚的感谢,热烈欢迎!

姚教授,您在人工智能研究和科学界享有盛誉,同时也是通用人工智能(AGI)安全议题的全球引领者,您多次警告AGI带来的生存风险,包括在今年的世界人工智能大会(WAIC)上您也谈过。您认可AGI本身吗?对于那些质疑的声音,您会如何回应?

有观点认为,AGI可能不是一个值得追求的、理想的目标,人工智能科学领域出现了严重的停滞现象,因为似乎规模定律和强化学习带来的智能提升非常有限,但却消耗了巨额资本。我们是否将会迎来巨大的AI泡沫?

姚期智:这是个好问题。简而言之,我认为AGI实际上在研究领域起到了旗帜引领作用。正因为它的定义模糊,不同的研究者才能贡献不同的想法,我们通过这样的共同努力,最终有更大的几率找到正确的路径。

我认为人工智能现在正处于加速发展阶段,从长远来看,我坚信我们最终会实现AGI,而且它将给社会带来许多积极影响。

杨燕青:要多久?

姚期智:我认为现在已有许多不同的研究方向,而大多数研究都在关注短期到中期的突破,例如对具身智能或者说超智能机器人的研究。我认为这是实现AGI的一条非常可靠的路径,而且,顺着这条路径将会产生大量的成果,给投资者带来回报。当然有很多不同的方法,这只是其中之一。

杨燕青:谢谢姚教授,现在请乔丹教授发言。在您最近的论文《人工智能的集体主义经济视角》中,对AGI提出了严厉的批评。一些科学家将AGI视为该领域的“北极星”,但您对此并不认同。您建议我们应当把重点放在构建以社会福祉为核心目标的大规模系统上,为什么呢?此外,刚才姚教授没有回答关于泡沫的问题,在我看来,人工智能泡沫正在美国不断积聚,您对此怎么看?

Michael I. JORDAN:我认同AGI是一个不错的目标,因为它是一个模糊的、含糊不清的术语,这意味着它可以激发大量的思考和研究。我同意这一点。

另一方面,以大型语言模型(LLM)为例——LLM可能是这个时代最成功的AI成果,当你与LLM互动时,你并不是在与一个超级智能体互动,而是在与70亿人互动,是他们把数据输入互联网,然后被提取到大语言模型中。

如果我提问一个关于理论计算机科学的问题,并与大模型进行对话,我实际上是在与世界上一群理论计算机科学家互动,是他们讨论了各种主题、输入了大量数据,而我只是通过LLM获知了这些结果。如果我问一个关于成都美食的问题,我就会与另一群人互动;我可以问很多很多问题,因为70亿人在互联网上发起了无数的讨论,LLM汇集了所有讨论。

所以,当你与LLM互动时,你实际上并不像是在与单一智能体或超级智能体互动,而更像是在与一种文化互动,或者几乎可以说是在与一个市场互动。因此,如果我们将后一种观点再深入一点,就会意识到,这其实是全人类之间的互动。

那些为LLM提供数据的人应该获得回报,尤其是贡献有效而优质的数据的人,这理应成为人类交换系统的一部分。所以,在我看来,我们最好把LLM理解为一个智力市场。

另外,我们在提及AGI这个概念的时候,似乎显得我们已经十分了解“智能”本身一样。但我觉得,我们对人类智能的科学解释并不到位,甚至可以说非常粗糙,我们还要做很多科学研究,才能真正理解人类智能。

以LLM为代表的很多技术,其实只是暴力穷举技术,它们通过简单手段获取数据,然后进行大规模的暴力穷举计算。它只是根据运算数据做出预测,这属于统计分析,本身倒没有问题。但暴力穷举法未必是解决科学和智能相关问题的好方法,在我看来,仅仅依靠暴力穷举法进行数据分析来获得智能并非好的路径,还有其他路径可走。

我们必须记住,在人类智能中,我们了解最深入的部分可能是社会智能(social intelligence)。当人们聚集在一起形成群落时,我们会创造经济体系,创造交换,创造市场。我们对此相当了解,比理解大脑如何推理要清楚得多。而后者我们可以说是基本上完全不了解。

所以,要谈智能,就必须要谈社会智能。在我看来,如果AGI能涵盖社会智能,那么追求AGI就显得更加合理。如果AGI只是个体智能的超级放大版,我觉得追求它就并不是特别有价值。

杨燕青:好的,谢谢乔丹教授。综合姚教授和乔丹教授的观点来看,智能既包括科学智能,也包括社会智能,它可以成为更优经济和社会体系的构建者,同时它也拥有强大的、不可控的潜力。

所以我想问姚期智教授和乔丹教授,它的这两个特性是互斥的还是可以协调的?或许在乔丹教授的集体市场体系内,可以形成一个智能体,姚教授的AGI和LLM也可以发展出另一个智能体,我说得对吗?这两个特性是互补的还是互斥的?

姚期智:我认为乔丹教授的观点完全正确,但另一方面,在人工智能领域探索强大智能体的研发是必须的,实际上也是我们无法阻止的,因为商业界和科学界都有着强烈动机去尝试创造强大的人工智能体。

原因在于,不论我们是否接受这个事实,大约在未来三到五年内,每个人都会拥有一个自己的人工智能助手,甚至更激进地说,每个人都会拥有“第二自我”,就像如今几乎每个人都带着手机一样普遍,我认为人工智能助手终将取代手机。因此,这个领域将会吸引强烈的商业与科研热情,而且势不可挡。

但我认为,这与乔丹教授构想的愿景高度契合。我认同他所说的,从微观角度来看,未来世界和社会将以一群智能体的集合形式运作。我认为,“智能体”实际上是由人类个体与人工智能提供的各种智能共同组成的团队。

因此,乔丹教授设想的集体主义结构,将以这种由个体组成的实体为基础,并在此基础上催生出更多元化的活动。所以,我认为乔丹教授的愿景比当前的情况更为复杂,届时人类在网络世界中参与的各种活动将呈现出千变万化的景象。

杨燕青:感谢姚教授。姚教授指出,乔丹教授设想的系统可能更复杂,也更难实现,我的理解正确吗?如果短期内我们无法创造出AGI,乔丹教授认为,应采用更加去中心化、更加集体主义、更加经济化的系统结构思路。但姚教授可能认为,我们需要加快步伐,优先创造出通用人工智能,因为实现乔丹教授设想的系统更加困难。那么乔丹教授,您对此有何看法?

Michael I. JORDAN:首先,我认为这两种思路都不会停止,实际上它们都已经在进行之中。所以依靠蛮力的数据分析技术肯定会继续使用下去,GPU使用量和数据规模也会越来越大,这一趋势将持续下去,也应当持续下去。

与此同时,人们还应该用具有创造性的方式使其更加智能。利用智能设备进行交流所构筑的社会结构也在持续发展和演进,而这与我目前讨论的主题更为相关。以手机为例,我们与手机互动,它不仅是知识来源,也是人们互动的源头。智能化程度越高,对我们越有用。

我认为,未来的“智能体”将是计算机与人类的结合。同时,“智能体”这个词本身也有经济学含义:它们具有自主性,有自己的愿望和目标,它们通常具有一定的策略性。如果仅仅将“智能体”理解为智能的软件,我认为这太狭隘了。所以我认为我们每个人都会拥有独一无二的本地化大语言模型,因为我们每个人都有自己的数据,而这些数据对我们来说可能非常珍贵。

我们可能不希望像过去一样直接把数据上传到互联网,而或许会想要出售我们的数据并从中获取价值,因为我的大语言模型所依据的数据与你的不同。我们也会使用一些相同的数据,有公开版本,但也会有本地化的大语言模型,因此这种交互将包括众多大语言模型的相互作用,而且我们不能完全信任从他人那里获得的数据。因为它们有自己的战略,可能会给我们发送错误的数据,让我们按它们的意图行事。

这些是经济方面的问题,也是我们当前世界和未来发展的组成部分。你不能认为在山顶上存在一个完美的“超级智能体”,它无所不知并总能给出正确答案。不幸的是,这似乎并非科学正在追求的目标,而是某些公司追求的商业目标——他们想要占据那座山,想要拥有那个“超级智能体”。

我不认为这是技术发展或人类进步的良好模式,倒是“手机”这个例子更让我欣赏。它为人类提供了一种表达自我的方式,而且会有本地的数据、关联和目标,这些都会在庞大的联合系统中发挥作用,并继续向前推进。

我认为这不仅仅是复杂,而是非常复杂,但是事情确实正在发生。这并不是说我们设计好一切,然后事情就会自然而然地发生,而是它正在向我们走来,我希望将大语言模型的思维模式加入到这一发展趋势中去。经典经济学中缺乏大量数据与本地知识等要素,而我们正在将这些加入经典经济学体系中。

杨燕青:好的,感谢乔丹教授进一步阐释您的观点。我们发现姚教授的观点和乔丹教授在一些问题上有共识。姚教授,您的工作奠定了计算机理论基础,关注算法的极限以及可证明的特性。而乔丹教授,您为机器学习引入了严谨的统计学方法,同时强调从数据中学习以及量化不确定性。

但现在,我们面对一个非常强大的大语言模型“黑箱”。我们应优先建立其内部工作机制的完整理论,还是应专注于开发工程与统计框架,严格管理其输入、输出、行为与不确定性?哪条路径更有可能引领我们走向安全、可信赖的的人工智能?另外,如果要在未来十年投入1000亿美元用于人工智能领域,您会如何分配投资组合?为什么?

姚期智:我认为,为了确保强大人工智能的安全发展,科学理解黑箱内部机制与统计型务实测试方法同样重要,两者缺一不可。那么,我先从“可证明安全”的人工智能开始说吧。

如果我们仅仅将人工智能作为工具使用,即便用于非常复杂的任务,例如让人工智能参与物理研究,我觉得也是可以接受的。但如果我们把人工智能视为等同于人类的主体,并且让它掌控关键基础设施等,那么我们必须非常谨慎,而且我会坚持要求:让我们努力确保能够证明这个系统是安全的。

这让我想起了“曼哈顿计划”中核物理学家们的例子,包括爱德华·泰勒等人,他们担心自己正在进行的原子弹试验可能会烧毁大气层,毁灭世界。因此,在实际进行试验之前,科学家们进行了大量的计算,只有当他们确信发生这种情况的可能性微乎其微时,他们才同意进行试验。在处理如此严肃的问题时,我们应该抱有这种态度。

而且,当物理学家们进行这些计算时,他们并没有真正完美的数学方程,他们运用物理学家的智慧,以合理的方式进行估算和近似计算,但必须以非常专业、科学的方式进行。

所以,我认为我们应该采取同样的态度,也就是说,当我们说某个东西是可证明的,并不意味着它必须像麦克斯韦方程那样,你可以证明它的解是什么样的,而是,我们必须开发某种东西,它将数学、统计学和商业直觉融为一体。这是一个我们目前尚不清楚如何去做的分支,但我认为我们应该开始思考如何将其融入到我们的方程式中。

杨燕青:谢谢姚教授,您精彩地阐释了可证明安全的人工智能,并提出了实现这一目标的潜在路径,尽管我们尚不知晓具体的实现方法。乔丹教授,您是否同意姚教授的观点?我们需要管理AGI的风险,尽管这种风险的可能性非常低,虽然我们还不知道如何管理,但我们会尝试以非常谨慎的方式去做。乔丹教授,您对此有何看法?

Michael I. JORDAN:我同意关于风险控制和安全的观点,只是我不认为人类灭绝是我们面临的主要风险,我认为我们需要将对话深入到具体层面。

我们经常谈论每个人都将拥有一个AGI助手来帮助我们了解世界,这是现实的,这将会发生且正在发生。这个世界充满了不确定性,我们对各种事情都不确定,包括我们将会进行的互动,包括我们将会拥有什么,以及生活将会如何发展。人工智能秘书是否能够处理这种不确定性、是否能够告诉我们:“我认为关于未来大概会发生什么,有哪些可能性,虽然无法证明,但我认为如果你采取这种行动,可能会得到这样的结果”?

这就是人类的未来,这个世界并非确定性的世界,一切都在不断变化,充满不确定性。因此,我们的AGI,或者说任何能够帮助我们的本地LLM,必须能够应对这种不确定性,并与我们周围的其他LLM交互,以减少这种不确定性。

如果一个LLM感知到街上有孩子,那么自动驾驶汽车就应该知道这一点,所有其他协助驾驶汽车的LLM都应该避开那条路。这是一种降低不确定性并通过沟通不确定性来管理风险的方法。相当于,我们持有的是一个黑匣子,在那一个时刻,黑匣子里装的是什么,对我们来说无关紧要,关键在于不确定性控制,即推断现实世界中正在发生的事情,并给出可靠的不确定性量化评估,以便我们能够共同管理不同群体的风险。

人类的智慧,正是在管理不同群体的风险时得到体现。当我们创造市场之类的东西时,我们就能减少不确定性。如果我需要西红柿,市场就肯定能供应,这样我就可以开一家餐馆。因此,稳定性部分来自于市场机制,而稳定性在风险管理中至关重要。

所以对我来说,AI的风险并非是对人类灭绝的担忧,也不是那些疯狂的AGI科幻情节,更多在于个体层面,换言之,当我们每个人都掌握了各种新的能力——这些能力可能是正确的,也可能是错误的——我们该如何面对和处理不确定性。

而不确定性永远无法被证明是1或0,总是介于两者之间,在不同群体中时尤其如此。所以,我同意姚教授关于风险的观点,但我认为,随着我们的生活融入了越来越多的科技,我们应该认真思考人类在前进过程中实际面临的风险。

杨燕青:好的,谢谢乔丹教授。你们对不确定性控制的理解不同,但两位伟大的思想家的目标或许是相同的。让我补充一下问题的第二部分,如果您能在未来几十年里分配1000亿美元的人工智能投资,在两个科学领域中选一个:一个是人工智能和智能的内部完备理论研究,另一个是致力于更加去中心化,并具备统计学严谨性的机器学习方法,您会向哪一个分配更多资源呢?

Michael I. JORDAN:说实话,我不太认同这种分类方式,我认为研究是自下而上进行的,年轻人会提出伟大的新想法。如果我有1000亿美元,我主要会把它用作启动资金和研究人员的资助,新想法正是从这里来的,年轻人不仅有好主意,而且还能洞察人类的新方向,这并非自上而下的事情。

我们当然可以继续扩大现有技术的规模,这需要资金,但对我来说,这不是最好的投资,仅凭这一点并不能真正解决社会问题。我们需要把资金分配给更多年轻人,并给予他们更多资源,这需要花钱。人力资源比其他任何资源都更费钱。

是的,我想开发一种安全、实用的技术,我不知道如何定义“实用”,但很多人聚在一起,就能用自己的方式定义“实用”,这就是我希望看到的。

杨燕青:谢谢乔丹教授。第三轮我们会进行一些可能有点挑战性的对话。中国和美国的模式不太相同,乔丹教授的研究描绘了一幅人工智能的图景,它将被用来构建更完善、更高效、更去中心化的市场。实际上,我们在硅谷的同事,以及OpenAI、Anthropic和其他一些大型初创公司都在快速向AGI迈进,这与乔丹教授的设想略有不同。

在中国,姚教授正在研究中国人工智能的关键基础设施,以及其他行业所有公司都可以制定“AI+”战略,从而提高生产力。但实际情况是,中国的人工智能前沿略微落后于美国。

两种模式相互交织,双方对人工智能的未来理解不同。我的问题非常简单:美国模式和中国模式,哪个会在未来五年占据上风?

姚期智:我觉得这是一个敏感的问题,但我还是要回答。我认为发展模式与历史息息相关,让我简单谈谈中国人工智能的发展。中国只是在最近几年,尤其是过去10到15年,才开始努力追赶现代人工智能的发展。因此,中国起步较晚,为了有序追赶,中国在基础设施建设方面投入了大量资金,包括标准通信基础设施以及用于计算和人工智能开发的基础设施。到目前为止,中国的发展非常有序。

我认为,在过去,这些项目大多具有很强的工程性,这样做的优势在于:我们了解西方过去的发展历史,这样我们就可以使用系统的方法逐步构建相关能力。我认为,经过过去10到15年的努力,中国从各方面来看都已经走在了世界前列。

展望未来,中国必须采取措施弥补自身的一些不足。中国发展的弱点在于,尽管中国在顶级会议和期刊上发表了许多优秀论文,但纵观各种重大突破,在“从0到1”的突破领域,中国还较为落后。因此,在未来五年,中国应该在这方面迎头赶上。

现在中国还必须克服另一个弱点,那就是,思考如何将好的想法付诸实践。我认为中国模式不如硅谷模式那么高效,硅谷在这方面做得更好。以上就是不足之处。

至于中国人工智能发展的优势,我认为,它不仅仅体现在人工智能领域,更体现在科学发展的方方面面。我认为中国的整体重点是:无论科学如何发展,最终都应造福全民,这是一种以人为本的理念。从长远来看,这是中国发展的稳定支柱,这样就不会让某一类人坐上驾驶座,发展他们的小圈子,让他们的阶级利益凌驾于绝大多数人的利益之上。

所以,我认为这种政治上的稳定,从长远看,是中国最大的优势。不仅是现政府如此,中国有三千年的文化传统,早在三千年前,我们就梦想一个人人平等、人人受益的社会。我认为这种“和”的理念,是中国最强大的力量。

杨燕青:感谢姚教授总结中国的优势:以人为本的哲学与对社会福利的注重。姚教授同时提到了中国的劣势在于从0到1的突破不足,以及科技成果转化效率不如硅谷。乔丹教授,我想请您简要谈谈美国AI模式与中国AI模式的对比。

Michael I. JORDAN:首先,我个人的模型其实更接近社会福利导向、分布式的模式,这反而更像中国。不只是我,很多在美国和世界各地从事这一领域的人也持类似观点。硅谷并不是大多数美国人的“领头人”,它是资金来源之一,但不是引领者。

不能只看硅谷,要看历史——我也同意“三千年”的视角——应该用五十年为一个尺度来看问题。如今,一个新的工程分支正在浮现。

回顾五十年前,这个新兴分支是化学工程。当时,量子化学和流体力学等学科已经存在,为规模化生产奠定了基础。然而,建造大规模生产化学品的工厂这一想法却是全新的,需要创造新的思想。

这一切发生在五十年前。当时没有哪个国家一家独大,没有赢家或输家。各国以略微不同的路径各自发展化工工程。十到二十年后,相关的知识得以共享,专业人才逐渐涌现,贸易也随之兴起。我们由此拥有了一个全球性的“化学工程”学科,并不存在所谓“中国的化学工程”还是“欧洲的化学工程”对立的情形。

如果再往前追溯五十年,同样的情况也发生在电气工程领域。同样地,它形成了一个共享的专业知识体系。这虽然需要时间,各国在电气工程领域也发展出了各自的专长,但在二十年左右的时间里,这些知识和专长都得到了广泛的共享。而在此之前,还有土木工程、机械工程等分支依次出现。

所以正确视角是:那些对人类带来巨大影响的工程学科,最终都会全球扩散,所依赖的都是思想与实物的贸易传播。我认为这次也会如此。我们谈的是“智能+数据+人类”构成的复杂系统,不会只有一种路径。这里说的是问题解决路径,而非政治。AI扩散会有很多路径,最后一定会实现。

我个人认为,硅谷已经迷失,不适合做这个时代的领导者。它适合领导硅与芯片的时代,但对于当前这一类问题,那些领军人物(如山姆·阿尔特曼、埃隆·马斯克)不是工程师,也不是科学家,他们的思维方式不太合适,他们只想着规模、只想着“更快更大”,这不是好的愿景,不是优势而是弱点。我认为美国那种“个人主义”的哲学,在硅谷体现得太过强烈了。

实际上,我认为中国在此方面具有优势。我在大约十到二十年前来到中国,当时我观察到中国在金融科技尤其是支付体系方面是领先的,这让我意识到当时中国确实处于前沿,而如今世界其他地方已经追了上来。现在全球都可以把支付做好,但十年前并不是这样——而中国十年前却已经做到了。

在人工智能涉及的社会层面,中国的进展要快得多,这一点不应该丢掉。不要简单模仿硅谷,而要看到硅谷是有其弱点的。那种个人主义的理念并不适合当前这个时代——它在上一阶段也许是优势,但在当下这个阶段已不是优势。

杨燕青:是的,感谢乔丹教授,让我们对硅谷以及中国的优势与劣势有了非常清晰的理解。实际上,乔丹教授提出了一个新的理念:计算思维、经济思维和影响力思维三位一体,介于工程学和人文之间的中间地带。同时,姚教授也强调了深厚的理论基础。加入“姚班”是中国最聪明的年轻天才们的首要梦想。今年正值“姚班”成立20周年,我想在此祝贺,并衷心感谢您。

给两位的最后问题是:对于今天开始本科阶段学习的学生,如果他们希望在2040年成为AI领域的领军人物,您将如何培养和教育他们?

姚期智:我的建议是,除了AI核心课程外,学生还应认真学习物理、经济学和博弈论。同时,学生还应具备一定的艺术感受力,音乐是一个应特别关注的领域。

物理很重要,因为至少在未来五到十年,我认为“具身智能”在科学和商业上都是最重要的,懂物理会带来优势;至于经济学,我认为正如乔丹教授所倡导的那样,随着通信和互联能力迅速提升,世界对于AI代理而言已经成为一个“多体问题”;而当这些交互的力量变得极其庞大时,我们面临的实际上是博弈论问题,而解决方案尚未明确。

音乐的重要性在于,这个世界很疯狂,由于各种交互,一个人更多在做外部沟通,而非内在计算,这会导致严重的不平衡。音乐正好可以净化心智,使人更了解自己,至少留出时间进行反思和自我认知。

我不说是冥想,但至少是让人理解自身,否则自己只是“他人意见的附属品”。我担心年轻人会失去自我判断,而成为集体共识的产物。当每个人都仅与其他人交流,最终就会没有个人观点了。所以,我建议未来立志进入AI领域的学生关注这几方面。

Michael I. JORDAN:姚教授总结得非常出色,我完全同意。我尤其赞同将音乐纳入培养体系。我个人也做音乐,我相信这是一种自我表达的方式,而不仅仅是为了赚钱。赚钱可以算是一个自我目标,但更好的目标是理解自己、发展自身的优点与独特性。

我还想补充一点:统计学也应列入其中。意识到不确定性、理解算法的局限性非常重要。我来自统计学领域,这个学科产生了大量算法,其中很多被应用于机器学习。同时,统计学教会我们谦卑——理解不确定性,而不仅仅把逻辑视为智能模型的唯一标准。

统计学让人对世界保持谦逊,理解实验和不确定性的重要性。经济学提供了“多体问题”的视角,物理学也如此,而统计学则带来不确定性的概念。这种谦逊,是我希望教育中包含的内容。

杨燕青:所以我们仍有很多东西需要学习:物理、经济学、博弈论、统计学,更重要的还有音乐。感谢姚教授和乔丹教授,让我们以热烈掌声感谢两位科学与计算领域的杰出思想家。


本文为10月25日,图灵奖获得者、中国科学院院士、清华大学人工智能学院院长姚期智与美国科学院院士、英国皇家学会会士迈克尔·欧文·乔丹(Michael I. JORDAN)在2025外滩年会上围绕“未来人工智能的变革图景”展开的对话。上海科技大学教育、创新与可持续发展研究中心主任杨燕青主持对话。