作者
丘成桐,北京雁栖湖应用数学研究院院长,清华大学讲席教授,美国科学院院士,中国科学院外籍院士;菲尔兹奖、克拉福德奖、沃尔夫奖、马塞尔·格罗斯曼奖得主。
以下为丘成桐院士于 2022 年 7 月 14 日 在中国人民大学附属中学的演讲稿,刊登于《数理人文》(公众号:math_hmat),未经授权,不得转载。
今天,很高兴来到中国人民大学附属中学,做这场关于《数学和基本科学在应用科学中的重要性》的主题报告。
我希望国家重视基础科学和数学的发展。大家都知道,在家庭中,父母在外工作,维持生计,住房、吃饭、穿衣都是日常必须的。而有一项事儿,虽然不是立竿见影,但却是每个家庭都执意去做的,那就是孩子的教育。孩子身心的健康成长,是父母殷切的期望,明知要操劳十年二十年才见成果,但也甘心情愿。
基础科学的研究也是同样的事儿。我们不断投资在工业上,期望着迅速的回报,迎合社会的需要;但同时也将可观的经费,投资在基本科学上。为了国家的独立自主,长治久安,强大的基本科学是必须的。
记得在普林斯顿高等研究所当教授时,所长曾很自豪地说:“我们在这里研究的是无用之学!这些无用之学在未来将会成为社会的盘石,国家的栋梁。”高研所第一任所长叫弗莱克斯纳(A. Flexner)。1939 年他在哈泼杂志上发表了一篇题为《无为知识的无所不为》(The Usefulness of Useless Knowledge)的文章,指出法拉第和麦克斯韦研究电磁学,不过是出于科学上的好奇心,接着赫兹发现了电磁波。这些科学家并不重视电磁在人类社会的应用,但是他们的工作却是如此重要,不单单是理论科学划时代的成就,同时也是近代文明的一大贡献。
麦克斯韦方程组的全部建成,大约在 1870 年代。其实早在十九世纪初期, 在好奇心的驱使下,丹麦物理学家奥斯特早已做了大量的电和磁关系的重要实验,知道电能够产生磁效应,这些数据在 1820 年发表,引起科学界对电磁现象的浓厚兴趣。
1820-1821 年,法国物理学家安培率先发现这个领域中重要的安培准则和安培定律。俄国物理学家楞次也总结出一条判断感应电流方向的楞次定律。
1822 年,阿拉果和洪堡在测量地磁强度时,发现金属附近磁针的振荡有阻尼作用。1831 年英国法拉第的实验提供了法拉第电磁感应定律,按照产生原因的不同,把感应电动势分为动生电动势和感生电动势,前者起源于洛伦兹力,后者起源于变化磁场产生的有旋电场。这些工作以后成为麦克斯韦方程组的重要基础。
1841 年,德国的威廉·韦伯发明了一种具有绝对电磁单元的双线安培计,既能测量地磁强度,又能测量电流强度。数学家高斯借助韦伯的工作提出了磁量的绝对单位。1846 年,他发明了一种能测量电流强度的电动力学单位又能测量交流电功率的工率计。他也提出了物质的电磁结构理论。1849 年,黎曼在韦伯的实验室中帮助量度这些单位。1856 年,韦伯和科尔劳施完成了测定电量的电单位和静电单位关系的测量。得到的比值是真空中的光速。因此将光学和电学联系在一起。这些工作让数学家高斯和黎曼对电磁现象的理论着迷,他们的工作深入地影响了麦克斯韦的伟大工作。这些工作的直接应用就是发电机、变压器、电磁流量计等等现代工业中不可或缺的最重要工具。
人类第一台电报机在 1833 年由高斯和韦伯完成。他们在他们各自的实验室之间(距离约一公里)架起了电报线,通过电流使磁针的偏转来传递消息。
美国有位画家叫做摩斯的,在他 41 岁那年在游船上看到了一个魔术表演:电流可以很快通过电线,产生磁场。他认为这是一个极其美妙的事情,就决定放弃绘画事业,全心全意地投入到研究电磁式电报机中。到了 1837-1838 年,人们已经可以用点线的摩斯密码(Morse code)来传递信息。十年后,美国国会通过法案大力支持开发莫斯的电报工程。
在摩斯的同时,英国的惠斯通(Charles Wheatstone)和库克(William Cooke)也同时发现了电报。而在 1895 年意大利人马可(Guglielmo Marconi)首次成功收发了无线电报。
电磁学可以说是人类历史上最伟大的科学之一,它是十九世纪基础科学的中心,一群物理学家因为电磁有趣的现象而努力,它的进展受到数学家的影响,但是它也深刻的引导数学的发展!
传说英国女王问法拉第,你们做这些电磁研究对国家有什么好处?法拉第回答说:“女王陛下,这些工作会让帝国的税收大幅增长!”
现在我们来谈谈二十世纪一个伟大的科技:计算机的发明和进步速度。我们知道在当今社会,互联网和计算机的能力极大,可谓无远弗届。能源的分配、大数据处理物流系统、道路交通、仿真神经元、蛋白质结构等问题都需要大量提升计算能力。这种能力有相当大的部分依靠计算机蕊片储藏。电算机计算能力不断的增长,这三十年来,有所谓摩尔(Moore)定律,即每一年半,计算机的能力加倍。
但是计算机的历史可以追溯到中国的算盘,由英国数学家纳皮尔(John Napier)用对数构出的计算尺。法国数学家帕斯卡(Blaise Pascal)制造的可以进行加减乘除的算术机,德国数学家莱布尼兹(Gottfried Wilhelm Leibniz)制造的可以进行乘除运算的乘法机。英国数学家巴贝奇(Charles Babbage)可执行运算程序的差分机和分析机。
电子计算机则使科技进入一个新纪元。1930 年美国科学家布什(Vannevar Bush)在麻省理工学院(MIT)建造了最早的模拟机。1936 年英国数学家图灵(Alan M.Turing)利用数理逻辑提出了计算机的理论框架。他的论文《论数字计算在决断难题中的应用》描述了可以辅助数学研究的机器,赋予机器进行符号逻辑推理的使命。这个“图灵机”为计算机和人工智能科学奠定了基础!
他的想法深受数理逻辑家哥德尔(Kurt Godel),邱奇(Alonzo Church)和希尔伯特(David Hilbert )的影响!他在邱奇的指导下得到普林斯顿的数学博士学位。二战时,他领导了世界上最早的电子计算机的研制并成功破译了德国的密码。战后他参与英国曼徹斯特大学的电子计算机研制工作。
另外一位对电子计算机有伟大贡献的伟大学者是匈牙利数学家冯·诺依曼(John von Neumann),他曾经是希尔伯特的助手,深受后者在数理逻辑的影响。1945 年,他在共同讨论的基础上提出了一个能够存储程序的电子计算机方案,介绍了制造电子计算机和程序设计的思想,奠定了一个基本思路:计算机由五个部分组成:运算器、控制器、存储器、输入和输出设备。
八十年来,电子计算机从最初的电子管数字机发展成为晶体管数字机、集成电路数字机,直到今天的大型集成电路计算机。虽然操作系统有着极大的变化,计算机还是在用图灵和冯·诺依曼的设计思想。
新的技术产生了大量的数据,而电报及近代的互联网又提供了传输大量信息的手段。但是如何保障准确和高效率的传输却是不容忽视的问题。贝尔实验室有两位科学家奈奎斯特(Harry Nyquist)和哈特利(Ralph V. Hartley) 分别在 1924 年和 1928 年研究了通信系统传输信息速度和能力给予定量的刻画。
在这两位科学家的研究基础上,香农(Claude Shannon) 在 1948 年发表了划时代的论文《通信的数学理论》—— 这成为现代信息论的基础。
香农在概率统计和几何空间的基础上,建立了信息论的数学模型,并且推导出重要的量化原理,保障了通信工程技术的各个环节。在 1941-1972 年间,他在贝尔实验室工作。1956 年开始在 MIT 兼职。
以后大量的数学家把组合数学、图论、数论等学问用到信息论,发展了纠错码和极化码等重要工作。
二十世纪开始的高科技产品能够成功的一个重要原因是控制理论的有效应用。这是一个数学、计算机、通讯、神经网络和语言学相互交叉的重要科学。
自动控制理论有长久的历史。事实上,在 1868 年时,上述的伟大物理学家麦克斯韦已经开始探讨自我调节装置的理论。到 1927 年,贝尔实验室的布莱克(Harold S. Black)探讨利用负反馈的信息控制放大器。
1932 年,奈奎斯特找到了负反馈放大器的稳定性条件。1943 年,罗森布鲁斯(Arturo Rosenblueth)、维纳(Norbert Wiener)和华格罗(Julian Bigelow) 用数学模型研究了反馈信息的控制问题。
维纳在哈佛大学十九岁拿到数学博士学位,曾经受过罗素(Bertrand A.W. Russell) 和哈代(Godfrey H. Hardy)的指导来研究数学。离开哈佛大学后,一直在 MIT 任教,可以说是 MIT 工程学奠基元老。
他在 1942 年用平稳随机过程的相关特性和频谱特性对有噪音的信号进行滤波来解决对空射击的控制(维纳滤波由此而开始)。1945 年,维纳把反馈概念推广到一般的控制系统,从受控对象的输出中提取一部分信息作为下一步输入,对再输出发生影响。在 1948 年,他发表了著名的《控制论-关于动物和机器控制和通讯的科学》和《平稳时间序列的外推、内插和平滑问题》两篇文章,用滤波和预测等,取得有用的信息和处理的方法。
控制论因而诞生!它研究动态系统在变化的环境下如何保持稳定状态。在微分方程、最优化、概率统计的基础上建立数学模型,并进行量化研究。维纳以后,冯·诺依曼、庞特里亚金(Levi S. Pontryagin)和利昂斯(Jacques-Louis Lions)等数学家继续完善控制理论。
维纳滤波要求信号和噪音都是平稳过程。到了六十年代,卡尔曼(R.E. Kálmán)和布塞(R.S. Bucy)发表《线性滤波和预测理论的新成果》并提出新的线性滤波和预测理论,在线性状态空间表示的基础上对有噪音的输入和观测信号进行处理,求取系统状态真实信息。他们不要求信号和噪音都是平稳过程的假定。所以卡尔曼滤波在通信系统、电力系统、航空航天、工业控制、雷达信号处理上得到大量的应用。
卡尔曼处理的滤波是线性系统。工程师对非线性系统一般采取线性逼近的方法,但是得到的结果并不准确。卡尔曼以后扎凯(Zakai)找到一个随机方程来解决非线性滤波问题,但是遇到数学的困难。丘成栋和我找到了一个数学方法,可以解决非线性滤波,但是在状态空间维度很大的时候,计算量比较庞大,可能可以用人工智能的方法来解决。
从以上的叙述,我们看到二十世纪科技中极为重要的计算机、互联网的成功是因为大批的数学家、工程学家和理论物理学家,群策群力、灵活运用基础数学和基础物理的深入理论到一个崭新的科技领域中而完成的。
这些基础工作有些溯源到一两个世纪前因为好奇心而引发的,有些则在短时间内在工业上找到用处。这些工作极为重要,无远弗届!
二十一世纪的科技也会走同样的路线,我们上面提到的关于计算机储存和运作能力的摩尔定律,已经不可能持续了,差不多达到极限了。计算机硬件的设计将要面临极大的瓶颈问题!但是也可以看为二十一世纪重大科技的可能的特色:一个是利用基础物理的原理和基本数学来大力改革硬设备。另一个是大力改善软件,亦即是找到更好的算法,绕过硬件的速度和储存的能力。
先谈第一个方法。三十年前,伟大的物理学家理查德·费曼提出量子计算这个方案,利用量子力学的基本原理来帮助计算。
假如量子计算能够成功,大家都会对信息安全担忧,毕竟在 1994 年,当时还在贝尔实验室的数学家彼得·秀尔(Peter Shor)率先提出的量子算法可迅速解决因子分解的问题。当时密码学界十分震动,因为极为重要的 RSA 公钥密码体系将被量子计算机攻破。
在可见的未来,如何提升量子计算器的硬件,发展更有效的数学算法,让量子人工智能与量子深度学习变成实用工具,实在有赖于基础科学和数学的深度结合。
RSA 代表三位数学家李维斯特(Ronald L. Rivest), 沙米尔(Adi Shamir)和阿徳曼(Leonard M. Adleman),他们在 1977 年提出了 RSA 加密方案。他们利用素数相乘不难、因子分解极为复杂的事情完成的加密方法。RSA 方案起源于公开密钥密码体制的想法,要求密钥成对出现,一个公钥,一个私钥。公钥不能够推导出私钥,即便泄密方知道加密的公钥也难以破解密码。这个想法由美国的迪菲(Whitfield Diffie)和赫尔曼(Martin E. Hellman)在 1976 年提出。
除了RSA的保密方案以外,还有基于离散对数和椭圆曲线理论的密码系统。在秀尔的工作以后,我们知道在量子计算机时代都将被攻破。因此,量子科学对现存的密码系统带着严峻的挑战。
现在一大批数学家在开发能够抵抗量子计算机的保密方案。其中一个方案由美国数学家阿杰泰(Miklos Ajtai)在 1996 年提出,用的是格(lattice)的理论。格的理论由高斯创作,至今还没有找到攻破格保密的量子算法。
古人说,道高一尺,魔高一丈。有趣的是,在保密这门学问中,道和魔都是数学!
未来的科技革命中,数学不可能缺席,得数学者得天下!
2019 年 IBM 给出 53 量子比特的超导量子计算器,可以通过云端使用。最近 NASA 宣布 Google 可以通过量子计算在 200 秒内解决世界第一的 Summit 超级计算器 10000 年才能解决的问题。中国的学者和公司也在做这方面的工作,但是基本物理和基础数学的水平不如美国,要在量子计算的研发上追上他们恐怕并不容易!
这项研究需要大量的数学家、物理学家和工程师的合作,美国名校有不少教授在做这方向的研究。而在实验方面,美国公司的投入规模更大得多,这包括了 IBM , Google , Microsoft 等公司。去年美国通过了国家量子倡议法案(National Quantum Initiative Act),许多智库与政府官员都认为量子计算器就像二战前的曼哈顿核弹计划一样,关系着国家安全,需要政府全力支持。然而,其中的数学理论却没有甚么突破,这也是这领域存在诸多瓶颈的本源。
我国的人口规模是发展人工智能的优势,在应用人工智能技术方面已经有了很多优秀的工作,处于世界前沿水平。只是在基础理论和算法创新方面,跟美国、英国等国尚有差距。想要在人工智能等核心技术在国际上领先,基础理论的突破不可或缺。
第二个方案的解决方法在于利用数学发展出来的方法。现在在研究的叫做人工智能和大数据。
人工智能这门学科是 1956 年在美国达特茅斯大学一次为时两个月的学术研讨会上被命名而正式开始,由麦卡锡(J. McCarthy)、明斯基(M.L. Minsky)、洛切斯特(N. Rochester)、香农共同发起,邀请了摩尔、塞缪尔(A.L. Samuel)、纽厄尔(A. Newell)、西蒙(H.A. Simon)、塞尔夫里奇(O. Selfridge)、索罗莫夫(R. Solomonff)等人参加。这些学者来自名校如达特茅斯大学、哈佛大学、MIT、普林斯顿大学、卡内基梅隆大学外,还有来自贝尔实验室、IBM、RAND。
他们讨论机器智能的问题,这标志着人工智能成为一门新兴的学科。以后美国形成了很多人工智能研究组织,当时参与的学者成为领导人。他们在机器学习、定理证明、模式识别、问题求解、专家系统及人工智能语言等方面都有引人注目的成绩。
但是人工智能的历史可推前到 1950 年!这一年,图灵已经发表了《计算机和智能》(Computing Machinery and Intelligence)这篇文章,提出了“图灵测试”,测试机器的思考能力。人工智能要在机器中讨论智能、意识和能力。
在同一年,马文·明斯基与他的大学四年同班同学邓恩·埃德蒙(Dunn Edmund)建造了世界上第一台神经网络计算机。这一台机器的建造也可以看为人工智能的起点。
1952 年,塞缪尔开发了跳棋计算程序,1955 年纽厄尔找到经济学家西蒙和程序员肖(Cliff Shaw)共同撰写了人工智能计算机程序逻辑理论,1958 年,麦卡锡开发了 Lisp 的编程语言。
从此以后,直到 80 年代人工智能未有重大突破,主要的技术瓶颈有三个方面:
• 计算机性能不足,导致很多程序无法得到应用;
• 要解决的问题的复杂性比刚开始时困难得多,程序不堪重负;
• 找不到足够大的数据来支持程序进行深度学习,因此机器无法读取足够量的数据进行智能化。
在 1980 年,日本早稻田大学建成人形机器人与人交流及阅读乐谱并在电子琴上播放音乐。
1988 年,计算机科学家珀尔(Judea Pearl)发表了《智能系统中的概率推理》(Probabilistic Reasoning in Intelligent Systems),他发明了贝叶斯网络。这是一种概率图形网络,通过有向无环图表示变量及其依赖关系。同年卡彭特(Rollo Carpenter)
开发了聊天机器人。
1995 年,计算机科学家理查德·华莱士(R.Wallace)在维森鲍姆(J.Weizenbaum)发明的 ELIZA 的基础上,开发了聊天机器人艾丽丝(Alice),增加了自然语言样本数据收集。
1997 年,IBM 开发的深蓝(Deep Blue)在国际象棋比赛中取得胜利,振奋人心。
2004 年,NASA 的机器人在没有人为干预的情況下导航火星表面。
2006 年,辛顿(G. Hinton)在神经网络的深度学习领域中取得突破。
2014 年,谷歌的无人驾驶汽车通过了内华达州的自驾车测试。2015-2017 年间,谷歌 DeepMind 的阿尔法狗(AlphaGo)在围棋的游戏上打败了人类,震惊全世界。
人工智能进入了新纪元,世界上所有高校和大公司都加入这个智能化的狂潮,很多学者认为人工智能会引起二十一世纪科技大跃进!
人工智能对大数据的处理本质上是数学中的统计学。然而目前尚没有完备的数学理论用以支持大数据分析的结果。很多数学方法还相对原始,过度依赖于经验总结,而非真正来自内在的数学结构。这也导致了当下人工智能在处理大数据问题时还需要大量的人力和算力,甚至需要超级计算机的协助。由于缺乏的数学理论的支持,很多大数据分析的结果只适用于特定环境,缺乏迁移性。大数据还缺乏有效的算法。经典计算机的算法并不能直接应用到大数据中。
广为流传的深度学习也有很多不足之处(大样本依赖,可解释性差,易受欺骗等),但当前没有更好的算法来替代。要解决这些问题,需要对相关数学理论进行深入的研究,了解大数据内在的数学结构和原理。目前的人工智能由于计算器速度限制,只能采取多层状结构解决问题,基于简单数学分析而非真正的玻尔兹曼机(Boltzmann machine),无法有效地找出最优解。
我的学生顾险峰和我及几位朋友,几年前发现我四十多年前在几何上的某些工作,可以应用到人工智能的理论研究上。由此可见,基础数学在工程问题上确实是重要的。
机器学习和人工智能等先进的计算方法已经在零售和娱乐等领域带来了显着的突破。这些方法也可能对医学和卫生保健产生深远的影响。全球的卫生保健系统包括美国和中国,都着手将临床信息数字化。
可是,对如何分析和应用这些信息却还没有很好的策略。未来十年,数据科学和人工智能对医学的贡献可能超过其他所有技术的总和。人工智能和数据科学的医学研究变成医学和卫生保健的一个新领域。在这个崭新的领域里,数学和计算科学将会更广泛的为医疗决策提供支持。目前很多医疗系统的研究人员还没有意识到这一点,或者低估了这些影响。
我们希望能将最先进的计算技术应用到大型的、医学相关的数据库,得到有效的信息,并将之应用到医疗服务、临床诊断及相关的医学研究中。
为了将人工智能和应用数学更好的应用到医学研究和卫生保健上,不同的学科需要共享合作,数学、医学信息学、计算机科学、生物统计学、工程学都将是研究工作不可或缺的。
以人工智能临床诊断为例,中国拥有全世界最大的临床医疗数据库,我们需要学习如何管理和应用这些数据,而通过计算科学和人工智能,我们可以以全新的方式利用这些数据,推动整个领域的发展。首先,我们可以利用机器学习模型可以消化更大,更丰富的数据集,同时通过机器学习的结果重新审视传统的预测模型的准确性。同时我们还可以尝试在自然的状态下改变额外的变量去提高模型的准确性,这种设置还允许进一步分析如何以及为什么新的技术和方法可能更好,以及在数学上有什么改进的可能。
目前人工智能和数据科学的技术已经被广泛的应用于临床诊断、手术指导、风险预测等不同的领域。在某些领域,计算机诊断的准确率甚至比医生还高,这是很大的进步,对临床实践影响深远。正是这样的成就进一步激发了科研人员的干劲。未来医学更大的变革,将会更依赖于数学理论的突破和人工智能技术的进步,那是毫无疑问的。
数学应用多姿多采,每人有不同的志趣,走不同的方向,大致上可以分如下几类:
• 数据科学、张量、大数据、人工智能、机器学习;
• 数值优化、运筹学、及其在大规模机器学习中的应用;
• 量子计算、量子算法、及其在机器学习中的应用;
• 数值线性代数、矩阵计算、及其在数据科学中的应用;
• 大规模科学计算和高性能计算,如计算材料科学、计算量子化学、计算电磁学等的快速算法和并行算法等;
• 数值偏微分方程、有限元理论和方法、多重网格算法、(非)线性守恒律等;
• 多尺度模拟;
• 计算流体动力学,计算连续力学,如复杂流体、多孔介质渗流、界面问题、地球物理流、生物流体动力学等;
• 数值逼近论;
• 反问题的数值解法;
• 计算机图形学、计算共形几何、图像处理、医学影像处理等;
• 动力系统和混沌、非线性动力学、经典与量子(不)可积系统、耗散系统等;
• 随机分析、随机微分方程、不确定性量化及应用、统计计算、蒙特卡洛方法等及其在机器学习中的应用;
• 数理经济学、金融数学、精算保险等;
• 数学生命科学、包括生物统计、生物信息学、理论神经科学等;
• 博弈论;
• 控制理论;
• 数字信号(如地震波)处理、编码学;
• 信息与通信科学;
• 密码学;
• ……
谢谢!