原副标题:掀开雷米扎县:积极探索人工智慧另一面的自然科学基本原理与信用风险
文|质问NextQuestion
人工智慧作为当今社会最炙手可热的热门话题,他们默默地为技术获得的重大进步欢呼雀跃,默默地又为它过分强悍的能力感到不安。它不只是计算机系统地理学家的研究课题,而是涉及到自然科学、政治、社会风气的各个方面。
北京时间2023年5月24日,加州理工学院电机工程与计算机系统自然科学Yaser Abu-Mostafa副教授增添了本校“库珀专题讲座”五十年纪念日系列的谢幕报告“Artificial Intelligence: The Good, The Bad, And The Ugly”。并用易懂的语言解释了人工智慧的自然科学基本原理,并深入探讨了其信用风险和好处。
在“AI会杀掉他们其他人”和“AI会解决他们所有难题”的顽固看法之间,副教授率领他们用自然科学的看法辨识现实和推断,并指导他们在规划、修法和投资中对AI展开重大决策。
责任编辑对此次专题讲座展开了整理简化,概要。
揭开人工智慧的谜样盖头
如今他们置身于在一个天下人都在谈及人工智慧的黄金时代,但当提出诉讼它时,他们有时候抱着兴奋与兴奋,有时候却又为它感到恐惧。一方面,人工智慧的性能一场又一场的令他们华丽,另一方面他们并不理解它是怎样整体表现得如此像人类文明,更不知道它未来会发展到哪种程度。为了针对人工智慧增添的社会风气现象制定有意义的政策,他们须要掀开它的谜样盖头,了解其另一面的自然科学基本原理。
提及人工智慧的自然科学基本原理,最核心的难题是电脑是怎样整体表现智能特征的(symptoms of intelligence)。在数学模型黄金时代到来之前,人工智慧领域占优势地位的是倚靠暴力行为演算法的程序语言,采用“搜寻表”的形式,帮助电脑快速的查阅到想的信息。当被问及一个难题时,电脑能快速的找到标准答案,整体表现得十分“精明”。仅仅倚靠暴力行为演算法这样简单的基本原理,电脑便能轻而易举在XT736PA和中国象棋赛事中打败最强悍的人类文明球手,他们似乎已经获得了智能化甚至是DT智能化。但此类人工智慧须要花费巨大的人力物力来把合适的信息放到合适的位置,只能发挥仅仅一场作用,这显然不是他们所想的智能化的模式。
自1980年以来,人工智慧领域发生的最巨大的改变,便是从暴力行为演算法演变成了学习演算法。想理解“学习”和“智能化”的关系,他们能看看自己的大脑,他们拥有一套内置的学习演算法:大脑靠神经元传递信息,而在两个神经元之间存在的突触,会依据发生的情况上调或下降连接强度。人类文明大脑中存在100万亿甚至更多的突触,因此他们的大脑能存储不胜其数的信息并组织成一种方便回忆和学习的形式。
但他们怎样模拟大脑实现学习功能呢?参考他们模仿鸟类制造飞机的发展历程,他们只须要提取出“翅膀”和其另一面最核心的特征即可:他们现在的飞机能完美的实现飞行功能,但并不像真正的鸟类一样扇动翅膀。
因此真正重要的事情是针对不同功能提取出本质核心。那么,从上世纪八十年代发展至今,他们已经提取出了生物神经系统中反映智能化的核心了吗?看看人工智能领域的最新进展,他们能毫不犹豫地回答:是的。
▷
在理解了人工智慧的智能化表征后,他们再来理解人工智慧会容易许多。例如在最基本的数学模型结构中,便是多个神经元通过突触相互连接的形式。我们须要注意的正是这些突触——也能称它们为参数。理解这些参数最好的方式是把它们看作旋扭——他们学习一个函数的过程其实就是通过调节大量的旋钮,尽量让输入的数据在他们构造的数学模型中实现他们期待的功能。这是一个巨大的工作,但好消息是他们拥有学习演算法,能告诉他们在数据输入时怎样调节。而一旦调节完成后,旋钮的状态就被固定住了,以完成他们希望网络完成的工作。
除了基本数学模型模型之外,还有许多别的数学模型模型,例如ChatGPT采用的便是“转换器”模型(Transformer),它有着灵活的注意力机制。理解这些不同模型最好的方式是:在他们的大脑中不同脑区的构建单元都是神经元和突触,但它们有不同的结构来实现不同的功能——同样的,当他们想完成不同的任务时,他们应该构建不同的模型。
现在他们能从信息存储的角度比较一下人工智慧的新旧两种形式。以一个具体的例子来说,假设他们现在同时有程序语言和数学模型两个系统来回答同一个难题。
程序语言的工作方式是这样的:它已经提前设定好了并一直保持固定,它所须要做的就是搜寻数据库以便找到正确标准答案并输出。而对于数学模型来说,难题输入后,它须要多个突触相互交互,经过不断的处理后才能生成最终标准答案,也就是说,它采取的是一种分布式的编码方式。这样的编码方式使得网络能柔性地处理每一段信息,让它们相互交互来积极探索他们从未遇到过的难题。
理解了数学模型的信息存储方式后,他们再来看看人工智能化备受争议的一个难题:他们都听说过人工智慧是一个雷米扎县的说法——他们不能理解它做的事情,他们也就很难相信它。
“可解释性人工智慧”的难题其实能类比人类文明做决定的过程:你最开始只是有一种直觉,接着你倚靠这种直觉做出相应的选择。如果现在请你分析为什么做出了那样的决定,你很可能会解释说有哪些因素影响了你,但如果我缠着你十分精细地阐述你究竟为什么这样做,很可能你也会束手无策。事实上,他们靠直觉做的重大决策依赖于他们过去人生中不断积累的观察与经验,而这些都是他们无法按照顺序详细记录下来的。这和可解释性人工智慧的情形十分相似。当他们想“理解”人工智慧时,你只须要知道它的功能是内嵌在结构中的,而不需纠结于每一个参数的含义。
在讨论人工智慧的政策前,他们还须要知道数学模型是怎样建成接着发挥功能的。一个网络发挥作用总是要经过构造网络和应用网络两个阶段。构造网络,或者他们常说的训练网络的阶段,正是他们之前所说的调节旋钮的过程,调节旋钮能使得原本不针对任何任务的网络变成具有一定功能的特定的网络。简单的估算一下,假设他们有一台拥有极大内存的电脑,一个ChatGPT模型须要1.5千亿的参数,想让一台电脑得到一个ChatGPT模型须要计算200000年。训练网络时网络本身不带有任何“偏见”或目的,它完全由他们设置的训练过程决定。相比训练过程,网络的使用阶段要来得简单得多。一旦训练完成,参数值就已经冻结了,他们只需输入查阅语句,模型便会生成标准答案。
当他们提及管控人工智慧时,其实涉及两类管控:第一类是管控人工智慧的部署——当一个人训练人工智慧时,他们怎样确保得到的网络是无害的?如同药监局对上市的药物都要展开核查一样,他们对人工智慧也须要设定类似的机构。例如想检查网络是否带有偏见,他们只需输入一组标准的检测数据,观察输出的结果是否带有偏见,一旦发现不合格的回答,便拒绝推行此类网络。
第二类管控则是管理人工智慧的发展,他们常常将人工智慧类比为核武器。他们已经有了一套相对成熟的核武器国际管控机制——他们对于核武器的原料“浓缩铀”设定数量上的限制,这样便无法生成安全范围以上的核武器——他们能对人工智慧做类似的事情吗?可惜的是,人工智慧所须要的GPU芯片,保守估计已经有一百亿已投入使用。利用计算机系统领域开源社区的特征,世界上任何一个机构,或者即使最穷的一个国家,也能制造出他们想的任何人工智慧模型。他们须要看到,在人工智慧领域,这里没有“浓缩铀”,人工智慧必将实现自己完全的潜力,即使你不做这件事,总有别人来做。
人工智慧将去往何处
在人工智慧领域,最讽刺的事情便是,即使是最智能化的网络,也无法预测人工智慧的发展将走向何处。他们承诺人工智慧能达到什么时,他们不用担心他们虚夸了它的未来,他们担心的是它会远超于他们的预期。为什么会这样呢?因为在他们发展人工智慧的过程中,他们十分幸运发展出了“局部最优解”与“过表达”理论,目前有许多相关研究和结论,但是还没有一个概括性的结论。
▷
局部最优解的演算法使得他们须要耗费相对极少的计算过程,而过表达的训练方式则使他们只需投入远少于参数量的训练数据来得到网络。目前对于各自另一面的基本原理都还没有彻底弄清楚,但这些“运气”使得现在的模型成为可能,这些“运气”还将保证日后的人工智慧走得更远更好。
这份运气延续至今的整体表现具体体现为“涌现”现象:在训练网络过程中,他们不断增加网络中的参数数量,这个过程中网络的性能不是线性增加的。事实上,随着数据量增大,它一开始只是平缓地上升,但到了某一个临界点,网络性能会获得突然的增加。这也正是人工智慧不可预测的原因,他们猜测也许在现有基础上继续增加训练数据量,网络将会发生新的涌现,达到现在难以想象的水平,但他们无法预测它将在何时到来,或者也许他们不够幸运,这一天永远不会发生。
人工智慧能“为他们”又能“对他们”做什么
当他们谈及人工智慧增添的好处时,往往会包含两个方面:人类文明能做的事情和人类文明无法做的事情。
医学领域人工智慧实现了许多人类文明无法做的事情,但却没有得到足够的报道,但它们是真正影响他们生命的应用。对于显微镜下的活体切片,想找出肿瘤是否在该组织中扩散。这个任务对人类文明来说已经超过了视觉系统检测图像的极限,即使技术最精湛的医生判断时的准确率也不会超过50%。但如果训练一个网络来做这个任务,它的准确率能达到90%。这是一个很正面的例子,将人工智慧应用到医学领域,来拓宽他们的能力,并提高他们的生活质量。
而在他们能做的领域他们也正在被人工智慧超越,与工业革命时期比较,当时电脑的出现取代了手动生产,解放了人类文明的体力劳动;而人工智慧革命,则是解放了人类文明的脑力劳动。数字革命与工业革命相比的重要区别在于其发展速度。工业革命花了大约80年的时间,约等于一代人的寿命,因此也提供了下一代人适应的时间。而据预测,人工智慧革命产生显著影响只须要短短20年,甚至可能15年(以2012年为起点)。事情发生的如此之快,他们须要做什么呢?他们无法要求其他人停下对人工智慧的开发,大范围的失业和混乱是无法避免的:人工智慧发展会为他们增添诸多红利,但同样也伴随着生长痛,对当代生活的人来说,他们能感受到的痛苦会大于人工智慧增添的便利,他们能做的便是构建合适的安全网,来照顾、重新培训可能面临失业的人。
最后他们讨论一下人工智慧的信用风险,能分为恶意使用AI、流氓AI系统和社会风气影响三类。他们都清楚恶意使用人工智慧能实施的犯罪,包括窃取信息、诈骗、非法侵入……修法者和罪犯之间的关系就像猫和老鼠,修法者无法预测有什么样的犯罪行为可能发生,永远只能追在后面跑。因此我建议将“使用AI”作为加重刑罚的因素,而不须要创造新的犯罪条款。他们只须要告诉人们,如果你实施了一项犯罪,并在过程中使用了AI,你的刑罚将变得更严重。这是一个全局的法规,至少能刹住立马袭来的大范围犯罪的车。
另一个更有意思的热门话题是流氓AI系统,他们担心人工智慧过分精明,会使他们人类文明变得低等;甚至有人认为情形将更为复杂:除了他们自己创造的人工智慧,AI还会自己来创造更为精明的AI系统并快速进化,最终将人类文明完全边缘化。这显然是一个人类文明生存上的威胁——如果你相信它的话。但对我来说,我很难赞同这样的看法。他们从来没有和除了人类文明以外的智能化系统打过交道,当他们忽然与ChatGPT交流时,他们往往把其想象为一个人类文明,一个拥有感受和意识的人类文明——他们在其身上附加了许多人类文明的属性,但他们须要看到,智能化是一种能力,而支配则是一种欲望,对于纯粹的智能化系统来说它们真的有支配的欲望吗?即使真的有,他们也不能忽视AI另一面的逻辑——AI训练网络时离不开海量的资源和巨大的能量。他们观察到网络在花费巨大的资源展开自我训练,他们会眼睁睁地看着它在两个月内展开他们没有安排的任务吗?抱歉,我无法相信这样的事情会发生。
▷
因此,如果你担心AI可能被人类文明用于实施犯罪,我完全同意你的看法,但我并不会担心AI自身会变得邪恶。我真正担心的,是AI会造成的社会风气影响。他们都看到了社交媒体对于青少年的心理健康造成的影响,他们也都体会过新冠时期社交隔离进一步让他们依赖于手机,因此他们能想象,如果他们的手机变得愈发智能化,甚至成为了他们最好的朋友,他们便会变得越来越孤立。但我想强调的是,作为人类文明,我们有与人接触的本性,即使与刻意设计的人工智慧相比,他们身边的人不那么富有同情心、不那么擅长合作、不那么乐于助人。他们须要意识到无论他们的技术发展到哪种程度,人工智慧只是一个人造的产物,在它的接收端没有任何的人类文明。
译者按:
人工智慧发展如此迅猛,他们没有办法阻止其发展的脚步,但能选择是否跟上它的浪潮而不被黄金时代淘汰。走出个人的视角,人工智慧须要诸多领域的协作来发挥更大的潜能,和实现更稳健而良性的发展。
从人工智慧的基本原理来说,它下一步的发展方向是朝着人脑的数量级前进,因此须要计算机系统领域和神经自然科学领域的相互合作与促进。从人工智慧的应用角度来看,他们须要制定合理的法律规范其应用,须要合适的社会风气保障制度来应对它可能增添的冲击……
Abu-Mostafa副教授在长达九十分钟的专题讲座中,向他们介绍了人工智慧的前世今生,和即将可能发生的未来,提出了许多恳切并有建设性的建议。并用充满智慧又风趣的讲解增添头脑风暴的同时又引发了每个人对自身领域独特的思考,是一场十分精彩的专题讲座。