拜ChatGPT和GPT4火爆若非,各个QQ群一时之间终于有了不“失去平衡”的可持续性焦点话题。Ament喧闹却能以今后可期、荣光在前的气氛结束,此类景像在朋友圈已不尽然。但尚有甚多如我,对此大好形势仍存不恭之辞:大家有不同认识,即便影响和气,心里还知足,以为正常;然而,如果举网若狂,全无回音,那到格外值得提防。
3月21日,谷歌公司创办人比尔·盖茨在他的个人网志“GatesNotes”上刊登了一则专文《人工智慧黄金时代已经迈入》的全卷昌明。有别于当年断言互联网黄金时代到来的《今后之路》,该文描写的前景不免举世闻名。尤其让人感慨万千的是,比尔·盖茨说,“1980年首次看到GUI(graphical user interface)以来,OpenAI的GPT人工智慧模型是我所见过的最具颠覆性的控制技术不断进步。”当然,该文也提到了一些不可否认的风险:“我明白为什么——它引发了关于劳动力、法律体系、个人隐私、仇恨等一系列刁钻问题。同时人工智慧也会犯梅西县错误并产生错觉。”
但很少有人知道,就在这场AI新黄金时代的欢庆即将来临,谷歌早已将其AI部门中的伦理伦理和社会风气项目组裁并。本来,作为数字经济未曾因伤的先行者,谷歌一直以在控制技术伦理伦理各方面的创业精神而为人津津乐道。2018年,谷歌刊登了《今后计算》(The Future Computed)那哥,其中明确提出了人工智慧开发的五大伦理伦理原则:公平、可靠和安全、个人隐私和保障、宽容、透明、责任。同年,谷歌公开发布了报告《今后终极目标——人工智慧的社会风气伦理伦理和角色》。为确保 AI 等第三代信息控制技术的发展更加负责且符合伦理伦理伦理各方面的要求,谷歌长期拥有一支伦理伦理和社会风气项目组,并在2020年达到30人的最大规模。但在2022年10月,该项目组已经减为7人。据报道,2023年3月6日已通知该项目组将会被完全取消。
此种矛盾很像伟大的思想家谢林所明确提出的:一各方面,伦理总是被人类当作栅栏,得到好处就三两下它;另一各方面,人的一生就是这场伦理搏杀,就是这场与自己天性的战斗——努力去做一个更好的人。
无容直言,这是个控制技术驱动、价值退却的大黄金时代,笔者早在2017年曾用“在不断进步与倒退之间”来比喻此种困境。最近读到德国现代新生代哲学家马库斯·加布里尔(Markus Gabriel)教授的《当世界史指针逆转之时》那哥,更意识到此种变化并非局部,而是在全球范围、诸多领域都出现了逆转的趋势。
笔者在“在不断进步与倒退之间”一该文更多表达的是:要接受和应对科学与人文这两种文化的对立,以及“逆全球化”加剧的事实,并看到 “不断进步是不可避免的”(孔多塞语)长期趋势。而加布里尔教授的判断简直石破天惊,那就是“欧洲各国正密切回望19世纪的模式,并不约而同地加快了回归的步伐”。至于美国,他认为本身就是“以各种方法效仿19世纪的欧洲模式”,此种奇迹般重现可以用 “拟态”比喻。当然,在他看来,日本等发达国家也概莫能外,都是“拟态”回归19世纪欧洲的优等生。
19世纪当然象征着人类文明的辉煌,科技不断进步、文化昌盛、秩序井然。不过不幸的是,此种发达和强大也孕育出了20世纪的两次世界大战以及民粹和纳粹。加布里尔的言下之意是,人类在汲取20世纪惨痛历史教训中所取得的巨大不断进步正在逐步丧失。
“数字化”是这个世界最近几十年最重要的潮流,信息控制技术带来的变革和不断进步正在深刻改变着人类社会风气。但是,在释放出巨大的生产力和效率的同时,其负面影响也不容回避。例如,互联网广泛应用后,信息的真实性以及社交媒体对人的控制备受质疑,“我们与事实(或真实)之间的关系不断发生着变化,现实和非现实的界限已变得非常模糊”。因此,“后真相”(post-truth)这个词被《牛津词典》评选为2016年年度词汇。
后真相所产生的问题不仅仅是人们得到了一些虚假的、带着情绪的,甚至包藏祸心、极端化的信息,更可怕的是人类在认知层面上的退化。由于出于迎合而不是启发人们,偏执、肤浅信息越来越多,社会越来越失去共识,公共空间越来越成为民粹主义或极端化言论的舞台。
凯文·凯利的《失控》被誉为互联网浪潮的经典之作,但“数字化”还带来了权力的“失控”。奈飞在2020年推出的热门纪录片《监控资本主义:智能陷阱》揭开了硅谷精英们良心遭受谴责的秘密。这其中除了虚假信息泛滥、大数据操纵公众、社交媒体上瘾等控制技术伦理伦理问题之外,硅谷高科技公司利用平台优势源源不断地收集和挖掘人们的原始行为数据,并从商业目的出发操弄
多数人可能认为数字化的过程以及数字化背后的现代性是一种全面的不断进步。但是现代化其实很容易被权力滥用,这个不断进步背后有一个重大的破坏性问题。比如,两次世界大战就是系统地将工业化、现代化的不断进步成果用于战争。对于这一点,齐格蒙特·鲍曼的观点振聋发聩:极权主义与现代性并不是以一种偶然的方式,而是以一种内在的方式联系在一起的。
“现代管理学之父”德鲁克在《经济人的末日:极权主义的起源》那哥中曾指出经济才是纳粹得势的根源。《当世界史指针逆转之时》那哥也认为,世界回归19世纪,表面原因似乎是信息控制技术和数字经济对现现代人类文明和社会风气不断进步的冲击,借“看不见的手”绕过了一个世纪以来形成的国际治理、个人隐私安全、劳工福利、媒体伦理伦理甚至未成年人保护等各方面的措施,但深层次的决定性因素还在于经济,尤其是维科学论的统计型故事情节。
当然,加布里尔对统计型故事情节的批评并非对统计学有仇恨,而是质疑当前无孔不入的指标、概率和算法思维。他认为将价值观置于统计学依据之下,这是一种纯粹的后现代主义思想,进而批评与之相关的新自由主义“是舍弃人存在的理论系统”。如此,假科学为名,人类不爱思考、惰性认同的问题便被盲目地无限放大。
该书给出的答案是重拾人的主体地位,经济制度的目标应该是提升人性而不是统计数字。具体的方向是重新思考伦理意义,并明确指出“伦理企业将决定22世纪的政治结构”。还明确提出了一个乌托邦式的建议:“不能雇佣专用博弈论利用消费者和生产者信息差的经济学者,必须雇佣伦理伦理学者”。
这不免让人想起黄仁宇先生在《万历十五年》那哥中所明确提出的一个根本问题:“要从控制技术的角度看历史,而不是从伦理的角度检讨历史”“实现金融管制与数目字管理”。如王家范先生所言:中国历代没有能“在数目字上管理”,缺乏中层的控制技术操作环节,是妨碍向现代化顺利转型的重要症结。
数目字管理不正是统计型故事情节的一种说法吗?而与之相对应的被黄仁宇先生质疑的“伦理的角度”,又恰恰成为加布里尔极力推崇的当务之急。黄仁宇的思路和加布里尔所推崇的方向可谓背道而驰,难道世界史的指针真的逆转了?
这里需要搞清楚两个问题。其一涉及对现代化与伦理关系的理解。吉登斯认为,脱嵌是理解现代性的关键。与传统的狩猎黄金时代以及游牧脱嵌制度极大地拓展了时间空间限制,但它需要建立在信任的基础上——对抽象能力的信任和专家系统的信任。此种信任正是以现代化了的伦理为基础,而且有会计、法律、信息等制度和控制技术保障。这就不难理解,脱嵌机制为当今世界提供了大面积的安全,但是创造出来的大型新型风险也足以让人令人生畏。正在发生的硅谷银行倒闭及其可能带来的金融危机便是一个现实的例子。一言蔽之,类似启蒙运动与工业革命的关系,控制技术的现代化和伦理的现代化并不矛盾,相互支持。
其二,人文思维和科学的导向并不一样。在近现代科学的大发展之前,人类其实长期生活在一个有着崇高意义和伦理目的的生机勃勃的世界里。但是现在,需要赋予意义并且通过感官情感情绪体验理解的人文思维被推翻了。与我们在畅想今后的人工智慧黄金时代相映成趣的是,人文主义者认为,我们已经变成了神经连线、基因编码的机器人。只是,这些人文主义者全然没有影响力和话语权。人们对权力滥用毫无抵抗。因此,与把英国作为统计型故事情节的反面教材不同,加布里尔认为,“除了纯粹统计、经济战争和博弈论,美国一直有着一整套非常保守的价值体系。从整体上看,美国委实是个强有力的保守国家。正因如此,整个国家才能团结一致共抗新自由主义。”
回到本文开篇谈到的,比尔·盖茨对人工智慧黄金时代的断言和谷歌公司裁并伦理伦理项目组。虽然看起来有些矛盾,但也许这两个各方面的言行正是一盘棋。只不过,一个是战略上的,另一个是战术上的。战略上需要为股东和利润负责,战术上是为人类和社会风气负责。战略上“形势比人强”,战术上却“从善如登”。这很难不让人想起茨威格说的那番话:“我们共同的理想主义,我们不断进步中必然产生的那种乐观主义使得我们低估和忽视了我们共同的危险。”
好在于沸腾狂热之中,我们看到了冷静和责任的力量。近日,图灵奖得主约书亚·本吉奥和埃隆·马斯克为首的一千多位知名人士联名发公开信呼吁所有人工智慧实验室立即暂停训练比GPT-4更强大的人工智慧系统。他们明确提出的问题值得堪称天问:“我们必须问自己:我们应该让机器充斥我们的信息渠道,散布宣传和不实信息吗?我们应该自动化所有工作,包括那些令人满意的工作吗?我们应该发展可能最终比我们更多、更聪明、更先进、取代我们的非人类智能吗?我们应该冒着失去对文明的控制的风险吗?”
因此,我非常赞同《当世界史指针逆转之时》那哥对人工智慧黄金时代的伦理伦理学转向的判断,普及伦理伦理学与培养伦理伦理人才刻不容缓,我们需要调整位置,把事关人类文明今后的伦理伦理作为战略甚至成为更高的行动纲领,而把控制技术和利润置于其之下。
本文部分内容刊于2023年第10期《财经》杂志,此为完整版
作者 | 本力(北望)
本力《香港国际金融评论》执行总编辑、香港中文大学(深圳)高等金融研究院政策研究员,深圳市金融科技伦理伦理委员会秘书长。曾创办北望经济学园,出版《崛起?!:中国今后10年经济发展的两种可能》《经济学之路》《改革与今后》《投资存亡战》《量化投资十六讲》《金融伦理伦理通识》等图书。