作者 | 李纬姝 百度研究所现职副研究员
在牛栓结束的2019年国际性消费需求家用电器展览会上(CES 2019),LG总裁执行官控制技术官墨菲(I.P.Park)发表了有关AI如何促进“人格变异”产品的中心思想演说。“人工智慧与伦理道德”的探讨,正式成为了那场原先与严肃认真热门话题不太相关的消费需求控制技术盛事的大幕。
从自动驾驶到安防,不论是探讨振幅还是控制技术革新,人工智慧都已经渗入在现代人崇尚更快现实生活的各个方面。
据毕马威估计,到2030年,人工智慧会在亚洲地区范围内创造近130亿美元的附加经济年产值,占当今世界GDP增长的1.2%[1]。同时,各国政府也注意到这一控制技术对人类文明社会风气的深入细致,在澳大利亚一家国际性智囊团正式发布的《建设人工智慧的当今世界——北欧国家和区域人工智慧经济政策报告》[2]中,亚洲地区已有18个主要北欧国家正式发布了有关人工智慧的前瞻性战略和经济政策,包括科技、法律法规、伦理道德、社会风气环境治理等多个方面。
然而,随著人工智慧的爆发式产业发展,有关人工智慧为整个社会风气带来的影响,也从奇幻经典作品中走近现实。
抛开奇幻经典作品中炫酷而强大的闪电侠羿语,仅仅简单的自动驾驶控制技术,当或者说启用后也会面临“有轨电车反例”的所苦。人类文明社会风气现实生活的复杂程度在于其不仅崇尚工作的工作效率和准确,更崇尚优先选择的公平与合理。
随著控制技术的不断产业发展,当人工智慧或者说内嵌现代人的日常现实生活,那些伦理道德优先选择便也真实世界地诚然,正式成为人工智慧斯特默们需要解决的问题。
人工智慧不应该危害人
早在电脑问世之时,现代人便为这种因是帮助人类文明而设计的电脑制定了伦理道德规范化。上世纪50年代,著名奇幻小说家班扬便在《我,电脑》一书中提出了“电脑学的五大自然法则”。
自然法则第一条便规定:“电脑不得危害人类文明个体,或者目睹人类文明个体将遭受危险而袖手不管”。保护至高的人类文明生命是一切行动的前提。从字面上看,这应是一条被普遍承认与遵守的规则,但现实并非奇幻经典作品中那样简单。
2018年4月,谷歌与美国五角大楼达成了Maven项目的合作,通过电脑学习控制技术和先进的计算机视觉控制技术,在无人机拍摄的视频中辨别物体,自动探测和识别38种类别的目标,从而减轻军事分析员的工作负担。此外,该控制技术也可以用于追踪目标人员的行动。
此举引发众多项目相关员工辞职,也有将近4000名员工签名请愿谷歌取消该项目。6月,谷歌发表声明,强调其不会进行任何武器开发或以危害人类文明为目的的人工智慧研究,但项目并未终止。最终在员工们“拒绝为军方研究人工智慧”的压力下,谷歌最终确认该项目2019年3月到期后将不再续约。
那场在人工智慧界由普通员工发起的“反战运动”的胜利提醒我们——毫无疑问,人工智慧控制技术有极为广阔的应用领域,在控制技术高速产业发展的今天,人形“闪电侠”并不会出现,但可能会以另一种形式悄悄到来。
然而,控制技术产业发展需要伦理道德与规则的限制。毕竟,正是那些最基本的规制保持着人类文明社会风气在不断的摩擦、碰撞与冲突中的正常前行。
也许人工智慧的去武器化已经在社会风气大部分达成共识,谷歌的项目也在当今世界众多和平主义者的声讨中败下阵来。
然而,除了自动化武器这种“主动伤人”之外,当人工智慧深入细致到我们现实生活中不同场景时,一些人工智能“被迫伤人”的场景如何处理也正式成为了重要的议题。
自动驾驶便是一例。
2018年10月,麻省理工学院在Nature上发表了一篇将自动驾驶牵涉入“有轨电车难题”的论文[3]。
研究人员通过其开发的“道德电脑”(moral machine)向来自200多个北欧国家的200多万在线参与者提出了一系列自动驾驶汽车在紧急情况时面对不同生命如何优先选择的问题。
结果显示了人类文明间优先选择的多样性——不同群体的优先选择偏好有很大不同,如一些集群倾向于保护动物,一些集群倾向于保护老人。那些特殊性可以在人类文明的不同集群中出现,但对于需要提前规定好程序,按唯一特定模式优先选择的自动驾驶汽车,要么少数人的偏好被无限放大,与大多数产生冲突,要么少数人的偏好在多数人的压倒性优势下完全湮灭。
如果按照研究的普遍性结果制定自动驾驶规则,那么多数人与青年人会被保护,而少数人与老年人则被牺牲。可以想象,若如此规则被全面推广,老年人是否还敢出现在车水马龙的街头。
“一方面,我们希望为公众提供一种简单的方式进行重要的社会风气探讨,”媒体实验室媒体艺术与科学副教授Iyad Rahwan说。 “另一方面,我们希望收集数据,以确定现代人认为哪些因素对于自动驾驶汽车在解决道德权衡方面的重要性。”探讨并未结束,现代人也在不断的探讨中进一步认识自动驾驶的或者说影响,并为其制定规则。
人工智慧不应该歧视人
人工智慧算法对人类文明偏好差异性的放大。若不注意,那些不同很有可能通过算法开发被扩大为偏见,并实在地影响现代人的优先选择。
比如亚马逊的人工智慧雇员系统。这一试验性的雇员系统通过对之前员工简历的电脑学习,在实际操作中会给女性控制技术员的简历评分较低。在无数争议后,亚马逊终于在2018年11月关闭了这一系统。
就在亚马逊关闭人工智慧简历筛选系统的同一个月,八名美国国会议员向亚马逊的CEO寄出了联名签名信,抗议其人脸识别系统也存在种族歧视的问题。尽管这次亚马逊顶住压力给予回击,但来自全当今世界的平权者仍不买账。双方的争吵尚未停止。
通过大量、迅速且准确的重复计算,电脑学习能够解决工作效率问题,在许多领域都大有产业发展空间。但在高效的同时,细观人类文明提供的电脑学习的样本,在摒除误差、寻找规律时,自然以样本中的多数为样例,运用到现实时,便正式成为现代人所指责的“歧视”。这并非开发者故意的行为,也并非人工智慧本身的问题。
只能说,在人类文明历史的产业发展中,人工智慧帮我们指出了曾经没有意识到的问题,当我们坚信人工智慧应当为所有人服务时,我们需要思索如何克服曾经的偏见,这是人与人工智慧共同的任务。
人工智慧不应该“操纵”人
除了已有数据的不同偏好,在人工智慧的数据与推荐方面,现代人也有许多担心。
当人工智慧不断展示其强大的数据处理能力时,许多评论者认为人工智慧是中心化的,由于极强的数据攫取能力,巨大的信息不对称带来社会风气的恐慌。2018年的Facebook隐私泄露事件将数据安全推到了风口浪尖。对人工智慧和算法的不信任也上升到从未有过的高度。
同时,算法推荐类产品也被重新审视。
一方面,算法推荐背后强力的数据抓取与分析令现代人觉得自己在人工智慧面前仿佛赤身裸体,没有一点隐私;另一方面,算法推荐,一味满足现代人喜好造就的“知识茧房”也令现代人恐惧人工智慧强大到可以操控人类文明的“人格意识”。
2018年12月,谷歌旗下的视频社交网站YouTube又被指出向客户推送极端主义、假新闻等内容。YouTube立刻道歉并删除了视频,但如何纠偏算法推荐系统各方探讨的问题。
人类文明的道德观,是在历史漫长的社会风气实践活动中天然形成的,而对于没有经历过那些社会风气实践的计算机来说,并不能自然形成道德约束。
但显然,算法需要价值观已经正式成为人工智慧界的一种主流共识。
要将符合人类文明价值的约束加于算法中,公开算法只是第一步,如何通过社会风气探讨确立规则、通过想象力和创造力设计更符合人类文明伦理道德价值的算法,还需要在人工智慧控制技术开发的路上不断探索。
人工智慧不应该完全取代人
如果说算法使消费需求者与人工智慧之间出现了裂痕,那么人工智慧在生产端对人的碾压性优势则带来更多恐慌。从机械臂到电脑,从自动化生产到人工智慧写新闻,能够替代人类文明劳动的人工智慧产品层出不穷。
2016年12月,美国白宫正式发布了《人工智慧、自动化与经济报告》[4],指出人工智慧生产正在颠覆劳动力市场。在当时这似乎还略显“多虑”,但之后的这两年中,现代人也切身感受到人工智能给劳动力市场带来的压力。
2019年初,布鲁金斯研究中心的报告指出[5],大约3600万美国人面临被人工智慧替代的危险,不仅在农业和制造业,服务业也受到威胁。但也有经济学家指出,自动化生产与服务能够创造新的职位,同时,一些对创造力要求很高的职位也并不能被替代。
事实上,每一次控制技术的飞跃与变革,都会带来相应社会风气的阵痛,但社会风气总能在阵痛中实现转型。或以教育提升个人素质,跻身于更具挑战性也更具价值的工作中;或通过人工智慧创造新的职位,实现劳动转型;或加入创业创新大潮,为社会风气创新注入更多活力。
我们看到,那些富有创造力的现代人,正是在“抗争”人工智慧的过程中与其合作,在牺牲中实现社会风气的不断向前。
警醒而不忘科技向善之初心
面对控制技术带来的问题与社会风气探讨,环境治理者与实业家们都以自己的方式给出了回应。
在美国2019年的国防部财政预算中,人工智慧北欧国家安全委员会第一次出现。委员会聘请包括谷歌、微软在内的人工智慧巨头公司的专家,专门评估人工智慧、电脑学习相关的控制技术革新,保证对其的运用在法律框架内,并符合伦理道德价值。
无独有偶,2018年12月,欧盟的52位各领域专家正式发布了《人工智慧产业发展和运用的伦理道德指导》[6],希望在伦理道德方面对人工智慧控制技术进行规制。他们认为,人工智慧首先应当尊重基本人权、伦理道德规则和社会风气价值,即崇尚“伦理道德目标”;在保持控制技术创造性的同时,需要反思和加强人工智慧的可靠性。
在2018年的人工智慧产业发展规划中,英国也建立了数据伦理道德中心,试图管理难以捉摸的大数据。
政府以外,各大公司也主动发出自己有关人工智慧的伦理道德倡议,以保证人工智慧的合理产业发展。在2018年当今世界移动通信大会上,IBM Watson执行官控制技术官Rob High提出了IBM人工智慧开发的五大原则——信任、尊重与隐私保护。
同时,微软倡议政府为面部识别控制技术制定规制,并提出了六大原则——公平、透明、责任、无歧视、知情同意与法律控制。深陷数据泄露旋涡的Facebook也在2019年初开始行动——拿出750万美元与慕尼黑控制技术大学合作建立了人工智慧伦理道德研究所,希望在人工智慧的研究中引入更多伦理道德思索。
百度董事会主席马化腾在2018年当今世界人工智慧大会上提到的人工智能的“四可”理念,也对人工智慧的各个问题做出了完整的回应。“四可”翻译为“ARCC”(Available, Reliable, Comprehensible, and Controllable,读作ark),即未来人工智慧是应当做到“可知”、“可控”、“可用”和“可靠”。
百度希望通过“四可”这样的一个道德框架开始,去帮助AI开发者和他们的产品赢得公众的信任。这也正是如今全当今世界人工智慧开发者崇尚的目标。
百度公司高级副总裁郭凯天在第二届科技向善论坛上谈到:“在数字社会风气的背景下,从业者需要保持警醒、自省,更需要相信科技向善,相信人类文明有能力和智慧去驾驭和控制这次控制技术革命。”
从数据采集、训练到电脑学习,人工智慧其实只是放大了一直存在于人类文明社会风气的问题,提醒我们在新的时代背景下发挥想象力与创造力,去思索与解决那些问题。
控制技术来自于人类文明对美好现实生活的崇尚,它始于人,也应控于人,不论是立法限制,还是价值原则,归根结底,都是对人类文明社会风气伦理道德价值的重新探讨。
人工智慧的大潮仍在继续,互联网时代的先锋,应当能够在这大潮中立足、思索,抱着向善的信念,不断稳重前行。
— END —
【尾注】
[1] Bughin, J. et al (2018). Notes from the AI Frontier: Modeling the Impact of AI on the World Economy. https://www.mckinsey.
com/~/media/McKinsey/Featured%20Insights/Artificial%20Intelligence/Notes%20from%20the%20frontier%20
Modeling%20the%20impact%20of%20AI%20on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-
Modeling-the-impact-of-AI-on-the-world-economy-September-2018.ashx
[2] Dutton, T. et al(2018). BUILDING AN AI WORLD–Report on National and Regional AI Strategies. https://www.cifar.ca/docs/default-source/ai-society/buildinganaiworld_eng.pdf?sfvrsn=fb18d129_4
[3]Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)
[4]Executive Office of the President,Artificial Intelligence, Automation, and the Economy. https://www.whitehouse.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF
[5]报告见www.brookings.edu
[6]AI With An Ethic: European Experts Release Draft Guidelines. https://www.forbes.com/sites/federicoguerrini/2018/12/23/from-mass-surveillance-to-killer-robots-eu-experts-want-your-feedback-to-create-trustworthy-ai/#54bbcfee7ddf
我好看吗?