人工智能时代的伦理道德

2023-06-01 0 540

位数科技使几乎任何人人、任何人天数、任何人地点都能轻易赢得重要信息。这对他们社会风气的各个各方面,从工业生产到分配、到商品和服务的消费,都产生了深远的负面影响。就像之前的技术民主革命一样,位数科技的负面影响如此广泛,他们不再只是简单地利用它——做他们以前做过的事情——而是透过发生改变他们的犯罪行为方式来适应它。

今天,位数科技早已再次表述了人们怎样与他人进行跨媒体,甚至怎样找到异性。消费者、生产者和供应商、慈善家和劳动者、提供者和客户、好友和合作方之间再次表述的亲密关系,早已在社会风气上造成一场巨变,已经开始发生改变后工业黄金时代对道德理性的表述。

他们正站在下一波科技民主革命的众矢之的:人工智慧。20世纪晚期的位数民主革命将重要信息带到了他们的掌心,让他们能够快速作出下定决心,而机构作出下定决心,从根本上说,取决于他们。人工智慧已经开始透过自动化重大决策操作过程来发生改变而此状况,它有望带来更快的认定结果和更高的效率。人工智慧游戏控制系统在击败象棋全国冠军卡斯帕罗夫(Gary Kasparov)和中国围棋全国冠军李世石(Ke Jie)各方面取得的成功,凸显出人工智慧在计算当前重大决策对潜在未来游戏场地的负面影响各方面,在质量各方面优于人类文明专家。

然而,在这个重大决策操作过程中,人工智慧也带走了人类文明犯罪行为的开放性、可说明性、精确性、可教性和可审核性,原本的是如前所述。而此举动的逻辑不仅不为参与者知晓,也不为程序的造物主知晓。随著人工智慧为他们作出重大决策,重大决策的透明度和精确性可能将会成为过去。

想像呵呵这样的情景:你的小孩回家找你,明确要求你给她零花钱,让她和好友一起去看电影。你允许了。一周后,你的另两个小孩带着同样的明确要求来找你,但这次,你拒绝了。这将立即引起不公平和袒护的问题。为了避免受到袒护的指责,你要向小孩说明,她必须完成家庭成员作业,才有资格赢得零花钱。

没有任何人说明,家里一定会有紧张的气氛。现在想像呵呵用两个人工智慧控制系统取代你的角色,这个控制系统早已收集了成千上万个处于类似情况的家庭成员的数据。透过研究其它家庭成员的零花钱下定决心的后果,得出,两个弟妹如果得到零花钱,而另两个弟妹不如果。

但人工智慧控制系统难以真正说明其中的原因,只能说它衡量了你小孩的头发颜色、身高、体重以及其它所有它能获得的属性,以便作出对其它家庭成员似乎最有效率的下定决心。那又怎么会有效率呢?

在法庭上,往后的判决约束法官遵循前例,即使情况不完全一致,但大致相似。连续性在司法、政府、亲密关系和社会风气规范中都很重要。AI没有遵守前例的法律明确要求。人类文明往往只有有限的直接或间接经验,而电脑可能将能访问大量统计数据。

人类文明难以在两个长期的天数尺度内甄选他们的经历,而电脑能很容易地做到而此点。人类文明会须建那些被认为对重大决策毫无意义的不利因素,而电脑不会排除任何人不利因素。这可能将导致不尊重前例的下定决心,其规模之大是人类文明能理解的。随著企业和社会风气迅速转向人工智慧,人工智慧实际上可能将比人类文明在更长的天数范围内作出更快的重大决策,而人类文明在更短的天数范围内就会感到疑惑和沮丧,并侵蚀两个正常运转的社会风气的唯一货币,信任。

要理解基于人工智慧的重大决策可能将有多人工,研究人类文明怎样作出重大决策是很重要的。人类文明的重大决策可能将由一组明确的规则,或者仅仅基于结果论的关联,或者由组合来指导。人类文明对于与重大决策相关的重要信息也是有选择性的。由于缺乏选择性,电脑在做下定决心时可能将会考虑人类文明认为不恰当的不利因素。

有无数这样的例子,从微软(Microsoft)在其聊天电脑人Tay开始在Twitter上发表煽动性反犹太言论后关闭它,到波士顿大学(Boston University)的一项研究,该研究发现“老板”(boss)、“建筑师”(architect)和“金融家”(financier)等词与男性、“护士”(nurse)和“接待员”(接待员)等词与女性之间存在性别关联。这可能将是统计数据造成的,但它与他们的显式值形成了对比。如果统计数据驱动的操作过程依赖于这些人工智慧算法生成的输出,它们将产生有偏见的重大决策,往往违背他们的道德价值观。

ProPublica在2016年提供了明显的证据。美国法院使用的一种电脑程序错误地将两年之内没有再犯的黑人被告标记为“惯犯”,其再次犯案的可能将性几乎是白人被告的两倍——前者为45%,后者为23%。如果两个人也这么做,就会被谴责为种族主义者。人工智慧揭示了他们明确的价值观和集体经验之间的分裂。他们的集体经验不是一成不变的。它们是由重要的社会风气下定决心所下定决心的,而这些下定决心又由他们的道德价值观所指导。我们真的想把重大决策操作过程留给那些只从往后学习、因而受制于往后的电脑,而不是塑造未来的电脑吗?

鉴于人工智慧在医疗诊断、金融服务和就业筛查等领域的应用规模之大,任何人两个偶然事件的后果都是巨大的。随著算法越来越依赖于提高精确性的特性,控制这类重大决策的逻辑变得越来越不可思议。因此,他们失去了重大决策的全局性,抛弃了所有的原则来支持往后的观察。在某些情况下,这可能将是不道德的,在某些情况下是非法的,在某些情况下是短视的。“惯犯算法”公然藐视无罪推定、机会均等等原则。

连续性是道德和正直不可或缺的。他们的下定决心必须遵循两个高于统计准确性的标准;几个世纪以来,相互信任、减少危害、公平和平等的共同美德已被证明是任何人推理控制系统生存的基本基石。没有内部逻辑的连续性,人工智慧控制系统缺乏健壮性和可问责性——这是在社会风气中建立信任的两个关键措施。透过在道德情感和逻辑推理之间制造裂痕,统计数据驱动重大决策的不可知性阻碍了批判性地参与重大决策操作过程的能力。

这是他们生活的新世界,复杂的下定决心被削减成反射性的选择,并被观察到的结果所强化;把复杂的东西简化成简单的东西,把道德简化成实用的东西。今天,他们的道德感为他们的重大决策提供了两个框架。也许不久之后,他们的下定决心就会让人们对他们的道德产生怀疑。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务