郭锐:人工智能可能带来哪些伦理问题?

2023-06-30 0 814

郭锐:人工智能可能带来哪些伦理问题?

张波

复旦大学法律系教授

郭锐:人工智能可能带来哪些伦理问题?

演说书名如下表所示:

只不过没两个黄金时代像那时那样,他们对控制技术充满著了期盼,人工智慧早已用在他们生活中的各个方面,他们看见人工智慧驱动力的的士早已高速行驶在马路上,他们看见人工智慧早已让他们的工业更为的高效率,人工智慧正在帮助医师更为高效率精确的确诊疾病。只不过也没两个时代像他们那时那样对控制技术的应用领域充满著了顾虑,我相信诸位的朋友们应该有很多人所处的住宅小区早已装了人脸的门禁系统,甚至在幼稚园这种的公开场合,也会有人脸控制技术的应用领域。

前一两年他们有一则该文在他们的贴文里面贴文,是送餐赛手和演算法之间的角力,他们对送餐赛手充满著反感的同时,有时也会不禁忧虑他们他们的未来,他们他们所处的业余会不会在将来也像送餐赛手那样被演算法统治?他们的市场竞争也变成这种棕褐化的、十分低效的市场竞争。

但面对这么多纷繁的人工智慧的应用领域,到底是甚么让他们贝唐?他们需要去更进一步的去认识人工智慧的伦理道德,就可以更快地去理解那些原则,就可以想到他们可以做甚么。他们会用两个范例来说明。

在才刚过去的“双十一”,每两个人的主页的智能化所推荐都是不那样的,这早已是两个十分巨大的控制技术不断进步。但只不过其中有一些难题,比如说有人说,“郭同学我觉得有两件事情很怪异,我和我老公在浴室碰巧提及两件小东西,比如说智能化浴缸圈,我以前从来都没狂蛛属这种的小东西,可是就在他们才刚笑了笑这句话之后,很快B2C平台就所推荐给我了那个智能化浴缸圈,那个是不是手机在偷偷地?”

我也跟在企业的第一线开发者探讨过那些难题,控制技术人员告诉我说,“如果要在现在的控制技术条件下,通过手机麦克风,在两个背景噪音十分多的环境中精确提取用户所提及的那样产品,并且确认这是用户需要的产品,并推送给用户。这只不过十分不经济,那个更有可能是从用户其他的购物习惯和行为特征推导出来的”。因此,似乎看起来他们的隐私至少在偷偷地那个意义上没难题。那会不会有别的难题?

从2002年开始,谷歌有了两个新的商业模式,在之前谷歌收集个人数据是用来改进搜索的——系统会根据搜索的结果来所推荐产品。但2002年之后,谷歌发现收集的个人数据不仅仅可以去改进搜索,还可以用收集的个人数据直接和用户的广告需求所匹配,然后精准地所推荐给用户广告。大量地收集个人行为的特征信息,更快预测用户会去做甚么。有了更快的预测,也就给了更快的干预机会,这就是谷歌可以实现广告收入持续增长的前提条件。

在这种两个演算法如此强大的商业语境中,他们他们和演算法之间会不会有一种实力悬殊的感觉?这是他们讲的第两个范例。

第二个范例讲自动驾驶,大家都听过有两个著名的哲学难题叫“电车难题”,那个著名的电车难题,只不过在自动驾驶中成为两个现实,奔驰公司的负责自动驾驶开发的经理曾经接受采访,有人问到说如果有两个特别紧急的情形,车内乘客或者马路上行上的行人有着不成比例的交通事故的危险,这就让奔驰不得不收回了它的立场,主张那个并不是奔驰官方的立场。

但到底应该如何选择?这是另外两个经典的伦理道德难题,当然那个伦理道德难题早已有人给出一些解决方案,他们下面会提及。我想问的是,在这种一些零零总总的、纷繁的人工智慧伦理道德难题中间,到底甚么是它的本质?

他们看见在所有那些控制技术语境下,出现人工智慧伦理道德难题,是因为他们遭遇了创造秩序危机,也就是说人被他们创造的技术所反噬的可能性。它包含着两大难题,第两个难题叫终级准则难题,那个他们在自动驾驶的语境中看见了,因为即便在他们人中间对那个难题也公说公有理、婆说婆有理。在控制技术语境下,他们就更难解决了。他们在B2C语境中看见的是因果联系难题。因为当B2C平台给出所推荐的时候,其并没意识到可能伤害了用户其他的需要保护的价值目标。

大家基本上认为人工智慧可以分为专用人工智慧(弱人工智慧)、通用人工智慧(强人工智慧)、超级人工智能化(智力远远超过人类)。在超级人工智慧的语境下,他们看见这两大难题同时出现,他们真正遭遇了让他们内心能够得到共鸣的创造秩序危机。

有人举例说,如果家里有两个人工智慧的服务机器人,主人说“肚子饿了,帮我准备食物”,当主人再回来的时候却看见他心爱的宠物猫正在被烹饪。两个如此强大的工具,如何被他们使用而不伤害他们?这是他们遇到所有人工智慧创造秩序危机的两个追问。难题的关键是,人工智慧没达到人的智能化,却被赋予了为人决策的责任,这是他们遭遇那些人工智慧伦理道德难题的共同场景,那他们怎么办?

这也是最近他们在人工智慧标准化的过程中正在进行的一项工作,他们希望对人工智慧的产品、服务,所有用到人工智慧控制技术的,都可以进行两个伦理道德风险的评估。那个评估他们希望它十分简明,就像他们使用白色家电的时候用到的效能标志那样,他们可以通过绿色、红色来评估它的伦理道德风险程度。他们发现了它的伦理道德风险之后,所有的利益相关者,从控制技术人员到用户、到厂商都可以及时的介入,来校准它的价值。只有这种,人工智慧这种两件十分强大的控制技术,就可以真正实现不伤害人,造福于他们人类社会。

谢谢大家。

郭锐:人工智能可能带来哪些伦理问题?

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务