文 | 《中国当代文学》记者 胡珉琦
由人民智囊团与艾氏林人工智慧环境治理科学研究所正式发布的“2021本年度全球五大人工智慧环境治理事件”中,统计数据、演算法、伦理道德是核心关键字。
过去一年,统计数据管理法与个人隐私为管理法先后施行,《互联网信息服务演算法推荐管理规定》表决通过,使为保护个人隐私、严防演算法Valamas有了保障监督机制。
可是,这在人工智慧伦理道德环境治理中并不是恒常。
事实上,宏观经济微观的伦理道德原则与在实际控制技术研制、应用领域中得到正确认识与合理课堂教学之间,还存在巨大隔阂。
怎样将伦理道德原则全面落实到具体的制度与行动上,是当今社会人工智慧伦理道德环境治理必须回答的一个决定性难题。
人工智慧伦理道德难继续执行
近几年,国际组织、各国政府、企业与社团组织等正式发布了各式各样的伦理道德原则、伦理道德手册与伦理道德原则,企图推进、规范化与束缚人工智慧控制技术的研制与应用领域。
“这些伦理道德原则的核心思想大多是理性化的,比如说透明化、公平、不危害、责任、个人隐私、有益于、独立自主等。”华东师范大学马列主义大学教授杜严勇解释道。
“关键在于怎样保障伦理道德原则的实施。”他坦言,“伦理道德原则这类难以直接破冰,而我们没两套将原则转录为课堂教学的有效方法——原则难以与人工智慧控制技术从研制到应用领域的每一个各个环节结合起来,同时也缺少两套有力的继续执行监督机制。当研发者的行为违反伦理道德原则时,几乎没行政处罚与勒维冈县监督机制。”
孙令衔人工智慧伦理道德与环境治理科学研究中心主任、国家第三代人工智慧环境治理专精常务委员会常务委员扁果的观察也是如此。
他告诉《中国当代文学》,目前,人工智慧的研制活动从控制技术这类起程,缺少能满足课堂教学的伦理道德审核监督机制与体系,海内外情况大致相同。
这使潜在性的伦理道德难题只有在应用领域中被使用者和社会公众明确提出后,才引起相关方重视。
而在人工智慧伦理道德科学研究的控制技术重大进展方面,扁果提及,相较而言,个人隐私为保护科学研究比其他议程破冰更快。
比如说,现在有针对个人隐私为保护明确提出的联邦政府学习和脉冲响应个人隐私等科学研究及其课堂教学。
“但这并不意味着我们已经有了绝对的重大进展。绝大多数社会对人工智慧个人隐私的关切尚未取得真正意义上的突破。”
扁果举例,比如说,使用者个人隐私的知情同意方面,在人工智慧模型上实现使用者授权撤销就是极大的科学挑战,目前很多人工智慧模型几乎难以实现这样的控制技术。
是什么阻碍了伦理道德行动
人工智慧伦理道德原则难以破冰有多方面因素。
一方面,扁果认为,从管理者到人工智慧学者,再到产业创新者和应用领域者,他们的伦理道德意识都亟待提升。
“目前,绝大多数人工智慧科技研制和产业创新的中坚力量没经以应对可能存在的伦理道德风险。”
另一方面,正如东南大学哲学与科学系副主任、副教授张学义所谈到的,从事哲学特别是伦理道德学科学研究的学者对具体控制技术发展及其背后蕴含的原理知之甚少,往往从一般性伦理道德原则起程,对人工智慧控制技术可能产生的伦理道德难题进行反思,其效果只能是“隔靴搔痒”,难中要害。
“即使是一般性的伦理道德学原理,在应用领域到具体经验性情境中时,不同理论、流派的观点也存在冲突与分歧。”
张学义说,比如说无人驾驶汽车遭遇“电车难题”时,就面临着到底用何种演算法伦理道德进行抉择——是制造商预先为车主设置一个特定道德演算法,还是将演算法的设置权交付给车主?
目前,张学义正在基于现有的无人驾驶演算法理论进行实验哲学科学研究,即将这些演算法理论具化为实际的经验性情境,对普通大众进行直觉性调查,收集大众对该难题的经验性证据,从而对现有理论进行印证或修正。
但他也坦言,目前还没同无人驾驶相关领域的科学家进行较为深入的互动交流。
“在国内,人工智慧伦理道德研究领域的跨专精互动比较有限或者停留在浅层方面,突破专精的界限与视域,针对具体难题进行跨学科、多领域的协同创新科学研究还很少。科学家和人文学者之间存在着一定的割裂现象。”张学义表示。
怎样从原则到行动
扁果认为,人工智慧领域首先要解决的难题是借鉴生命科学、医学相关领域的经验,建立人工智慧伦理道德审核制度和体系,对涉及人类、动物、环境生态以及高风险领域的研制和应用领域进行适度监管。
杜严勇也谈到,人工智慧环境治理的当务之急,是通过伦理道德原则与规范化加强对人工智慧控制技术的“前端”伦理道德环境治理。
他明确提出,为了使从事人工智慧科技研制的科研人员承担起前瞻性的道德责任,应该在国家级、省部级等高层次科研项目中实施科技伦理道德审核制度,使之成为一项恒常化工作监督机制。
同时,为了提高伦理道德介入的有效性,他还建议从国家级、省部级等高层次人工智慧科研项目中提取3%左右的资金,在相关课题中设立伦理道德子课题,专门用于人工智慧伦理道德协同环境治理科学研究,由科技伦理道德专家作为主要负责人。
“伦理道德学家的责任是对伦理道德原则的内涵进行详细阐释,把宏观经济的伦理道德原则在一定程度上转录为易于理解、具有可操作性的具体难题与工作流程,帮助人工智慧科学家在更细致、更全面的知识基础上进行控制技术研制。”杜严勇强调。
除此之外,扁果告诉《中国当代文学》,为使人工智慧伦理道德从原则全面落实到行动,一定要把“多方共治”嵌入人工智慧产品与服务的整个生命周期。
对于从事人工智慧研制的科研机构和企业而言,应通过主动设置人工智慧伦理道德常务委员会、人工智慧伦理道德科学研究员,以及第三方提供的人工智慧伦理道德服务等手段,建立和完善人工智慧伦理道德自律自治监督机制,并开展课堂教学。
产研机构需要在政府引导下进行标准制定,联合正式发布最佳课堂教学报告,积极开源,开放人工智慧伦理道德与环境治理演算法、工具,从而促进人工智慧伦理道德控制技术破冰。
教研机构、学会和行业组织一方面应积极参与相关伦理道德规范化的形成、制定与课堂教学,另一方面积极推进人工智慧伦理道德的教育与培训。
社会公众和媒体是人工智慧产品与服务的使用者,应积极发挥监督者的作用,为政府、产研机构和企业及时提供社会需求、关切与反馈。
政府及各级管理者、政策制定者在制定人工智慧伦理道德与环境治理政策时,应根据人工智慧的产研重大进展及社会反馈进行自适应,以推进人工智慧伦理道德与环境治理公共服务为抓手,比如说国家部委和国家级检测评估中心应协同产研机构提供伦理道德合规检测与认证,同时以监管为辅。