小型词汇数学模型是一种深度自学演算法。近年来,随着数学模型自学的记忆术不断增加,体能教学方法日趋完善,小型词汇数学模型在文档的识别、理解、推理、翻译、预测和聚合各方面都取得了开创性进展。OpenAI公司在2022年12月15日公开的ChatGPT更是能根据使用者输出的提示,聚合相联、自然的文档,仿效人与人之间的谈话。不过,ChatGPT聚合的有害论调和不实重要信息,以及它背后的GPT-3.5数学模型内建的仇恨性和安全性安全漏洞,引发了社会风气对人工智慧伦理伦理风险的广泛讨论。围绕小型词汇数学模型可能导致的潜在伦理伦理危害性、人工智慧控制技术制造者对利益各别的伦理责任、科技公司能否在创新和盈利的同时维护社会风气伦理原则等话题,本报记者采访了相关学者。
词汇数学模型存在伦理风险
澳大利亚莫纳什大学重要信息控制技术副研究员、新南威尔士科学与工业研究组织副研究员优良(Terry Yue Zhuo)则表示,小型词汇数学模型的主要应用场景包括制造创意设计文本和做重大决策。由大量书籍、文章和电影剧本记忆术体能训练出的词汇数学模型,能娴熟仿效文档的模式、结构和样式,从而聚合类似于的故事、诗歌、电影剧本、广告和营销美术设计等。除此之外,小型词汇数学模型还能分析使用者输出的文档所处的情境,给出理智的推论和建议、回答使用者问题等。这类功能是聊天机器、虚拟助手和如前所述文档的电脑游戏等数字产品的重要组成部分。
先进的词汇数学模型在创造机会的同时,也考验了社会风气的伦理伦理伦理原则。优良对记者如是说,ChatGPT的伦理危害性主要体现在制造性别歧视和排斥的论调、散播原始统计数据、泄露重要重要信息出所各方面。首先,全球有超过7000多种词汇,其中ChatGPT掌握的英文记忆术(文档统计数据)最多,聚合的英文作品或用英文做决定的精确度最高,而如前所述其他词汇的创作都带有仇恨。优良担心,小型词汇数学模型对多元文化的知觉局限性可能会增强社会风气陈规定型观念,使社会风气各界代表性不足的社会群体遭受不公正的待遇。
加拿大法属哈佛大学词汇学研究生候选人阿瑞斯卡勒阿拉(Ife Adebara)则表示,消除词汇数学模型中的仇恨和性别歧视还有很长的路要走。与英文相比,班图语、南非语和约道本语等西非词汇缺少高效率的记忆术;自然词汇处置控制技术的开发人员无法为“低资源”词汇构建类似于GPT-3.5的小型词汇模型。除此之外,许多词汇与罗曼语系的差异较大(例如至少80%的西非词汇是声调词汇),这就需要开发人员对此类词汇统计数据进行不同的处置,大大降低开发的成本和难度。
其次,优良则表示,如果控制技术人员没有及时更新词汇数学模型的知识储备,又不能投入更多时间体能训练数学模型,聚合文本的准确度和多元性就会逐渐降低。不过,ChatGPT却以一种令人满意的口吻与使用者谈话,给使用者制造了人工智慧博学多闻的错觉。由ChatGPT等聚合式人工智慧散播的原始统计数据和不实重要信息将干预使用者对历史事实的推论,尤其是老人和儿童等不经常自查事实的社会群体,可能导致使用者作出有辱伦理伦理伦理的临床和法律重大决策。
最后,由于ChatGPT无法区分统计数据字段中夹带的恶意重要信息,一些使用者利用这个安全漏洞,诱导数学模型聚合有害论调,降低了数学模型安全性和健壮性(即系统能否在出现故障时自动修复或者忽略故障继续运行)。除此之外,随着词汇数学模型不断增大,一些较小的数学模型中不存在的能力会突然出现在较大的数学模型里,因此被开发人员认为是数学模型“突创”的能力。但是,具有突创能力的数学模型也更容易被恶意操纵,泄露体能训练统计数据中的个人重要信息,引发身份盗窃、跟踪和骚扰等风险。
优良认为,不只是ChatGPT,其他词汇数学模型也会触发类似于的伦理伦理考验和潜在的伦理伤害。因此,不断提升词汇数学模型的安全系数、维护伦理标准是发展负责任的人工智慧的长期目标。控制技术开发人员的责任是建设遵守伦理规范的词汇数学模型。例如,将词汇数学模型的可靠性、准确度、实际功效和效率一并研发和部署的透明度。
相比之下,使用者的责任就是杜绝滥用或恶意攻击词汇数学模型等不伦理行为。例如,社区可以频繁开展人工智慧的科普和应用培训,帮助大众了解人工智慧的优势和局限性、明确使用人工智慧控制技术的责任和伦理伦理含义。除此之外,使用者还应积极反馈数字科技产品的准确度、可靠性和伦理伦理风险等问题,参与人工智慧伦理原则的公共讨论,推动相关法律法规的完善。
强化重要信息控制技术公司的责任意识
近年来,越来越多的公司向监管机构、产品用户和其他利益各别保证,它们正在研发“负责任”的人工智慧控制技术,其中不乏“伦理洗白”的宣传。美国加利福尼亚大学圣芭芭拉分校马克库拉应用伦理伦理中心互联网伦理伦理项目主任伊莉娜拉伊库(Irina Raicu)则表示估它们的包容性、可访问性、统计数据收集和删除的安全性等。
拉伊库认为,在作出影响伦理伦理伦理的重大决策之前,组织首先要明确利益各别,即所有将受到该重大决策影响的个人和社会群体。这个步骤为后期分析科技产品的伦理水准奠定了基础。但是OpenAI似乎没有将学生和教育工作者作为它的利益各别。例如,OpenAI在介绍ChatGPT的局限性时,承认该产品“过于啰唆、过度地使用某些词组……这些问题源于统计数据在体能训练过程中产生的仇恨(们的数学模型是为了优化谈话体验,而不是追求表达的精准性或优秀的写作”,也许就能制止一些学生和其他利益各别的滥用行为。
优良对记者则表示,OpenAI秉承了开发安全友好的人工智慧的精神,但是缺乏足够的善意和实际行动来处置由ChatGPT带来的伦理伦理危机。目前,OpenAI的人工智慧文档检测器的可靠度和实用性都不高,无法追踪所有由ChatGPT聚合的文本,更不用说排查其中的伦理风险了。我们并不缺少保护学生和教育工作者等利益各别的控制技术,比如,保护知识产权的数字水印就有助于检测数学模型的剽窃行为。真正的问题是,重要信息科技公司何时才能积极承担对人工智慧的治理责任,完善伦理重大决策的框架。
重要信息控制技术的创新离不开控制技术制造者的创造力和勇气,但也需要谦逊的态度和勇于担当的精神。拉伊库认为,针对重要信息控制技术的规制是必不可少的,但是法律不可能涵盖每一个伦理重大决策。公司必须深入讨论开发和使用人工智慧控制技术的伦理伦理伦理影响,让伦理伦理分析和伦理发展成为重要信息科技公司的第二“天性”。
将伦理问责与科技创新相结合
美国普林斯顿大学公共和国际事务学院、人类价值观研究中心教授史蒂文凯尔茨(Steven Kelts)则表示,在追逐盈利目标的过程中,重要信息控制技术公司改变了使用者的生活,促进了人与人的联系,甚至推动了新社区发展模式的出现,也对社会风气的伦理观念造成了影响。由此可见,重要信息科技产品和服务蕴含着开发团队对提升人类福祉的设想,同时也向社会风气输出了员工的伦理观。
不过,凯尔茨提出,重要信息控制技术公司面向未来的项目管理结构,让员工为产品承担伦理责任充满了考验。日本管理学家野中郁次郎的“知识创造理论”塑造了当代重要信息控制技术公司的创新模式。野中郁次郎在《知识创造公司》一书中指出,个人和组织同时具备“隐性知识”和“显性知识”。“隐性知识”指的是尚未被正规化的个人经验和无法被具体化的技能和直觉等。“显性知识”则是一切可以用形式化和制度化的词汇和图像表达的客观知识。管理者匹配见解和职能不同的员工共同工作,鼓励员工深入挖掘平日积累的隐性知识,构思尚未被开发或未经改进的控制技术,并转化为具有独创性的产品,占据市场先机。
凯尔茨则表示,人的责任理念具有回溯性。责任理念要求人们为已经出现过的错误,或者是当下能预见到的错误,承担伦理责任。因此,重要信息控制技术公司员工对创新科技产品的责任也必须具有预见性。这意味着员工必须不断明确现有知识在未来的用途,广泛地预测重要信息控制技术创新能为人类社会风气创造哪些福祉,而不仅仅是满足使用者的需求和愿望。
凯尔茨呼吁,重要信息控制技术公司员工在开发控制技术的过程中要不断反思和讨论一个问题,即“我们的产品是否有利于人类的正向发展?”只有当组织和个人一并认识到自己的仇恨和局限性,才能积极地承担伦理责任,作出更合乎伦理的重大决策,研发出维护伦理原则的人工智慧控制技术。