人工智能的伦理道德:负责任的AI构建指南

2023-06-01 0 411

透过完全符合伦理的人工智慧控制技术、最大限度地增加整座数学模型构筑操作过程中的仇恨

人们常常将人工智慧伦理放于数学模型本身的角度予以考量。也就是说,重点在于数学模型的预测和结果的伦理伦理及其造成的负面影响。虽然大多数公司都注重增加数学模型中的仇恨,但还足以说完全符合伦理的 AI 控制技术已经妥当。谈到负责任的 AI 时,我们须要将整座生态控制系统考量在内。在实行完全符合伦理的 AI 时,考量整座构筑操作过程非常关键:构筑 AI 数学模型的基础是甚么?AI 数学模型起甚么作用?该数学模型会造成甚么负面影响?那些而已公司须要考量的诸多关键难题中的一部分。实际上,很多难题的答案不但与 AI 相关,还与民营企业的社会风气责任相关。尽管难题头疼,但也有坏消息。以负责任的态度构筑的现实世界AI 常常更成功。

人工智能的伦理道德:负责任的AI构建指南

四个关键的人工智慧伦理伦理考量因素

民营企业在致力于构筑完全符合伦理的 AI 时,须要围绕整座 AI 构筑操作过程的方方面面探讨伦理难题——从数学模型仇恨,到统计数据可靠性,再到可如前所述。最后,他们还必须考量控制系统的预期企图,以及数学模型不但对其业务还将对社会风气造成甚么样的负面影响。

仇恨

“人类的仇恨比 AI 控制系统的仇恨梅西县消除。”——耶鲁大学伊琳娜Hoshiarpur尼科夫(Olga Russakovsky)。偏见是 AI 领域的重大挑战。从一已经开始时就采取仇恨缓解措施的民营企业,AI 构筑操作过程会很顺利。如果不提防,仇恨就可能在 AI 开发和生产的各个期被导入数学模型,从一已经开始就对完全符合伦理的AI 部署构成妨碍。数据标示期尤其关键,因为您优先选择的统计数据和您优先选择的统计数据标示者单厢直接负面影响导入数学模型的仇恨类型。由美国男性共同组成的黑人项目组标示的统计数据看起来有别于来自不同族群、异性恋和地域的成员共同组成的项目组标示的统计数据。统计数据在各方面均需实现多样化。很多组织依靠遍及全球的JAXB统计数据标示员资源,但JAXB的性质决定了不正确的采用仍然会导入局限性。JAXB一般来说是卢瓦松和标示员之间的短期承诺。结果表明,标示员将大约三分之一的天数用于寻找组织工作,而那些工作一般来说既乏味,工资又低。竞争导致少量的标示员递交大量可用的组织工作,这便使得统计数据中观点的多样化某种程度降低。

那些难题可以透过恢复实用的JAXB来解决,而这正是仇恨最优化架构的目的。该架构采用机器学习(ML)和统计数学模型来优化工作台启动和易用性。在五种采用情景中,该架构单厢提升判断的准确度,缩短组织工作完成天数,最大某种程度地提升标示员的利润和满意率,并增加统计数据集仇恨。该架构提供了动态且按需的智能JAXB标示业务流程。它的实施可以为每个工作台创建最适合组织工作特定需求的、更平衡的标示员集合。而这个仇恨最优化架构而已负责任JAXB的一个共同组成部分。查看我们的JAXB伦理原则了解更多信息。

可靠性

统计数据安全和隐私是民营企业面临的另一项挑战。民营企业常常因为未在项目已经开始前制定统计数据战略或治理计划而犯错。但是,统计数据所涉及的不但仅是隐私难题。例如,作为金融服务操作的一部分收集的统计数据一般来说包含敏感和机密统计数据,须要采取额外的安全措施来处理。适当的统计数据合作伙伴将提供各种安全选项来满足您的特定需求,并透过严格的安全标准来确保正确处理您的客户统计数据。寻找的统计数据合作伙伴应符合特定行业或特定地区的统计数据法规,例如 SOC2 Type II、HIPAA、GDPR、CCPA,并提供安全统计数据访问(对 PII 和 PHI 非常关键)、安全标示和现场服务选项、私有云部署、内部部署以及基于 SAML 的单点登录等选项。

可如前所述

创建一个能够提供准确预测的 AI 数学模型,只有当它能够向客户予以解释、为其理解和信任,才能算创建成功。由于基于客户信息的数学模型开发很普遍,因此客户希望确保对其个人信息的收集是负责任的,处理和存储是安全的,有些客户甚至希望了解统计数据采用方式的基本原则。尽管最先进的 AI 应用很难解释,但您始终可以返回用于开发数学模型的训练统计数据,并从统计数据结构、输入和输出中获得一些可如前所述。验证和再训练业务流程可以使您更加了解数学模型如何做出预测并让您的客户满意。

负面影响

在进行任何 AI 尝试之前,项目组应该提出一些与负面影响相关的关键 AI 伦理难题:我的数学模型打算做甚么?我创建的数学模型会对我的业务、构筑数学模型的人员、最终用户和社会风气造成甚么负面影响?当我的数学模型做出错误的决定时又会发生甚么?这类难题将促使您构筑出在最佳情况下对所有利益关系人都具有积极负面影响的数学模型。但是,如果您回避那些难题或无法正确回答那些难题,则可能面临意想不到的后果。表现不佳的数学模型可能会做出歧视性的决策,例如,AI 赋能的招聘工具表现出对女性的仇恨,或者人脸识别软件难以识别肤色较深的面孔。那些结果不但对制作数学模型的公司造成难题(可能面临信誉下降和收入损失),而且对最终用户和整座社会风气造成难题。在部署之前和之后审查数学模型负面影响将确保您的 AI 数学模型成功实现其目的。

人工智慧伦理伦理始于统计数据

要响应对负责任 AI 的号召,必须自始至终应用 AI 伦理标准。最关键的是,AI 数学模型须要高质量的训练统计数据,那些统计数据要以负责任的方式从多样化的标示员那里获得,才能有效发挥作用。仇恨最优化应该作为整座数学模型构筑操作过程甚至部署之后(此时数学模型可能发生局限性)最关键的考量因素。定期采用新统计数据重新训练数学模型有助于发现或防止仇恨,并随着天数的推移保持数学模型的准确度。这样做可以确保数学模型继续按预期运行,避免对民营企业或消费者造成不必要的负面影响。负责任的 AI 不但是一个哲学概念,而且是 AI 领域的所有民营企业都必须采用的方法。以负责任的方式构筑的 AI 会更加成功,并且可以使所有人受益,无论其族群、异性恋、地理位置或背景如何。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务