人工智能伦理问题及趋利避害思考

2023-06-01 0 915

数智大讲堂 阮诗玮

目前,ChatGPT类的大语言模型人工智慧控制技术及商品(下列简称“ChatGPT类控制技术”)如日中天起,增添已知伦理道德信用风险主要有下列几个方面。

其一AI抄袭信用风险。ChatGPT类控制技术以海量数据重要信息为食,再按照需求,仿效人类文明思维模式,加工、整理、输入相关重要信息。可将这一操作过程理解为高质量的“洗稿”操作过程,且其避免出现“勒温”的潜能也会愈来愈强。今后任何需要输入文字重要信息的领域,如科学研究、新闻、行政、广告等都可能遭遇到无所不在的ChatGPT抄袭信用风险,造成更多学术作假、创意设计抄袭、专利技术侵犯等情况。

并有重要信息外泄信用风险。ChatGPT类控制技术“吃”重要信息并不吃零食,包括个人隐私重要信息、政府敏感重要信息、公司商业国家机密等。这会带来其智能水平愈来愈高。今后将不得不在提升AI潜能和为保护网络安全之间作出平衡、权衡。

三是成年人为保护信用风险。ChatGPT类控制技术可做为潜能高度进化的浏览器,具备极强的重要自动提取与整合潜能。这让成年人又

四是价值观念渗入信用风险。和之前大部份的网络控制技术、商品那样,ChatGPT类控制技术本身并没有价值观念唯物主义,但合作开发、体能训练、维护它的个人和组织,很难置入某种想传递的价值观念,通过“所带interested”达成“不为人知的目的”。

五是劳动失业信用风险。ChatGPT类控制技术做为人类文明研发的控制技术,核心功能肯定是要服务人类文明,给社会增添便利。但是和大部份的控制技术进步那样,ChatGPT的大规模应用势必使现有的一小部分人类文明岗位被电脑(AI)代替。和城市化时代以来电脑主要代替体能劳动不同,Chat GPT将会代替掉相当一小部分忍耐力教育工作者,即我们俗称的“上班族”。

六是蓄意改造信用风险。ChatGPT类控制技术推向市场后,每个人都是它的“体能训练师”。这意味着如果有有意向ChatGPT这个“天真烂漫”的“小学生”投喂不当信息,它就很有可能被培养成“不当青年”。

针对以上伦理道德信用风险,笔者从下列五点加以思索和提议。

其一有关应付AI抄袭信用风险。提议在合作开发ChatGPT类辅助工具时,同步合作开发反抄袭辅助工具,以为保护原创者权益,方便其被抄袭时进行申诉。此外,还要形成各种类型严肃文献借助Chat? GPT类控制技术聚合文本时主动进行标示的规章要求。

并有有关应付重要信息外泄。根本上还是要加强重要网络安全管理,比如给互联网上的各种类型重要信息、数据加上AI难识别的标签,让ChatGPT类控制技术及其商品清楚地知道到自己“吃”进去的重要信息哪些是不能公开的个人隐私、国家机密、争议重要信息,以便聚合文本时尽可能避免出现。

三是有关为保护成年人。必须像现在的视频类APP那样,要求ChatGPT合作开发针对成年人的绿色版。这个绿色版可以直接开放给大部份网民使用。对于更强大、开放的全功能版,可以像管理网游那样,要求使用者提供自己已成年的相关证明。

四是有关应付价值观念渗入信用风险。这方面最重要的还是要加强我国自有的ChatGPT类商品研发,最大限度地减少此类商品的“进口”依赖。只有自主商品占了绝对上风,所倡导的价值观念才能在此类商品输入的文本中体现出压倒性的优势。可对提供商品和服务的企业从“根子”上进行依法管理,让企业主体主动避免出现渗入信用风险。

五是有关应付劳动失业信用风险。ChatGPT类控制技术的出现、发展、应用将进一步解放人类文明,使人类文明从更多繁重、重复的智力劳动中解脱出来,对人类文明社会利大于弊。我们要尽快调整、适应。ChatGPT类控制技术广泛使用后的时代,在培养人才时就须考虑是否会被ChatGPT代替等因素,就像培养技工时要考虑智能制造控制技术增添的影响那样。

六是有关应付蓄意改造信用风险。全面完善与AI相关的控制技术伦理标准,强制要求AI类商品必须具备符合公序良俗的基本是非判断。同时引导合作开发者加强ChatGPT类控制技术对蓄意重要信息的识别潜能,使其对蓄意重要信息产生“排异”反应,主动拒绝“食用”,不将其做为自己成长进化的“原料”。

ChatGPT类控制技术目前还处于爆发前夜,仍在快速迭代之中,今后有着无限可能。对于AI类控制技术以及电脑人相关控制技术,必须不遗余力确保控制技术应用符合人类文明共通的伦理道德标准,服务个人发展、服从国家规范、造福全人类,这点不能偏离。

(作者系福建省政协副主席,民盟中央常委、福建省委会主委)

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务