“数字湾区”算法伦理倡议发布,专家学者关注人工智能背后的伦理问题

转载
531 天前
5555

读创/深圳商报首席记者 吴吉

随着数字化进程的推进,算法正在越来越快地被拓展到新的领域,技术与人的边界越来越模糊,其中的伦理问题已成为人类社会面对的重大挑战。日前,粤港澳大湾区人工智能、区块链与金融科技国际学术会议暨2023中国工业与应用数学学会(CSIAM)金融科技与算法专委会年会在北京师范大学-香港浸会大学联合国际学院举办。在该活动的“金融科技伦理分论坛”上,业内专家、学者齐聚一堂,共同探讨人工智能时代的伦理问题,并向在粤港澳大湾区从事算法研究、开发、应用、推广相关的人士和组织发出“数字湾区”算法伦理倡议。


粤港澳大湾区正借力数字技术和数字经济实现高质量发展。可以预见,“数字湾区”将把握新一代信息技术的发展机遇,促进实体经济与数字技术深度融合,加快数字社会建设步伐。但是,数字化转型所带来的问题既具有创新性,也有复杂性。在其中,由人类负责的操作、决定和决策越来越多地被委托给了算法。算法可以就如何解释数据、理解语言、作出决策给人们提供建议,甚至可以直接提供结果或生成以往由人类才能创造出来的图文音像等内容。算法不但频繁地影响商业交易、政府决策、社会进程的发生,还影响着人们的感知、理解和行为,由此带来的伦理问题正在引起全球国际组织、各国政府、科学界及社会各界人士的强烈关注。

中国工业与应用数学学会金融科技与算法专委会常委委员、香港中文大学(深圳)高等金融研究院政策研究员本力表示,近几年,国家在金融科技伦理以及科技伦理治理方面陆续出台了一系列政策。例如:2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》;今年4月4日,科技部发布《科技伦理审查办法(试行)》……这些都意味着科技伦理已经成为无可回避的问题。再加上新一代人工智能技术的爆发,以GPT为代表的深层次人工智能成为大家关注的焦点、资本追逐的热点。在这个过程中,整个金融科技产业受到了新的挑战,也面临新的机遇。因此在科技飞速发展的同时,伦理也成为亟待解决的问题。

论坛上,腾讯研究院高级研究员曹建峰以“生成式AI时代的人工智能伦理治理实践路径”为题,介绍了AI技术的演进与应用,他表示:“整个人工智能系统并不是一个纯粹的数学系统或者计算系统,它更多的是一个社会的技术系统。因为我们的很多产品打造出来之后,是要让每个人去使用的。所以这需要大家有敬畏之心,开发或者应用技术的时候,对于技术的边界、限度有一定程度的把握”。

如何兼顾科技与伦理的平衡?曹建峰指出,或许可以“用技术制约技术”。他表示,未来的AI系统可能需要“把伦理的一些理念要求,通过某种形式的架构设计嵌入到系统里面去,也就是伦理嵌入设计”。他提出,可以通过管理化(对人工智能的生命周期进行风险管理)、透明化(让普通用户理解模型的用途)、认证化(建立人工智能伦理的认证市场)、技术化(通过跨学科的合作,开发AI伦理工具)、众包化(让更多人参与算法伦理的完善与优化)、教育化(开发AI伦理的相关课程)等手段,实现从原则到实践的AI伦理治理。


此后,曹建峰又与华南理工大学自动化科学与工程学院教授崔巍、北京师范大学香港浸会大学联合国际学院(UIC)商学院副教授黄涛展开圆桌讨论,剖析了“人工智能发展的未来趋势”“人工智能伦理治理亟待解决的问题”“如何平衡创新和道德风险”以及“最重要的算法伦理原则是什么”等焦点问题。

论坛上,中国工业与应用数学学会金融科技与算法专业委员会发起“数字湾区”算法伦理倡议,呼吁在粤港澳大湾区从事算法研究、开发、应用、推广相关的人士和组织:

一、任何算法的创建、开发和使用都应充分尊重和保护人类的尊严,将包括用户人身、隐私、财产、名誉等在内的个人基本权利置于其他利益之上;

二、在深刻地改变人类社会,赋能各个产业,为用户和社会带来重大利益的同时,算法不应滥用于侵占和损害公共利益,以及影响社会的多样性、包容性和可持续发展;

三、应高度警惕和敬畏算法潜在的失控风险,严格限定算法的应用范围,回避目前人类尚难以理解和控制的算法决策行为,及公序良俗中的道德“禁区”;

四、算法的创建、拥有者应承担其带来的道德后果,在包括研究开发、设计制造、部署应用、使用推广在内的每一个环节和步骤,都应明确责任,确立伦理问责机制;

五、针对事先未预见的算法伦理问题,应持续审查、监控、评估算法伦理风险,畅通内外部投诉、质疑、反馈、补偿及改进机制,使算法在创新、发展中不断实现道德进步,更好地改善社会福祉。

审读:喻方华