2023年是人工智能技术创新与应用突飞猛进的一年,以ChatGPT为代表的生成式人工智能的涌现意味着人类离通用人工智能的实现又进了一步,先进AI技术的广泛部署将有可能彻底改变人们的生活生产方式,带来前所未有的经济增长和社会进步。但与此同时,AI技术应用及各大科技企业之间激烈的技术竞争也引发了各界对于伦理、安全等问题的不安。

面对这样充满巨大潜力与风险的技术,全球各国与国际层面开始采取行动试图平衡创新与安全。目前中国、美国、欧盟、加拿大、英国、日本、巴西、新加坡等经济体正在起草或准备推出人工智能指导准则或法案,英国AI安全峰会等会议的召开也试图推动人工智能安全治理国际合作。

综合多个国家与国际机构起草的AI治理文件来看,各方在AI监管原则上主要有五方面共同点:一是强调透明度、可追溯性与可解释性;二是强调数据保护、隐私与数据安全;三是强调挑战或纠正AI决策,识别并管理相关风险;四是禁止偏见或歧视,并追究人类责任;五是禁止滥用技术及非法活动,并保证人类知情权。

2023年10月末,美国白宫发布拜登签署的《关于安全、可靠和可信的AI行政令》;2023年12月初,欧盟就《人工智能法案》达成协议。对比来看,美国AI行政令与欧盟AI法案草案具有一些相似之处,二者都采取了基于风险的监管原则,都较为关注高风险AI系统并制定了具体的监管准则,针对新出现的生成式AI技术引入了对基础模型的披露或测试要求。

中国同样走在立法监管AI的前列。卡内基国际和平研究院研究文章提出,中国采取了一种较为分散、垂直、迭代的监管方式。分散、垂直体现在监管范围上,对技术的特定应用或表现形式进行针对性监管,包括推荐算法、深度合成技术与生成式AI技术。监管方式偏向迭代,即通过新法规来完善监管机制或扩大监管范围,这种方式有利于监管跟上技术进步速度,但迭代过程中可能会让企业面临合规方面的困惑。此外,监管侧重点在于算法和数据的使用。




点赞(34)

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部