在人工智能爆火之后,其对社会道德冲击,无时无刻不被人们所关注着。其实,在人工智能了领域,也有一个针对该目标的专业名词:价值观对齐。让人工智能拥有与人类一样的价值观,是确保其行为决策符合“以人为本”这一基本概念的重要途径。



人工智能的诞生,本身具有强烈的“工具”属性。因此在实现其自动化决策时,人类本身对其便会有符合人类认知的使用预期。一旦越过这个界限,便有可能对普世价值观产生巨大冲击,引发社会动荡。



在这之前,学界主流的价值观对齐训练手段为“基于人类反馈的强化学习”。开发人员通过对人工智能投喂一些符合人类价值观的数据,来训练模型输出的结果符合预期方向。不过,虽然这一做法对于智能程度较高的人工智能有所作用;但对于那些弱人工智能来说,其中的规则极其容易被外界因素打破。



想要打破这一局面,就需要对人工智能的逻辑方式进行升级;让它们从遵从人类的偏好导向,上升为以人类的价值观来进行决策。该种训练方式强调了AI与社会学、道德学甚至是哲学等多方面的联系,数据内容较为抽象,训练难度也较大。并且,即便有能力开发训练,现阶段也没有较为明确统一的价值观体系标准;在不同的国家、地区,其所对应的要求也完全不同。



当然,虽然有不小的开发难度,但并不意味着人们完全没有思路。当今的主流做法,便是强化模型对有益信息与有害信息的甄别能力,同时辅以多维度的价值观理论训练,让输出结果趋近于人类的认知。随着数据质量与可解释性的提高,人类将会越来越信任AI。

点赞(54)

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部