AI风险如何治理?加强全球合作,协商共认伦理标准

相链区块链

商汤科技数字文娱事业部副总裁李星冶(图左)和AI伦理与治理委员会秘书长、Tech4SDG执行秘书长梅莹(图右)接受媒体采访。长沙晚报全媒体记者 郭雨滴 摄

  长沙晚报掌上长沙10月30日讯(全媒体记者 周辉霞)在GPT和算法迅速发展的形势之下,运用AI工具与逝者“对话”、通过AI换脸、借助AI生成视频等,既带来科技创造的新奇感,随之而来引发的科技伦理、道德、法律等风险也成为热议的重点。博鳌亚洲论坛全球经济发展与安全论坛第二届大会就此现象,设置了“AIGC时代的可持续发展与风险管理”的专题论坛进行研讨。商汤科技数字文娱事业部副总裁李星冶和AI伦理与治理委员会秘书长、Tech4SDG执行秘书长梅莹在接受采访时表示,需要加强国际间的交流与合作,协商出共认的伦理标准和原则,促进行业的健康发展。

  互联网安全问题,一直与互联网的飞速发展相伴相生。但在AI时代,风险更甚。商汤科技负责人介绍,现在的网络安全倾向于生成式人工智能带来的网络安全。通俗地说,以前互联网内容是靠人来生成,现在是机器生成内容。这就意味着,内容本身要治理,技术要治理,技术生成内容的过程也要治理,技术治理的难度更高,风险等级与过去是完全不一样的。所以,现在网络安全的概念比以往更为严峻,风险指数也更为严峻。“这次论坛重点讨论人工智能、AI伦理相关的问题,非常符合当下的需要,也是需要引起市场和监管方重视的议题。”

  数据成全了人工智能革命。但数据在流动的过程一旦被污染或被恶意利用,后果可能会很严重。例如,在数据中植入人类觉察不到的微弱噪声,神经网络就会把乌龟看成了来福枪,无人车就会无视停止标志,而智能音箱就会执行人类听不见的隐藏命令。数据流动过程中,隐私和应用之间的平衡度、灵活度要如何把握?李星冶认为,数据从流出端、接收方和流动的过程中,进行相关的治理把控,每一环节治理数据的标准都不一样,但关键是流出端和接收端,是数据一手的收集者,对其相关的风险控制标准和治理标准是更高级的、最优先级的。

  消费者如何判断看到的内容是经过AI生成的,还是原始画面?未来如何做好生成式人工智能的全球化治理?对于普通市民关注的这两个问题,梅莹认为,我国相关部门已明确规定,AI生成的内容要明确标识,比如说数字人直播时,需要标明是AI生成的内容。而伦理安全风险的把控,则要加强国际间的交流与合作,共同制定相关的标准,在生成式人工智能伦理国际标准互认的过程中,协商出共同认同的伦理标准和原则。

【作者:周辉霞】 【编辑:易隽】
关键词:经安 经安会
>>我要举报
晚报网友
登录后发表评论

长沙晚报数字报

热点新闻

回顶部 到底部