既怕太真又怕太假,生成式AI能不能“既要又要”|有话直说

相链区块链

陈登辉

上个月,OpenAI正式对外推出ChatGPT Images2.0模型,其图像生成能力实现大幅升级,官方宣称达到了“前所未有的特异性和保真度”。随之而来的,是一批真假难辨的图片在网络上疯传。

不仅是图像生成,在工作和生活中,生成式AI的使用已经越来越普遍。但从实际结果来看,这一新技术似乎正陷入一种矛盾:人们既惊叹于内容的逼真程度,又恐惧于可能带来的欺骗;既依赖其提供的高效服务,又担忧它“一本正经地胡说八道”。这种“怕它太真又怕它太假”的矛盾心理,恰恰揭示了人与工具关系正在发生的深刻异化。

“太真”的恐惧源于技术对真实的解构。新华网梳理的近期AI谣言典型案例显示,从伪造社会热点事件到虚构自然灾害场景,从编造政策新规到炮制“伪科普”内容,AI生成的虚假信息足以以假乱真。深度伪造技术让“耳听为虚,眼见为实”的传统准则彻底失效,侵蚀着社会信任的根基。

“太假”的焦虑则指向AI的恶意滥用。比如用AI给演员换脸演戏,用户并不买账;又如为了“讨好”用户,不少AI会产生编造答案的“谄媚机制”,使其更倾向于提供“最讨喜的答案”而非“最真实的答案”。这种滥用不仅限于娱乐八卦领域,已蔓延至金融、法律、医疗等专业领域。

人与AI的关系正处在“工具以上,朋友未满”的暧昧地带,大家渴望“既要又要”,既希望AI足够智能以解放生产力,又害怕它智能到取代人类;既享受AI生成的便利,又担忧失去对真实的掌控。这种矛盾在技术加速迭代的今天尤为突出。

出路或许不在于技术本身,而在于强调人的主体地位。比如在技术上,需要优化训练语料,用“好数据”生成“好内容”;在监管上,《人工智能生成合成内容标识办法》已正式施行,要求AI生成内容必须添加显式或隐式标识;在法律上,已有市场监管部门运用《中华人民共和国广告法》对AI伪造名人带货案“亮剑”,精准打击此类新型违法行为。

让工具回归工具,让真实归于真实。AI生成不可能完全“既要又要”,但人类可以在使用中保持清醒。当我们忧虑与AI的关系是否要“更进一步”时,这种忧虑本身正是人类自由意志的体现。技术没有暂停键,但人类始终掌握着定义自身与工具关系的最终权力。


【作者:陈登辉】 【编辑:刘天乐】
关键词:
>>我要举报
晚报网友
登录后发表评论

长沙晚报数字报

热点新闻

回顶部 到底部