大江热议:AI会骂人?“小概率”也得“严管教”

2026-01-07 16:52 阅读
大江新闻

  近日,有网友在社交平台反映,自己在使用腾讯元宝AI辅助修改代码时,全程未使用任何违禁词或敏感话题,该AI却多次输出“事逼”“滚”等骂人的词语。腾讯元宝官方随后致歉称,经核查,确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复,已启动内部排查和优化,会尽量避免类似情况再次发生。很快,“腾讯元宝AI会骂人”成了公众热议的话题。

  可以说,这场被定性为“小概率下的模型异常输出”事件,撕开了人工智能治理的一道裂口,不得不让人质疑使用AI工具时网络安全和技术伦理的规范性了。因为,没有谁喜欢被任何商业化产品以任何形式冒犯。

  虽然AI不是真人,也永远不可能取代人,但它表露出的“负面情绪”,是基于数据与算法的模仿,如果对其纵容,不及时修复存在的漏洞并不断完善预防措施,那对用户和互联网的伤害不会小,也不利于AI的长远发展。毕竟,输出辱骂或攻击性内容,绝非用户期待的功能,偏离了有关服务的初衷。

  要知道,AI本是服务人类学习、工作和生活的智能工具,如今却出现“出口成脏”的情况,这背后绝非单纯的技术故障,而是治理体系滞后于技术发展的必然结果。进一步讲,下功夫对AI进行“管教”,划定技术向善的边界,已成为刻不容缓的时代命题。

  而“管教”AI,绝非简单地对其“禁言”。这就需要构建技术、制度、行业、社会协同发力的治理体系。在技术层面,应建立AI全生命周期的伦理审查机制,从数据筛选环节筑牢防线,通过算法优化持续强化价值对齐能力,让AI学会辨识语境边界、坚守表达底线。在制度层面,亟须完善专门的人工智能法律法规,明确研发者、运营者和使用者的责任边界,对AI生成有害内容的行为划定法律红线,形成“违法必追责”的刚性约束。

  行业自律与社会共治同样不可或缺。企业应摒弃“流量至上”的短视思维,将伦理合规纳入AI研发的核心流程,在可控环境中测试模型的伦理表现。行业组织可制定统一的自律公约与技术标准,引导企业规范发展;而公众则需要提升媒介素养,学会辨识AI生成的有害内容,第一时间举报相关问题。

  总而言之,对AI进行有针对性的“管教”,本质上是在守护人类社会的核心价值与公序良俗。当技术创新的脚步与治理完善的速度同频共振,当每一个AI工具都内嵌向善的基因,人工智能才能真正成为服务人类的得力助手,而非引发冲突的“麻烦制造者”。期待AI和人类和谐共处、共同进步。

  (潘诚)

打开APP阅读全文
用户点评
    打开APP,查看更多评论
    分享到微信朋友圈
    x

    打开微信,点击底部的“发现”,

    使用“扫一扫”即可将网页分享至朋友圈。

    打开APP
    前往,阅读体验更佳
    取消
    ×
    问政江西小程序
    长按进入,阅读更多问政江西内容