AI的“脏话”为数字时代敲响了警钟

AI也能说人的坏话吗?据该报报道,近日有网友在社交平台上反映,当他们使用某公司的AI工具帮助自己修复代码时,收到了AI的一系列侮辱性回应,如“滚出去”、“你自己都不知道如何调整”、“你每天都在浪费别人的时间”等。该公司随后的官方回应称,经核实确认这是“低概率的异常模型结果”,仅此而已。这是关于用户交互,而不是手动响应。随着人工智能从基本工具发展为能够与人类进行复杂交互的智能代理,其行为的不可预测性已成为不可避免的社会需要。从社交平台上Tay聊天机器人的快速“误学”到一些AI客服对用户的“愤世嫉俗态度”,通过AI工具的这种“过敏”,近年来许多主流AI模型在国内外都曾发生过歧视性、冒犯性甚至非法信息制作的案件。某种程度上,这表明业界在寻求人工智能“拟人化”、“人性化”的同时,却在为其建立行为边界和“安全护栏”方面进展缓慢。值得注意的是,在此类事件中,一些企业干脆将问题归咎于“小概率异常”,或以“技术中立”或“模型不可控”为由逃避责任。然而,一旦用户受到冒犯,就无法提出异议,从而很难获得实质性的补救。这种权力和责任的不平衡削弱了公众对人工智能技术的信任。企业如何从机械角度降低此类事件发生的概率?如果发生异常,有哪些应急机制和补偿措施?保护用户权益不应只是口头承诺。 《艺术品管理暂行办法》网信办近日发布的《官方情报拟人互动服务(征求意见稿)》明确提出,服务提供者应当承担安全主体责任,不得提供、使用拟人化、侮辱诽谤他人、侵犯他人权利的互动服务,不得制作、传播侵犯他人权益的内容。因此,相关企业应在“小可能性”中看到“大责任”,将技术安全置于商业利益之上,监管机构还需要进一步细化人工智能治理标准,加强道德审查,加强对人工智能产品全生命周期的监管,减少“失控时刻”的发生。蚂蚁的使用习惯。人工智能作为科技界的后起之秀,还有很长的路要走。 “亵渎”事件敲响了警钟。我们如何在拥抱技术进步的同时保护人的尊严和价值?这个问题的答案必须由开发者、监管者和用户共同创造。 (徐刚)
(编辑:韩璐)

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注