设为首页 - 加入收藏   AI,ChatGTP,人工智能,声音,模型 – 后发制人网
您的当前位置:首页 > ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网 正文

ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网

来源:ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网 编辑:ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网 时间:2025-03-24 18:07:02

ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施

#人工智能 毛骨悚然!ChatGPT 在测试期间突然未经允许模仿用户的声音与用户进行对话,目前 OpenAI 已经采取安全措施防范这种情况。OpenAI 称 ChatGPT 高级语音模式有专门的系统检测模型是否生成未经授权的声音,确保模型只能使用系统预设的声音,同时还有个名为输出分类器来检测模型是否偏离了预设声音。查看全文:https://ourl.co/105368

想想看当你正在和人工智能应用进行语音交谈时,突然人工智能的声音不是预设的声音,而是模仿你的声音说话,听起来是不是让人毛骨悚然。

日前 OpenAI 就透露 ChatGPT 在测试期间出现了这种意外情况,ChatGPT 在和用户进行对话时,因为某种原因突然模仿用户的声音说话。

ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施

此次测试是 OpenAI 雇佣的红队成员 (进行对抗性测试并找出问题) 测试期间发现的,随后 OpenAI 对系统进行溯源,OpenAI 称 ChatGPT 的高级语音模式在嘈杂的输入环境中可能会出现这种无意识情况。

正常情况下 ChatGPT 高级实时语音模式在未获得用户同意的情况下,不能模仿用户的声音,这种本身就有安全机制,但测试暴露的问题则是安全机制有漏洞。

OpenAI 解释称有个专门的系统用来检测模型是否正在生成未经授权的音频,即 OpenAI 设置的机制就是模型只能使用预先设置好的声音,同时还有个名为输出分类器来检测模型是否偏离了预设的声音。

无论是哪种情况只要出现 “违规” 系统应该就会进行修正,但此次红队测试的案例表明人工智能通过某种方式突破了限制,OpenAI 并未透露修正的情况,但该公司强调已经采取了安全措施用来防止再次出现这种情况。

理论上说只要出现这种问题想要彻底解决就是非常困难的,毕竟模型在长期对话中总是可能找到某种方式突破安全边界,现在缝缝补补可能也只是减少发生的概率,想要彻底杜绝应该比较困难。

版权声明:
感谢您的阅读,除非文中已经注明来源网站,否则均为 蓝点网 原创内容,转载时请务必以超链接(而非纯文本链接)标注来源于蓝点网及本文完整链接,感谢!内容来源:蓝点网 -

相关文章

Copyright © 2025 ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网 – 后发制人网ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施 – 蓝点网 – 后发制人网

sitemap