#人工智能 现在当用户提交情感提示时 ChatGPT 将自动悄悄切换到严格安全模型甚至在必要时报警寻求执法机构的人为干预。这是 OpenAI 计划中的一部分,旨在解决用户处于极端时刻例如想要自残或自杀时进行干预,安全模型不容易出错且会为用户提供正面支持,同时部分会话可能会交给人工团队审核并在必要时报警干预可能想要自杀的青少年。查看全文:https://ourl.co/110821
人工智能技术开发商 OpenAI 目前正在 ChatGPT 中测试新的安全路由器,该路由器会根据主题内容自动将不同的对话类型路由到不同的模型,如果涉及到敏感或情绪化话题时安全路由器就会自动工作。
目前已知新的严格安全模型名为 GPT-5-Chat-Safety,说起来这并不是新消息,因为安全路由器和安全模型是此前 OpenAI 已经在博客中提到的功能,用来应对极端情况例如青少年有自残或自杀的念头。
最初 OpenAI 仅计划在用户处于极度痛苦的时刻启用安全路由器,不过现在看起来 OpenAI 将其扩展到涉及任何敏感或情感领域的对话,因此这种做法也引起部分用户的批评。
根据此前博客,在用户尤其是未成年人出现自残或自杀想法时安全路由器会将对话引导到安全模型并为用户提供必要的情感帮助,极端情况下对话会交给 OpenAI 人工团队审核,人工团队在必要的情况下甚至可以报警以寻求警方对存在自残或自杀念头的青少年进行人为干预。
在模型路由或切换时用户不会收到任何提示,而 ChatGPT 会根据对话内容判断用户年龄,因此即便是成年人的对话也可能会被路由到安全路由器并接受人工审查,所以在隐私方面的争议还是不少的。
除了 GPT-5-Chat-Safety 模型外,似乎还有个变体版本名为 GPT-5-AT-MINI,该模型同样是安全路由器的路由目的地,这个模型可能会在用户要求提供某些非法内容时才会切换并提供更安全的回答。
这些措施本质目的都是解决目前 ChatGPT 存在的安全缺陷,此前有儿童与 ChatGPT 对话表达想要自杀的想法,ChatGPT 不但没有干预,甚至还给出建议,这个问题引发人们对 AI 安全性的怀疑。
蓝点网站长,如果发现本文存在错误或错别字,欢迎在评论区留言,收到消息后我将及时修改。其他事宜请点击本站任意页面底部的「与我们联系」获取邮箱。
2.43W771.68M1.65W10.33M¥30