原文:OpenAI Pushes New ChatGPT Safety Features as Lawsuits Mount

将 Decrypt 添加为您的首选来源,以便在 Google 上查看我们的更多故事。

简而言之,OpenAI 表示 ChatGPT 现在可以在正在进行的对话中更好地发现自残或暴力的迹象。

这一更新发布之际,该公司因涉嫌 ChatGPT 处理危险对话不当而面临诉讼和调查。

OpenAI 表示,新的安全措施依赖于临时的“安全摘要”,而不是永久记忆或个性化。

OpenAI 周四宣布了新的安全功能,旨在帮助 ChatGPT 识别对话中风险升级的迹象,因为该公司因其聊天机器人如何处理陷入困境的用户而面临越来越多的法律和政治审查。

OpenAI 在一篇博客文章中表示,这些更新提高了 ChatGPT 的能力,通过分析随着时间的推移而发展的上下文,而不是单独处理每条消息,识别与自杀、自残和潜在暴力相关的警告信号。

该公司写道:“人们每天都会来到 ChatGPT 谈论对他们来说重要的事情——从日常问题到更个人或更复杂的对话。” “在数亿次互动中,其中一些对话涉及正在挣扎或经历痛苦的​​人。”

据 OpenAI 称,ChatGPT 现在使用临时“安全摘要”,将其描述为范围狭窄的注释,从早期对话中捕获相关的安全相关上下文。

<span style="display:inline-block;width:0px;overflow:hidden;line-height:0" data-mce-type="bookmark" class="mce_SELRES_start"></span>

该公司写道:“在敏感对话中,上下文与一条消息一样重要。” “当与早期的痛苦迹象或可能的有害意图一起看待时,本身看似普通或模棱两可的请求可能会带来非常不同的含义。”

OpenAI 表示,这些摘要是仅在严重情况下使用的短期注释,不是为了永久记住用户或个性化聊天,而是用于发现对话变得危险的迹象,避免给予

阅读原文 →