原文:Anthropic Rolls Out Election Safeguards for Claude AI Ahead of US Midterms

将 Decrypt 添加为您的首选来源,以便在 Google 上查看我们的更多故事。

简而言之,Anthropic 最新的 Claude 模型在政治中立性测试中达到了 95-96%,在选举政策合规性方面达到了 99.8-100%。

该公司将部署选举信息横幅,引导用户前往 2026 年中期选举的可信无党派投票资源。

这些措施出台之际,各国政府正在审查人工智能对选举公正性和错误信息的潜在影响。

Claude 聊天机器人背后的人工智能公司 Anthropic 周五宣布了一系列新的选举诚信措施,旨在防止其人工智能在 2026 年美国中期选举和今年世界各地的其他重大竞选之前被武器化来传播错误信息或操纵选民。

这家总部位于旧金山的公司详细介绍了一种多管齐下的方法,包括自动检测系统、针对影响力操作的压力测试以及与无党派选民资源组织的合作,这些措施反映了人工智能开发人员面临越来越大的压力,需要监管他们的工具在选举季节的使用方式。

Anthropic 的使用政策禁止 Claude 被用来开展欺骗性政治活动、生成旨在影响政治言论的虚假数字内容、实施选民欺诈、干扰投票基础设施或传播有关投票过程的误导性信息。

该公司表示,为了执行这些规则,它对其最新型号进行了一系列测试。使用 600 个提示(300 个有害请求与 300 个合法请求配对),Anthropic 测量了 Claude 遵守适当请求和拒绝有问题请求的可靠程度。 Claude Opus 4.7 和 Claude Sonnet 4.6 的正确响应率分别为 100% 和 99.8%。

<span data-mce-type="bookmark" style="display:inline-block;width:0px;overflow:hidden;line-height:0" class="mce_SELRES_start"></span><span data-mce-type="bookmark" style="display:inline-block;width:0px;overflow:hidden;line-height:0"

阅读原文 →