近日,OpenAI 的一名工程师在 Codex 的公开 GitHub 仓库中提交了一次代码拉取请求,无意间将「gpt-5.4」这个尚未公布的型号写进了版本判断条件中。
几乎在同一时间,带有「alpha-gpt-5.4」标识的公共模型端点以及下拉菜单截图在社交平台X上疯狂流传。
随后发生的事情极为戏剧化,这些信息仿佛触动了某种内部警报,原帖被火速删除,涉事代码也被强制推送覆盖,悄悄改成了「gpt-5.3-codex」。
这种欲盖弥彰的撤回操作,恰恰打消了外界对「占位符误用」的怀疑,让看客们对新版本提前泄露的猜测可信度更高了。
种种迹象表明,OpenAI 正准备跳过 5.3 版本,酝酿一场足以重置行业格局的突袭。
坊间传闻,这次代际跨越最快将在下周落地。
它试图终结近期大模型领域挤牙膏式的常规更新,直接向对手甩出一张王牌。
结合目前浮出水面的多方情报,这次大版本的核心杀手锏已经呼之欲出。
它抛弃了在常规推理基准测试里与同行近身肉搏的路线,将主战场转移到了内存与上下文架构上。
高达 200 万 Tokens 的上下文窗口配上真正的状态化 AI(Stateful AI),让模型从此摆脱了「金鱼般的记忆」。
它能够在不同的会话之间,完整保留你的工作流、开发环境乃至工具调用状态。
打工人终于不用在每次新建对话时,像复读机一样重新交代冗长的项目背景。
模型会自带这种持久的认知连续性,真正融入用户的日常开发节奏中。
视觉能力的暗中大跃进同样令开发者振奋。
泄露信息中明确提到了一个专门针对「gpt-5.4 及更高版本」的功能开关,该功能允许模型绕过传统的图像压缩机制,直接读取全分辨率的原始字节。
这意味着,前端工程师和设计师可以直接丢给它极其精细的 UI 设计图或复杂的工程原理图,彻底告别过去 AI 对着模糊压缩包一本正经胡说八道的体验,实现像素级的视觉分析。
当 Gemini 3.1 Pro 和 Claude 4.6 还在各项跑分榜单上争夺小数点后几位的优势时,GPT-5.4 的野心在于完成从「聊天机器人」到「全自动代理员工」的身份转换。
它能在后台高度可靠地执行多步复杂任务,把那些号称最先进的竞品衬托得像个带有对话框的高级计算器。
当然,这种级别的上下文和状态保持,也直接点燃了硬件层面的「内存之战」。
海量 KV 缓存的爆炸式增长,让高带宽内存和 SRAM 的调配面临极限挑战,光学互连技术的引入也从理论构想变为了现实需求。
OpenAI 显然已经在底层算力架构上做好了迎接这场风暴的准备。
本文来源:新智元
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。