
不用守电脑:手机端 ChatGPT 解锁 Codex,能实时远程控制 Mac 端 AI 任务
一句话看懂:OpenAI 于 2026 年 5 月 15 日宣布,Codex 远程控制功能正式上线手机端 ChatGPT。用户离开 Mac 电脑后,仍可通过手机 App 实时查看任务进展、审批请求、读取代码差异与测试结果,真正实现“移动端管理桌面端 AI 工作流”。
事件核心:发生了什么
OpenAI 在最新公告中披露,Codex 已不再局限于 Mac 桌面环境。用户将手机端 ChatGPT App 更新至最新版本后,通过扫描 Mac 端 Codex 应用生成的二维码即可完成配对。配对后,手机端会同步加载 Codex 在 Mac 上的实时状态,包括所有对话线程、审批请求、插件上下文及项目上下文。关键更新内容——如截图、终端输出、代码差异、测试结果和审批请求——会实时推送到手机。用户可直接在手机上批准命令、更换模型或发起新任务。
需要强调的是,文件、凭据和权限设置始终保留在运行 Codex 的原始 Mac 电脑本地服务器上,手机端仅接收更新数据。目前该功能仅支持 Codex for Mac,Windows 版本的远程控制预计将在未来推出。
为什么重要
这一更新打破了 AI 编程助手必须与桌面开发环境物理绑定的限制。此前,Codex 用户若离开电脑,任务便无法及时得到审批或反馈,开发效率受限于“人机同在”。现在,通过手机端远程控制,Codex 从“桌面 AI 工具”升级为真正的“移动 AI 工作台”,极大降低了分布式团队和远程工作的协作摩擦。从竞争格局看,这使 OpenAI 在 AI 编程助手市场上形成了与 GitHub Copilot、Cursor 等产品差异化的“随时随地接管”体验生态。
对用户/开发者/创作者的影响
对于使用 Codex 的软件开发者,最直接的改变是:不再需要守在电脑前等待 AI 完成推理或等待审批反馈。出差、通勤、会议间隙甚至在家休息时,只要手机联网,即可实时查看代码差异、审批终端命令、调整模型参数。对于团队管理者,这意味着可以将复杂的 Codex 工作流拆解为“Mac 端执行+手机端审批”的模式。需要注意的是,由于数据必须从 Mac 本地通过加密链路推送至手机,用户需确保原始 Mac 处于开机联网状态。另外,目前 Codex 的远程控制对网络延迟和带宽较敏感,复杂 UI 界面(如大屏多线程任务)适配还有待后续优化。
AI 工具推荐
想把多个 AI 模型放在一个入口?
GamsGo AI 集成 ChatGPT、DeepSeek、Gemini、Claude、Midjourney、Veo 等常用模型,适合写作、绘图、视频和日常 AI 工作流。
推广链接:通过此链接购买,我可能获得佣金,不影响你的价格。
值得关注的后续
目前公开信息显示,至少有三个观察点值得持续追踪:第一,OpenAI 何时兑现 Windows 版远程控制的支持承诺——这会直接影响 Windows 生态下大量使用 Visual Studio 等 IDE 的开发者的迁移决策;第二,该功能是否会从“Codex”扩展到 ChatGPT 的 Mac 桌面版或未来可能的“AI Agent”产品,从而催生更广泛的全平台任务协同模式;第三,远程控制期间的数据安全与隐私合规审查,特别是涉及企业敏感代码的场景,是否会有本地策略或审计日志等配套管理能力上线。


