GPT‑5Codex是OpenAI今天刚发布的 GPT‑5 专用版本,速度/成本/工作流一体化,优势明显,很多网友表示要抛弃 Claude Code。
支持本地 CLI、IDE 扩展与 GitHub PR 审查,最长能自动跑长达7小时的复杂任务!了解完基本情况后,接下来就让我们开始教程。
苹果 macOS 本地部署 GPT-5 CodeX 教程 面对 OpenAI 官方 API 的绑卡、翻墙、账单三连击,你可能觉得很不爽,觉得凭什么卡我?现在,以Linux为例,出个完美教程,帮你直接把痛点解决。
环境准备
1. 任意系统:随便 windows、macOS、Linux。
2. 获取 API Key:https://dev.hkgpt.top/shop/46
3.安装Node.js ≥ 18
步骤一、安装 CodeX CLi node-v#检查Node版本npmi-g@openai/codex#安装CodexCLI 设置环境变量 exportOPENAI_API_KEY="sk-xxx"# 换成 gptapi.asia 分配的 KeyexportOPENAI_BASE_URL="https://gptapi.asia/v1"# 无需更改
# 为了避免重启失效,可以把以上两行写入系统环境变量 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 或 source ~/.zshrcsource~/.bashrc
步骤二、设置任务模型 一般来说,OpenAI家族的模型足够,这里我用gpt-5给大家做实验。
自定义模型命令 codex--modelgpt-5-chat#定义你的模型 下面建议选第2个,理由我解释给你听:
1.Codex 可以直接在/root下执行命令或修改任何文件,不需要你确认。 2.Codex每次要改文件或执行命令时,会先询问你,等你确认才继续,好处是更安全,不会自动修改系统文件。
步骤三、开始使用 然后你就成功进入OpenAI Codex CLI的交互界面,可以开始使用了。 界面提示了几条常用命令,我给你解释一下,你可以根据需要选择;如果你想直接开始对话,直接发消息即可: /init 在当前目录下创建一个 AgentS.md文件,里面会放置 Codex 的说明和配置模板,方便以后复用。
/status 查看当前会话配置,比如你使用的是哪个模型、API Token 消耗情况等。
/approvals 设置 Codex 哪些操作需要手动确认、哪些可以自动执行(就是之前你选过的“需要审批”那一步)。
/model 选择要用的模型和推理强度,比如 GPT-4 还是 GPT-5,快速模式还是深度模式。
这样的教程好处有三
没有限制:OpenAI API 官方限制对你来说不复存在。
低延迟:稳在 280 毫秒左右,Codex 云沙盒稳了。
定价友好:除了OpenAI,还有 Claude、Grok、Gemini 等很多顶级 AI 大模型,可以根据任务复杂度,用不同价位的模型,保住钱包。
你还需要注意的坑 沙盒冷启动约 25–30 s:短任务体感偏慢,官方 Roadmap 已排进“持久沙盒”。 极少数 npm 包拉不下来:记得在 AGENTS.md 写死registry=https://registry.npmmirror.com/,一劳永逸。 行业趋势:你不用,隔壁团队也会用
82 % 专业开发者过去一年实际调用过 OpenAI 系列模型;Claude 与 Gemini 使用率远不及它。
Codex 能否平替 Claude Code?
测试环境统一:1C1G 云机 + npm 镜像锁定:https://www.qinglongyun.com/aff/EBYSRZOC Codex 全程跑在云沙盒,价格杀疯。 | | | |
|---|
| 100 行 Bug 修复 | 42 s / $0.009 | | | | 300 行 重构 | 4 m 15 s / $0.12 | | | | 项目初始化 | 10 m 58 s / $0.31 | | |
| |
|---|
| AI 代码有漏洞咋办? | Codex 会输出 diff + 日志,先跑测试、再进主分支;和人写代码流程一致。 | | API 价格突然上涨? | | | 公司代码外泄? | Codex 沙盒隔离、无公网写权限;可在企业私有云内部署。 |
三年内 AI 能替你写100%代码?
把写、测、审连成一根线。Codex 的价值,不是比拼分数,而是帮你准点下班。 |