苹果 macOS 本地部署 GPT-5 CodeX 教程
步骤一、安装 CodeX CLi
node-v#检查Node版本npmi-g@openai/codex#安装CodexCLI
设置环境变量
exportOPENAI_API_KEY="sk-xxx"# 换成 gptapi.asia 分配的 KeyexportOPENAI_BASE_URL="https://gptapi.asia/v1"# 无需更改# 为了避免重启失效,可以把以上两行写入系统环境变量 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 或 source ~/.zshrcsource~/.bashrc
步骤二、设置任务模型
一般来说,OpenAI家族的模型足够,这里我用gpt-5给大家做实验。
自定义模型命令
codex--modelgpt-5-chat#定义你的模型
下面建议选第2个,理由我解释给你听:
1.Codex 可以直接在/root下执行命令或修改任何文件,不需要你确认。
2.Codex每次要改文件或执行命令时,会先询问你,等你确认才继续,好处是更安全,不会自动修改系统文件。
步骤三、开始使用
然后你就成功进入OpenAI Codex CLI的交互界面,可以开始使用了。
界面提示了几条常用命令,我给你解释一下,你可以根据需要选择;如果你想直接开始对话,直接发消息即可:
/init
在当前目录下创建一个 AgentS.md文件,里面会放置 Codex 的说明和配置模板,方便以后复用。
/status
查看当前会话配置,比如你使用的是哪个模型、API Token 消耗情况等。
/approvals
设置 Codex 哪些操作需要手动确认、哪些可以自动执行(就是之前你选过的“需要审批”那一步)。
/model
选择要用的模型和推理强度,比如 GPT-4 还是 GPT-5,快速模式还是深度模式。
这样的教程好处有三
没有限制:OpenAI API 官方限制对你来说不复存在。
低延迟:稳在 280 毫秒左右,Codex 云沙盒稳了。
定价友好:除了OpenAI,还有 Claude、Grok、Gemini 等很多顶级 AI 大模型,可以根据任务复杂度,用不同价位的模型,保住钱包。
你还需要注意的坑
沙盒冷启动约 25–30 s:短任务体感偏慢,官方 Roadmap 已排进“持久沙盒”。
极少数 npm 包拉不下来:记得在 AGENTS.md 写死registry=https://registry.npmmirror.com/,一劳永逸。
AI 生成代码主要分布在单元测试、低风险重构、脚手架搭建三大场景,平均节省 22 % 工时。
Gartner 预测 2026 年软件团队将有50 % 的代码行由 AI 产出。届时你不用 AI,就像程序员不用 Git,没人敢要。
测试环境统一:1C1G 云机 + npm 镜像锁定:https://www.qinglongyun.com/aff/EBYSRZOC
Codex 全程跑在云沙盒,价格杀疯。
| 100 行 Bug 修复 | 42 s / $0.009 | ||
| 300 行 重构 | 4 m 15 s / $0.12 | ||
| 项目初始化 | 10 m 58 s / $0.31 |
| AI 代码有漏洞咋办? | |
| API 价格突然上涨? | |
| 公司代码外泄? |
把写、测、审连成一根线。Codex 的价值,不是比拼分数,而是帮你准点下班。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |