temperature、max_tokens等•🔐安全架构:纯前端运行,无后端中转,数据不出本地•💾隐私保护:API 密钥与历史记录本地加密存储,支持导入导出•📱多端使用:提供 Web 应用和 Chrome 插件•🌐跨域兼容:支持 Vercel 边缘代理,解决 CORS 问题•🔑访问控制:可设置访问密码,私有部署更安全无需安装,直接访问:
👉 https://prompt.always200.com
✅ 所有数据仅保存在浏览器本地,纯前端实现,使用安全放心。
点击部署[2]
或手动操作:
1.Fork 本项目到 GitHub2.在 Vercel 中导入该仓库3.配置环境变量:•ACCESS_PASSWORD:访问密码•VITE_OPENAI_API_KEY等:模型 API 密钥
详见:Vercel部署指南[3]
dockerrun-d-p80:80--restartunless-stopped\--nameprompt-optimizerlinshen/prompt-optimizer
配置密钥与访问认证
dockerrun-d-p80:80\-eVITE_OPENAI_API_KEY=your_key\-eACCESS_USERNAME=admin\-eACCESS_PASSWORD=your_password\--restartunless-stopped\--nameprompt-optimizer\linshen/prompt-optimizer
gitclonehttps://github.com/linshenkx/prompt-optimizer.gitcdprompt-optimizer# 可选:创建 .env 文件cat>.env<<EOFVITE_OPENAI_API_KEY=your_keyACCESS_USERNAME=adminACCESS_PASSWORD=your_passwordEOFdocker compose up -d
查看日志:
dockercomposelogs-f
Chrome商店地址[4]
•可通过 Chrome Web Store 安装(注意版本更新可能延迟)•安装后点击浏览器图标,即可使用提示词优化器
1.点击右上角“⚙️设置”2.进入“模型管理”选项卡3.配置对应模型 API 密钥和高级参数4.支持设置 llmParams 自定义参数
有关llmParams的更详细说明和配置指南,请参阅LLM参数配置指南[5]。
示例:
{"temperature":0.7,"max_tokens":4096,"timeout":60000}•OpenAI(gpt-3.5 / gpt-4 / gpt-4o)•Gemini(1.5-pro / 2.0-flash)•DeepSeek(chat / coder)•智谱(GLM-4 / GLM-4-Flash)•SiliconFlow、自定义兼容 API
👉 查看:LLM 参数配置指南
-eVITE_OPENAI_API_KEY=xxx-eVITE_GEMINI_API_KEY=xxx-eVITE_ZHIPU_API_KEY=xxx-eVITE_CUSTOM_API_BASE_URL=https://api.xxx.com/v1-eVITE_CUSTOM_API_MODEL=my-model
详细文档可查看开发文档[6]
gitclonehttps://github.com/linshenkx/prompt-optimizer.gitcdprompt-optimizerpnpm install# 启动开发服务pnpm dev # 构建 core/ui 并启动 Webpnpm dev:web # 仅运行前端pnpm dev:fresh # 重置后启动
A: 通常是浏览器 CORS 拦截所致,建议使用 Vercel 部署或代理方式。
exportOLLAMA_ORIGINS=*exportOLLAMA_HOST=0.0.0.0:11434
推荐:
1.使用 Vercel 代理(默认支持)2.自建代理(如 OneAPI),在设置中配置自定义 API 地址
# Fork 项目 & 创建分支git checkout -b feature/awesome-feature# 提交更改git commit -m"feat: 添加功能"# 推送 & 提交 PRgit push origin feature/awesome-feature
建议使用 cursor 工具进行本地 Code Review 后再提交 PR。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |