支持Gpt, Claude, Gemini, Deepseek, qwen, kimi, MiniMaxAPIKey需要搭配第三方软件或者插件使用,如浏览器插件ChatGPTSidebar, ChatBox, Cherry Studio等。
标准模型价格折算后比OAI官方稍低
CA系列模型折算后相当于OAI官方的五六折
Claude系列模型价格为官方的六八折左右
Deepseek,GLM, MiniMax系列模型价格为官方的六折
Qwen, Kimi, 价格为官方的七折
标准模型提供 以上可用性保障,CA模型提供 以上可用性保障:标准模型来源OAI官方和Azure(微软), 我们自持有账户保证稳定性;
CA模型来源第三方优质提供商;标准模型响应速度相对更快,CA模型可能相对慢一些;OpenAI和Azure返回的结果 是否有区别: 没有区别, 返回的结果和模型性能都是一样的. 只不过这两个部署的地方不是同一个地方.
| 模型(Model) | 请求(Input) | 回答(Output) | 是否支持 | 特点 |
|---|
| deepseek-v3-2 | 0.0012 / 1K Tokens | 0.0018 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-v4-flash | 0.0008 / 1K Tokens | 0.0016 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-v4-pro | 0.0084 / 1K Tokens | 0.0168 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| minimax-m2.5 | 0.00126 / 1K Tokens | 0.00504 / 1K Tokens | 支持 | minimax的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| qwen3.5-plus | 0.00056 / 1K Tokens | 0.00336 / 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| glm-5.1 | 0.0036 / 1K Tokens | 0.0144 / 1K Tokens | 支持 | glm模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gpt-5.5 | 0.035 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 面向各行各业的编码和智能体任务的旗舰模型 |
| gpt-5.5-a | 0.02 / 1K Tokens | 0.12 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| claude-sonnet-4-6 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,现在使用的为Claude code的逆向或官方逆向的渠道。 |
| gemini-3.1-pro-preview | 0.008 / 1K Tokens | 0.048 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
使用注意事项:#
转发APl无法直接向官方接口api.openai.com发起请求,需要将请求地址改为api.chatanywhere.tech才可以使用,大部分插件和软件都可以修改。一般来说不支持各种网页应用,因为没法改API请求地址。现在已经支持Gpt,Claude,Gemini等和图像生成模型。Token计算示例:https://tiktokenizer.vercel.app1.api.chatanywhere.tech(国内使用,延时更低)
2.api.chatanywhere.org(国外使用)API文档#
常见软件/插件使用方法:#
以下所有插件均为我们实际体验后感觉不错的软件/插件,但不是我们的产品,我们不对以下产品的行为负责Python Open Al Host(AutoGPT)#
修改环境变量,各个系统怎么改环境变量请自行百度,修改环境变量后不起作用请重启系统。开源 gpt academic#
找到config.py文件中的API_URL_REDIRECT配置并修改为以下内容:API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions":"https://api.chatanywhere.tech/v1/chat/completions"}
Gomoon#
Gomoon是一款开源的桌面大模型应用,支持mac和Windows平台。额外支持了解析文件、图片,本地知识库等能力。ChatBox#
Cherry Studio (支持Gpt和Gemini的Image,支持知识库)#
Cherry Studio中使用GPT-Image系列生图使用方法#

如遇到添加完之后没有模型则按照下图设置Trae和Trae Solo#
1) 首先先安装好Trae,如何安装请参考官方文档#
2) 打开设置找到模型然后添加模型#
Claude系列模型请求地址
https://api.chatanywhere.tech/v1/messages
Openai,Gemini,Deepseek等模型请求地址
https://api.chatanywhere.tech/v1/chat/completions
Claude code#
1) 首先先安装好Claude code,如何安装请参考官方文档#
2) 找到配置文件#
Windows: %USERPROFILE%.claude\settings.json
macOS/Linux: ~/.claude/settings.json
3) 修改该配置文件,并保存即可使用#
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.chatanywhere.tech",
"ANTHROPIC_AUTH_TOKEN": "输入您自己的Key",
"CLAUDE_CODE_ATTRIBUTION_HEADER": "0",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
"CLAUDE_CODE_DISABLE_TERMINAL_TITLE": "1"
}
}
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "输入您自己的Key",
"ANTHROPIC_BASE_URL": "https://api.chatanywhere.tech",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-flash",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-flash",
"ANTHROPIC_REASONING_MODEL": "deepseek-v4-flash",
"ANTHROPIC_MODEL": "deepseek-v4-flash"
}
}
CC Switch#
1)首先先安装好CC Switch,如何安装请参考官方文档#
Chat接口的模型配置方法(Gpt,Gemini, kimi, qwen等设置方法)#
- Claude, Deepseek这两个模型直接使用Claude code即可不需要使用CC Switch体验更好#
Openclaw#
此教程只是最简单的使用方法,需要有一定的代码能力才可以使用, 具体详细的使用方法请查看官方教程核心配置(3 步)#
1) 找到配置文件#
Windows:C:\Users\你的用户名\.openclaw\openclaw.json
macOS/Linux:~/.openclaw/openclaw.json
2) 添加 Provider(关键:api 必须是 openai-completions)如未有provider需要手动添加#
{
"models": {
"mode": "merge",
"providers": {
"chatanywhere": {
"baseUrl": "https://api.chatanywhere.tech/v1",
"apiKey": "sk-xxxxx",
"api": "openai-completions",
"models": [
{ "id": "gpt-4.1", "name": "gpt-4.1" },
{ "id": "gpt-5.1", "name": "gpt-5.1" }
]
}
}
}
}
3) 设置默认模型(格式:Provider/模型ID)#
{
"agents": {
"defaults": {
"model": {
"primary": "chatanywhere/gpt-4.1"
}
}
}
}
常见问题 404:primary 漏写 chatanywhere/ 前缀。
RikkaHub#
BotGem#
沉浸式翻译#
ChatGPT Siderbar#
Zotero#
以下只是介绍了一下常用的,具体详细的使用方法请查看Zotro官方文档
context length exceeded意味着您当前的模型处理的输入文本长度超过了模型的最大token限制。每个模型都有一个最大token限制,例如,gpt-3.5-turbo模型的最大token限制为 您可以使用以下命令/model gpt-4o 更换模型Zoter中的翻译#
MuseBot 基于 Golang 构建的 智能机器人#
./MuseBot
-telegram_bot_token=xxx
-chat_any_where_token=xxx
-type=chatanywhere
-media_type=chatanywhere
如使用后台管理按照下图配置

微×助手聊天机器人#
Dify#
Dify是一个LLM应用开发平台开源。其绘图的界面结合了AI工作流程、RAG管道、代理、模型管理、可安装性功能等,让您可以快速从原型到生产。以下是其核心功能列表:Anything LL M#
ChatGPT-Next-Web#
欧路词典、欧路翻译插件#
Cline#
IDE中的自主编码代理,能够创建/编辑文件、运行命令、使用浏览器等。ARGO#
用户协议#
1.本服务不会以任何形式持久化存储任何用户的任何聊天信息;2.本服务不知晓也无从知晓用户在本服务上传输的任何文本内容,用户使用本服务引发的任何违法犯罪后果,由使用者承担,本服务将全力配合由此可能引|起的相关调查;3.本服务视为ChatAnywhereAPi项目以及相关项目的辅助调试工具,请勿用于其他用途;4.我们有权在市场价格剧烈波动时对价格进行合理调整: