GPTech API

GPTech API

专业的AI接口转发服务,支持GPT-4o与多模态输入,兼容OpenAI API,稳定可靠,按量付费

128K

上下文窗口

≈30ms

平均响应延迟

99.95%

月度可用性

多模态

文本/图像/语音

稳定可靠

此中转服务用于维持开源软件的正常更新和维护,保证长期稳定运行

快速响应

持续优化中转服务的线路速度,确保最佳使用体验

按量付费

没有包月,没有会员,没有限时,用多少买多少,不用担心过期

适用场景

智能客服与机器人

搭建多轮对话的智能助理,提升客户支持效率

内容生成

高质量文案、摘要、翻译与润色,助力内容团队

开发辅助

代码补全、调试建议、API示例生成,提高研发效率

数据洞察

从文本中提取信息,生成结构化报告与分析

多模态理解

识别图片与文本的混合场景,支持高阶推理

教育与培训

构建交互式学习助手,为学员提供个性化辅导

📘 使用指南

1

注册账号

创建您的GPTech账号,开启AI服务之旅

立即注册
2

添加令牌

获取API密钥,解锁完整功能

获取令牌
3

开始使用

体验强大的AI对话能力

立即体验

🔑 开发者信息

API接入说明

将BASE_URL 'https://api.openai.com' 替换为 'https://oneapi.huinong.co',并使用您的令牌KEY作为API KEY。

API示例

curl
curl -X POST https://oneapi.huinong.co/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
  "model": "gpt-4o-mini",
  "messages": [
    {"role": "user", "content": "你好"}
  ]
}'
                                
Python(openai)
from openai import OpenAI
client = OpenAI(base_url="https://oneapi.huinong.co/v1", api_key="YOUR_API_KEY")
resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role":"user","content":"你好"}]
)
print(resp.choices[0].message.content)
                                
Node.js(openai)
import OpenAI from "openai";
const client = new OpenAI({
  baseURL: "https://oneapi.huinong.co/v1",
  apiKey: process.env.OPENAI_API_KEY
});
const resp = await client.chat.completions.create({
  model: "gpt-4o-mini",
  messages: [{ role: "user", content: "你好" }]
});
console.log(resp.choices[0].message.content);
                                
JavaScript(fetch)
const resp = await fetch("https://oneapi.huinong.co/v1/chat/completions", {
  method: "POST",
  headers: {
    "Authorization": "Bearer " + YOUR_API_KEY,
    "Content-Type": "application/json"
  },
  body: JSON.stringify({
    model: "gpt-4o-mini",
    messages: [{ role: "user", content: "你好" }]
  })
});
const data = await resp.json();
console.log(data.choices[0].message.content);
                                
Python(requests)
import requests
url = "https://oneapi.huinong.co/v1/chat/completions"
headers = {
  "Authorization": "Bearer YOUR_API_KEY",
  "Content-Type": "application/json"
}
payload = {
  "model": "gpt-4o-mini",
  "messages": [{"role": "user", "content": "你好"}]
}
r = requests.post(url, json=payload, headers=headers)
print(r.json()["choices"][0]["message"]["content"]) 
                                
Go(net/http)
package main
import (
  "bytes"
  "encoding/json"
  "fmt"
  "net/http"
)
func main() {
  body := map[string]interface{}{
    "model": "gpt-4o-mini",
    "messages": []map[string]string{{"role":"user","content":"你好"}},
  }
  b, _ := json.Marshal(body)
  req, _ := http.NewRequest("POST", "https://oneapi.huinong.co/v1/chat/completions", bytes.NewBuffer(b))
  req.Header.Set("Authorization", "Bearer YOUR_API_KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  var out map[string]interface{}
  json.NewDecoder(resp.Body).Decode(&out)
  fmt.Println(out["choices"].([]interface{})[0].(map[string]interface{})["message"].(map[string]interface{})["content"])
}
                                
Java(OkHttp)
import okhttp3.*;
public class Demo {
  public static void main(String[] args) throws Exception {
    OkHttpClient client = new OkHttpClient();
    String json = "{\"model\":\"gpt-4o-mini\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}";
    Request req = new Request.Builder()
      .url("https://oneapi.huinong.co/v1/chat/completions")
      .addHeader("Authorization", "Bearer YOUR_API_KEY")
      .post(RequestBody.create(json, MediaType.parse("application/json")))
      .build();
    Response resp = client.newCall(req).execute();
    System.out.println(resp.body().string());
  }
}
                                
PHP(cURL)
$ch = curl_init("https://oneapi.huinong.co/v1/chat/completions");
curl_setopt_array($ch, [
  CURLOPT_POST => true,
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer YOUR_API_KEY",
    "Content-Type: application/json"
  ],
  CURLOPT_POSTFIELDS => json_encode([
    "model" => "gpt-4o-mini",
    "messages" => [["role" => "user", "content" => "你好"]]
  ]),
  CURLOPT_RETURNTRANSFER => true
]);
$resp = curl_exec($ch);
echo $resp;
                                

开源平台对接

  • OpenWebUI:管理后台 → Connections → 添加 OpenAI 连接,填入 Base URL 'https://oneapi.huinong.co/v1' 与 API Key(参考官方文档:环境变量与 API 端点)。
  • Flowise:在 ChatOpenAI 节点的 Additional Parameters 中设置 Base Path 为 'https://oneapi.huinong.co/v1',凭据中填入 API Key。
  • LangChain:设置环境变量:
    export OPENAI_API_KEY=YOUR_API_KEY
    export OPENAI_API_BASE=https://oneapi.huinong.co/v1
                                    
    然后使用 ChatOpenAI / OpenAI 模块正常调用。

🤖 支持的模型

GPT-4o

我们的高智能旗舰模型,适用于复杂的多步骤任务

  • ✨ 128,000 tokens上下文窗口
  • 🖼️ 支持多模态输入
  • ⚡ 更高效的处理速度

GPT-4o mini

经济实惠且智能的小型模型,适用于快速、轻量级任务

  • 💡 优化的性能与成本比
  • 🚀 快速响应能力
  • 💰 更经济的价格

o3 and o4-mini

经过训练以进行更长时间“思考”的新模型

  • 🤔 增强的思考能力
  • 适用于需要深度思考的任务
  • 🛠️ 仍在开发中

OpenAI GPT-5

通用智能与长上下文推理

  • 更强的复杂任务分解与链式思考
  • 更稳健的长上下文处理与一致性
  • 更高的事实性与安全性

多模态生成与工具协作

  • 文本、图像等多模态理解与生成
  • 增强的工具使用与多代理协同能力
  • 适用于研发、数据洞察与自动化流程

Google Gemini

Gemini 3 Pro

Google最智能的模型,适用于复杂的推理和多模态任务

  • 🧠 先进的推理能力
  • 🎥 强大的多模态理解
  • 🌐 广泛的知识覆盖

Gemini 2.5 Flash

在速度和性能之间取得平衡的模型

  • ⚡️ 快速响应
  • 💡 高性价比
  • 🛠️ 功能全面

Anthropic Claude

Claude 3.7 Sonnet

Anthropic最智能的模型,首个混合推理模型

  • 🧠 混合推理能力
  • ⚡️ 近乎即时的响应
  • 💻 强大的编码和Web开发能力

Claude Sonnet 4.5

在编码和构建复杂代理方面表现出色的模型

  • 🤖 顶级的代理构建能力
  • ✍️ 卓越的编码能力
  • 🖥️ 强大的计算机使用能力

OpenAI Sora

文生视频生成

  • 1080p 视频生成,长时长场景建模
  • 文本到视频与图像到视频的多模态生成
  • 复杂物理与镜头运动理解

视频编辑增强

  • 根据提示词对视频进行风格化与效果增强
  • 支持镜头剪辑与场景转换
  • 具备强大的场景一致性

xAI Grok 3

多代理协同

  • 复杂任务分解与子任务协作
  • 具备较强的工具使用与检索能力
  • 适用于数据分析与自动化流程

快速推理与响应

  • 更低延迟的推理能力
  • 适配长上下文任务处理
  • 较高的事实性与稳健性

🌟 特点与优势

稳定性保证

作为开源软件维护的重要组成部分,我们致力于提供长期稳定的服务支持,确保您的业务正常运行。

无缝集成

完全兼容OpenAI API,您可以在任何使用OpenAI API的场景中无缝替换使用我们的服务。

持续优化

我们不断优化服务线路,提升响应速度,为您提供最佳的使用体验。

灵活计费

采用按量付费模式,没有固定套餐,没有使用期限,真正做到用多少付多少。

3.5专供渠道

低价 3.5 高并发 平台账户不通用

专用于 3.5 场景的高性价比通道,独立账户体系。

https://35api.huinong.co

我们的费用组成

OpenAI API KEY ➕ 云服务器 ➕ 日常运维 组成,但整体仍低于官方购买余额。

🤔 节省 token 的小技巧

1

携带历史消息数

数量越少,消耗越少,但会丢失对话上下文。

2

历史摘要

记录长期话题;按需开启,关闭可减少消耗。

3

系统级提示词

提升回复质量;关闭可减少消耗,视需求折中。

4

模型切换策略

优先用扣费比较低的模型测试,必要时再切换到扣费高的模型使用。

注意