跳轉到主要內容
POST
/
chat
/
completions
Python
from openai import OpenAI

client = OpenAI(
    base_url="https://aihubmix.com/v1",
    api_key="AIHUBMIX_API_KEY"
)

completion = client.chat.completions.create(
    model="gpt-3.5-turbo",
    messages=[{"role": "user", "content": "你好"}]
)

print(completion.choices[0].message)
{
  "choices": [
    {
      "message": {
        "role": "<string>",
        "content": "<string>"
      },
      "finish_reason": "<string>"
    }
  ],
  "usage": {
    "prompt_tokens": 123,
    "completion_tokens": 123,
    "total_tokens": 123
  }
}
API 沙盒環境支援實時請求調試,直觀查看介面返回資料。
為了程式碼安全,建議:
  1. 透過環境變量管理敏感資訊(如 API Key),比如對於 Python 呼叫,使用 os.getenv("AIHUBMIX_API_KEY")
  2. 不要在日誌/輸出中列印敏感資訊。
  3. 不要將密鑰提交到程式碼儲存庫,可以透過將 .env 新增到 .gitignore 來防止洩漏。

Authorizations

Authorization
string
header
required

Bearer 認證,需要在請求標頭中加入 Authorization: Bearer AIHUBMIX_API_KEY,可在 這裡 取得 API 金鑰

Body

application/json
model
string
required

要使用的模型 ID,可在 模型廣場 查看

messages
object[]
required

對話訊息列表,包含角色與內容資訊

temperature
number
default:0.8

取樣溫度,控制輸出的隨機性,範圍 0-2,值越大隨機性越高

max_tokens
integer
default:1024

產生文字的最大長度,可依模型能力設定不同值

top_p
number
default:1

核取樣參數,控制輸出文字的多樣性

frequency_penalty
number
default:0

頻率懲罰參數,避免重複產生相似內容

presence_penalty
number
default:0

存在懲罰參數,鼓勵產生新內容

stream
boolean
default:false

是否啟用串流輸出,及時返回產生內容

web_search_options
object

搜尋模型的網路搜尋選項,僅支援特定搜尋模型

Response

成功回應

choices
object[]
usage
object
I