OpenAIのResponses APIの多機能インターフェースをサポートしており、現在利用可能な機能インターフェースは以下の通りです。
  • Text input:テキスト入力
  • Image input:画像とテキストの入力
  • Streaming:ストリーミング呼び出し
  • Web search:検索
  • Reasoning:推論深度の制御。4 段階に対応(minimal / low / medium / high)。なお、minimal は gpt-5 シリーズにのみ対応しています。
  • Verbosity: 出力長(冗長度)。gpt-5 は 3 段階に対応(low / medium / high)
  • Functions:関数呼び出し
  • image_generation:描画ツール呼び出し、画像生成部分は gpt-image-1 で課金されます
  • Code Interpreter:コード解析器
  • Remote MCP:MCP呼び出し
  • Computer Use:自動操作

使用方法 (Python 呼び出し):

公式のOpenAI呼び出し方法と同じで、api_keybase_urlを置き換えて転送するだけです。 中国本土からも直接アクセスできます。
client = OpenAI(
    api_key="AIHUBMIX_API_KEY", # バックエンドで生成したキー "sk-***" に置き換えてください
    base_url="https://aihubmix.com/v1"
)
推論モデルの場合、以下のパラメータを使用して推論の要約を出力できます。要約の詳細度は detailed > auto > None で、auto が最適なバランスです。
"summary": "auto" 
from openai import OpenAI

client = OpenAI(
    api_key="sk-***", # AIHubMix ダッシュボードで生成したキーに置き換えてください
    base_url="https://aihubmix.com/v1"
)

response = client.responses.create(
    model="gpt-5", # gpt-5, gpt-5-chat-latest, gpt-5-mini, gpt-5-nano
    input="なぜタロット占いは効果的なのか?その根底にある原理と転用可能な方法は何か? 出力形式: Markdown", # GPT-5 はデフォルトで Markdown 形式で出力しないため、明示的に指定する必要があります。
    reasoning={
        "effort": "minimal" # 推論の深さ — 応答を生成する前にモデルが生成する推論トークンの数を制御します。値は "minimal"、"low"、"medium"、"high"。既定は "medium"。
    },
    text={
        "verbosity": "low" # 出力長 — 冗長度は生成される出力トークン数を決定します。値は "low"、"medium"、"high"。GPT-5 以前のモデルの既定は "medium" の冗長度でした。
    },
    stream=True
)

for event in response:
  print(event)

注意:
  1. 最新の codex-mini-latest は検索をサポートしていません
  2. Computer use は Praywright と連携して使用する必要があります。詳細は公式リポジトリを参照してください。
既知の詳細な問題:
  • 呼び出し例が複雑
  • スクリーンショットが多く、時間がかかり、タスクの成功率が低い
  • CAPTCHA認証またはCloudflareの人間認証がトリガーされ、無限ループに陥る可能性があります