日本語
web_search_options={}
pip install -U openai
from openai import OpenAI client = OpenAI( api_key="sk-***", # AiHubMixで生成したキーに置き換えてください base_url="https://aihubmix.com/v1" ) chat_completion = client.chat.completions.create( model="gemini-2.0-flash-exp", # 🌐 検索を有効にする web_search_options={}, messages=[ { "role": "user", "content": [ { "type": "text", "text": "大規模モデルAPIプラットフォームAIhubmixに関する情報を検索し、簡単に紹介し、関連リンクを提供してください。" } ] } ] ) print(chat_completion.choices[0].message.content)
:surfing
import requests import json import os try: response = requests.post( url="https://aihubmix.com/v1/chat/completions", headers={ "Authorization": f"Bearer {os.environ.get('AIHUBMIX_API_KEY')}", "Content-Type": "application/json", }, data=json.dumps({ "model": "gpt-4o-mini:surfing", # モデルIDの末尾に:surfingを追加するだけで検索をサポート "messages": [ { "role": "user", "content": "ChatGPTのメモリ機能に関する最新の事実を検索し、URLを付けて中国語で回答してください" } ] }) ) result = response.json() print("API応答:", json.dumps(result, ensure_ascii=False, indent=2)) except requests.exceptions.RequestException as e: print(f"リクエストエラー:{e}") except json.JSONDecodeError as e: print(f"JSON解析エラー:{e}") except Exception as e: print(f"その他のエラー:{e}")
{ "id": "chatcmpl-BLMY8YIKvcjNpiFmyvIfEGQMvPAAh", "model": "gpt-4o-mini-2024-07-18", "object": "chat.completion", "created": 1744431268, "choices": [ { "index": 0, "message": { "role": "assistant", "content": "ChatGPTは最近、大幅なメモリ機能のアップグレードを受け、ユーザーの過去のすべての会話を参照して、よりパーソナライズされた応答を提供できるようになりました。ユーザーは、ChatGPTにこの情報を記憶させないように選択したり、メモリ機能を完全に無効にしたりできます。この更新の詳細については、次のURLで確認できます:[https://www.digitaltrends.com/computing/openai-chatgpt-memory-update/](https://www.digitaltrends.com/computing/openai-chatgpt-memory-update/)" }, "finish_reason": "stop" } ], "system_fingerprint": "fp_b705f0c291", "usage": { "prompt_tokens": 584, "completion_tokens": 99, "total_tokens": 683, "prompt_tokens_details": { "audio_tokens": 0, "cached_tokens": 0 }, "completion_tokens_details": { "accepted_prediction_tokens": 0, "audio_tokens": 0, "reasoning_tokens": 0, "rejected_prediction_tokens": 0 } } }