一、モデルの使用と安全性
AIHubMixはユーザーのAPIリクエスト内容を保存しますか?
- デフォルトでは、AIHubMixはAPIを通じて送信されたリクエスト内容を保存せず、モデルが返すレスポンス内容も記録しません。AIHubMixの役割は、リクエストを安全に対応するモデルプロバイダーに転送し、相手のレスポンスをそのまま返す中継役です。
- 唯一の例外:ユーザーが問題をフィードバックしたり、エラーレポートを提出したり、故障の調査を依頼した場合、AIHubMixは診断と処理のためにエラーに関連する技術情報(エラースタック、呼び出しメタデータ、インターフェースの状態など)を一時的に保存することがあります。しかし、これらの情報にはビジネスデータ、プロンプト内容、または完全なリクエスト/レスポンスペイロードは含まれません。
なぜClaudeやGPTなどの公式製品とAPIの返結果が異なるのですか?
モデル自体は同じですが、ウェブ版は追加のエンジニアリング最適化が施されています。- ウェブ版は精装修の家に相当し、内蔵の検索、記憶、計算機、システムプロンプトなどの機能があります;
- API呼び出しはスケルトンの家に相当し、コア機能のみを提供し、開発者が文脈やツールを自分で設定する必要があります。
なぜGPT-5やoシリーズモデルを使用する際にAIHubMixがアカウントを停止する可能性があるのですか?
GPT-5やoシリーズモデルを使用する際、プロンプトに「推論プロセスを表示する」「思考の連鎖を示す」または「reasoning trace」などの内容を要求すると、システムがセキュリティポリシーをトリガーし、アカウントが一時的に制限されたり停止されたりする可能性があります。- 公式のGPT-5およびoシリーズモデルに対するセキュリティポリシーは比較的厳格で、通常の使用では停止されません;
- 誤って停止されたり異常なメッセージが表示された場合は、カスタマーサポートに連絡して対応を依頼できます;
- モデルの推論要約を確認するには、Response APIを通じて結果を取得することをお勧めします。プロンプト内でモデルに直接推論プロセスを出力するように要求することは、セキュリティポリシーをトリガーする可能性があるためお勧めしません。
アカウントが無効になった場合はどうすればよいですか?
アカウントが無効になった場合は、オンラインカスタマーサポートに連絡するか、feedback@aihubmix.comにメールを送信して処理または解除を申請してください。 アカウントの停止は通常、システムの封じ込めメカニズムによって自動的にトリガーされ、一般的な原因は以下の2つのカテゴリに分かれます:-
没入型翻訳シーンでGPT-5シリーズモデルを使用した
このシリーズのモデルは推論モデルに属し、その設計目標は複雑な推論と構造化されたコンテンツ生成に使用されることであり、高頻度でリアルタイムの翻訳タスクには適していません。このようなシーンで頻繁に呼び出すと、システムのリスク管理ポリシーをトリガーし、アカウントが一時的に制限されたり停止されたりする可能性があります。アカウントの安定した運用を確保するために、翻訳タスクには非推論モデルを優先的に選択してください。例えば:
gpt-4.1-minigpt-4o-mini
- Grokモデルを使用する際に違反内容を送信した Grokモデルを呼び出す過程で、リクエスト内容がシステムによって使用規範に違反していると判断された場合(暴力、血生臭さ、ポルノなどの違反情報を含む)、直接的に停止メカニズムがトリガーされます。リクエスト内容がプラットフォームおよびモデルの使用規範に準拠していることを確認し、違法または不適切な内容を送信しないようにしてください。
なぜアカウントに残高があるのに、特定のモデル(Claude Opusシリーズ、GPT-5.4-Proシリーズなど)を呼び出せないのですか?
プラットフォームは前払いメカニズムを有効にしています。コストが高いモデル(Claude Opus、GPT-5.4-Proなど)を呼び出す際、システムはリクエストが発生した時点で最大可能な出力トークン数に基づいて費用を推定し、残高を確認します。アカウントの残高が<出力トークン単価 × 最大出力トークン数の場合、リクエストは拒否される可能性があります。このようなモデルを呼び出す前に、アカウントの残高が十分であることを確認し、最大出力パラメータを適切に設定することをお勧めします。設定しない場合、システムはデフォルト値を使用して推定します。異なるモデルの最大出力パラメータ名は異なります:Claude、GPTシリーズは max_tokens、Geminiシリーズは max_output_tokensです。
なぜ翻訳ツールでGPT-5シリーズモデルの使用を推奨しないのですか?
GPT-5シリーズは推論モデルに属し、設計目標は複雑な推論と構造化生成を実行することであり、高頻度のリアルタイムタスクには適していません。 理由:- 呼び出し速度が遅い(推論ステップが多い);
- より多くのトークンを消費する(システムプロンプトと推論コンテキストが長い);
- 翻訳プラグインがセキュリティポリシーを誤ってトリガーする可能性があります。
なぜ「あなたは誰ですか?」と尋ねると、GPT-5が時々「私はGPT-4です」と答えるのですか?
この現象は言語モデルの幻覚に属し、モデルが自身の基盤、出所、または能力について誤った説明をすることを示します。GPT-4、GPT-5、Claudeなどの大規模言語モデルを使用する際、開発者はモデルが自信を持っているが不正確に自身のアイデンティティに答える状況に遭遇することがあります。 説明:- この現象はプラットフォームが意図的にモデルの出力を変更または置き換えたものではなく、「すり替え」でもなく、LLMの正常な動作です;
- GPT-5はトレーニング段階で「GPT-5」という名前を与えられておらず、この名前は公式がトレーニング完了後に定義したものです;
- モデル自体は自分の名前や知識ベースの時間を知りません;OpenAIのウェブ版が正しく答えられるのは、ウェブに内蔵されたシステムプロンプトがあるためです;こちらは公式のAPIバージョンであり、ウェブ版ではありません。
- APIを通じてモデル自身のアイデンティティを直接尋ねると、回答はランダムで不正確になる可能性があります。なぜなら、モデル自体は自己認識を持っていないからです。
特定のモデル(Gemini-3-Proなど)を呼び出す際に頻繁にタイムアウトする場合はどうすればよいですか?
タイムアウト設定の時間を延長してください。Gemini-3-Proは大規模モデルであり、推論プロセスには長い思考時間がかかるため、特に複雑なタスクでは応答時間が30秒を超える可能性があります。したがって、30秒のデフォルト設定はタイムアウトを引き起こしやすいです。- Gemini-3-Proを使用する必要がある場合は、タイムアウト時間を適切に延長してください。
- 応答速度に高い要求がある場合は、Gemini 2.0などの軽量モデルに切り替えることをお勧めします。短時間のタイムアウト設定に適しています。
なぜ「こんにちは」とだけ言ったのに、多くのトークンを消費したのですか?
一部のサードパーティツール(Cline、Claude Codeなど)は、リクエスト時に自動的に文脈やシステムプロンプトを持ち込むため、これらの隠れた内容もトークン消費に含まれます。 ユーザーが「こんにちは」とだけ入力しても、バックエンドのリクエストには大量の過去の対話や設定テキストが含まれている可能性があります。 これらの追加内容はツール側から来ており、AiHubMixプラットフォームが生成したものではありません。なぜ私はGPT-4oを呼び出しただけなのに、4o-miniの消費も見えるのですか?
一部のサードパーティツールやシーンでは、対話の要約、検索、または補助計算などの機能を実現するために、システムが軽量モデル(4o-miniなど)を追加で呼び出すことがあります。そのため、請求書やログに複数のモデルの混合消費記録が表示されることがあります。 この追加消費はツール機能の設定から来ており、AiHubMixが自動的にモデルを切り替えたものではありません。APIの同時リクエストの頻度制限はどのくらいですか?
AiHubMixは現在、同時リクエストに対して統一された制限を設けていません。同時リクエストの問題が発生した場合は、カスタマーサポートに連絡してください。なぜ同じプロンプトで、毎回生成結果が異なるのですか?
大規模モデルはテキスト生成時に確率サンプリングメカニズム(temperature、top-pなど)を使用し、毎回複数の可能な単語からランダムに選択します。- 結果をより安定させたい場合は、temperatureを下げるか、サンプリングをオフにしてください;
- 生成の差異は文脈、システムプロンプト、またはネットワーク環境の影響を受ける可能性もあります。
Claudeモデルを使用する際、なぜ回答が早く終了するのですか?
Claudeモデルに対して、AIHubMixは現在2つの呼び出し方法をサポートしています:- OpenAI Chat互換インターフェース
- Anthropic Claudeネイティブインターフェース
二、API呼び出しとデータ
利用可能なAPIインターフェースは何ですか?
AIHubMixは統一ゲートウェイを提供し、さまざまな主流モデル規格に対応しています:- OpenAI標準エンドポイント:
https://aihubmix.com/v1(GPTおよび互換モデルをサポート) - Gemini専用エンドポイント:
https://aihubmix.com/gemini(Googleネイティブ規格に適合) - Claude自動転送エンドポイント:
https://aihubmix.com(Anthropic SDK呼び出し方式に互換)
API使用中に記録されるデータは何ですか?
私たちは必要な使用データのみを記録します。これにはアカウント情報、呼び出し記録、使用モデル、トークン消費量および支払い情報が含まれます。 プライバシー保護:- ユーザーの入力やモデルの出力内容は保存しません;
- データは請求およびサービス最適化のためのみに使用され、コンテンツ分析や第三者との共有には使用されません;
- AiHubMix自体は具体的なリクエストデータを保持しませんが、基盤となるクラウドプロバイダー(モデル提供者やホスティングプラットフォーム)が安全性やコンプライアンス要件に基づいてアクセスログを記録する場合、そのデータはそのプライバシーポリシーに従います。
三、モデルの知識と一般的な現象
AI幻覚(AI Hallucination)とは何ですか?
AI幻覚とは、大規模言語モデルが生成する事実と一致しない、根拠が欠如している、または完全に虚構の情報を指します。 可能な原因:- トレーニングデータの偏りや欠如;
- モデルパラメータの過剰適合;
- 生成段階におけるランダム性。
四、使用と故障のトラブルシューティング
APIの使用状況と消費を監視するにはどうすればよいですか?
AiHubMixコンソールを通じて、呼び出し量、トークン消費量および請求明細を確認できます。 モデルや期間ごとに分類統計をサポートしており、呼び出し戦略やコスト管理の最適化に役立ちます。呼び出しに失敗したりエラーが発生した場合はどうすればよいですか?
APIがエラーを返す際には、エラーコードと説明が付随します。 一般的な原因は以下の通りです:- リクエスト形式のエラー;
- モデルが利用できないか、制限を超えた。
APIキーを管理するにはどうすればよいですか?
ユーザーはコンソールでAPIキーを生成、取り消し、または更新できます。 セキュリティの推奨:- 公共の環境でAPIキーを露出しないでください;
- 異なるプロジェクトには独立したキーを使用してください;
- アカウントの安全を確保するために定期的に変更してください。