Skip to content

プロバイダーの設定

AQBot は任意の数の AI プロバイダーに同時に接続できます。各プロバイダーには独自の API キー、モデルリスト、パラメーターのデフォルトがあります。

サポートされているプロバイダー

AQBot は以下のプロバイダーをファーストクラスでサポートしています。OpenAI 互換 API を公開するサービスはすべてそのまま動作します。

プロバイダーモデル例
OpenAIGPT-4o、GPT-4、o3、o4-mini
AnthropicClaude 4 Sonnet、Claude 4 Opus、Claude 3.5 Sonnet
GoogleGemini 2.5 Pro、Gemini 2.5 Flash、Gemini 2.0
DeepSeekDeepSeek V3、DeepSeek R1
Alibaba CloudQwen シリーズ
Zhipu AIGLM シリーズ
xAIGrok シリーズ
OpenAI 互換 APIOllama、vLLM、LiteLLM、サードパーティリレーなど

プロバイダーの追加

  1. 設定 → プロバイダーに移動します。
  2. 左下の + ボタンをクリックします。
  3. プロバイダーの詳細を入力します:
フィールド説明
名前サイドバーの表示名(例:OpenAI
タイププロバイダータイプ — デフォルトの Base URL と API 動作を決定
アイコン視覚的識別のためのオプションアイコン
API キープロバイダーのダッシュボードからのシークレットキー
Base URLAPI エンドポイント(ビルトインタイプには事前入力、リレー用に変更可能)
API パスリクエストパス — デフォルトは /v1/chat/completions

TIP

サードパーティのリレーサービスの場合、タイプを OpenAI(または対応するアップストリームタイプ)に設定し、Base URL をリレーのエンドポイントに変更します。


マルチキーローテーション

AQBot はロード分散とレート制限回避のために、プロバイダーごとに複数の API キーをサポートします。

キーの追加

プロバイダー詳細パネルでキーを追加をクリックして、追加の API キーを追加します。各キーには、プレフィックス、作成日、最終使用タイムスタンプが表示されます。

ローテーションの仕組み

AQBot はラウンドロビンインデックスを使用して有効なキーを自動的にローテーションします。リクエストが完了すると、ローテーションインデックスが次のキーに進みます。キーが無効化されたり検証に失敗した場合はスキップされます。

キーの検証

キーの隣の検証ボタンをクリックして、プロバイダーの API に対して検証します。検証結果とエラーメッセージが記録されます。


モデル管理

モデルの取得

プロバイダー詳細パネルでモデルを取得をクリックして、プロバイダーの API から利用可能なモデルの完全なリストを取得します。発見されたモデルは自動的にローカルリストに追加されます。

モデルの手動追加

API によって返されないモデル(例:ファインチューニングされたモデルや新しいリリース)は、モデル ID を直接入力して追加できます。

モデルごとのパラメーター

各モデルに独自のデフォルトパラメーターオーバーライドを設定できます:

パラメーター説明
温度ランダム性を制御(0 = 決定論的、高いほどよりクリエイティブ)
最大トークン数レスポンスの最大トークン数
Top P核サンプリングのしきい値
頻度ペナルティトークンシーケンスの繰り返しを減少
存在ペナルティモデルが新しいトピックを導入するよう促す

モデル能力

AQBot はモデルごとに能力(ビジョン関数呼び出し推論など)を追跡し、タグとして表示します。これらの能力は会話中に利用できる機能に影響します。


カスタム & ローカルエンドポイント

AQBot は OpenAI チャットコンプリーション API を実装するエンドポイントであれば何でも動作します。

Ollama(ローカルモデル)

  1. Ollama をインストールして起動します。
  2. AQBot でタイプ OpenAI の新しいプロバイダーを作成します。
  3. Base URLhttp://localhost:11434 に設定します。
  4. モデルを取得をクリックして、ローカルにプルされたモデルを発見します。

vLLM / TGI

推論サーバーのアドレス(例:http://localhost:8000)に Base URL を設定し、通常通りモデルを取得または追加します。

API リレーサービス

リレーまたはアグリゲーターサービス(例:OpenRouter、one-api)の場合、タイプを OpenAI に設定し、リレーの Base URL を入力し、リレーの API キーを提供します。


デフォルトモデル設定

デフォルトアシスタントモデル

設定 → デフォルトモデルに移動して、新しい会話でデフォルトとして使用するプロバイダーとモデルを選択します。モデルセレクターから会話ごとに常にモデルをオーバーライドできます。

トピック命名モデル

AQBot は各会話のタイトルを自動的に生成できます。デフォルトモデル設定で、タイトル生成のコストとレイテンシーを節約するために、トピック命名専用の軽量モデルを割り当てられます。タイトル生成用のカスタムプロンプトとコンテキストウィンドウサイズを設定できます。


次のステップ