プロバイダーの設定
AQBot は任意の数の AI プロバイダーに同時に接続できます。各プロバイダーには独自の API キー、モデルリスト、パラメーターのデフォルトがあります。
サポートされているプロバイダー
AQBot は以下のプロバイダーをファーストクラスでサポートしています。OpenAI 互換 API を公開するサービスはすべてそのまま動作します。
| プロバイダー | モデル例 |
|---|---|
| OpenAI | GPT-4o、GPT-4、o3、o4-mini |
| Anthropic | Claude 4 Sonnet、Claude 4 Opus、Claude 3.5 Sonnet |
| Gemini 2.5 Pro、Gemini 2.5 Flash、Gemini 2.0 | |
| DeepSeek | DeepSeek V3、DeepSeek R1 |
| Alibaba Cloud | Qwen シリーズ |
| Zhipu AI | GLM シリーズ |
| xAI | Grok シリーズ |
| OpenAI 互換 API | Ollama、vLLM、LiteLLM、サードパーティリレーなど |
プロバイダーの追加
- 設定 → プロバイダーに移動します。
- 左下の + ボタンをクリックします。
- プロバイダーの詳細を入力します:
| フィールド | 説明 |
|---|---|
| 名前 | サイドバーの表示名(例:OpenAI) |
| タイプ | プロバイダータイプ — デフォルトの Base URL と API 動作を決定 |
| アイコン | 視覚的識別のためのオプションアイコン |
| API キー | プロバイダーのダッシュボードからのシークレットキー |
| Base URL | API エンドポイント(ビルトインタイプには事前入力、リレー用に変更可能) |
| API パス | リクエストパス — デフォルトは /v1/chat/completions |
TIP
サードパーティのリレーサービスの場合、タイプを OpenAI(または対応するアップストリームタイプ)に設定し、Base URL をリレーのエンドポイントに変更します。
マルチキーローテーション
AQBot はロード分散とレート制限回避のために、プロバイダーごとに複数の API キーをサポートします。
キーの追加
プロバイダー詳細パネルでキーを追加をクリックして、追加の API キーを追加します。各キーには、プレフィックス、作成日、最終使用タイムスタンプが表示されます。
ローテーションの仕組み
AQBot はラウンドロビンインデックスを使用して有効なキーを自動的にローテーションします。リクエストが完了すると、ローテーションインデックスが次のキーに進みます。キーが無効化されたり検証に失敗した場合はスキップされます。
キーの検証
キーの隣の検証ボタンをクリックして、プロバイダーの API に対して検証します。検証結果とエラーメッセージが記録されます。
モデル管理
モデルの取得
プロバイダー詳細パネルでモデルを取得をクリックして、プロバイダーの API から利用可能なモデルの完全なリストを取得します。発見されたモデルは自動的にローカルリストに追加されます。
モデルの手動追加
API によって返されないモデル(例:ファインチューニングされたモデルや新しいリリース)は、モデル ID を直接入力して追加できます。
モデルごとのパラメーター
各モデルに独自のデフォルトパラメーターオーバーライドを設定できます:
| パラメーター | 説明 |
|---|---|
| 温度 | ランダム性を制御(0 = 決定論的、高いほどよりクリエイティブ) |
| 最大トークン数 | レスポンスの最大トークン数 |
| Top P | 核サンプリングのしきい値 |
| 頻度ペナルティ | トークンシーケンスの繰り返しを減少 |
| 存在ペナルティ | モデルが新しいトピックを導入するよう促す |
モデル能力
AQBot はモデルごとに能力(ビジョン、関数呼び出し、推論など)を追跡し、タグとして表示します。これらの能力は会話中に利用できる機能に影響します。
カスタム & ローカルエンドポイント
AQBot は OpenAI チャットコンプリーション API を実装するエンドポイントであれば何でも動作します。
Ollama(ローカルモデル)
- Ollama をインストールして起動します。
- AQBot でタイプ OpenAI の新しいプロバイダーを作成します。
- Base URL を
http://localhost:11434に設定します。 - モデルを取得をクリックして、ローカルにプルされたモデルを発見します。
vLLM / TGI
推論サーバーのアドレス(例:http://localhost:8000)に Base URL を設定し、通常通りモデルを取得または追加します。
API リレーサービス
リレーまたはアグリゲーターサービス(例:OpenRouter、one-api)の場合、タイプを OpenAI に設定し、リレーの Base URL を入力し、リレーの API キーを提供します。
デフォルトモデル設定
デフォルトアシスタントモデル
設定 → デフォルトモデルに移動して、新しい会話でデフォルトとして使用するプロバイダーとモデルを選択します。モデルセレクターから会話ごとに常にモデルをオーバーライドできます。
トピック命名モデル
AQBot は各会話のタイトルを自動的に生成できます。デフォルトモデル設定で、タイトル生成のコストとレイテンシーを節約するために、トピック命名専用の軽量モデルを割り当てられます。タイトル生成用のカスタムプロンプトとコンテキストウィンドウサイズを設定できます。
次のステップ
- MCP サーバー — AI 機能を拡張する外部ツールの接続
- API ゲートウェイ — プロバイダーをローカル API サーバーとして公開
