生成AI API モデルごとの比較
項目 | 最適化モデル(GPT5) | 回答速度優先モデル | 安価モデル | 推論モデル | 旧最適化モデル |
---|---|---|---|---|---|
LLMモデル | GPT5、GPT5-chat-latest、GPT4o-miniの組み合わせ | GPT4-Omni | GPT4o-mini | o3-mini | GPT4、GPT4-Omni、GPT4o-miniの組み合わせ |
応答コスト | ○ | ○ | ◎ | △ | × |
元データの使用数 | 最大50か所 | 最大50か所 | 最大10か所 | 最大10か所 | 最大10か所 |
考える力 | ○ | ○ | △ | ◎ | ○ |
速度 | ○ | ◎ | ◎ | △ | ○ |
追加プロンプト | 効きやすい 複雑な要望でもくみ取れる | 短い指示であれば有効 | 短く簡単な指示であれば有効 | 効きやすい | 効きやすい |
元データ特性 | 訪問者の質問意図も組みつつ回答 履歴(継続した会話)が加味されやすい 雑多な元データでも精度を保ちやすく、ハルシネーションリスクが少ない | 雑多な元データだと回答率が落ちやすい | 雑多な元データでは回答しづらく、マッチ度が高くないと回答率が下がる | 単純な質問でも推論を伴うため時間がかかる傾向 | 訪問者の質問意図も加味した回答 雑多なデータでも比較的高精度で対応できる |
■ 最適化モデル(GPT5)
LLMモデル:GPT5、GPT5-chat-latest、GPT4o-miniの組み合わせ
応答コスト:○
元データの使用数:最大50か所
考える力:○
速度:○
追加プロンプト
効きやすい
複雑な要望でもくみ取れる
元データ特性
訪問者の質問意図も組みつつ回答
履歴(継続した会話)が加味されやすい
雑多な元データでも精度を保ちやすく、ハルシネーションリスクが少ない
■ 回答速度優先モデル
LLMモデル:GPT4-Omni
応答コスト:○
元データの使用数:最大50か所
考える力:○
速度:◎
追加プロンプト
短い指示であれば有効
元データ特性
雑多な元データだと回答率が落ちやすい
■ 安価モデル
LLMモデル:GPT4o-mini
応答コスト:◎
元データの使用数:最大10か所
考える力:△
速度:◎
追加プロンプト
短く簡単な指示であれば有効
元データ特性
雑多な元データでは回答しづらく、またマッチ度が高くないと回答率がさがる
■ 推論モデル
LLMモデル:o3-mini
応答コスト:△
元データの使用数:最大10か所
考える力:◎
速度:△
追加プロンプト
効きやすい
元データ特性
単純な質問でも推論を伴うため時間がかかる傾向
■ 旧最適化モデル
LLMモデル:GPT4、GPT4-Omni、GPT4o-miniの組み合わせ
応答コスト:×
元データの使用数:最大10か所
考える力:○
速度:○
追加プロンプト
効きやすい
元データ特性
訪問者の質問意図も加味した回答
雑多なデータでも比較的高精度で対応できる