Q生成AI API モデルごとの比較

A

 

項目最適化モデル(GPT5)回答速度優先モデル安価モデル推論モデル旧最適化モデル
LLMモデルGPT5、GPT5-chat-latest、GPT4o-miniの組み合わせGPT4-OmniGPT4o-minio3-miniGPT4、GPT4-Omni、GPT4o-miniの組み合わせ
応答コスト×
元データの使用数最大50か所最大50か所最大10か所最大10か所最大10か所
考える力
速度
追加プロンプト効きやすい 
複雑な要望でもくみ取れる
短い指示であれば有効短く簡単な指示であれば有効効きやすい効きやすい
元データ特性訪問者の質問意図も組みつつ回答 
履歴(継続した会話)が加味されやすい
雑多な元データでも精度を保ちやすく、ハルシネーションリスクが少ない
雑多な元データだと回答率が落ちやすい雑多な元データでは回答しづらく、マッチ度が高くないと回答率が下がる単純な質問でも推論を伴うため時間がかかる傾向訪問者の質問意図も加味した回答 
雑多なデータでも比較的高精度で対応できる

■ 最適化モデル(GPT5)

LLMモデル:GPT5、GPT5-chat-latest、GPT4o-miniの組み合わせ

応答コスト:○

元データの使用数:最大50か所

考える力:○

速度:○

追加プロンプト

効きやすい

複雑な要望でもくみ取れる

元データ特性

訪問者の質問意図も組みつつ回答

履歴(継続した会話)が加味されやすい

雑多な元データでも精度を保ちやすく、ハルシネーションリスクが少ない


■ 回答速度優先モデル

LLMモデル:GPT4-Omni

応答コスト:○

元データの使用数:最大50か所

考える力:○

速度:◎

追加プロンプト

短い指示であれば有効

元データ特性

雑多な元データだと回答率が落ちやすい


■ 安価モデル

LLMモデル:GPT4o-mini

応答コスト:◎

元データの使用数:最大10か所

考える力:△

速度:◎

追加プロンプト

短く簡単な指示であれば有効

元データ特性

雑多な元データでは回答しづらく、またマッチ度が高くないと回答率がさがる


■ 推論モデル

LLMモデル:o3-mini

応答コスト:△

元データの使用数:最大10か所

考える力:◎

速度:△

追加プロンプト

効きやすい

元データ特性

単純な質問でも推論を伴うため時間がかかる傾向


■ 旧最適化モデル

LLMモデル:GPT4、GPT4-Omni、GPT4o-miniの組み合わせ

応答コスト:×

元データの使用数:最大10か所

考える力:○

速度:○

追加プロンプト

効きやすい

元データ特性

訪問者の質問意図も加味した回答

雑多なデータでも比較的高精度で対応できる

 

 

 

このQ&Aは役に立ちましたか