定義
ファインチューニングは、事前学習済みモデルを取り、より小さく焦点を絞ったデータセットで学習を続けます。結果として、特定のタスクでより良いパフォーマンスを発揮するモデルが得られ、通常はフロンティアモデルを呼び出すよりもレイテンシとコストが低くなります。大量タスク(分類、抽出、構造化出力)の場合、ファインチューニングされた小さなモデルは、GPT-4やClaudeを呼び出すよりも10〜40倍安価で、特定タスクで同等の品質を実現できます。
例
Llama 3モデルを5万件のサポートチケットでファインチューニングし、入ってくる問題を自動的に分類しタグ付けする。
Vedwixでの使用方法
クライアントが大量タスク(1日に約1万リクエスト以上)を持つ場合、ほぼ常にAPI呼び出しよりもファインチューニングを推奨します。コスト差は95%以上になることがよくあります。