GitHub Copilotで使用できるモデルのTier表(表じゃないけど)を作る試みです。具体的な数値やデータは一切なく、完全な主観でお届けします。暇なときに書いていくので抜けてるものがもしあれば許してください。TierS〜Cまででやっていきます。プレミアムリクエストを消費するモデルのTierと消費しないモデルのTierは全く別のものと考えてください。
プレミアムリクエストを消費しないモデル
GPT-4.1
TierC。プレミアムリクエスト(以下プレリク)を使わないのはありがたいが、GPT-5 miniなどが出たので使うことは基本ない。
GPT-4o
TierC。上と同じような理由。GPT-4.1よりも性能が低いのでもっと使わない。雑談するにはいいのかもしれない。
GPT-5 mini
TierA。プレリク0でそれなりに動くのでしょぼいタスク(コードの微妙な修正など)をするには良い。重いタスクはさすがに厳しい感じがする。性能的にはものすごく高いわけではないが、無料なのでA。
Grok Fast Code 1
TierA+。この子は名にFastを冠しているだけあり、とにかく応答が早い。そして性能もまあまあ高く、プレリク消費0組の中では最強格ではないか。ただ、コンテキストウィンドウは体感小さめな気がする。
Raptor Mini
TierA。GPT-5 miniをファインチューニングしたモデルらしい。確かに性能はちょっと高い気がするが、推論がなかなかに遅い。個人的にはGrokのほうが簡潔な感じがして好み。
プレミアムリクエストを消費するモデル
Claude Haiku 4.5
TierA。かなりいい感じの出力をしてくれる。小さめの作業なら全然良さそう。
Claude Opus 4.5
文句無しのTierS。圧倒的な性能の高さを感じる。あまり細かく言わなくても意図を汲み取って実装してくれるのが快適すぎる。また、Webページなどの成果物のデザインもまあまあいい感じ。プレリクを3つ消費すること以外は最高のモデル。
Claude Sonnet 4
TierB+。性能はいいが、後述するSonnet 4.5が出てしまったのでいらない子に。Haiku 4.5と同等の性能らしいので、まあ使うことはない。
Claude Sonnet 4.5
TierA+。とりあえず迷ったらこれを使えば良いというモデル。コストと性能のバランスが良い。
Gemini 2.5 Pro
TierB。Gemini 3シリーズが出たので使うことは基本ない。
Gemini 3.0 Flash
試してないので無評価。
OpenAIの過去モデルたち
GPT-5-Codex, GPT-5.1, GPT-5.1-Codex. GPT-5.1-Codex-Max(いずれもプレリク1)ですが、GPT-5.2がリリースされほぼ使うことがないので無評価。
GPT-5.1-Codex-Mini
TierA。プレリクがギリギリのときに使うと良いかもしれない。普段はあまり使わない。
GPT-5.2
TierS。GitHub Copilotは全体的にOpenAIのモデルとの相性が良いように感じる。まあまあ使える。Webデザインとかは微妙な気がする。プレリク消費も1なのでかなりおすすめ。
まとめ
以上、GitHub Copilotの各モデルのまとめでした。皆さんもぜひGitHub Copilotを活用してみてください。まあCodexとかCLaude Codeのほうが性能良いのでそっち使うんですけどね
それでは!