
ポイント3行
- 「この作業にはどのモデルを使うべきか?」という判断を完全にやめて、すべてのタスクにClaude Opus 4.6だけを使う戦略=Opus脳死法
- Claude MAX x20プラン(月額$200)なら月$4,000相当のAPI利用が定額で使い放題、モデル選定の認知コストもゼロになる
- 「安いモデルで節約」は実は幻想で、タスク次第では安いモデルの方が高くつくケースがある
あなたの1日を思い出してほしい。
朝、軽いバグ修正が入ってきて「これはGemini Flashでいいか」と思う。30分後に設計の相談が来て「うーん、これはOpusかな……」と切り替える。テスト生成で「Sonnetで十分だろ」、複雑なリファクタリングで「やっぱOpusに戻すか……」、ドキュメント作成で「GPTの方が文章うまいかも……」。
こういう「どのモデルを使うか」の判断を、1日に何回やっているだろうか。体感で20回〜30回はあるんじゃないかと思う。
本来、AIに課金しているのは「AIを使って仕事を進めるため」なのに、実態は「どのAIを使うか」を選ぶことに脳のリソースを割いている。この無駄に気づいてから、ぼくは考え方を変えた。
それが「Opus脳死法」だ。
Opus脳死法とは
やることはシンプル。
Claude MAX x20プラン(月額$200)に加入して、すべてのタスクでOpus 4.6だけを使う。
以上。終わり。
「この作業は軽いからSonnetでいいんじゃない?」という判断を一切しない。コメント1行の修正だろうが、大規模リファクタリングだろうが、常にOpus 4.6を回す。何も考えない。いや、何も考えないことがこの方法の本質だ。
なぜOpus 4.6「だけ」でいいのか
Opus 4.6は2026年3月現在、トップクラスのモデルである
まず事実を並べよう。Opus 4.6は2026年2月5日にリリースされた、Anthropic史上最強のフラッグシップモデルだ。
リリース直後はArtificial Analysis Intelligence Index(10種のベンチマークを統合した総合指標)で全モデル1位を獲得した。ただし、2026年3月時点ではGPT-5.4とGemini 3.1 Proが57点で同率首位に立っており、Opus 4.6は53点で若干後退している。
しかし、別の評価軸では依然としてトップだ。
| 指標 | Opus 4.6のスコア | 順位・備考 |
|---|---|---|
| LMArena(旧Chatbot Arena)Elo | 1504 | ユーザー投票で全モデル1位 |
| ARC-AGI-2(抽象推論) | 68.8% | 全モデル最高スコア(GPT-5.2 Proの54.2%を大差で上回る) |
| SWE-bench Verified(コーディング) | 80.8% | トップクラス。実際のGitHubイシューの8割以上を解決 |
| GDPval-AA(オフィスタスク) | Elo 1606 | GPT-5.2を約144ポイント上回り1位 |
| Terminal-Bench 2.0(ターミナル操作) | 65.4% | 全モデル1位 |
| BrowseComp(検索エージェント) | 84.0% | 上位(リリース時は1位、現在はGemini 3.1 Proに僅差) |
| Intelligence Index v4.0 | 53点 | リリース時1位→3月現在4位(GPT-5.4/Gemini 3.1 Proが57点で首位) |
ポイントは、Intelligence Indexではすでに1位ではないものの、ユーザーが実際に使って「こっちの方がいい」と感じるLMArena(ブラインド投票)では依然として全302モデル中1位ということだ。ベンチマークのスコアと実際の使用感は必ずしも一致しない。そしてLMArenaは600万件以上のユーザー投票に基づくリアルな評価だ。
もう少し噛み砕くと、LMArenaというのは2つのAIの回答をモデル名を隠した状態で見比べて「どっちがいい?」とユーザーに投票してもらう仕組みだ。つまり「ブランドバイアスなしで、純粋に出力の質だけで評価した結果」がEloスコアに反映される。そこで1位ということは、多くの人がOpus 4.6の回答を「一番いい」と感じているということになる。
さらに、ARC-AGI-2というベンチマークに注目してほしい。これは「人間には簡単だけどAIには難しい」ように設計されたパズルを解くテストで、暗記では攻略できない。つまり「本当の意味で賢いか」を測る指標だ。ここでOpus 4.6は68.8%を記録しており、2位のGPT-5.2 Pro(54.2%)を約15ポイントも引き離している。前モデルのOpus 4.5が37.6%だったことを考えると、ほぼ倍近い伸びだ。
「軽い作業だからFlashでいいや」と思ってFlashに投げた結果、微妙な出力になって自分で手直しする羽目になる。Opusなら一発で終わる。その手直しに費やす時間のコスト、計算したことがあるだろうか?
「安いモデルの方が安い」は幻想である
これは意外と多くの人が見落としている事実だ。
Artificial Analysisが公開しているGDPval-AAベンチマーク(オフィスワークの実務タスクをAIに解かせる評価)のデータが面白い。Sonnet 4.6とOpus 4.6を同じmax effort設定で走らせた結果、単価が安いはずのSonnet 4.6の方がトータルコストでOpus 4.6をわずかに上回った。
なぜか? Sonnet 4.6のadaptive thinking(適応型思考)がタスクの難しさに応じてトークンを大量に消費し、合計で約280Mトークンを使ったのだ。一方のOpus 4.6は約160Mトークン。単価はSonnetの方が安い($3/$15 vs $5/$25)のに、トークン消費量の差でコストが逆転した。
ざっくりイメージするとこういうことだ。
| 項目 | Sonnet 4.6 | Opus 4.6 |
|---|---|---|
| 単価(入力/出力) | $3 / $15 | $5 / $25 |
| GDPval-AAでの消費トークン | 約280M | 約160M |
| 結果のコスト | Opusをわずかに上回る | Sonnetより若干安い |
つまり「安いモデルで節約しよう」は、タスクの複雑さ次第で完全に裏目に出る。しかも「このタスクはどのくらい複雑か?」を事前に正確に見積もるのは、人間には本当に難しい。だったら最初からOpusを使った方がシンプルだし、結果的に安くなるケースすらある。
もちろんこれはGDPval-AAという特定のベンチマーク上の話であって、すべてのタスクでこうなるわけではない。単純な質問ならSonnetの方が圧倒的に安い。ただ、どのタスクが「単純」でどのタスクが「複雑」かを毎回判断すること自体がコストだということが、ここでのポイントだ。
MAX x20の実質価値は月額$4,000相当
ブロガーのAlexey Pelykh氏が、普段のClaude Code利用をAPI課金に切り替えて計測した結果を公開している。
いつも通りのコーディング作業(デバッグ、リファクタリング、新機能の実装、コードレビュー)をAPI料金で走らせたところ、1日の通常利用で約$200のAPI料金が発生した。月20営業日で計算すると約$4,000。MAX x20プランは月額$200。
つまり、MAX x20の"x20"はマーケティング上の誇張ではなく、文字通りの算数だ。$200/月で$4,000相当の計算リソースを使えるということは、95%オフで使っているのとほぼ同じ意味になる。
Pelykh氏もブログの中で、「Claude Codeを1日でもまともに使うなら、MAXサブスクリプションはその日のうちに元が取れる。2日目にはもう黒字だ」と書いている。
ちなみにAnthropicの公式データによると、Claude Codeを使う開発者の平均的なAPI利用額は1日約$6で、90%のユーザーは$12/日以下。「$200/日なんて使わない」と思うかもしれないが、それはOpusをメインで使いつつガッツリ開発しているヘビーユーザーの数字だ。自分がどの程度のユーザーかは、実際に使ってみないとわからない。
Cursorの「モデル使い分け地獄」と比較する
Cursorの料金問題
AIコードエディタのCursorは、2025年6月の料金改定で大きな混乱を起こした。
それまで月額$20のProプランでは「500リクエスト+無制限の低速レスポンス」というシンプルな体系だったのに、突然クレジット制に移行した。$20分のクレジットプールが毎月付与され、使ったモデルのAPI料金に応じて消費される仕組みだ。
これが何を意味するか。500リクエストあった枠が、Claude Sonnetを使う場合は実質約225リクエスト相当に減ってしまった。しかも高性能モデルを手動選択するとクレジットが猛スピードで減る。超過分はAPI料金で追加課金される。
結果、ユーザーが大量に不満を投稿し、CEOのMichael Truell氏が公式ブログで謝罪。2025年6月16日から7月4日の間に想定外の請求が発生したユーザーには全額返金対応となった。一部のユーザーはWindsurf(月額$15)などの競合サービスに流出した。
2026年現在のCursorのプラン体系は以下のようになっている。
| プラン | 月額 | 概要 |
|---|---|---|
| Pro | $20 | $20分のクレジットプール。Autoモードなら無制限だが、モデルを自分で選ぶとクレジット消費 |
| Pro+ | $60 | 3倍のクレジット |
| Ultra | $200 | 最大クレジット(約20倍) |
問題は「どのモデルを選ぶか」を常に意識しなければならないこと。Autoモードに任せれば無制限だが、モデルの選択権を放棄することになる。手動で高性能モデルを選べばクレジットが減る。つまり「品質」と「コスト」のトレードオフを毎回判断する認知負荷が発生する。
Opus脳死法なら
| 項目 | Cursor方式 | Opus脳死法(MAX x20) |
|---|---|---|
| 月額 | $20〜$200 +超過課金 | $200固定 |
| モデル選定 | 毎回判断が必要 | 不要 |
| 品質の安定性 | モデルにより変動 | 常にトップクラス |
| 超過課金リスク | あり | なし |
| 認知負荷 | 高い | ゼロ |
| エージェント機能 | 外部モデル依存 | Agent Teams(最大16並列)対応 |
「でも$200は高い」への反論
認知コストで計算してみる
あなたの時給が仮に5,000円(フリーランスエンジニアの中央値あたり)だとしよう。
モデル選定に1回30秒、1日25回 → 1日12.5分 → 月250分 ≒ 約4.2時間
4.2時間 × 5,000円 = 月約21,000円の認知コスト
MAX x20は月額$200 ≒ 約30,000円。認知コストの21,000円を差し引くと実質9,000円。さらに「安いモデルの微妙な出力をリトライ・手直しする時間」を加味すれば、Opus脳死法は実質タダか、むしろプラスになる可能性が高い。
人件費と比べてみると異常さがわかる
冷静に、月30,000円(約$200)を「人間を雇うコスト」と並べてみよう。
日本のIT業界における2025〜2026年時点の月単価(業務委託・SES相場)はこうだ。
| 人材レベル | 月額人件費(人月単価) | Opus脳死法の何倍か |
|---|---|---|
| 初級プログラマー(経験1年未満) | 30〜50万円 | 10〜17倍 |
| 中堅エンジニア(3〜5年) | 65〜80万円 | 22〜27倍 |
| シニアエンジニア(5年以上) | 80〜100万円 | 27〜33倍 |
| ITアーキテクト | 85〜120万円 | 28〜40倍 |
| PM / ITコンサルタント | 100〜200万円 | 33〜67倍 |
最も安い初級プログラマーでも月30万円。Opus脳死法の10倍だ。
しかもこの人月単価には、エンジニア本人の給与だけでなく、オフィス賃料・管理部門コスト・教育費・福利厚生・ベンダー利益まで含まれている。「1人の人間に仕事をしてもらうフルコスト」がこの金額だ。
さらに人間には稼働制限がある。1日8〜10時間、年間休日は120日前後、体調の波もある。一方Opus 4.6は24時間365日稼働可能で、Agent Teamsを使えば16タスクの並列処理もできる。
もちろんOpus 4.6は人間の代替ではない。要件定義の最上流、ステークホルダーとの交渉、ドメイン固有の判断は依然として人間の領域だ。しかし「コードを書く」「設計のたたき台を作る」「テストを生成する」「リファクタリングする」という作業レイヤーで、月30,000円で24時間使い放題のトップクラスAIを使えるのは、冷静に考えて異常なコスパだ。
生々しく言い換えると、
あなたの会社が中堅エンジニア1人を月70万円で雇っているなら、その1人分の人件費で、Opus脳死法を約23ヶ月(2年弱)運用できる。
「$200は高い」のではない。AIが異常に安いのだ。
月$200で買っているもの
改めて、MAXプランで何が手に入るのかを整理しよう。
- LMArena全モデル1位の対話品質(Elo 1504)
- ARC-AGI-2で68.8%の抽象推論力(GPT-5.2 Proの約1.27倍)
- SWE-bench 80.8%のコーディング能力
- 100万トークンのコンテキストウィンドウ(ベータ)
- Agent Teamsによる最大16並列のマルチエージェント処理
- 月$4,000相当のAPI利用権
- 「どのモデルを使うか考えなくていい」という精神的自由
最後の1つが、実はいちばん大きい。
Opus脳死法が向かない人
フェアに書こう。Opus脳死法は万人向けではない。
| こういう人 | 理由 |
|---|---|
| AIの利用が週1〜2回程度 | Proプラン($20/月)で十分。脳死するほど使っていない |
| 文章品質を最重視する人 | コミュニティでは「コーディングは4.6、文章は4.5の方がいい」という声もある。文章特化ならOpus 4.5を併用する手もある |
| API直叩きで独自パイプラインを組んでいる人 | サブスクの恩恵を受けられない。API課金でプロンプトキャッシュやバッチ処理の割引を活用した方がいい |
| ベンチマークの最高スコアを常に追いたい人 | Intelligence Indexでは現在GPT-5.4やGemini 3.1 Proの方が上。タスクによってはモデルルーティングの方が合理的 |
ただし、「毎日AIでコードを書く開発者」にとっては、Opus脳死法は最適解に極めて近い。
実践ガイド:4ステップでOpus脳死法を始める
ステップ1:MAX x20に加入する
claude.ai → Settings → Subscription → Max 20x($200/月)を選択する。
ステップ2:すべての環境をOpus 4.6に固定する
- Claude.ai:モデルをOpus 4.6に設定
- Claude Code:デフォルトでOpus 4.6が使用される
- Claude Desktop:Opus 4.6を選択
ステップ3:モデル選択について二度と考えない
これが一番重要なステップだ。「この作業はSonnetでよくない?」という内なる声を無視する。全部Opusでやる。軽い作業も。重い作業も。全部。
たとえるなら、ファミレスで毎回メニューを15分見て悩むのをやめて「いつものハンバーグセット」に固定するようなものだ。最高の選択かは分からないが、選ぶ時間がゼロになる。
ステップ4:浮いた認知リソースを本来の仕事に使う
モデル選定に使っていた脳のリソースを、設計・実装・テスト・ユーザー体験の改善に回す。モデルを選ぶのはあなたの仕事じゃない。あなたの仕事は、モデルの出力を使って価値を作ることだ。
まとめ4行
- Opus脳死法とは「Claude MAX x20($200/月)に加入し、全タスクでOpus 4.6だけを使う」シンプルな戦略
- 認知コスト削減+リトライ削減+定額制の安心感で、毎日AIを使う開発者にとっては実質タダ同然になりうる
- Opus 4.6はIntelligence Indexでこそ現在4位だが、LMArenaユーザー投票では全モデル1位、ARC-AGI-2でも1位と「実力」は折り紙付き
- 2026年のAI開発で最も贅沢なことは、「どのモデルを使うか」で悩まないこと。それが月$200で買える
※本記事のベンチマークデータは2026年2月〜3月時点の公開情報に基づいています。AI業界のランキングは数週間単位で変動するため、最新情報は各ベンチマーク提供元をご確認ください。
※自己申告スコアと独立評価には乖離がある場合があります。
※Opus脳死法は個人の感想であり、特定サービスへの加入を強制するものではありません。筆者はClaude MAX x20プラン契約者であり、完全にポジショントークです。ただし数字は嘘をつきません。