multi-llm/¶
Claude Code から Claude 以外の LLM を呼んで使い分けるテクニック。
主なパターン¶
- MCP server 経由 —
mcp-server-openai,gemini-mcpなどを.mcp.jsonに追加 - subagent から CLI 直叩き —
aider,codex,gemini-cliを Bash 経由で呼ぶ - subagent から SDK 直叩き — Python/TS スクリプトで OpenAI/Gemini SDK を叩く
- GitHub Actions 連携 — 重いタスクは別ランナーで Claude 以外を走らせる
用途別の推し¶
| 用途 | 推しモデル | 理由 |
|---|---|---|
| 巨大コードベース要約 | Gemini 2.x | 長コンテキスト |
| 安価なルーチン | Haiku / GPT-5-mini / DeepSeek | コスト |
| セカンドオピニオン | Opus + GPT-5 を並列 | 多様性 |
| ローカル機密 | Ollama + Qwen3 | データ非送信 |
TODO¶
01-mcp-openai-gemini.md— 設定手順と最小サンプル02-cli-tool-subagent.md— aider/codex を subagent で叩くパターン03-cost-routing.md— タスクごとのモデルルーティング戦略04-second-opinion.md— レビュー多様性のための並列実行