Continue・Antigravity・Gemini・Claude・Codex などの AI エージェントを無料枠だけ使ってみた
2025年あたりからの急速な生成 AI の進歩は本当に目まぐるしいですね。プログラミング・ソースコード生成の分野においても、最近は「AI エージェント」とか言って、人間が詳細に指示を出さなくても既存のコードベースを自分で把握し、自律的に計画を立てながらコーディングを進めてくれる AI ツール・サービスが次々と出てきて、はてブのホッテントリや Zenn なんかが賑わっています。
とにかく優秀で便利らしいですが、僕はネットサービスに絶対課金しないマンを貫いておりまして、「AI エージェントとやらは試してみたい」「でも金は払えない」 → 「そうだ、無料枠で遊ぼう」となりましたので、そうすることにします。
目次
- Ollama で LLM をセルフホストする
- VSCode 拡張機能の「Continue (
continue.dev)」でセルフホスト AI エージェント体験 - 以前使った Qodo と Traycer について振り返り
- Anthropic Claude Code : VSCode 拡張機能も CLI も課金必須で使えませんでした
- Google Antigravity : 多分今だけ、優秀なモデルの無料枠がある IDE
- Cursor : 無料枠があるはずだけど動かなかった
- OpenAI Codex : 速さはあるけど賢くはないかも
- 以上
Ollama で LLM をセルフホストする
クラウドサービスにお金をかけたくない、となったら思いつくのは「セルフホスト」です。以前もちょっとだけ使ったことのある Ollama を、もう一度試してみることにしました。
Ollama というのは、ローカルマシンで LLM を動作させるためのフレームワークである「llama.cpp」を、さらに使いやすくパッケージング化してくれているツールです。
- 過去記事 : 2025-01-24 Ollama と Open WebUI を使ってセルフホストの ChatGPT もどきを用意する
Ollama を使って動かす LLM は何がいいかな~と思って調べていたところ、Qwen2.5-Coder (qwen2.5-coder:7b) という Alibaba Cloud 製のモデルが、そこそこ軽量でありながら高性能なコードを出力してくれるということを知ったので採用してみました。
前回試した時は Ubuntu OS のミニ PC にて検証しましたが、今回は Windows 10 Pro マシン内の WSL2 環境で動かしてみます。
# Ollama をインストールする
$ curl -fsSL https://ollama.com/install.sh | sh
$ ollama --version
ollama version is 0.15.5
# Qwen モデルをダウンロードする
$ ollama pull qwen2.5-coder:7b
# コンソール上でチャットしてみる : 日本語で会話できたし、回答も高速に返ってきて快適でした。終了する場合は `/bye` と打ちます
$ ollama run qwen2.5-coder:7b
# ダウンロードしたモデルの一覧は以下のように確認できます
$ ollama ls
NAME ID SIZE MODIFIED
qwen2.5-coder:7b dae161e27b0e 4.7 GB 3 days ago
# `/etc/wsl.conf` に `[boot] systemd=true` を書いてあったためか、`systemctl` で Ollama の常時起動が制御できていました
$ sudo systemctl status ollama.service
$ ps aux | grep ollama
ollama 951 21.3 0.6 3121680 100468 ? Ssl 08:50 1:07 /usr/local/bin/ollama serve
ollama 1534 5.8 4.3 72433960 715916 ? Sl 08:53 0:07 /usr/local/bin/ollama runner --model /usr/share/ollama/.ollama/models/blobs/sha256-60e05f2100071479f596b964f89f510f057ce397ea22f2833a0cfe029bfc2463 --port 36529
# 実行したモデルは一定時間プロセスとして生き残ってくれるので、連続呼び出しする時の負荷が軽減できます
# しばらく呼び出されないと自動的にプロセスが終了するので、使っていない LLM がリソースを掴みっぱなし、ということにもなりません
$ ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
qwen2.5-coder:7b dae161e27b0e 4.9 GB 100% GPU 4096 About a minute from now
# `curl` ないしは Windows ホスト側のブラウザからのアクセスで、Ollama が API サーバを立ててくれていることも確認できました
$ curl http://localhost:11434
Ollama is running
ollama のサブコマンド体系は Docker のサブコマンドに似ていて扱いやすいですね。
Ollama によるリソース管理が大変優秀です。GPU を使うための設定とか何もしてないのに、インストールスクリプトを一発流すだけで全部うまくやってくれてました。Qwen を呼び出している最中は GPU・メモリの使用率がグッと上がりますが、常時リソースを掴んでマシン全体の動作が重たくなるようなことにはならないのでとても気楽です。使わずに放っておけば自動的に LLM のプロセスも終了して大人しくしてくれるので、Linux サービスとして管理したり、LLM を終了させてマシンリソースを開放させなきゃ~とか、余計な心配をしなくて良いです。
VSCode 拡張機能の「Continue (continue.dev)」でセルフホスト AI エージェント体験
ココまでだと ChatGPT みたいに会話しているだけなので、コーディングを自律的に進めてくれる「AI エージェント」として動いてもらうためのツールを探しました。すると、Continue という VSCode 拡張機能を発見しました。
- Continue - Ship as fast as you code
- VSCode Marketplace での識別子 :
continue.continue
- VSCode Marketplace での識別子 :
Continue を通じて利用できる AI モデルは Claude、Gemini、OpenAI など有名どころは押さえており、それに加えてローカル LLM である Ollama も設定できるというワケです。VSCode 拡張機能としてインストールした後、Continue のビューを開いて設定を始めると、設定用の YAML ファイルの雛形を作ってくれます。自分はそれをベースにして、色々な文献を見ながら、見様見真似で以下のような感じにしました。
C:\Users\【ユーザ名】\.continue\config.yaml- 設定ファイルは WSL2 内のホームディレクトリではなく Windows ホストのユーザホームフォルダに置く必要がある点だけ留意
name: Local Config
version: 1.0.0
schema: v1
models:
- name: Qwen 2.5 Coder 7b
provider: ollama
model: qwen2.5-coder:7b
apiBase: http://localhost:11434
roles:
- chat
- autocomplete
- edit
- apply
- rerank
- summarize
- embed
capabilities:
- tool_use
context:
- provider: web
params:
n: 5
- provider: codebase
- provider: folder
- provider: file
- provider: currentFile
- provider: code
- provider: diff
- provider: terminal
- provider: open
- provider: search
params:
maxResults: 200
- provider: debugger
params:
stackDepth: 3
- provider: repo-map
params:
includeSignatures: false
- provider: url
- provider: tree
- provider: problems
- provider: os
重要なのは model: qwen2.5-coder:7b 部分でモデル名を正確に指定することぐらいでしょうか。あとは AI エージェントが行える権限を増やしてある感じですが、一旦動かし始めるだけなら roles やら context やらは丸ごと書かなくてもデフォルト設定で動いてくれます。
結局呼び出しているのはローカル LLM なので、API レート制限なんかを気にせず使い放題なのは便利なところです。一方で、デフォルトだと「コードベース全体を勝手に読み込んで分析する」みたいな挙動はしてくれず、プロンプトで指定したファイルか、VSCode で開いているファイルだけをインプットにしてチャット形式で応答してくれる感じみたいです。
以前使った Qodo と Traycer について振り返り
ココで、今回の検証の中では立ち上げなかったのですが、以前利用したことがある AI エージェントサービスとして「Qodo」というモノと「Traycer」というモノがあったので、ちょっと書いておきます。
この2つは VSCode 拡張機能としてインストールができ、無料枠があるために使ってみた、というモノでした。
いずれも、内部的には Gemini や Claude などの AI モデルを適材適所で使い分けているようで、「Qodo・Traycer しか持っていない自社開発 AI モデル」みたいなモノはなさそうでした。Qodo は「GitHub Copilot Chat」によく似た UI でしたが、Traycer の方はもうちょっとリッチで、実行計画と修正ファイルの確認がより分かりやすい UI になっていました。
無料枠を渡り歩く際に一瞬だけ利用するならアリかもしれません。他社サービスと比べて特別性能的に優秀なのか、コストが激的に安いのかというとそういう感じでもなかったので、各自でお調べになってより良いメリットが見つかったら採用してみてくださいませ。
Anthropic Claude Code : VSCode 拡張機能も CLI も課金必須で使えませんでした
ほんでわ、いよいよ Claude Code デビューしちゃいますか!と思って VSCode 拡張機能 (anthropic.claude-code) を入れてみたり、CLI (claude コマンド) をインストールしたりしたのですが、どうも Claude Code を利用するには Free プランのままではダメみたいです。2026年2月時点で月額 $17 (約2,600円程度) の Pro プラン以上に契約してある必要があります。ブラウザ上で Claude をチャット形式で呼び出すだけなら無料枠で扱えるのに、コード生成に特化した AI エージェントとしての利用は有料課金が必須なんですね。こりゃ残念。
…ですが、Google Antigravity というエディタを経由すればちょっとだけ Claude Sonnet 4.5 が無料で使えるという裏技がありましたので、続いて紹介します。
Google Antigravity : 多分今だけ、優秀なモデルの無料枠がある IDE
Google の AI 関連ツールは名前や区分けが多くて混乱します。調べてたら今は Antigravity という IDE が出ているらしく、結果的にコレをメインで検証してみました。
- Gemini : Google が開発する AI モデルの総称
- Antigravity : VSCode ベースの IDE
- この IDE 経由で AI エージェントを呼び出すと、Gemini 3.5 Pro (High) や Claude Sonnet 4.5 (Thinking) などの優秀なモデルが無料枠で少し使える
- 無料枠を使い切ってもいきなり課金は始まらず、レート制限に達している旨のメッセージが出てくれる
- 参考 : Google Antigravity - Pricing
- Gemini CLI :
geminiコマンドとしてインストールする CLI ツール。npm でグローバルインストールすればいいのが楽- 無料枠アリ。Gemini 2.5 Flash というモデルが使われるため精度・性能は落ちるか
- 無料枠を使い切ってしまった時の挙動がちゃんと分かってないけど、コレもいきなり課金は発生しなさそう?
- 参考 : Gemini CLI : オープンソース AI エージェント | Google Cloud 公式ブログ
- Gemini Code Assist : VSCode 拡張機能。識別子
google.geminicodeassist- コレもコレで無料枠アリ。多分コレも無料枠を使い切った後に勝手に課金が始まることはなさそう
- 参考 : Gemini Code Assist | AI coding assistant
自分は Google アカウントに紐付いた GCP を作っていて、そちらに請求先としてクレジットカード情報を登録してあります。そのため、Google 関連サービスを使う時は何かの拍子で GCP 経由の課金が発生しないかどうかにビクビクしているところがあります。w
- 調べた感じ、Google AI Studio ないしは Vertex AI Studio というサービスの画面で API キーを発行して用いると、コレは Google Cloud 経由で従量課金の請求が発生するっぽいです
- それとは別に、個人だと Google One の中で月額支払のサブスクリプション形式のプランが複数あって、「Google AI Plus」とかのサブスクリプションに課金することで Gemini 関連のレート制限が緩和されるようです
- いずれのツールも、意図してないのに勝手に課金が始まってしまうことはなさそうで、API キーを発行・設定しなければ、もしくはサブスクプランを契約し始めなければ、とりあえず無料枠の中だけで安全に遊べそうでした
課金にまつわる話が長くなりましたが、Google Antigravity という IDE をインストールしていきます。VSCode っぽいけど似て非なるエディタをインストールすることになって若干かったるいですが、どうせ今回は AI エージェントにコーディングを任せるつもりなので、エディタとしての使い心地なんかは無視して良いだろう、と割り切って導入してみました。
デフォルトでは「Gemini 3.5 Pro (High)」というモデルが選択されていて、しっかり考えながらコーディングを進め、必要な Lint チェックやコード修正も (コマンド実行はユーザに確認を取りつつ) 自動的に考えて動いてくれて、とても優秀です。この挙動の感じは、以前「Qodo」や「Traycer」の無料枠を使った時の優秀さに似てました。正確には計測していませんが、15ターンくらい「チャット形式で指示出し → コーディングを見守る」を繰り返したところで、無料枠の上限に達しました。レート制限が解消されるのは1週間後になるようです。ちょっと長いな…。w
で、いよいよ「裏技」と表現した「Claude Sonnet 4.5 (Thinking)」モデルですが、「Gemini 3.5 Pro (High)」が無料枠の上限に達した後に、コチラの Claude モデルに切り替えて利用できました。コチラは10ターンくらいでしょうか、チャット形式で指示出ししてコーディングを見守る流れを体験できました。
Gemini 3.5 Pro の方は何となく、「それなりに考えて作業はするけどコードの出来は8割くらいで、Lint チェックを2・3回流してバグ取りをして1回の指示を遂行する」という感じだったのですが、Claude Sonnet 4.5 に関してはもう少し最初の思考とコード生成の質が高く、Lint チェックをしなくてもそのままビルドが通るコードを一発で出力できてる感じでした。その代わりなのか、はたまた Google 経由で Claude の AI モデルを呼び出しているためなのかは分かりませんが、思考にかかる時間は Gemini 3.5 Pro より若干長かったかもしれません。個人的には待ち時間が多少長くても、くだらない間違いをしにくい Claude のモデルの方が好印象です。
両モデルの無料枠を使い切るまでに、実時間で3・4時間くらいエディタとにらめっこしていて、何もないプロジェクトベースから大体700行程度のコードを生成してくれました。「大まかにはこういうことをしたいんだけど~」と伝えただけで、詳細な仕様検討や実装計画は AI エージェントが全部考えてくれて、「コレで始めちゃっていいっすか?」「作りましたけどコレでどうっすか?」とイイカンジに尋ねてくれるので、黙って言うことを聞いてテキパキ動いてくれる部下って感じでとても頼もしいです。
Antigravity エディタは特に、現在プレビュー版ということで、無料枠がかなり広めに設定されているように思います。この無料枠の提供がいつまで続くか分かりませんので、Antigravity ならびに Google 提供の AI エージェントツール群はうまく無料枠を渡り歩いて活用すると良いでしょう。
Cursor : 無料枠があるはずだけど動かなかった
続いて、Cursor という IDE 統合型の AI エージェントを使ってみました。コチラも VSCode ベースで開発されている IDE なので、VSCode・Antigravity・Cursor と、似たようなソフトがインストールされて容量を無駄に食ってる感じがしますが、そこは諦めます。
- 参考 : Cursor - Pricing
クレカ登録なしで無料枠があります、ということだったのですが、IDE を立ち上げてチャットウィンドウでどのような簡単な質問を投げてみても、以下のようなメッセージが出てしまい応答が得られませんでした。「Plan」「Ask」などのモード切替なども色々試しましたがダメでした。
We're experiencing high demand for the selected model right now. Please upgrade to Pro, switch to Auto, another model, or try again in a few moments.
…ということで、無料枠では一度もお話すらしてもらえなかったので、Cursor は断念です。
OpenAI Codex : 速さはあるけど賢くはないかも
最後に試したのが、OpenAI の Codex です。VSCode 拡張機能での提供と、codex コマンドでの提供があります。2026年2月現在時点では無料枠があり、OpenAI アカウントに課金請求手段を登録していなければ、勝手に有料課金が始まってしまうことも避けられるでしょう。
- Codex CLI
- npm でグローバルインストールすると
codexコマンドとして動作します
- npm でグローバルインストールすると
- Codex IDE Extension
- VSCode 拡張機能・識別子
openai.chatgpt
- VSCode 拡張機能・識別子
今回は VSCode 拡張機能をメインで使いました。Qodo や Traycer で体験したように、また Antigravity のチャットウィンドウとも似たような UI で、エディタ内のビューにチャット窓が出てきて、適宜コードベースを参照しながらプランニングしてくれて、自動的にコーディングをしてくれる感じです。
デフォルトでは「GPT-5.2-Codex」というモデルが選択されていました。このモデル、思考から着手まではかなり高速なのですが、どうも場当たり的というか、その場しのぎ感の強いコード修正案が出て来やすかったです。「推論の労力」の指定などもできましたがあまり効果はなく、Claude・Gemini よりも相当ポンコツな「新卒プログラマ」みたいな感じでした…。
コチラも2時間ほど使いましたが、Codex の管理画面で確認できる使用状況を見るに、「週あたりの使用制限」で 10% くらいしか減っていなかったので、無料枠として遊べる時間の長さ・チャットのやり取りができる回数としてはかなり多いかなという印象です。その点では無料枠を使い切ってしまった Antigravity と比べるとたくさん遊べるのかもしれませんが、「そうじゃなくってー!」という指示調整が増えるので、進捗はイマイチです。
以上
というワケで、今回は以下の「AI エージェント」サービスを課金しない範囲で試してみて、その使用感を比較してきました。
- Continue : Ollama を通じてセルフホストしている LLM を使えるので実質無料のまま使い続けられる
- Qodo
- Traycer
- Google Antigravity : IDE 統合型。Gemini 3.5 Pro・Claude Sonnet 4.5 など優秀なモデルを無料枠で使える
- OpenAI Codex : 無料枠内でも GPT-5.2-Codex モデルをかなり潤沢に利用できる
無料枠の中で賢いモデルの挙動を体感してみたかったら Google Antigravity、無料枠の中でたくさん試行錯誤して AI エージェントとやり取りしてみたいなら OpenAI Codex、という感じで目的に応じて使い分けると良いかと思います。
一方、試したかったけど試せなかったサービスは以下のとおり。
- Claude Code : Free プランでは CLI・VSCode 拡張機能など利用できず課金必須
- Cursor : 無料枠はあるはずですが動作せず
巷では Claude Code の AI エージェント関連機能のリリースが目立っていたので、Claude Code の利用が本命でしたが、課金必須ということで Opus モデルなども試せず。ただ、Antigravity 経由で Sonnet 4.5 を利用できただけでも相当賢いことは感じ取れました。
全てのサービス群の無料枠を使い切ってしまった時は、ローカル LLM で動かせる Continue に戻ればそれっぽいことはやれそうかな、というところまでは知見が得られました。そしてコレを書いている間に、「Continue」に近いツールとして「Goose」というモノも存在することを知ったりしましたので、それなりの性能のマシンを持っている人はローカル LLM で生きる道もまだしばらくありそうで一安心です。
- 参考 : 「Claude Code」の代替ツールを試す--ローカルで動作し、オープンソースかつ無料 - ZDNET Japan
-
「Goose」と「Qwen3-coder」 : Qwen3-coderは「Claude 3.5 Sonnet」に匹敵する
-
今回 AI エージェントを使って僕は何を作ろうとしていたのか?については、次回の記事でお話したいと思います。