この記事では、Mac mini(M4 メモリ16G)にローカルLLM環境を構築する手順を解説します。
以下の構成で、APIキー不要・無料でAIエージェントを動かすことができます。
- OpenClaw : AIエージェントフレームワーク
- Ollama : ローカルLLM実行環境
- Gemma4 E2B : Googleが開発したローカルLLMモデル
- Discord : AIエージェントとのチャットインターフェース
モデルの紹介は後述記述しますが、私のMac mini環境はDockerサーバーも使用していたため、Gemma4 E2Bを選択しました。
事前準備
セキュリティについて
OpenClawはファイルの読み書き・コマンド実行など広い権限で動作します。
以下の対応を強くおすすめします。
- iCloud(Apple アカウント)をサインアウトする
- Chromeからサインアウト&保存データを削除する
- Mac miniをOpenClaw専用マシンとして使用する
必要なもの
- Mac mini(メモリ16GB推奨)
- Homebrewがインストール済みであること
- Discordアカウント(他のSNSアカウントでも可能)
ステップ1:Ollamaのインストール
brew install ollamaOllamaを起動する
新しいターミナルタブを開いて実行してください。このタブは常時開いたままにしておきます。
ollama serveステップ2:Gemma4 E2Bモデルのダウンロード
別のターミナルタブで実行してください。
ollama pull gemma4:e2b動作確認
ollama run gemma4:e2b>>> が表示されれば成功です。Ctrl + D で終了してください。
ステップ3:OpenClawのインストール
curl -fsSL https://openclaw.ai/install-cli.sh | bashPATHの設定
echo 'export PATH="$HOME/.openclaw/bin:$PATH"' >> ~/.zshrc
source ~/.zshrcインストール確認
openclaw --versionバージョン番号が表示されればOKです。
ステップ4:Discordの設定
Discord Botトークンの取得
- discord.com/developers/applications にアクセス
- 「New Application」をクリックしてアプリを作成
- 左メニューの「Bot」をクリック
- 「Reset Token」でトークンを発行・コピー
※Discrodのトークンについては、以前の記事からも参照出来ます。
チャンネルIDの取得
- Discordの 設定 → 詳細設定 → 開発者モード をONにする
- 使用したいチャンネルを右クリック
- 「チャンネルIDをコピー」をクリック
ステップ5:OpenClawのオンボーディング
openclaw onboard --install-daemonウィザードでの設定内容は以下の通りです。
| 設定項目 | 選択内容 |
|---|---|
| 個人利用の確認 | Yes |
| Setup mode | QuickStart |
| Model/auth provider | Ollama |
| Ollama mode | Local only |
| Ollama base URL | http://127.0.0.1:11434(デフォルト) |
| Default model | ollama/gemma4:e2b |
| Channel | Discord |
| Discord bot token | 取得したトークンを貼り付け |
| Discord channels access | Allowlist |
| Discord channels allowlist | 取得したチャンネルIDを入力 |
| Web search | Skip for now |
| Skills | No |
| Hooks | session-memory にチェック |
| Hatch | Hatch in Terminal |
ステップ6:モデルの設定確認と反映
オンボーディング後、以下のコマンドでモデルが正しく設定されているか確認します。
openclaw config get agents.defaults.model.primaryollama/gemma4:e2b と表示されればOKです。
openclaw config set agents.defaults.model.primary "ollama/gemma4:e2b"ゲートウェイを再起動して反映
openclaw gateway stop && sleep 3 && openclaw gateway startステップ7:起動と動作確認
openclaw chat以下のように表示されれば正常に動作しています。
agent main | session main | ollama/gemma4:e2b | tokens ?/128k日本語で応答させる
チャット画面で以下を入力してください。
これ以降、必ず日本語で返答してください。私はターミナル作業のアシスタントとしてあなたに動いてほしいです。よく使うコマンド
| コマンド | 説明 |
|---|---|
openclaw chat | 会話モードを起動 |
openclaw configure | 設定を変更する |
openclaw gateway restart | ゲートウェイを再起動 |
openclaw gateway stop | ゲートウェイを停止 |
openclaw config get agents.defaults.model.primary | 現在のモデルを確認 |
ollama list | インストール済みモデルの一覧 |
ollama pull <モデル名> | モデルをダウンロード |
ollama rm <モデル名> | モデルを削除 |
トラブルシューティング
zsh: command not found: openclaw
PATHが通っていない可能性があります。
echo 'export PATH="$HOME/.openclaw/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc404 model not found
モデル名が間違っているか、モデルがダウンロードされていません。
ollama list
openclaw config set agents.defaults.model.primary "ollama/gemma4:e2b"does not support tools
ツール呼び出しに対応していないモデルを使用しています。gemma4:e2b はツール呼び出しに対応しています。
応答が返ってこない・CPU使用率が高い
メモリ不足の可能性があります。不要なアプリを終了するか、より軽量なモデルを使用してください。
環境情報
| 項目 | 内容 |
|---|---|
| OS | macOS |
| メモリ | 16GB推奨 |
| OpenClaw | 2026.4.25 |
| Ollama | 最新版 |
| モデル | gemma4:e2b(約3GB) |
Gemma4 モデル比較
Gemma4にはサイズの異なる4種類のモデルがあります。用途やメモリに応じて選択してください。
| モデル | 実効パラメータ | 必要メモリ(4bit量子化) | コンテキスト長 | ツール対応 | 音声入力 | おすすめ用途 |
|---|---|---|---|---|---|---|
| gemma4:e2b | 2.3B | 約1.5〜4GB | 128K | ✅ | ✅ | スマホ・省メモリ環境・本記事の構成 |
| gemma4:e4b | 4.5B | 約5〜6GB | 128K | ✅ | ✅ | ノートPC・バランス重視 |
| gemma4:26b | 4B(MoE) | 約14〜18GB | 256K | ✅ | ❌ | デスクトップ・高品質 |
| gemma4:31b | 31B(dense) | 約20GB以上 | 256K | ✅ | ❌ | 最高品質・ハイエンド環境 |
モデル選びの目安
| 環境 | おすすめモデル |
|---|---|
| メモリ8GB以下 | gemma4:e2b |
| メモリ8〜12GB | gemma4:e4b |
| メモリ16GB(他アプリ併用あり) | gemma4:e2b または gemma4:e4b |
| メモリ16GB(専用機) | gemma4:26b |
| メモリ24GB以上 | gemma4:31b |
アーキテクチャの違い
- E2B / E4B:エッジデバイス向けに最適化されたモデル。「E」はEffective(実効)パラメータの意味で、Per-Layer Embeddingsにより小さいサイズながら高い表現力を持ちます。音声入力にも対応しています。
- 26B(MoE):Mixture of Experts(専門家の混合)アーキテクチャ。26Bのパラメータを持ちますが、推論時に実際に動くのは約4Bのみのため、メモリ効率が高く31Bに近い品質が得られます。
- 31B(dense):全パラメータを使う通常の高密度モデル。最高品質ですが必要メモリも最大です。
まとめ
OpenClaw + Ollama + Gemma4 E2Bの組み合わせにより、APIキー不要・完全無料・ローカルで動作するAIエージェント環境を構築できます。Discordを通じてどこからでもAIエージェントと会話が可能です。
プライバシーを重視する方や、ローカルLLMを学習したい方にぜひ試していただきたい構成です。
