Blog

Mac miniにOpenClaw + Ollama + Gemma4を導入する

この記事では、Mac mini(M4 メモリ16G)にローカルLLM環境を構築する手順を解説します。
以下の構成で、APIキー不要・無料でAIエージェントを動かすことができます。

  • OpenClaw : AIエージェントフレームワーク
  • Ollama : ローカルLLM実行環境
  • Gemma4 E2B : Googleが開発したローカルLLMモデル
  • Discord : AIエージェントとのチャットインターフェース

モデルの紹介は後述記述しますが、私のMac mini環境はDockerサーバーも使用していたため、Gemma4 E2Bを選択しました。


事前準備

セキュリティについて

OpenClawはファイルの読み書き・コマンド実行など広い権限で動作します。
以下の対応を強くおすすめします。

  • iCloud(Apple アカウント)をサインアウトする
  • Chromeからサインアウト&保存データを削除する
  • Mac miniをOpenClaw専用マシンとして使用する

必要なもの

  • Mac mini(メモリ16GB推奨)
  • Homebrewがインストール済みであること
  • Discordアカウント(他のSNSアカウントでも可能)

ステップ1:Ollamaのインストール

brew install ollama

Ollamaを起動する

新しいターミナルタブを開いて実行してください。このタブは常時開いたままにしておきます。

ollama serve

ステップ2:Gemma4 E2Bモデルのダウンロード

別のターミナルタブで実行してください。

ollama pull gemma4:e2b

動作確認

ollama run gemma4:e2b

>>> が表示されれば成功です。Ctrl + D で終了してください。


ステップ3:OpenClawのインストール

curl -fsSL https://openclaw.ai/install-cli.sh | bash

PATHの設定

echo 'export PATH="$HOME/.openclaw/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

インストール確認

openclaw --version

バージョン番号が表示されればOKです。


ステップ4:Discordの設定

Discord Botトークンの取得

  1. discord.com/developers/applications にアクセス
  2. 「New Application」をクリックしてアプリを作成
  3. 左メニューの「Bot」をクリック
  4. 「Reset Token」でトークンを発行・コピー

※Discrodのトークンについては、以前の記事からも参照出来ます。

チャンネルIDの取得

  1. Discordの 設定 → 詳細設定 → 開発者モード をONにする
  2. 使用したいチャンネルを右クリック
  3. 「チャンネルIDをコピー」をクリック

ステップ5:OpenClawのオンボーディング

openclaw onboard --install-daemon

ウィザードでの設定内容は以下の通りです。

設定項目選択内容
個人利用の確認Yes
Setup modeQuickStart
Model/auth providerOllama
Ollama modeLocal only
Ollama base URLhttp://127.0.0.1:11434(デフォルト)
Default modelollama/gemma4:e2b
ChannelDiscord
Discord bot token取得したトークンを貼り付け
Discord channels accessAllowlist
Discord channels allowlist取得したチャンネルIDを入力
Web searchSkip for now
SkillsNo
Hookssession-memory にチェック
HatchHatch in Terminal

ステップ6:モデルの設定確認と反映

オンボーディング後、以下のコマンドでモデルが正しく設定されているか確認します。

openclaw config get agents.defaults.model.primary

ollama/gemma4:e2b と表示されればOKです。

openclaw config set agents.defaults.model.primary "ollama/gemma4:e2b"

ゲートウェイを再起動して反映

openclaw gateway stop && sleep 3 && openclaw gateway start

ステップ7:起動と動作確認

openclaw chat

以下のように表示されれば正常に動作しています。

agent main | session main | ollama/gemma4:e2b | tokens ?/128k

日本語で応答させる

チャット画面で以下を入力してください。

これ以降、必ず日本語で返答してください。私はターミナル作業のアシスタントとしてあなたに動いてほしいです。

よく使うコマンド

コマンド説明
openclaw chat会話モードを起動
openclaw configure設定を変更する
openclaw gateway restartゲートウェイを再起動
openclaw gateway stopゲートウェイを停止
openclaw config get agents.defaults.model.primary現在のモデルを確認
ollama listインストール済みモデルの一覧
ollama pull <モデル名>モデルをダウンロード
ollama rm <モデル名>モデルを削除

トラブルシューティング

zsh: command not found: openclaw

PATHが通っていない可能性があります。

echo 'export PATH="$HOME/.openclaw/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

404 model not found

モデル名が間違っているか、モデルがダウンロードされていません。

ollama list
openclaw config set agents.defaults.model.primary "ollama/gemma4:e2b"

does not support tools

ツール呼び出しに対応していないモデルを使用しています。
gemma4:e2b はツール呼び出しに対応しています。

応答が返ってこない・CPU使用率が高い

メモリ不足の可能性があります。不要なアプリを終了するか、より軽量なモデルを使用してください。


環境情報

項目内容
OSmacOS
メモリ16GB推奨
OpenClaw2026.4.25
Ollama最新版
モデルgemma4:e2b(約3GB)

Gemma4 モデル比較

Gemma4にはサイズの異なる4種類のモデルがあります。用途やメモリに応じて選択してください。

モデル実効パラメータ必要メモリ(4bit量子化)コンテキスト長ツール対応音声入力おすすめ用途
gemma4:e2b2.3B約1.5〜4GB128Kスマホ・省メモリ環境・本記事の構成
gemma4:e4b4.5B約5〜6GB128KノートPC・バランス重視
gemma4:26b4B(MoE)約14〜18GB256Kデスクトップ・高品質
gemma4:31b31B(dense)約20GB以上256K最高品質・ハイエンド環境

モデル選びの目安

環境おすすめモデル
メモリ8GB以下gemma4:e2b
メモリ8〜12GBgemma4:e4b
メモリ16GB(他アプリ併用あり)gemma4:e2b または gemma4:e4b
メモリ16GB(専用機)gemma4:26b
メモリ24GB以上gemma4:31b

アーキテクチャの違い

  • E2B / E4B:エッジデバイス向けに最適化されたモデル。「E」はEffective(実効)パラメータの意味で、Per-Layer Embeddingsにより小さいサイズながら高い表現力を持ちます。音声入力にも対応しています。
  • 26B(MoE):Mixture of Experts(専門家の混合)アーキテクチャ。26Bのパラメータを持ちますが、推論時に実際に動くのは約4Bのみのため、メモリ効率が高く31Bに近い品質が得られます。
  • 31B(dense):全パラメータを使う通常の高密度モデル。最高品質ですが必要メモリも最大です。

まとめ

OpenClaw + Ollama + Gemma4 E2Bの組み合わせにより、APIキー不要・完全無料・ローカルで動作するAIエージェント環境を構築できます。Discordを通じてどこからでもAIエージェントと会話が可能です。

プライバシーを重視する方や、ローカルLLMを学習したい方にぜひ試していただきたい構成です。