新調したローカル画像生成 専用パソコンに、Stable Diffusion Forge-neoをインストールした際の、いくつかの小話
環境情報
OS: Windows 11 + WSL2 (Ubuntu 24.04)
GPU: NVIDIA GeForce RTX 5060 Ti 16GB
CUDA: 12.9
Python: 3.11.9
Stable Diffusion WebUI Forge-neo
Stable Diffusion WebUI on WSL2:知っておくべき4つのこと
WSL2(Ubuntu)でStable Diffusion WebUIやForge-neoをセットアップした際に学んだ、意外と知られていない重要なポイントを共有します。
特に初心者の方に読んでほしい内容です。
1. webui-user.batを実行するだけでいい?知らなかった自動セッティング
今まで私がやっていたこと
複数台のパソコンでStable Diffusion WebUIをインストールしてきましたが、いつも以下のような手順を踏んでいました:
Pythonのバージョン確認
venv作成
pip install torch...
pip install -r requirements.txt
各種ライブラリの手動インストール
環境変数の設定
めちゃくちゃ時間がかかるし、手順を間違えることも...
実は簡単な方法があった
Githubからクローンした後、sd-webui-forge-neoフォルダ内の、webui-user.batをダブルクリックするだけで、上記の作業を全部自動でやってくれます。
そんなこと、今まで誰(AI)も、教えてくれなかったんですけど….。
sd-webui-forge-neo/
├── webui-user.bat ← これを実行するだけ
├── webui.py
└── ...メリット・デメリット
メリット
圧倒的に簡単(ワンクリック)
環境構築ミスが少ない
初心者でも確実にセットアップできる
更新(git pull)後も同じbatを実行するだけ
デメリット
何が起きているか分からない(ブラックボックス化)
カスタマイズしたい時に困る
トラブル時の対処が難しい
私の結論
初回は自動セッティング、トラブル時は手動というハイブリッドがベスト。手動セットアップの知識があると、問題が起きた時に強いです。
2. WSL2の超重要ポイント:/mnt/c/ より ~/ が爆速
これ、知らないと大損します。
まず:Linuxのパス表記について
Windowsに慣れている方向けに、簡単に説明します:
具体例:
bash
~ # /home/user-name/
~/Documents # /home/user-name/Documents/
/home/user-name # 絶対パスで書くとこう
「~」は「あなたのホームフォルダ」を指す便利な省略記号です。
WSL2には2つのファイルシステムがある
Linux側(ネイティブ)⚡ 超高速
~/ # /home/ユーザー名/
/home/your-name/Windows側(マウント)🐌 遅い
/mnt/c/Users/... # C:\Users\...
/mnt/d/ # D:\実際の速度差
同じStable Diffusion Forge-neoのインストールで:
なぜこんなに遅いのか
WindowsのNTFSファイルシステムをWSL2経由でアクセス
ファイルパーミッション変換のオーバーヘッド
小ファイルの大量読み書き(pip install時)で顕著
シンボリンク処理が遅い
推奨セットアップ方法
# ❌ 遅い方法
cd /mnt/c/Users/YourName/Documents/AI-Projects/
git clone https://github.com/...
# ✅ 速い方法
cd ~/Documents/
git clone https://github.com/...モデルファイルはどうする?
大容量のモデルファイル(.safetensors等)はWindows側に置いても影響は小さいです。シンボリックリンクで接続すればOK:
# プログラム本体はLinux側
cd ~/sd-webui-forge-neo
# モデルはWindows側を参照
ln -s /mnt/c/Users/YourName/StableDiffusion/models modelsWindowsからアクセスしたい場合
エクスプローラーで以下のパスを入力:
\\wsl$\Ubuntu\home\your-name\sd-webui-forge-neoピン留めしておくと便利です。
3. 移動時はvenvの作り直しが必須
Forge-neoを、うっかりWindows側 (/mnt/c/Users/.../) に作ってしまって、遅すぎて使い物にならなかったので、Linux側 (~/Documents) に移動させました。
プロジェクトを別の場所に移動する際、仮想環境(venv)は必ず作り直しが必要です。
なぜ作り直す必要があるのか
仮想環境内のファイルには絶対パスが埋め込まれています:
# venv/bin/activate の中身
VIRTUAL_ENV="/mnt/c/Users/.../sd-webui-forge-neo/venv"パスが変わると、この設定が全部壊れます。
正しい移動手順
# 1. 仮想環境から出る
deactivate
# 2. プロジェクトを移動
rsync -av --progress /mnt/c/Users/.../sd-webui-forge-neo ~/
# 3. 移動先に移動
cd ~/sd-webui-forge-neo
# 4. 古いvenvを削除
rm -rf venv
# 5. 新しいvenvを作成
python3.11 -m venv venv
source venv/bin/activate
# 6. パッケージを再インストール
pip install -r requirements.txt再インストールは速い
2回目以降のインストールはキャッシュが効くので、初回の1/3〜1/5程度の時間で終わります。
Linux側(`~/`)なら、再インストールでも10分程度です。
4. 最新ハードウェア(RTX 50シリーズ)でも意外と動く
私の環境
GPU: RTX 5060 Ti 16GB(2025年発売の最新GPU)
CUDA: 12.9
ドライバー: 576.88
心配していたこと
PyTorchがCUDA 12.9に対応していない?
RTX 50シリーズ(Blackwell世代)は新しすぎる?
xformersが使えない?
公式のPyTorchビルドはCUDA 12.1までしかサポートしていないので、動かないかもと思っていました。
結果:問題なく動いた
python -c "import torch; print(torch.cuda.is_available())"
# True
python -c "import torch; print(torch.cuda.get_device_name(0))"
# NVIDIA GeForce RTX 5060 TiCUDA 12.1ビルドのPyTorchでも、CUDA 12.9環境で動作しました。
インストール方法
# 仮想環境に入った状態で
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121xformersについて
RTX 50シリーズでは、既存のxformersビルドが対応していない可能性があります。
でも大丈夫:**PyTorch 2.0のSDPA(Scaled Dot Product Attention)**がネイティブで入っているので、xformers無しでも十分高速です。
# xformersなしで起動
python webui.py新しいハードウェアを使う場合のコツ
公式の対応バージョンより1〜2世代新しくても、互換性モードで動くことが多い
エラーが出ても諦めず、Nightly版やプレビュー版を試す
コミュニティ(GitHub Issues、Reddit等)で同じ環境の人を探す
まとめ:快適なWSL2 × Stable Diffusion環境のために
チェックリスト
✅ 自動セッティング(webui-user.bat)の存在を知る
✅ プロジェクトはLinux側(`~/`)に配置
✅ 移動時はvenvを必ず作り直す
✅ 最新ハードでも諦めず試してみる
推奨セットアップ手順
# 1. Linux側でクローン
cd ~/Documents/
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge sd-forge-neo
# 2. ディレクトリ移動
cd sd-forge-neo
# 3. Python 3.11の仮想環境作成
python3.11 -m venv venv
source venv/bin/activate
# 4. 依存パッケージインストール
pip install -r requirements.txt
# 5. PyTorch(CUDA対応版)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# 6. 起動
python webui.py起動時間の目安
おわりに
この記事が、WSL2でStable Diffusionを快適に使いたい方の参考になれば幸いです。
特に**「/mnt/c/より ~/が速い」**という点は、WSL2を使う上で知っておくべき基本中の基本なのに、意外と知られていません。
みなさんも快適なAI画像生成ライフを!


コメント