1. HOME»
  2. AI»
  3. AI画像生成»
  4. Stable Diffusion web UIのインストールと使い方

Stable Diffusion web UIのインストールと使い方

今回は、「Stable Diffusion web UI」をWindowsやMacにインストールする方法と、その使い方を紹介します。

目次
  1. Stable Diffusion web UIについて
  2. インストール
  3. Stable Diffusion web UIの実行と終了
  4. かんたんな使い方
  5. パラメータについて
  6. モデルについて
  7. モデルやVAEの配置と切り替え
  8. まとめ

Stable Diffusion web UIについて

Stable Diffusion web UIは、ブラウザをインターフェースとして利用して、AIによる画像生成を行うことができるツールです。

GitHub[AUTOMATIC1111/stable-diffusion-webui](https://github.com/AUTOMATIC1111/stable-diffusion-webui

Stable Diffusion web UIでは、次のような画面をブラウザで動かすことができ、かんたんにAIによる画像生成を行うことができます。

この、ブラウザを使うというスタイルのおかげで、Windowsでも、Mac(Apple Silicon)でも、Linuxでも動かすことができます。

さらにはGoogle Colabなどで環境を整え、高速のGPUを使って動かすこともできますし、ここでは解説しないのですが、家にあるハイスペックなPCで起動しておき、ローカルサーバを立てて、同じネットワークの別のPC、Mac、スマホなどから、ブラウザでアクセスして使うこともできます。

柔軟な使い方ができ、GUIによる操作で分かりやすいので、私としては、画像生成AIに「Stable Diffusion web UI」を使うことをおすすめしています。

インストール

では、実際に「Stable Diffusion Web UI」をインストールしてみましょう。

Windows

Windowsのローカル環境で「Stable Diffusion Web UI」を動かすために必要なものです。

まず、「Stable Diffusion Web UI」では、Python 3.10.6が必要になります。(2023/06/03現在)
また、Pythonのインストールのとき、「Add Python 3.10 to PATH」にチェックを入れる必要があります。

詳しい情報はGitHub[AUTOMATIC1111/stable-diffusion-webui](https://github.com/AUTOMATIC1111/stable-diffusion-webui)をご覧ください。

では、Windowsに「Stable Diffusion Web UI」をインストールしていきましょう。

PowerShellを開き、cdコマンドで任意のディレクトリに移動したあと、以下のコマンド一行ずつ順番に実行します。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd .\stable-diffusion-webui\
.\webui-user.bat

とても時間がかかりますが、待ちましょう。

しばらくすると、「Running on local URL:」と表示されるので、その後ろのリンクを開きます。

もし、Pythonを他の目的でも使っている場合、バージョンを3.10.6に固定するのはむずかしいかもしれません。
そんなときはAnacondaなどを使うと便利になります。

Anaconda:https://www.anaconda.com/

Mac (Apple Silicon)

必要なツールのインストールに、Homebrewを使いますので、あらかじめインストールしておきましょう。

ターミナルを開き、cdコマンドで任意のディレクトリに移動したあと、以下のコマンド一行ずつ順番に実行します。

brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
./webui.sh

とても時間がかかりますが、待ちましょう。

しばらくすると、「Running on local URL:」と表示されるので、その後ろのリンクを開きます。

Google Colab

ローカルでAI画像生成を行おうとすると、やはりスペックの高いマシンが必要になります。
しかし、高額のマシンを購入するのは、なかなかできるものではありません。

そんなとき、Google Colabの力を借りることで、高性能のマシンを持っていなくても、「Stable Diffusion Web UI」を動かすことができます。

Google Colabで「Stable Diffusion Web UI」を使う方法は、こちらの記事で詳しく解説しておりますので、ご覧ください。

Stable Diffusion web UIの実行と終了

つづいて、ローカルでStable Diffusion web UIを動かすときの、実行と終了の方法です。
いろんな方法がありますが、インストールのときのコマンドでも実行できます。
(さきほどのインストールのときは時間がかかりましたが、今回、もうインストールは済んでいるので時間はかかりません)

Windows

Windowsの場合は、cdコマンドでstable-diffusion-webuiフォルダに移動したあと、webui-user.batを実行します。

cd stable-diffusion-webui
.\webui-user.bat

また、stable-diffusion-webuiフォルダにあるwebui-user.batを、ダブルクリックで実行することもできます。

終了するには、control + cを押して、さらに質問にYと入力します。

Mac (Apple Silicon)

Windowsの場合は、cdコマンドでstable-diffusion-webuiフォルダに移動したあと、webui.shを実行します。

cd stable-diffusion-webui
./webui.sh

また、control + cで終了できます。

かんたんな使い方

ここまでの内容で、Stable Diffusion Web UIを使うことができるようになったと思います。
ここからは、使い方を学んでいきましょう。

画像生成AIでは、どういうイラストを生成したいのかを、言葉や文によって伝えます。

この言葉や文のことを、「プロンプト(Prompt)」と呼びます。

  • 描いてほしいものを、プロンプト(Prompt)として入力
  • 描いてほしくないものがあれば、ネガティブプロンプト(Negative prompt)として入力

プロンプト(Prompt)や、ネガティブプロンプト(Negative prompt)は、下の画像の場所に入力します。

たとえば、「a black cat riding a red motorcycle(赤いオートバイに乗った黒猫)」とプロンプトを入力し、「Generate」をクリックします。
すると、下のような画像が生成されます。(基本的に、毎回違う画像が表示されます)

パラメータについて

つづいて、Stable Diffusion web UIで画像生成するための、パラメータを見ていきましょう。
各パラメータの値を変えることで、画像生成におけるいろんな設定をすることができます。

1. Sampling methodサンプリング方法
2. Sampling stepsノイズからイラストに変えていくための回数
3. Restore faces顔を綺麗にできる(美人になるとは限らない)
4. Tilingタイル状に並べる
5. Hires. fix解像度を上げることができる
6. Width, Height画像の横幅、高さ
7. Batch count画像の枚数(何回バッチを行うか)
8. Batch size画像の枚数(1回のバッチで何枚の画像を生成するか)
9.CFG Scaleどれだけプロンプトに近いイラストを生成するか
10. SeedSeedの数値と他の設定によって絵が決まる。-1にするとランダム

Sampling steps

Sampling stepsは、ノイズをイラストに変えていくための回数です。
画像生成では、最初はノイズを作成し、そこから少しずつ、プロンプトに沿ったイラストにしていきます。

Stepsが多いほど鮮明になりますが、ある程度まで鮮明になれば、そこからは絵自体が変わっていきます。

Restore faces

「Restore faces」のチェックを入れることで、顔が綺麗になります。
ただ、美人になる、とは言えないかもしれません。

CFG Scale

CFG Scaleは、数値を高くするとプロンプトに近いイラストを生成することができます。
ただ、高くしすぎると、絵が崩れてしまうこともあります。

モデルについて

AI画像生成において、プロンプトやパラメータによる設定も重要なのですが、どのモデルを使うのかというのもとても大切です。

モデルとは、入力に対して、判断して、結果を出力する、という仕組みです。
さまざまなモデルがデータファイルとして配布されており、基本的には、自分の好みに合ったものを使います。

モデルが変わると、画風がまったく変わります。

モデルの形式は、safetensorsとckptがありますが、セキュリティの観点から、safetensorsの方が多く使われています

モデルを探したい場合は、次の記事を参考にしてください。

モデルやVAEの配置と切り替え

では、モデルの切り替え方法を見ていきます。

まず、使いたいモデルを見つけたら、そのダウンロードページをよく読みます。
すると、よく必要なものが書かれている場合があり、そこにはVAEと書いてある場合があります。

モデルを切り替えるには、そのモデルファイルや、VAEを、決まったディレクトリに配置する必要があります。

ここではBasil Mixを例に、モデルの切り替え方法を見ていきましょう。
Basil Mixでは、VAEにvae-ft-mse-840000を使うことが推奨されています。

Hugging Face[nuigurumi/basil_mix]:https://huggingface.co/nuigurumi/basil_mix

VAE: vae-ft-mse-840000:https://huggingface.co/stabilityai/sd-vae-ft-mse-original

今回は、「Basil_mix_fixed.safetensors」、「vae-ft-mse-840000-ema-pruned.safetensors」のふたつのファイルを使います。
これらを以下の場所に配置しましょう。

stable-diffusion-webui/
|-- models/
|   |-- Stable-diffusion/
|   |   `-- Basil_mix_fixed.safetensors
|   |-- VAE/
|   |   `-- vae-ft-mse-840000-ema-pruned.safetensors
|   `-- 〜省略〜
`-- 〜省略〜

では、モデルを変更してみましょう。
「Stable Diffusion checkpoint」のところで、モデルを変更することができます。
(もしうまく読み込まれていないようならば、右隣の再読み込みボタンをクリックします)

また、VAEも設定します。
Settingsから、Stable Diffusionと選択し、SDVAEの項目で、用意したVAEを選択します。
(もしうまく読み込まれていないようならば、右隣の再読み込みボタンをクリックします)

これで、モデルやVAEを切り替えることができます。
また、Colabを使ったBasil Mixでのイラスト生成の方法を知りたい方は、こちらの記事を参考にしてください。

まとめ

今回は、Stable Diffusion Web UIのインストール方法から、使い方までを紹介しました。

Stable Diffusion Web UIは、ブラウザをインターフェースとして使って、かんたんな操作でAI画像生成を行うことができるツールです。

Google Colabなどでも動かして操作ができ、多くの環境で使えるのも、Stable Diffusion Web UIのメリットのひとつです。

16件のコメント 「Stable Diffusion web UIのインストールと使い方」

  1. ここで紹介されているコマンドを手順通りに入力したのですが、何故か
    exit code: 9059

    stderr:
    ファイル C:\Users\(既に使っていない兄のアカウント)\AppData\Local\Microsoft\WindowsApps\python.exe が見つかりません。
    という表示が出てきてしまいます。どうすればいいですか?

    1. >SkyCosmosさん
      コメントありがとうございます。
      私ももう一度、記事のコマンドWindowsで実行してみましたが、画像を生成することができました。

      もしかすると、Pythonのインストールがうまくできていないのかもしれません。
      PowerShellで、「python -V」と実行して「3.10.6」というふうにバージョンが表示されるかどうかご確認ください。

      もしバージョンが表示されないのでしたら、もう一度Pythonのインストールをお試しください。

      またよろしくお願いします。

  2. 突然の質問すみません。

    画像を生成しようとすると以下文言が表示されて、画像が生成できない状態です。
    MPS backend out of memory (MPS allocated: 2.76 GB, other allocations: 191.84 MB, max allowed: 3.40 GB). Tried to allocate 512.00 MB on private pool. Use PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0 to disable upper limit for memory allocations (may cause system failure).

    おそらくメモリ不足?かと思うのですがこちら対処法等ありますでしょうか。。

    1. >kさん
      コメントありがとうございます。
      私もWindowsとMacの両方で、記事の通りに試してみましたが、画像の生成まで動作させることができました。

      kさんがどの方法で画像生成を行なっているのか分からないので、想像でお答えするしかないのですが、お使いのハードはMacでしょうか。

      だとすれば、こちらのページで、今回のエラーについての話し合いがされています。
      https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/9133

      中には、解決案を出してくださっている方もいますので、参考にいかがでしょうか。

      例えば、最後のコマンドの「./webui.sh」の代わりに以下を使ってみるとどうなりますか。
      PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.7 ./webui.sh --precision full --no-half

      もしお手元のPCでうまく動作しないのであれば、有料になってしまうとは思いますが、Google Colabなどのオンラインサービスを使うのもひとつの手です。

      参考になれば幸いです。

  3. 質問すいません。
    インストールは成功してジェネレートもできたのですが、これらを再起動する際はどのような手順で立ち上げればよいのでしょうか?

    1. >aさん
      コメントありがとうございます。

      確かに記事中には、Stable Diffusion web UIをストップしたあと、再び起動する方法については触れていませんでした。
      申し訳ございません。

      再び起動するには、cdコマンドでstable-diffusion-webuiフォルダに移動し、Windowsであれば「.\webui-user.bat」、Macであれば「./webui.sh」を実行します。

      記事中にも、方法を追記させていただきました。
      参考になれば幸いです。

  4. インストールしてみたいと思い参考にさせて頂いております。

    質問なのですが、
    「ターミナルを開き、cdコマンドで任意のディレクトリに移動したあと、以下のコマンドを一行ずつ順番に実行します。」とあり、

    このあと、「Running on local URL:」が表示されるとのことですが、
    これはどのぐらいかかると見ておけばよいでしょうか?

    一見止まっているかのようにも感じ不安になったのでご質問させて頂きました。
    宜しくお願いいたします。

    1. >taikiさん
      コメントありがとうございます。

      さきほど、M1 Macを使って試してみましたが、私の環境では、だいたい15分ぐらいかかりました。
      たくさん画像生成して楽しみましょう!

      参考になれば幸いです。

  5. Stable Diffusion web UIのインストール方法を参考にさせて頂きました!
    質問なのですが、
    実際に使ってみるとStable Diffusion checkpointの箇所が空白で、Stable Diffusion web UIのmodelsのStable Diffusion フォルダを開いても何もない状態です。
    このフォルダに新しくbrav5などをインストールしても適応されず画像が生成できない状態です。
    この場合どのように対処すればいいでしょうか?
    ちなみにmacを使用しています。

    1. >hiroさん
      コメントありがとうございます。

      私ももう一度、macでの画像生成を試してみたのですが、私の環境では、問題なく生成することができました。
      brav5も試してみましたが、ちゃんと生成されています。

      しかし、macにもいろいろありますので、原因がなんなのかは分からないです。申し訳ありません。

      Google Colab上での話になってしまうのですが、Stable Diffusion checkpointの部分が空白になるというのは、なんども経験しています。
      (このとき、Stable-diffusionフォルダがどうなっていたかまでは記憶にないのですが……)
      そんなときは、Google Colabでコードを実行しなおすとうまく動くことも多いので、Macでも同じように、もういちどターミナルから実行しなおすことで、解決できるかもしれません。

      うまく動くことを願っています。

  6. こんにちは、Stable diffusion web UIを使用しているのですが、Generateボタンを押しても画像が生成されません。何か対処法をご存じでいたらご教授いただけると助かります。

    1. >アクティビティさん
      こんにちは。コメントありがとうございます。
      私の環境の場合も、Generateボタンを押しても画像が表示されないことがたまにあります。
      多くの場合、Colabの画面からもういちど実行しなおすと動くようになります。

      参考になれば幸いです。

  7. 参考にさせていただいています
    ありがとうか!

    質問なんですが
    お気に入りの子が出来てその子の別バージョン(ポーズや服装)を作りたい場合はどうしたらいいですか?
    時間があったら教えてください

    1. >ちぃさん
      コメントありがとうございます。
      同じキャラクターを作りたいと思うことは、私もよくあります。

      私の場合ですが、作りたいキャラクターの特徴を、詳細にプロンプトに書き込みます。
      性別、髪型、髪の色、服装、などです。

      なかなか思い通りに反映されないこともありますが、なんども試します。

      参考になるか分かりませんが、またよろしくお願いします。

  8. こんにちは、オリジナルゲームです。

    この画像にどのモデルを使用したかお聞きしたいです: https://original-game.com/wp-content/uploads/2023/02/sd-eyecatch.jpg、結果は非常に詳細で驚くべきものです。 顕著。

    そうそう、チェックポイント マージャーまたはスーパーマージャーのどちらを使用しているかにかかわらず、チェックポイント マージャーに関するチュートリアルをリクエストできますか? 興味深い議論になりそうです。 それとは別に、独自のチェックポイントや LoRa を作成するためのチュートリアルを作成することもできます。これは非常に役立ちます。 申し訳ありませんが、私はあなたのサイトを訪れて楽しんでいるだけです。 私の前の質問に答えてください。

    ありがとう。

    1. >Elenaさん
      コメントありがとうございます。
      画像のモデルになにを使ったかは秘密です。

      Checkpoint Mergerについても面白いと思うのですが、LoRAの作成は特に私も興味があり、試したこともあります。
      時間の都合もあり、記事にできるかは分からないのですが、もし記事にできれば、興味深い内容になると思います。

      素晴らしいアイデアをありがとうございました。

It is R へ返信する コメントをキャンセル

メールアドレスが公開されることはありません。 が付いている欄は必須項目です




オリジナルゲーム.com