生成AI

AIエージェント
生成AI
ChatGPT連携サービス
AI受託開発
対話型AI -Conversational AI-
ボイスボット
バーチャルヒューマン
教師データ作成
AI研究開発
通訳・翻訳
声紋認証
機密情報共有・管理
契約書管理システム
ワークステーション
FAQシステム
AIカメラ
生体認証
インボイス制度対応システム
データセットの収集・購入
コールセンター
人事・総務向け
インバウンド対策
コンバージョンアップ
KYT・危険予知で労働災害防止
無料AI活用
顧客リスト自動生成
ロボットで自動化
LINE連携
セキュリティー強化
テレワーク導入
AI学習データ作成
配送ルート最適化
非接触AI
受付をAIで自動化、効率化
AIリテラシーの向上サービス
日本語の手書き文字対応AI-OCR
Windows作業の自動化RPAツール
リスク分析AIで与信管理
紙帳票仕分けAI-OCRサービス
サプライチェーン
AIコンサルティング
最終更新日:2025/01/30
Stable diffusion Web UIとは?
Stable diffusionを使い始めて基本操作に慣れてきたので、もっとカスタマイズして使ってみたいけれど、操作の難易度が高くなると困る人はいませんか?
新しい画像生成AIを積極的に仕事の場で取り入れていきたいと思ってはいても、操作方法の勉強に時間がかかりすぎてうまく進まず頭を抱えてしまう人も少なくないと思います。
本記事では、そのような人におすすめのstable diffusion Web UIについて解説します。
Stable Diffusionについて詳しく知りたい方はこちらをご覧ください。
Stable Diffusionとは?話題の画像生成AIの使い方・初心者向けのコツも徹底解説!
stable diffusion Web UIとは、Stable diffusionをもっと手軽に使えるようにするためのUI(ユーザーインターフェース)です。
UIとは人間がコンピュータに指示を出したり、操作をしたりする部分で、ChatGPTで言うと操作画面がstable diffusion Web UI、モデルであるGPT-4oがStable diffusionにあたります。
stable diffusion Web UIは、Webブラウザを用いて動かすため、画面をローカル環境、クラウド環境の両方で操作することが可能です。
またWordPressのプラグインのように、LoRAやControlNetを簡単に追加して機能を強化したり、カスタマイズしたりすることができるのも特徴的です。
AUTOMATIC1111氏が開発・配布しているstable diffusion Web UIのことです。
stable diffusion Web UIのAUTOMATIC1111版の基本機能は次の通りです。
| 基本機能 | 概要 |
| 画像生成モード | オリジナルの「txt2img」(テキストから画像を生成するモード)と、「img2img」モード(画像から画像を生成するモード)を搭載 |
| スクリプト | 1クリックで簡単にインストール&実行できるスクリプト(自動化されたプログラム)を搭載 ※PythonとGitのインストールが必要 |
| アウトペインティング | 画像の外側を拡張する機能を搭載 |
| インペインティング | 画像の一部を修復する機能 |
| カラースケッチ | ラフなスケッチを基に画像を生成する機能 |
| プロンプトマトリックス | キーワードを基に複数のプロンプトを作成し、それを基に画像を生成する機能 |
| アップスケール機能 | 画像の解像度(画素数)を高くして、より詳細な画像を生成する機能 |
| アテンション | 本来重要な情報に集中することを意味し、Stable diffusionでは特定のテキスト部分にモデルが注意を払う機能 |
| ループバック | 画像生成を複数回繰り返す機能 |
| X/Y/Zプロット | 異なるパラメータで3Dプロットを描画する機能 |
| タイル対応 | 画像やデザインにおいて繰り返し使えるパターンやテクスチャを作る機能 |
他にも高度な機能が多数あり、カスタマイズもできるため初心者ユーザーから熟練したユーザーまで幅広く使えます。
参考:Github「AUTOMATIC1111/stable-diffusion-webui」
stable diffusion Web UIのForge版は、Minecraftの「Forge」から名づけられました。
「Forge」がゲームに新しい機能を追加するのと同じように、Forge版もStable Diffusionに新しい機能を追加したり、開発を容易にしたりするのを目的として作られています。
実験的な新しい機能を試せるのが特徴のため、開発者や高度なユーザー向けのstable diffusion Web UIであるといえます。
Stable Diffusionのモデルにおいては、UNetというネットワークの構造に対する拡張や修正を行うツールが、主に画像のノイズ除去や生成に使われています。
UNetの修正を行うUnet Patcherのおかげで、Forge版では以下のことができるようになりました。
| 項目 | 概要 |
| SVD (Singular Value Decomposition) | ・数学的な手法でデータの特定の成分を分解する技術 ・画像の生成に使うと解像度を維持しつつ、効率的に重要な特徴を保てる |
| Z123 | ・特定の画像生成において、より良いパフォーマンスを提供するためのモデルのバージョンまたはアプローチ ・生成された画像のクオリティが向上する |
| Masked IP-Adapter | ・画像の一部を「マスク」して、特定の領域のみを調整・変更するための技術 ・部分的な画像編集ができる |
| Masked ControlNet | ・ControlNetの一部で、特定の画像部分に対して制御を加える技術 ・特定のエリアに焦点を当て、他の部分を影響を与えずに操作ができる |
| Photomaker | ・写真のようなリアルな画像を生成するための技術 ・リアルなライティングや影、質感などをシミュレートし高品質な画像を作成できる |
stable diffusion Web UIのForge版は実験的な新しい機能を試せますが、AUTOMATIC1111版と比較すると安定性には欠けるため、データの管理には注意が必要です。
参考:GitHUB「lllyasviel/stable-diffusion-webui-forge」
Stable diffusion Web UIでできることは次の通りです。
| 機能 | 概要 | クラウド環境でStable Diffusion Web UIを使う場合 | ローカル環境でStable Diffusion Web UIを使う場合 | Stable Diffusion Web UIを使わない場合(Hugging faceなどで直接使用) |
| 画像生成 | プロンプトから画像を生成する | 高速で生成できる(サーバーの計算力を利用) | 速度は使用するPCの性能による | 直接APIを叩く必要があり、設定が難しくなる可能性がある |
| 画像の編集・修正 | 生成した画像を編集する | 画像編集ツールが多く、簡単に操作できる | 速度はPCの性能によるが編集機能の自由度が高い | APIやコードを使う必要があり、編集を手動でするのは難しくなる |
| インペイント(Inpainting) | 画像の一部を指定して、修正または新たに描き加える | 高速処理され簡単に実行可能 | 速度はPCの性能による | 自分でインペイントをプログラムする必要があり、難易度が高い |
| 画像のスタイル変換 | アートスタイル(2D、3D、リアルなど)の変更ができる | スムーズにスタイル変更ができる | 高速でスタイル変更できるがPCの性能によって速度は異なる | 手動で変換する必要があり、自由度は高いが手間がかかる |
| 画像のアップスケーリング | 生成した画像の解像度を上げる | クラウドサーバーの力を借りるため高解像度化が速い | PCの処理能力に応じてかかる時間が異なる | 手動で設定する必要があり、設定自体も複雑 |
| さまざまなモードでの生成 | 異なる生成モード(例:強化学習を用いた生成)を選べる | 高度な生成モード(強化学習など)の実行ができる | PCの性能に応じて制限がある | モード選択やコード記述が必要になることもある |
| カスタマイズモデルの使用 | 特定のデータセットに基づく画像生成ができる | 多数のカスタマイズしたモデルがすぐに利用できる | 使用したいモデルは自分でセットアップする | モデルのインポートや設定を手動で行う必要があり、手間が増える |
Stable diffusion Web UIを使う場合は画面上で直感的に操作ができるので、Stable diffusionの機能を初心者でも幅広く使えます。
一方、Stable diffusion Web UIを使わない場合はコードを書くスキルが求められますが、その分自由度は高くなります。
Stable diffusion Web UIのインストール方法を、AUTOMATIC1111版とForge版の2つに分けて紹介します。
前提としてPCの推奨スペックは以下の通りです。
| 項目 | Windows | Mac |
| OS | Windows 10以上 | macOS 11 (Big Sur) 以上 |
| CPU | Intel Core i5以上、またはAMD Ryzen 5 以上 | Apple M1チップ、Intel Core i5 以上 |
| GPU | NVIDIA RTX 20シリーズ以上(CUDA対応) | Apple M1チップ(内蔵GPU)または外部GPU |
| RAM | 16GB以上 | 16GB以上 |
| ストレージ | 50GB以上の空き容量(SSD推奨) | 50GB以上の空き容量(SSD推奨) |
| Pythonバージョン | 3.8以上 | 3.8以上 |
| CUDA (Windows) | 最新のNVIDIAドライバとCUDA 11.3以上 | 不要(Apple M1チップはGPUアクセラレーションを利用) |
| グラフィックカードドライバ | 最新のNVIDIAドライバ(CUDAサポート) | 特に不要(Apple M1チップは内蔵GPUを使用) |
インストールする前に、必ずPCのスペックを満たしているかを確認しましょう。
stable diffusion Web UIのAUTOMATIC1111版をWindowsにインストールする手順は以下の通りです。
stable diffusion Web UIのAUTOMATIC1111版における環境構築の手順は次の通りです。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
手順が多いですが、1つ1つ確認しながら進めていきましょう。
stable diffusion Web UIのForge版をWindowsにインストールする手順は以下の通りです。
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git
コマンド部分が異なるだけで、基本的な流れはAUTOMATIC1111 版と同じです。
stable diffusion Web UIとは、Stable diffusionをもっと手軽に使えるようにするためのUI(ユーザーインターフェース)で、AUTOMATIC1111版とForge版の2つがあります。
AUTOMATIC1111版は、多くの機能を安定して使いたいユーザー向けで、Forge版は実験的な新しい機能を使いたい開発者や高度なユーザー向けなので、目的に応じて使い分ける必要があります。
本記事も参考にして、ぜひstable diffusion Web UIを導入し画像生成に活かしてみてください。
Stable Diffusionについて詳しく知りたい方はこちらをご覧ください。
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI製品・ソリューションの掲載を
希望される企業様はこちら