Last Updated on 2025-05-28 13:24 by admin
Stability AI運営の「Dream Studio」ではStable Diffusionを利用した画像生成が無料で体験できます。初めての利用で失敗しないように、詳細な使い方から画像生成のコツを解説します。
Stable Diffusionとは?
「Stable Diffusion(ステーブルディフュージョン)」は、2022年8月にイギリスの企業「Stability AI(スタビリティエーアイ)」によってリリースされた、商用利用可能なオープンソースの画像生成AIです。
これは「拡散モデル」と呼ばれる機械学習アルゴリズムを基盤としています。拡散モデルとは、ランダムなノイズ画像から、大量の画像から学習したデータを元に少しずつノイズを取り除いていくことで、指示(プロンプト)に合った画像を生成する技術です。Stable Diffusionの特徴は以下の点にあります。
- オープンソース: ソースコードが公開されているため、研究者や開発者が自由に改良や拡張が可能
- 最小限のリソース: 比較的少ないコンピューティングリソースで高品質な画像生成が可能
- 多様な応用: テキストから画像生成(Text-to-Image)だけでなく、画像から画像生成(Image-to-Image)、画像修復など幅広い機能をサポート
- コミュニティによる発展: 世界中の開発者によって様々なバージョンやカスタムモデルが開発され続けている
他のAI画像生成ツール(DALL-E 、Midjourney等)と比較すると、Stable Diffusionはローカル環境で動作させることができる点が大きな特徴です。これにより、インターネット接続がなくても使用でき、プライバシーを保ちながら無制限に画像生成が可能になります。
オープンソースであるため、様々な企業がStable Diffusionを利用したサービスを展開したり、個人のパソコンで自由に利用することが可能です。アーティスト、デザイナー、マーケティング担当者、そして創作を楽しみたい一般ユーザーまで、幅広い層に活用されています。
画像生成には「プロンプト」と呼ばれる、AIに対する指示文を入力する必要があります。正式な呼び名ではありませんが「呪文」と呼ばれることも多いです。
Stable Diffusionを利用するには大きく分けて3つの方法があります。
1.クラウドAPI(Dream Studio)を利用する
無料でStable Diffusionを体験できる
継続的な利用にはサブスク加入が必須
☆本記事で紹介☆
2.GPUクラウドサービス(Google Colab)を利用する
一部制約はあるが大量生成すればコスパは良い
外部の環境に依存する点が多く、設定がやや複雑
3.ローカル環境で利用する
導入さえできてしまえば無制限に使える
要求されるPCスペックや知識のハードルが高い
今回は「1.クラウドAPI(Dream Studio)を利用する」方法について解説していきます。
※本記事の内容は2025年5月時点の情報です。大きな変更点は随時更新していきますが、モデルやUI、料金体系などはの詳細は必ず公式サイトや最新の情報も併せてご確認ください。
目次
利用方法
今回紹介する「Dream Studio」はStable Diffusionの開発元であるStability AIが運営するクラウドAPIになります。会員登録をすれば手持ちのパソコンのスペックに関係なく、クラウド上でStable Diffusionを利用することができます。
まずはDream Studioにアクセスしましょう。
2025年5月現在では最新モデルのBETA版が利用できるため、ぜひ体験してみましょう。従来のインターフェースも利用できますが、クオリティや機能面が段違いに向上しているため、BETA版をおすすめします。

次に会員登録をしましょう。Googleなどの既存のアカウントを利用する方法と、メールアドレスとパスワードを設定する方法がありますので、都合のいい方法で登録しましょう。

そのあと利用規約に同意しすれば準備は完了です。

そうしたら次のような画面になると思います。

左上の「Text to Image」の右にある欄がプロンプトを入力する欄です。
下の「Images」は1度に生成する画像の枚数、「Ratio」は画像の横:縦の比率を選択できます。
試しに画像を生成してみましょう。比率は9:16で、1度に4枚生成します。プロンプトを入力して画面右側の「Create」ボタンをクリックすると、数秒後に画像が生成されます。
プロンプトは以下のように入力しました。
1girl, black hair, red eyes, ponytail
基本的なルールとしては、英単語や短いフレーズをカンマ区切りで入力。スペースだけだとひとつなぎのフレーズと認識されてしまいます。モデルやサービスによっては日本語や、長い文章にも対応している場合があります。




それぞれテイストの異なる画像ではありますが、黒髪(black hair)、赤目(red eyes)、ポニーテール(ponytail)の女の子1人(1girl)が生成されました。
次にもう少し条件を付けてみましょう、プロンプト入力欄右側に2つあるアイコンのうち、右側の「Advanced Settings」をクリックすると、詳細設定のタブが開きます。

「Image Generation Service」はモデルを選択することができます。
「Stable Image Ultra」は基本モデルです。デフォルトではこの設定になっています。
「Stable Image Core」は従来のモデルを軽量化と高速化に特化させたモデルです。待ち時間が少なくなるため、とりあえずいっぱいアイディアを出したいときには最適です。
「Stable Diffusion 3.5 Model Suite」は最新の高品質モデルです。上記の従来のモデルとは異なり、高画質化に対応しており、様々な用途に使いやすいよう汎用性を高めたモデルとなっています。
生成される画像にもそれぞれ特色がありますので、目的に合わせて選ぶとよいでしょう。以下はモデル以外の設定は変えずに生成した画像です。
「Stable Image Core」生成例




「Stable Diffusion 3.5 Model Suite」生成例




生成される画像は毎度変わりますので、気に入る画像が出るまでには何回か同じ設定で繰り返し生成する必要があります。
「Reference Image」はImage-to-Imageで画像生成をすることができます。文字によるプロンプトだけでなく、参考とする元画像を提示することができます。「Stable Image Ultra」と「Stable Diffusion 3.5 Model Suite」が対応しています。
他人の顔写真やイラストなど、権利で保護された画像や、第三者のプライバシーを侵害するような画像、個人情報などが写った画像のアップロードはしないようにしましょう。後ほど詳しく説明しますが、そういった画像や、それをもとに生成された画像がAIの学習やサービス向上のためにデータ収集の対象となる可能性があります。

「Reference Strength」は参考にする強度。100%にすると全く同じ画像が生成されてしまうので注意。
「Style Preset」では画風を選ぶことができます。

デフォルトではプロンプトで指定した髪の色や目の色が現実的でなかったりするとデジタルイラスト風に、金髪とだけ指定すれば写真風も出たりと、偏りがあります。




雰囲気がガラッと変わるので、気になるスタイルがあればいろいろ試してみましょう。
「Negative Prompt」には、上記に入力したプロンプトとは逆に、生成してほしくないものを指定します。

以下はさらに高度な設定になります。
「Seed」は生成結果をランダムにするために、生成するたびに変更される乱数を指定する機能です。Seed値含めて全く同じ設定にすると同じ画像が生成されます。ここに任意の数字を入力しておけば、生成結果のバラツキを抑えることができます。
下の2つは「Stable Diffusion 3.5 Model Suite」のみの機能になります。
「Stable Diffusion Model」では「SD 3.5 Large」「SD 3.5 Large Turbo」「SD 3.5 Medium」の3つのモデルを選ぶことができます。
「Large」はデフォルト、「Large Turbo」は品質と負荷のバランス型、「Medium」は負荷軽減に特化したモデルになっています。大きな違いはないので迷ったら「Large」にしておくのがおすすめです。
「CFG Scale」は入力したプロンプトにどれだけ従うかの数値です。数字が大きくなればなるほどプロンプトの影響を強く受け、思い通りの画像が出やすい分、細部の破綻などが起きやすくなります。逆に小さくすれば、破綻は少なくなりますが、思ったような要素が生成されにくくなります。デフォルトでは4ですが、7程度がおすすめです。

これまではプロンプトから画像を生成する方法について説明してきました。次はもう一つの機能について紹介します。
「Sketck to Image」
プロンプト入力欄左の「Text to Image」をクリックすると切り替えることができます。ここでは、自身がその場で描いたスケッチをもとに画像を生成することができます。プロンプトも同様に入力できるため、頭の中のイメージをより正確に反映させることができます。


画像生成に関する説明は以上になります。
次からは生成した後に使える機能の紹介になります。

生成した画像にマウスカーソルを合わせると画像の上側にメニューが表示されます。左から順に解説していくと、
「Upscale」は高解像度化処理を行います。
「Edit」は生成された画像を加工できます。背景を削除したり、サイズを変更したり、様々な加工ができます。詳しい解説は後述します。
「Re-role」は生成された画像をもとに新たに画像を生成します。ちょっと惜しいな…というときに使えます。
「Download」は言うまでもなく画像のダウンロードができます。
「Use Prompt」はその画像を生成した際に入力したプロンプトをそのままコピーできます。
「Delete」も言うまでもなく画像の削除です。
「Favorite」は画像をお気に入りリストに追加できます。
次に紹介するのはプロンプト入力欄の下にある3つのタブです。


先に説明すると、右の「Prompt History」には、生成した画像のプロンプトの履歴が表示されます。右側のハートマークをクリックすると、そのプロンプトをお気に入り設定することができます。それが真ん中の「Favorite Prompts」にリスト表示されていきます。

画像加工機能
Dream Studioには画像生成だけではなく、AIを利用した画像加工機能も備わっています。

先ほど紹介した、生成した画像から「Edit」を選択するほか、手持ちの画像を直接加工することもできます。その場合は画面右上の「UPLOAD」をクリックしましょう。生成画面に戻る場合は「CREATE」、「LIBRARY」には今まで生成した画像がまとめられています。

左上には加工メニューがあります、左から順に解説していきます。
「Re-Roll」
Dream Studioで生成した画像のみ有効です。元のプロンプトなどの情報を保持したまま生成しなおして別の画像を生成します。
「Remove Background」
背景を切り抜いて、透過させる機能です。人の画像なら正確に認識できますが、メインとなる被写体があいまいな画像をきれいに抜くのは少し苦手です。アイコンを押せばすぐ開始され、黒と灰の市松模様になったところが透過されているということです。

「Variations」
右側の欄にプロンプトを入力し、画像の差分を生成します。「Reference Image」とほぼ同じで、元画像の特徴を保ちつつ少し変化を加える機能です。あまり大きく変化はしません。

「Upscale」
画像の解像度を上げる機能。
「Resize」
画像を拡張する機能。比率の変更や、拡張される領域にどういったものを描写するかをプロンプトで指定することができる。

「Inpaint」
指定した領域にプロンプトで指示したものを描き足す機能。


「Erase」
指定した領域に映っているものを消す機能。


「Recolor」
プロンプトで指示した場所の色を変更する機能。

「Structure」
元画像の構図や形状を参考にしつつ、プロンプトに基づいて大きく描き変える機能。先述の2つの機能と違って、「Strength」を100%に設定してやっと面影が残る程度である。

「Match Style」
元画像の画風や雰囲気を参考にしつつ、プロンプトに基づいて別のものを描く。こちらは「Strength」を0%に近づけるほど元の絵に近くなる。

「Search and Replace」
画像の被写体を、プロンプトを入力して置き換える機能。

Dream Studio BETAの機能紹介は以上になります。
料金プラン・アカウント設定

画像を生成するには「クレジット」を消費します。アカウントを作成した時点では無料体験分として100クレジット付与されますが、これを使い切ってしまうと利用することができなくなるため、必要に応じて有料プランに加入して追加クレジットを入手しましょう。
Dream Studioでは料金によって制限される機能などはないため、純粋に自分がどれだけ生成するかと相談しましょう。
また、生成サイズやモデルによって消費クレジットが異なるため、基本設定であれば100クレジットで15~20枚ほど生成できますが、より詳細な設定をするともっと少ない枚数で制限に達してしまう可能性もあります。
アカウント設定は画面右上のアイコン画面をクリックすると表示されるメニューの「Settings」からいけます。

「Delete Account」からアカウントの削除が行えます。確認のために指定された文字を入力する必要がありますが、不要になったらすぐ削除できるため、安心です。
「Plan Details」ではサブスクプランの設定ができます。
「Hide Tooltips」をOnにすると作成画面に出てくる説明が非表示になります。
「Improve the Model for Everyone」はサービス向上のために、ユーザーの操作履歴や、生成された画像、アップロードした画像を匿名で収集することを許可するかどうかの設定です。個人が趣味で使う範疇では問題にはなりませんが、誰かの顔写真や、個人情報や企業情報などをアップロードすると、それがAIの学習等に利用される可能性があります。デフォルトだとOnになっているため、気になる方はOffにしておくことをおすすめします。
ここまではDream Studio BETAの基本的な使い方について紹介してきました。従来のDream StudioはUIはBETAとは異なりますが、基本的な機能は同じなので、この記事の内容を覚えておけば問題なく使えると思います。
プロンプト入力のコツ
今回紹介した画像は特記してなければ「1girl, black hair, red eyes, ponytail」と入力しました。
繰り返しになりますが、基本的なルールとしては、英単語や短いフレーズをカンマ区切りで入力。スペースだけだとひとつなぎのフレーズと認識されてしまいます。モデルやUIによっては日本語や、長い文章にも対応している場合があります。
プロンプトは画像生成AIを利用するにあたって最も重要と言えるでしょう。AIに生成してほしいものをプロンプトとして表現できなければ、思ったような結果は得られません。
この記事では解説のために簡易的なプロンプトのみを例としてきましたが、最後に具体的なプロンプトの例や、より高品質な画像を生成するための方法やを紹介します。
品質に関するプロンプト
ネガティブプロンプト推奨のものは斜体で記載しますが、生成したいイメージによってはすべてがネガティブプロンプトにもなりえますし、その逆もあります。
masterpiece, best quality, high quality | 絵としてクオリティの高いものを生成したいときに使用。何も考えずに使えるが、絵柄の幅が狭くというデメリットもある。好みで減らしたりしよう |
hyper detailed | ディティール(細部)が詳細に描画される |
realistic | 写実的な絵画風になる |
photorealistic | 写真のようにリアルになる |
anime | アニメ・イラスト風になる |
worst quality, low quality, bad | 低品質なものを指す |
error | 絵としておかしい描写 |
extra | 指や手足が過多になる |
missing | 指や手足が過少になる |
watermark | 透かしのようなものが写り込む |
text | 文字(のようなもの)が写り込む。 |
画角に関するプロンプト
画角や後述のポーズの指定には特に生成する画像の縦横比が重要になります。例えば、横長で「standing, full body」を入れると、背景に余計なものが写り込んだり、被写体が遠くなって細部があいまいになってしまったりなどの問題が起きやすくなります。構図に合わせて縦長、横長を指定するときれいな画像を作る近道になります。
front view | 正面からの画角になる |
side view / from side | 横から、どちらでも |
back view / from behind | 後ろから |
from above | 上から、俯瞰 |
from below | 下から、煽り |
full body | 全身が写る |
upper body | 上半身のみが写る |
人物の外見やポーズに関するプロンプト
髪や目の色に関してはそのまま「green hair, pink eyes」と色を指定すればよいが、あまり厳密な色の指定はできません。「sky blue eyes」と入れると水色の瞳にはなりますが、背景にきれいな青空の屋外が生成されやすくなるなど、ほかの要素に干渉することもあります。そういうのを求めていないときはネガティブプロンプトとして「sky」を指定したり、「indoors(屋内)」や「classroom(教室)」など屋内であることを指定するなどして工夫を凝らしましょう。
髪型編
short hair | 女の子だと、あごぐらいまでの長さになる |
medium hair | 肩に付いたり付かなかったりするぐらい |
long hair | とりあえず長くなる |
bald | 坊主 |
bob cut | ボブカット |
hair pulled back | オールバック |
braid | おさげ |
ponytail | ポニテ |
twintail | ツインテール |
half updo | ハーフアップ |
wavy hair | パーマ |
表情編
smile | 笑顔 |
little smile | ほほえむ |
laugh | 口を開けて笑う |
tears | 涙をながす |
crying | 泣きじゃくる |
angry | 怒る |
sad | 悲しむ |
embarrassed | 恥ずかしがる |
flustered | 慌てる、驚く |
expressionless | 無表情 |
open eyes / mouth | 目・口を開ける |
closed eyes / mouth | 目・口を閉じる |
half-closed eyes | 半目になる |
looking at viewer | カメラ目線 |
looking up / down | 見上げる・見下ろす |
averting eyes | 目をそらす |
looking at ~ | ~のほうを見る。物を指定できる |
ポーズ編
standing | 立ち姿、基本 |
slouching | 前かがみ |
all fours | 四つん這い |
sitting | 座る。sitting on ~で場所を指定できる |
yokozuwari | 横座り、女の子座りとも |
hug own knees | 体育座り、sittingと組み合わせ |
seiza | 正座 |
indian style | あぐら |
prone | うつ伏せ |
on back | 仰向け |
ここにあるのはほんの一例です。リストにないものは英語翻訳した単語を入れれば認識することがほとんどですが、AIが学習したデータに存在しないものはどう頑張っても生成することはできません。そういった場合でも、類語を試してみたりすれば生成されることもあるので、いろいろ試してみましょう。
また、(任意のプロンプト:1.5)と、カッコで指定してコロンと数字を入力すると、そのプロンプトの重要度を変えることができます。
(記号はすべて半角入力してください。また、モデルやUIによっては適応されない場合もあります。)
1.0より大きくすればより強く反映され、逆に小さくすれば影響は小さくなります。大きくしすぎると絵が崩壊してしまうので、どんなに高くても1.8までにしましょう。逆にそこまで大きくしても影響がないものは、AIがそのプロンプトに対応するデータを学習していないということです。
また、プロンプトは先に入力されたものが反映されやすい傾向にあります。微々たる差ではありますが、管理のしやすさもかねて、プロンプトの目的別に並ぶようにすれば、自分がどういう指示を出しているのかを把握しやすくなります。
より詳細なプロンプトに関しては別の記事にて紹介する予定ですので、そちらもぜひご確認ください。
最後に
今回はStable Diffusionを利用するための1つの手段としてDream Studioの紹介をしてきました。
Dream Studioは開発元のStability AIが直接運営しているため、安心して利用できるクラウドAPIですが、ここ以外にもStable Diffusionを提供しているサイトは多数あります。
しかし、中には機能を十分に試せなかったり、クレジットカードなどの個人情報を狙った悪質なサイトがある可能性があります。利用料金などもサイトによって異なるため、利用する前に信頼できるサービスなのか必ず調べるようにしましょう。
我々は今後も安心して利用できるサービスについて紹介していきます。
Dream Studioで生成した画像は商用利用が可能ですが、AIによる画像生成は意図せず第三者の著作権・肖像権・商標権などを侵害するリスクもあります。また、クラウドAPIの提供元で別途規約が異なる場合もありますので、公開・商用利用の際は、各サービスの利用規約や関連する法律を必ず確認してください。
最後にDream Studioで生成した画像をいくつか掲載します。






