メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://dripart-mintlify-e28287af.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

ComfyUI ネイティブ Stability AI Stable Diffusion 3.5 ノード Stability AI Stable Diffusion 3.5 画像ノードは、Stability AI 社の Stable Diffusion 3.5 API を使用して高品質な画像を生成します。テキストから画像を生成する「テキスト→画像」モードと、既存の画像をもとに新たな画像を生成する「画像→画像」モードの両方をサポートしており、テキストプロンプトから詳細な視覚コンテンツを作成できます。

パラメータ

必須パラメータ

パラメータデフォルト説明
prompt文字列""出力画像に含めたい内容です。要素・色・テーマを明確に定義した、強力で具体的なプロンプトを使用すると、より優れた結果が得られます。
model選択-使用する Stability SD 3.5 モデルを選択します。
aspect_ratio選択”1:1”生成される画像の幅と高さの比率(アスペクト比)です。
style_preset選択”None”生成画像に適用するオプションのスタイルプリセットです。
cfg_scale浮動小数点数4.0拡散プロセスがプロンプトテキストにどれだけ厳密に従うかを制御します(値が大きいほど、出力画像はプロンプトに近くなります)。範囲:1.0~10.0、ステップ:0.1
seed整数0ノイズ生成に使用される乱数シード(0~4294967294)です。

オプションパラメータ

パラメータデフォルト説明
image画像-入力画像です。このパラメータに画像が指定された場合、ノードは「画像→画像」モードに自動的に切り替わります。
negative_prompt文字列""出力画像に含めたくない要素を表すキーワードです。高度な機能です。
image_denoise浮動小数点数0.5入力画像のデノイズ強度です。0.0 では入力画像と同一の画像が出力され、1.0 では入力画像がまったく存在しない状態と同じになります。範囲:0.0~1.0、ステップ:0.01。image パラメータが指定されている場合のみ有効です。

出力

出力説明
IMAGE画像生成された画像

使用例

Stability AI Stable Diffusion 3.5 画像ワークフローの例

Stability AI Stable Diffusion 3.5 画像ワークフローの例

注意事項

  • 入力画像が指定された場合、ノードは「テキスト→画像」モードから「画像→画像」モードに自動的に切り替わります。
  • 「画像→画像」モードでは、aspect_ratio パラメータは無視されます。
  • モードは、入力画像が提供されているかどうかに基づいて自動的に切り替わります:
    • 画像が未指定の場合:「テキスト→画像」モード
    • 画像が指定されている場合:「画像→画像」モード
  • style_preset"None" に設定した場合、スタイルプリセットは適用されません。

ソースコード

[ノードのソースコード(2025-05-07 更新)]
class StabilityStableImageSD_3_5Node:
    """
    Generates images synchronously based on prompt and resolution.
    """

    RETURN_TYPES = (IO.IMAGE,)
    DESCRIPTION = cleandoc(__doc__ or "")  # Handle potential None value
    FUNCTION = "api_call"
    API_NODE = True
    CATEGORY = "api node/image/Stability AI"

    @classmethod
    def INPUT_TYPES(s):
        return {
            "required": {
                "prompt": (
                    IO.STRING,
                    {
                        "multiline": True,
                        "default": "",
                        "tooltip": "What you wish to see in the output image. A strong, descriptive prompt that clearly defines elements, colors, and subjects will lead to better results."
                    },
                ),
                "model": ([x.value for x in Stability_SD3_5_Model],),
                "aspect_ratio": ([x.value for x in StabilityAspectRatio],
                    {
                        "default": StabilityAspectRatio.ratio_1_1,
                        "tooltip": "Aspect ratio of generated image.",
                    },
                ),
                "style_preset": (get_stability_style_presets(),
                    {
                        "tooltip": "Optional desired style of generated image.",
                    },
                ),
                "cfg_scale": (
                    IO.FLOAT,
                    {
                        "default": 4.0,
                        "min": 1.0,
                        "max": 10.0,
                        "step": 0.1,
                        "tooltip": "How strictly the diffusion process adheres to the prompt text (higher values keep your image closer to your prompt)",
                    },
                ),
                "seed": (
                    IO.INT,
                    {
                        "default": 0,
                        "min": 0,
                        "max": 4294967294,
                        "control_after_generate": True,
                        "tooltip": "The random seed used for creating the noise.",
                    },
                ),
            },
            "optional": {
                "image": (IO.IMAGE,),
                "negative_prompt": (
                    IO.STRING,
                    {
                        "default": "",
                        "forceInput": True,
                        "tooltip": "Keywords of what you do not wish to see in the output image. This is an advanced feature."
                    },
                ),
                "image_denoise": (
                    IO.FLOAT,
                    {
                        "default": 0.5,
                        "min": 0.0,
                        "max": 1.0,
                        "step": 0.01,
                        "tooltip": "Denoise of input image; 0.0 yields image identical to input, 1.0 is as if no image was provided at all.",
                    },
                ),
            },
            "hidden": {
                "auth_token": "AUTH_TOKEN_COMFY_ORG",
            },
        }

    def api_call(self, model: str, prompt: str, aspect_ratio: str, style_preset: str, seed: int, cfg_scale: float,
                 negative_prompt: str=None, image: torch.Tensor = None, image_denoise: float=None,
                 auth_token=None):
        validate_string(prompt, strip_whitespace=False)
        # prepare image binary if image present
        image_binary = None
        mode = Stability_SD3_5_GenerationMode.text_to_image
        if image is not None:
            image_binary = tensor_to_bytesio(image, total_pixels=1504*1504).read()
            mode = Stability_SD3_5_GenerationMode.image_to_image
            aspect_ratio = None
        else:
            image_denoise = None

        if not negative_prompt:
            negative_prompt = None
        if style_preset == "None":
            style_preset = None

        files = {
            "image": image_binary
        }

        operation = SynchronousOperation(
            endpoint=ApiEndpoint(
                path="/proxy/stability/v2beta/stable-image/generate/sd3",
                method=HttpMethod.POST,
                request_model=StabilityStable3_5Request,
                response_model=StabilityStableUltraResponse,
            ),
            request=StabilityStable3_5Request(
                prompt=prompt,
                negative_prompt=negative_prompt,
                aspect_ratio=aspect_ratio,
                seed=seed,
                strength=image_denoise,
                style_preset=style_preset,
                cfg_scale=cfg_scale,
                model=model,
                mode=mode,
            ),
            files=files,
            content_type="multipart/form-data",
            auth_token=auth_token,
        )
        response_api = operation.execute()

        if response_api.finish_reason != "SUCCESS":
            raise Exception(f"Stable Diffusion 3.5 Image generation failed: {response_api.finish_reason}.")

        image_data = base64.b64decode(response_api.image)
        returned_image = bytesio_to_image_tensor(BytesIO(image_data))

        return (returned_image,)