【Stable Diffusion】TrinArt(でりだモデル)の利用方法

【Stable Diffusion】TrinArt(でりだモデル)の利用方法 機械学習

「 TrinArt Characters modelの利用方法がわからない・・・」
「イラストの構図が豊富なTrinArtをDiffusersで利用したい」

このような場合には、この記事の内容が参考になります。
この記事では、TrinArt(でりだモデル)をDiffusersで利用する方法を解説しています。

本記事の内容

  • でりだモデルとは?
  • でりだモデルの利用方法

それでは、上記に沿って解説していきます。

でりだモデルとは?

でりだモデルとは、TrinArtキャラクターモデルの改良版です。
バージョンで言うと、v2となります。

v1については、次の記事で解説しています。

TrinArtキャラクターモデル自体については、上記記事で説明しています。
このv2のでりだモデルでは、解剖学的安定性が重視されているということです。

つまり、手がより上手く描画できるようになっていると言えます。
また、v2では学習データにNSFWな素材が含まれている可能性がアップしたようです。

v1よりは、フィルタリングが若干甘くなっていると公式に記載されています。
したがって、v1よりはNSFWなコンテンツを生成しやすくなっていると言えます。

以上、でりだモデルについて説明しました。
次は、でりだモデルの利用方法を説明します。

でりだモデルの利用方法

システム要件としては、Stable Diffusionが動くことが前提です。
そして、この記事ではDiffusersでの利用を前提にしています。

AUTOMATIC1111のようなツールは、対象外ということです。
DiffusersとAUTOMATIC1111では、モデルの読み込み方法が大きく異なります。

では、最初にモデルのダウンロードから始めましょう。
次のページからダウンロード可能です。

aclbit/trinart_derrida_characters_v2_stable_diffusion at main
https://huggingface.co/naclbit/trinart_derrida_characters_v2_stable_diffusion/tree/main

「derrida_final.ckpt」をダウンロードします。

ファイルがダウンロードできたら、このckptファイルを変換します。
Diffusersではckptのままでは、モデルとして読み込みができません。

そのため、変換する作業が必要となります。
変換する方法は、次の記事で解説しています。

変換の際には、次のコマンドを用いています。

python .\convert_original_stable_diffusion_to_diffusers.py --checkpoint_path "..\..\ckpt\derrida_final.ckpt" --dump_path "..\..\model\derrida"

変換したモノは、「model」ディレクトリの下で確認できます。

ここまで準備できたら、次のコードを試しましょう。

import torch
from diffusers import StableDiffusionPipeline
from torch import autocast

MODEL_PATH = "./model/derrida"
DEVICE = "cuda"

pipe = StableDiffusionPipeline.from_pretrained(MODEL_PATH, torch_dtype=torch.float16)
pipe.to(DEVICE)

prompt = "a girl"


with autocast(DEVICE):
    image = pipe(prompt, guidance_scale=7.5).images[0]
    image.save("test.png")

上記コードを実行したら、次のような画像が生成されます。

test.png

素朴ですね。
公式では、次のワードをネガティブプロンプトに設定することが推奨されています。

これらを設定して、再度を実行してみましょう。

今風になりました。
そして、やはりTrinArtのモデルは構図が良いですね。

以上、でりだモデルの利用方法を説明しました。

タイトルとURLをコピーしました