「NovelAIのような画像をローカル環境でガンガン作成したい」
「Stable Diffusionでファインチューニングされたモデルを利用したい」
このような場合には、この記事の内容が参考になります。
この記事では、Evt_V3を利用する方法を解説しています。
本記事の内容
- Evt_V3とは?
- Evt_V3の利用方法
- Evt_V3の動作検証
それでは、上記に沿って解説していきます。
Evt_V3とは?
Evt_V3とは、Evt_V2をベースに作成されたStable Diffusion用のモデルです。
追加で35467枚の画像を利用したことが記載されています。
そのEvt_V2は、animefull-latestをベースにしています。
pixivから取得した15000枚(7700枚を反転して倍増)の画像を追加で学習させているようです。
また、pixiv_AI_crawlerというツールで画像を収集したことが記載されています。
モデルの由来が、詳細に記載されていると言えます。
ただ、animefull-latestを明確に言及するのは珍しいです。
animefull-latestは、リークされたNovelAIのデータになります。
以上、Evt_V3について説明しました。
次は、Evt_V3の利用方法を説明します。
Evt_V3の利用方法
Stable Diffusionを動かせる環境が、大前提となります。
Google Colabではなくローカル環境で動かす場合は、次の記事が参考になります。
Stable Diffusionが動くなら、次のコードでEvt_V3を利用できます。
from diffusers import StableDiffusionPipeline import torch model_id = "haor/Evt_V3" pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16) pipe = pipe.to("cuda") prompt = "a girl" image = pipe(prompt).images[0] image.save("girl.png")
普通にStable Diffusionを利用するのと変わりません。
ただし、Stable Diffusion v2向けではないので要注意です。
初めてEvt_V3を利用する場合は、モデルのダウンロードが行われます。
そのファイル容量が、全部で5.1GBほどです。
上記コードを実行した結果は、次のような画像が生成されます。
girl.png
以上、Evt_V3の利用方法を説明しました。
次は、Evt_V3の動作検証を説明します。
Evt_V3の動作検証
Anything v3.0もリークされたanimefull-latestをベースにしていると言われています。
中国の掲示板にそのことが記載されていたみたいな感じです。
ただし、Anything v3.0はEvt_V3のようにそのことを明記はしていませんけどね。
ここでは、Anything v3.0とEvt_V3の結果を比べてみましょう。
どれくらい似たモノになるのかどうかが、ポイントになります。
利用するプロンプトは、以下。
from below, best quality, illustration,highly detailed,1girl,upper body,beautiful detailed eyes, medium_breasts, long hair,grey hair, grey eyes, curly hair, bangs,empty eyes,expressionless, ((masterpiece)),twintails,beautiful detailed sky, beautiful detailed water, cinematic lighting, dramatic angle,((back to the viewer)),(an extremely delicate and beautiful),school uniform,black ribbon,light smile
あと、それぞれのseedを固定しています。
比較するためには、seedを固定しないと意味がありません。
Evt_V3
Anything v3.0
やはり、似ていますね。
しかし、髪の毛の表現は結構違います。
ちなみに、TrinArt(でりだモデル)を使って同じ条件で作成したのが次の画像です。
明らかに、先祖が異なるとわかりますね。
でりだモデルの背景は、いつ見ても素晴らしいと感じます。
以上、Evt_V3の動作検証について説明しました。