【nunchaku版】Krita-ai-diffusionがQwen-Imageに対応した話【まだベータ】
はじめに
Kritaの生成画像AIプラグインであるKrita-ai-diffusionのバージョンアップがあり、nunchaku版のQwen-ImageとQwen-Image-Editが利用できるようになったので、利用してみました。
※ Nunchaku版なので、8GB RAMでも余裕で動作すると思います
導入
正式対応ではないので、利用する場合は、自分でモデルをダウンロードする必要があります。
先にKrita-ai-diffusionと専用ComfyUIサーバーのアップデートが必要です。
モデルのダウンロード
高速化lightning Loraには未対応(?)のようなので、通常のQwen-ImageとQwen-Image-Edit-2509モデルをダウンロードし、各フォルダに保存します。
※ RTX 50xx系(fp4)はテスト中ですが、筆者環境では上手く動きません。50xx以外はint4版をダウンロードします
📁 diffusion_models
svdq-int4_r32-qwen-image.safetensors
svdq-int4_r32-qwen-image-edit-2509.safetensors
📁 text_encoders
qwen_2.5_vl_7b_fp8_scaled.safetensors
📁 vae
qwen_image_vae.safetensors
動作確認
上記事と同じプロンプトで生成してみます。
Qwen-Image
Qwen-Image-Edit-2509
Qwen-Editを利用する場合は、直接スタイルを選択しても出来ますが、新しいバージョンからは、Qwenスタイルのまま「編集」を選択する事によって利用できます。
今回は上手くいきましたが、多くの場合、境界部の連続性を失います。ComfyUIを直接利用する場合はLanPaintが利用できますが、強度を調整する事でも、ある程度緩和できます。
バッチ的(プログラム的)に利用する場合はComfyUIが良いのですが、アナログ的な作業の場合に、ペイントソフト上でAI生成機能が利用できるのは非常に便利です。
まとめ
(筆者おま環の可能性が高いですが)fp4が利用できなかったり、lightningで上手く生成できなかったりですが、今後のアップデートに期待です。
以下、関連する記事の【PR】です。



コメント