念のためWeBUI本体を起動し直します
出来たらt2iの画面下部にあるControlNet→Refresh modelsをクリックします
すると導入したModelからモデル分選択出来るようになる、opneposeが含まれたものを選択します
また、初期状態では機能が無効になっているのでEnableにもチェックを入れます(2枚目の状態)
Thread
See new Tweets
Conversation
これでようやく導入は終わりです
ちなみに英語ですが導入方法はサイトに記載してあるので、詳しく見たい方はそちらをどうぞです(自分はブラウザの日本語翻訳噛ましながら確認してました)
次からは使用方法です
・やっと導入出来た・・・使用方法は?
先ほどの画面からちょっと下を見ると画像参照できる場所があるので、赤枠内をクリックするかドラッグ&ドロップして参照させたい画像を選択します
出来たら2枚目のようにその画像が表示されます
(Open drawing canvas!で1から描けますが今回は触れません)
出来たら普段通りt2iで生成します
プロンプトはポーズ指定が無い方が効果が分かりやすいと思います
Canvas Widthなどサイズが気になりますが、そのままでも特におかしなことなく動きました(もしかしたらちゃんと指定した方が良いかもです。Open drawing canvas!で手描きするなら指定した方が良い?)
するとある程度参照元画像と似たような構図が出てくると思います
また、認識されたものの画像(2枚目)も一緒に出てきますがこちらは自動的に保存「されません」
※WebUIの設定も確認しましたが保存するような項目は見当たりませんでした
(念のため2:31現在アプデしたらまた新しい項目増えたりしてるので挙動確認します、少しお待ちください)
生成過程自体は以上です
・・・がアプデが入ったので確認したところ、項目が増えていました
Low VRAMはVRAM容量少ない方向けの設定なので一回チェックなしでやってダメな人は試すと良さそうです
Resize MpdeはひとまずScale to fitを使ってます(ここは今後変わるかもしれません)
また、アプデ前はHires. fixが出来なかったのですが修正されて出来るようになっていました(t2i→i2iで解説してたのはこのためです)
試しにstrengthを0.55でHires. fixしてみたところ、普通にいい感じになりました
ポーズがずれ始めてますが、この辺りはプロンプトで補強すれば良いかと思います
長くなりましたが以上になります
長文でしたが読んでもらいありがとうございました
今回はopenposeで解説しましたが、他にも使用できる学習モデルはあります(人によってはこちらが本題かも)
試しにhedを例にしたものもあるのでよければ下記ツイートも参考にしてくださいな
openposeの利点を書いていませんでした
実写からでもポーズのみ参照できる点が利点です(i2iだと違う要素ももってきてしまう、何よりt2iで出来るのが差別点)
ただものによっては満足に再現できない可能性もあるので、そういう場合は直前のリプの例のように違う学習モデルを使うのが良さそうです
これで本当の最後です
各学習モデルの違いなどは別GitHubのURLなのでモデルが存在しなかったり指定出来ないかもしれませんが、こちらが参考になると思います
翻訳噛ませれば雰囲気は分かると思います
そういえば普通にi2iの後の仕上げ載せるの忘れてました
AIピクターズさんに投稿したのでよければどうぞ~
Translate Tweet
More Tweets
New to Twitter?
Sign up now to get your own personalized timeline!