|
The following text has been translated into English and only one translation result is returned without any other characters or words added: "各位恋童阴湿阿斯肥宅大家好。stable diffusion是较老的AI了,也就是成熟技术。许多人对其抱持不屑的态度:> stable diffusion有什么好研究的?我让GPT生成一段prompt丢进去不就行了?因为这样的mindset,不少大佬出的图也充斥着不合适的prompt。他们会制作各种lora,所以对废词容忍度高,我们鶸如果prompt不搞好一点,这能行吗?但是,stable diffusion毕竟是老AI了。它对prompt的理解能力比midjourney,flux等等新模型更差。所以,如果简单地丢进prompt,stable diffusion可能不能符合预想地工作。如何正确使用stable diffusion生成涩情图片呢?首先需要选择正确的基模。目前较流行的基础模型有3种:SD1.5,SDXL,PONY SD1.5与SDXL最早,也有最多的lora。我个人认为在目前的时间点已经没有使用SD1.5的意义了。PONY则使用了更多涩情与western漫画作为训练素材。由于不受nsfw限制,它的涩情泛化能力更强,但是western画风。。敬谢不敏 SDXL与PONY都有着对应的anime画风变种,Animagine与AutismMix。它们对anime画风的处理更强,也可以使用其他注重anime的变种。第二步是选择lora。基模本身处理nsfw内容的能力可能较差,最好引入1-2个lora。我认为,可以选择一个更泛用的lora与一个更专用的lora。比如说我要绘制远坂凛的涩情图片,就可以选择一个用来处理nsfw的lora、与一个用来绘制远坂凛的lora。专用lora会降低模型能力。有时候需要想想,lora真的必要吗?比如远坂凛这样家喻户晓的角色,完全可以不带lora,直接在prompt中给出角色名称。在加载lora之前,最好先试试。第三步是决定基础参数和prompt。模型会给出它使用的基础参数,一般是一套负面prompt与sampler强烈推荐尝试DPM++ 2M KARRAS,虽然大部分sampler是euler ancestor。你可能看到很多大佬在使用high resolution,uhd,perfect body等prompt。这都是继承自梦开始的地方——novelai。但是在如今,这些prompt是否还有效?最好不要*随意*加入基础模型推荐的prompt以外的prompt,要把这些prompt当成意义模糊的画风向prompt去验证。第四步是加入描述性prompt。如果某个特征是角色本身的标志性特征(其他角色几乎不具备的),比如远坂凛衣服上的十字,这就不用提出。其他如瞳色、神态等可以再次prompt。但是,如果使用了专用lora,则也不用再prompt了。有时候简单的描述性prompt也无法生效。比如in water可能无法*正确让角色浸在水中,那就尝试下submerging。第五步是验证通用prompt。prompt最好使用最简单的词汇。由于中国人的(课本)英语能力极强,中国人有使用难词怪词的倾向。如我想绘制一个神色平静的二刺螈人物。我想用serene做prompt。这将很可能是一个废词。词尽量简单。如calm与peaceful expressions,请尽量使用前者。非必要不要使用词组。选择词之后,先固定下随机种子。加入你要使用的词,检视有词与无词的区别。你可能惊讶地发现,一些你以为有用的词原来并没有用。某些词如touhou(车万的作者太多了),akiyama mio(京都脸)也可能较大地改变画风。词可以多些,但也不要太多。维持在30-50组词为宜。第六步是高清放大。高清放大与不高清放大的图片画质天差地别。以上是stable diffusion的一些经验谈。 |
|