How to use stable diffusion for generating explicit content.
The following text has been translated into English and only one translation result is returned without any other characters or words added: "各位恋童阴湿阿斯肥宅大家好。stable diffusion是较老的AI了,也就是成熟技术。许多人对其抱持不屑的态度:> stable diffusion有什么好研究的?我让GPT生成一段prompt丢进去不就行了?因为这样的mindset,不少大佬出的图也充斥着不合适的prompt。他们会制作各种lora,所以对废词容忍度高,我们鶸如果prompt不搞好一点,这能行吗?但是,stable diffusion毕竟是老AI了。它对prompt的理解能力比midjourney,flux等等新模型更差。所以,如果简单地丢进prompt,stable diffusion可能不能符合预想地工作。如何正确使用stable diffusion生成涩情图片呢?首先需要选择正确的基模。目前较流行的基础模型有3种:SD1.5,SDXL,PONY SD1.5与SDXL最早,也有最多的lora。我个人认为在目前的时间点已经没有使用SD1.5的意义了。PONY则使用了更多涩情与western漫画作为训练素材。由于不受nsfw限制,它的涩情泛化能力更强,但是western画风。。敬谢不敏 SDXL与PONY都有着对应的anime画风变种,Animagine与AutismMix。它们对anime画风的处理更强,也可以使用其他注重anime的变种。第二步是选择lora。基模本身处理nsfw内容的能力可能较差,最好引入1-2个lora。我认为,可以选择一个更泛用的lora与一个更专用的lora。比如说我要绘制远坂凛的涩情图片,就可以选择一个用来处理nsfw的lora、与一个用来绘制远坂凛的lora。专用lora会降低模型能力。有时候需要想想,lora真的必要吗?比如远坂凛这样家喻户晓的角色,完全可以不带lora,直接在prompt中给出角色名称。在加载lora之前,最好先试试。第三步是决定基础参数和prompt。模型会给出它使用的基础参数,一般是一套负面prompt与sampler强烈推荐尝试DPM++ 2M KARRAS,虽然大部分sampler是euler ancestor。你可能看到很多大佬在使用high resolution,uhd,perfect body等prompt。这都是继承自梦开始的地方——novelai。但是在如今,这些prompt是否还有效?最好不要*随意*加入基础模型推荐的prompt以外的prompt,要把这些prompt当成意义模糊的画风向prompt去验证。第四步是加入描述性prompt。如果某个特征是角色本身的标志性特征(其他角色几乎不具备的),比如远坂凛衣服上的十字,这就不用提出。其他如瞳色、神态等可以再次prompt。但是,如果使用了专用lora,则也不用再prompt了。有时候简单的描述性prompt也无法生效。比如in water可能无法*正确让角色浸在水中,那就尝试下submerging。第五步是验证通用prompt。prompt最好使用最简单的词汇。由于中国人的(课本)英语能力极强,中国人有使用难词怪词的倾向。如我想绘制一个神色平静的二刺螈人物。我想用serene做prompt。这将很可能是一个废词。词尽量简单。如calm与peaceful expressions,请尽量使用前者。非必要不要使用词组。选择词之后,先固定下随机种子。加入你要使用的词,检视有词与无词的区别。你可能惊讶地发现,一些你以为有用的词原来并没有用。某些词如touhou(车万的作者太多了),akiyama mio(京都脸)也可能较大地改变画风。词可以多些,但也不要太多。维持在30-50组词为宜。第六步是高清放大。高清放大与不高清放大的图片画质天差地别。以上是stable diffusion的一些经验谈。
页:
[1]