发布网友 发布时间:2024-09-17 09:24
共1个回答
热心网友 时间:2024-09-30 03:20
在使用AI技术重新着色图片时,本文将介绍几种不同的方法,包括线稿和灰度图的重新着色。首先,对于线稿图的上色,最基础的图生图工作流程可能不太适用,因为它可能与原始线稿图保持较大的差异。然而,当目标是希望生成的图片与原始图有所改变时,这种方法可以尝试。通过调整参数,如denoise,可以控制生成图片与原始线稿的相似度,范围从保留大量相似性(denoise为0.6)到几乎完全改变(denoise为1)。
另一种方法是使用ControlNet技术,其中涉及使用VAE Encode读取输入图片尺寸,同时设置采样器的denoise为1。在案例中,选择漫画类的线稿图,并使用特定的模型(如sd15s2_lineart_anime)进行着色。为了适应不同的线稿类型,例如漫画,需要预处理,如将白底黑线图转化为黑底白线图。然后,使用控制强度(strength)值(如0.5和1)来观察控制网络对生成图片的影响。强度值0.5表示控制网络与提示词的均衡影响,而强度值1表示完全根据控制网络来影响图片,这种情况下可能需要谨慎处理以避免忽略提示词内容。
ControlNet模型的下载链接为:hf-mirror.com/comfyanon...。此技术不仅适用于线稿上色,还有许多其他模型,具体作用请查阅说明页面:hf-mirror.com/bdsqlsz/q... hf-mirror.com/kohya-ss/...
针对线稿+ControlLora_CannyEdge着色问题,虽然SDXL模型的ControlNet模型可能不太全面,但是存在特定的ControlLora模型(如用于线稿的control lora anny模型)可以尝试。然而,实际应用中可能存在兼容性问题,例如在不同类型的GPU上运行时的效果不同,这需要用户在实际使用中进行探索和调试。
线稿+ControlLora_Sketch着色方法中,将Control模型更换为StabilityAI的control lora sketch,输入素描图,结果通常可以得到较为满意的效果。需要注意的是,这种方法可能需要调整特定参数以达到最佳结果。
对于灰度图的重新着色,例如使用故宫一角的图片,可以尝试使用ControlNet模型(如ioclab_sd15_recolor)进行着色。在此过程中,最好在VAE Decode后加入一个Color Blend节点,以提高着色后图片与原始灰度图的对比度。此外,还需要注意,使用基本的SDXL模型进行着色效果较好,而使用Turbo、Lightning等模型时效果可能不佳。
最后,如果想要对彩色图片重新上色,需要在输入图片后添加相应的预处理器,如Anime Lineart预处理器。在处理照片时,可以使用Color Correct节点将彩色图片转为灰度图,进而进行着色。如果需要调整图片大小,可以在Color Correct节点后添加相应的缩放节点。这些方法和插件的下载链接可从GitHub等平台获取,或者通过镜像网站访问,但需注意镜像网站的稳定性和访问。