edición general
  1. @visualito Si. Tiene pinta de ser mejor que el img2img normal. He visto ejemplos muy buenos.

    No he tenido tiempo de probarlo, pero no estoy seguro de que todavía funcione en los Colabs porque requiere nosequé librerías.

    @Nadieenespecial @iveldie
  1. @thorin

    Yo lo puedo ejecutar localmente en mi PC, pero no he tenido tiempo de probarlo.

    @Nadieenespecial @iveldie
    1. @visualito Tengo curiosidad de lo que pasaría si haces un retrato en base a un monigote y luego repites el retrato, con la misma semilla y prompt, pero habiendo movido un poco el monigote.
      Girandole el cuello o así.

      Supongo que cambiará mucho la persona retratada, pero sería la leche poder cambiar de postura al mismo personaje.

      @Nadieenespecial @iveldie
    2. @visualito Parece que la gente está optimizando los modelos para ControlNet, de tal manera que no ocupen gigas: civitai.com/models/9251/controlnet-pre-trained-models

      @Nadieenespecial @iveldie
    3. @visualito Este Colab funciona: colab.research.google.com/github/camenduru/stable-diffusion-webui-cola

      En txt2img sólo hay que ir abajo, desplegar ControlNet, seleccionar enable, subir la imagen, poner el prompt, y ya debería estar.
      La pestaña CivitAI permite bajarse otros modelos.


      @Nadieenespecial @iveldie

menéame