edición general
  1. @visualito @iveldie @Nadieenespecial

    "New ( simple ) Dreambooth method is out, train under 10 minutes without class images on multiple subjects, retrainable-ish model."

    10 minutos.
    Antes se necesitaban unos 36 para tener resultados decentes.
    :shit:

    www.reddit.com/r/StableDiffusion/comments/yd9oks/new_simple_dreambooth
  1. @thorin Sin mirar la noticia que no tengo tiempo, se sabe que los métodos actuales son absurdamente ineficientes.
    Usando no se que modelo de resolución de Nvidia se calculaba una mejora de velocidad de generación de imágenes entre 30 y 40 veces, el problema es que aun no era estable o algo

    @visualito @iveldie
    1. @Nadieenespecial A ver si es verdad y con una tarjeta gráfica normalucha se puede superar a Dall-E 2
      E incluso hacer modelos 3D.
      :take: :take: :take:

      @visualito @iveldie
    2. @thorin @Nadieenespecial @iveldie

      Esto está avanzando de una forma impresionante.
    3. @visualito Parece que la versión 2.0 está fastidiando los Colabs gratuitos.
      Pero he encontrado esta versión que funciona sin problema: github.com/camenduru/stable-diffusion-webui-colab
      Donde pone "stable-diffusion-v2-webui-colab"

      No tiene conexión con Google Drive, así que supongo que hay que descargarse a mano las imágenes generadas artificialmente.

      Para los legos del Notame que no saben de que va esta conversación: Es una manera de tener un Dall-E gratis para crear imágenes a partir de descripciones en texto.

      @visualito @Nadieenespecial @iveldie
    4. @visualito @Nadieenespecial @iveldie
      Este colab ya os lo señalé: github.com/camenduru/stable-diffusion-webui-colab

      Pero tengo que decir que está uy bien para probar cómo unos 30 modelos diferentes con un solo click, y está siendo actualizado.
      La única pega es que no guarda las imágenes a Google Drive, pero no es un drama grande.
    5. @visualito @Nadieenespecial @iveldie

      En Automatic1111 podéis instalar esta extensión: github.com/Vetchems/sd-civitai-browser

      Y entonces desde el propio Automátic1111 os podéis descargar modelos disponibles en civitai.com/content/guides/what-is-civitai y ejecutarlos al momento.

      Pero hay algunos difíciles porque los de tipo LORA creo que requieren una extensión extra para A1111, y otros modelos requieren meter un archivo VAE en las carpetas de A1111 para que no salga distorsionado.

      Pero igualmente está muy bien para probar.
    6. @thorin @Nadieenespecial @iveldie

      Lo de Automatic1111y ControlNet explotó, esto va cada vez más rápido.
    7. @visualito Si. Tiene pinta de ser mejor que el img2img normal. He visto ejemplos muy buenos.

      No he tenido tiempo de probarlo, pero no estoy seguro de que todavía funcione en los Colabs porque requiere nosequé librerías.

      @Nadieenespecial @iveldie
    8. @thorin

      Yo lo puedo ejecutar localmente en mi PC, pero no he tenido tiempo de probarlo.

      @Nadieenespecial @iveldie
    9. @visualito Tengo curiosidad de lo que pasaría si haces un retrato en base a un monigote y luego repites el retrato, con la misma semilla y prompt, pero habiendo movido un poco el monigote.
      Girandole el cuello o así.

      Supongo que cambiará mucho la persona retratada, pero sería la leche poder cambiar de postura al mismo personaje.

      @Nadieenespecial @iveldie
    10. @visualito Lo he visto.

      Estaba pensando en algo más complejo, pero la verdad es que impresionante porque parece que no usó Charturn u otro truco.

      En un año veremos cosas espectaculares.

      @Nadieenespecial @iveldie
    11. @thorin

      Yo creo incluso en 6 meses.

      @Nadieenespecial @iveldie
    12. @visualito Parece que la gente está optimizando los modelos para ControlNet, de tal manera que no ocupen gigas: civitai.com/models/9251/controlnet-pre-trained-models

      @Nadieenespecial @iveldie
    13. @visualito Este Colab funciona: colab.research.google.com/github/camenduru/stable-diffusion-webui-cola

      En txt2img sólo hay que ir abajo, desplegar ControlNet, seleccionar enable, subir la imagen, poner el prompt, y ya debería estar.
      La pestaña CivitAI permite bajarse otros modelos.


      @Nadieenespecial @iveldie
    14. @visualito
      Sabía qué era antes de abrir el enlace.
      Y lo he abierto porque Harry Potter+ Balenciaga es un lolazo.

      Hoy me he visto ese vídeo como 10 veces de la gracia que me hace.
      :shit:

      @Nadieenespecial @iveldie
    15. @thorin @Nadieenespecial @iveldie

      Ha pasado agua bajo el puente en relación a la generación de imágenes por IA.   media
    16. @visualito Epic Realism (basado en SD 1.5) es espectacular. ¿Has usado ese modelo? O igual Juggernaut.

      Dejan en pañales SD 1.5 y 2.1

      Estoy impaciente por ver qué hacen los modders con SDXL.

      Por cierto, el Plugin ADetailer es una maravilla para mejorar caras cuando están un poco lejos.


      @Nadieenespecial @iveldie
    17. @thorin @Nadieenespecial @iveldie

      Usando Adetailer y epiCRealismHelper Lora

      Si y yo estoy esperando también los nuevos modelos entrenados basados en SDXL   media
  2. @thorin No me gustan los resultados. He usado las mismas galerías y no da imágenes muy buenas. No creo que la velocidad compense.

    En los comentarios sugieren usar muchos prompts negativos para compensar, hay mejora pero el resultado son caras más homogéneas, con lo que pierde parte de la gracia.


    @visualito @iveldie @Nadieenespecial

menéame