edición general
  1. @thorin @thorin @visualito @Nadieenespecial esto de vast me interesa, pero he entrado en la página y no entiendo como funciona.
  1. @iveldie La guía de ese servicio está aquí.

    www.youtube.com/watch?v=7m__xadX0z0

    Aunque en el propio github de Joe Penna, que es lo que usa ese vídeo para ejecutar Dreambooth, está un poco por escrito: github.com/JoePenna/Dreambooth-Stable-Diffusion

    Pero es un "notebook" un poco malo en comparación con el de The last ben. Desafortunadamente el de Ben sólo se puede ejecutar en Colab.

    Las imágenes de entrenamiento tienes que subirlas a imgur y luego poner todas las URLS en el cuaderno. He intentado ver de subirlas a mano, pero no he encontrado el modo.
    Tienes que tener desactivado adblock porque de alguna manera lo fastidia.
    Y el modelo final lo tienes que descargar a tu ordenador porque el script para subirlo a google drive no funciona.
    Ah, y no lo actualizan mucho, asi que a saber cuando incorporarán SD 1.5. Aunque lo puedes subir a mano, pero mas te vale tener una velocidad alta de subida.


    Respecto a las diferencias, me da que mi modelo entrenado en vast.ai con 24 gbs de VRam es algo mejor que en Colab con ¿12? gbs de VRam. Pero el proceso de entrenamiento tiene un factor fuerte de azar, asi que igual ha sido sólo suerte.

    @visualito @Nadieenespecial
  2. @iveldie Ahora que se me ha renovado la suscripción de Colab creo qeu Colab es mejor de lo que pensaba.
    Resulta que por 11€ te dan 100 créditos.
    Activar el extra de VRAM, con el que pasas de ¿12? a 24 gbs hace un gasto de 2,05 créditos por hora. Lo que te da 50 horas.
    Para entrenar un modelo de 2000 pasos puedes estar 45 - 50 minutos (Incluyendo la configuración manual de cada sesión).
    Es decir, que da para entrenar uno 60 modelos al mes, a 0,18€/modelo con gran VRAM.

    Lo que cuesta mas créditos en Google Colab es un modelo superior de GPU, pero al parecer la ventaja no es tanta y lo que presuntamente mejora el modelo es tener bien de VRAM y no 12 gigas.
    Igual ahí patino, pero de momento creo que la relación calidad de precio no es mala.

    Si vamos ahora mismo a Vast.ai el precio de la GPU de mas de 22 gigas está a 0,278 USD/hora. Saldría a unos 0,21 EUR el modelo con gran VRAM.

    Resumiendo (Si no he metido la gamba): Google Colab es mejor.
    -Es mas barato.
    -Está siempre disponible (la disponibilidad y precios de GPUs de Vast.ai varían por oferta y demanda)
    -Configurar Colab es muy sencillo (Vast.ai es un peñazo)

    @sigue

    @visualito @Nadieenespecial   media
  3. @continua @iveldie

    -Colab tiene integración nativa con Google Drive. Perfecta para guardar automáticamente los modelos e imágenes generadas.
    -Los desarrolladores de GUIs de Stable Difussion y Dreambooth lo hacen a medida de Google Colab, mientras que hay que hacer cosillas para hacerlo compatible con Vast.ai y Runpod.
    -Y una vez que se te acaban los créditos puedes seguir usando Google Colab el resto del mes para crear modelos (presuntamente con menos calidad, pero no malos), y seguir generando imágenes con Stable Difussion. No ilimitadamente, porque a veces te ponen en pausa, pero da para aburrirte.


    Por no hablar de que esto le da mil vueltas al precio de Dall-E 2. Cuyo precio es 115 imágenes por 15 USD (mas impuestos)
    Por unos 3 EUR menos y un poco de investigación puedes generar miles de imágenes, y además entrenar modelos propios.

    Eso hasta que a Google se le inflen las pelotas y vuelva a poner mas restricciones a Google Colab.

    @visualito @Nadieenespecial
      1. @visualito @iveldie @Nadieenespecial

        "New ( simple ) Dreambooth method is out, train under 10 minutes without class images on multiple subjects, retrainable-ish model."

        10 minutos.
        Antes se necesitaban unos 36 para tener resultados decentes.
        :shit:

        www.reddit.com/r/StableDiffusion/comments/yd9oks/new_simple_dreambooth
        1. @thorin Sin mirar la noticia que no tengo tiempo, se sabe que los métodos actuales son absurdamente ineficientes.
          Usando no se que modelo de resolución de Nvidia se calculaba una mejora de velocidad de generación de imágenes entre 30 y 40 veces, el problema es que aun no era estable o algo

          @visualito @iveldie
          1. @Nadieenespecial A ver si es verdad y con una tarjeta gráfica normalucha se puede superar a Dall-E 2
            E incluso hacer modelos 3D.
            :take: :take: :take:

            @visualito @iveldie
            1. @thorin Ahora mismo hay ofertas interesantes. Las nuevas de intel se supone que las están vendiendo muy baratas en proporción al hardware que tienen por estar muy poco optimizadas. Pero estos procesos usan el hardware mas directamente asi que no debería ser problema.
              Yo con la 1070 voy tirando, pero cualquiera de esta generación puede ser muy interesante.

              Y bueno que p toda tarjeta gráfica actual debería ser capaz de fabricar una imagen 2d o 3d comparable a los gráficos actuales, otra cosa es que no sea a tiempo real.
          2. @thorin @Nadieenespecial @iveldie

            Esto está avanzando de una forma impresionante.
            1. @Anthk ¿cuantas iteraciones por segundo te sacas con eso? :-| Dime que al menos 0,1...

              @visualito @thorin @iveldie
            2. @thorin No me gustan los resultados. He usado las mismas galerías y no da imágenes muy buenas. No creo que la velocidad compense.

              En los comentarios sugieren usar muchos prompts negativos para compensar, hay mejora pero el resultado son caras más homogéneas, con lo que pierde parte de la gracia.


              @visualito @iveldie @Nadieenespecial
                1. @visualito Parece que la versión 2.0 está fastidiando los Colabs gratuitos.
                  Pero he encontrado esta versión que funciona sin problema: github.com/camenduru/stable-diffusion-webui-colab
                  Donde pone "stable-diffusion-v2-webui-colab"

                  No tiene conexión con Google Drive, así que supongo que hay que descargarse a mano las imágenes generadas artificialmente.

                  Para los legos del Notame que no saben de que va esta conversación: Es una manera de tener un Dall-E gratis para crear imágenes a partir de descripciones en texto.

                  @visualito @Nadieenespecial @iveldie
                    1. @visualito @Nadieenespecial @iveldie
                      Este colab ya os lo señalé: github.com/camenduru/stable-diffusion-webui-colab

                      Pero tengo que decir que está uy bien para probar cómo unos 30 modelos diferentes con un solo click, y está siendo actualizado.
                      La única pega es que no guarda las imágenes a Google Drive, pero no es un drama grande.
                    2. @visualito @Nadieenespecial @iveldie

                      En Automatic1111 podéis instalar esta extensión: github.com/Vetchems/sd-civitai-browser

                      Y entonces desde el propio Automátic1111 os podéis descargar modelos disponibles en civitai.com/content/guides/what-is-civitai y ejecutarlos al momento.

                      Pero hay algunos difíciles porque los de tipo LORA creo que requieren una extensión extra para A1111, y otros modelos requieren meter un archivo VAE en las carpetas de A1111 para que no salga distorsionado.

                      Pero igualmente está muy bien para probar.
                      1. @thorin @Nadieenespecial @iveldie

                        Lo de Automatic1111y ControlNet explotó, esto va cada vez más rápido.
                        1. @visualito Si. Tiene pinta de ser mejor que el img2img normal. He visto ejemplos muy buenos.

                          No he tenido tiempo de probarlo, pero no estoy seguro de que todavía funcione en los Colabs porque requiere nosequé librerías.

                          @Nadieenespecial @iveldie
                          1. @thorin

                            Yo lo puedo ejecutar localmente en mi PC, pero no he tenido tiempo de probarlo.

                            @Nadieenespecial @iveldie
                            1. @visualito Tengo curiosidad de lo que pasaría si haces un retrato en base a un monigote y luego repites el retrato, con la misma semilla y prompt, pero habiendo movido un poco el monigote.
                              Girandole el cuello o así.

                              Supongo que cambiará mucho la persona retratada, pero sería la leche poder cambiar de postura al mismo personaje.

                              @Nadieenespecial @iveldie
                                1. @visualito Lo he visto.

                                  Estaba pensando en algo más complejo, pero la verdad es que impresionante porque parece que no usó Charturn u otro truco.

                                  En un año veremos cosas espectaculares.

                                  @Nadieenespecial @iveldie
                                  1. @thorin

                                    Yo creo incluso en 6 meses.

                                    @Nadieenespecial @iveldie
                                    1. @visualito Parece que la gente está optimizando los modelos para ControlNet, de tal manera que no ocupen gigas: civitai.com/models/9251/controlnet-pre-trained-models

                                      @Nadieenespecial @iveldie
                                    2. @visualito Este Colab funciona: colab.research.google.com/github/camenduru/stable-diffusion-webui-cola

                                      En txt2img sólo hay que ir abajo, desplegar ControlNet, seleccionar enable, subir la imagen, poner el prompt, y ya debería estar.
                                      La pestaña CivitAI permite bajarse otros modelos.


                                      @Nadieenespecial @iveldie
                                        1. @visualito
                                          Sabía qué era antes de abrir el enlace.
                                          Y lo he abierto porque Harry Potter+ Balenciaga es un lolazo.

                                          Hoy me he visto ese vídeo como 10 veces de la gracia que me hace.
                                          :shit:

                                          @Nadieenespecial @iveldie
                                        2. @thorin @Nadieenespecial @iveldie

                                          Ha pasado agua bajo el puente en relación a la generación de imágenes por IA.   media
                                          1. @visualito Epic Realism (basado en SD 1.5) es espectacular. ¿Has usado ese modelo? O igual Juggernaut.

                                            Dejan en pañales SD 1.5 y 2.1

                                            Estoy impaciente por ver qué hacen los modders con SDXL.

                                            Por cierto, el Plugin ADetailer es una maravilla para mejorar caras cuando están un poco lejos.


                                            @Nadieenespecial @iveldie
                                            1. @thorin @Nadieenespecial @iveldie

                                              Usando Adetailer y epiCRealismHelper Lora

                                              Si y yo estoy esperando también los nuevos modelos entrenados basados en SDXL   media
                                              1. @visualito @thorin @iveldie
                                                Llevo sin usar nada de esto desde que un poco antes de que salio el 2.1, estoy perdidisimo :shit:
                                                1. @visualito @Nadieenespecial @iveldie

                                                  Si queréis probar ComfyUI, y con plantillas como Animatediff + LCM (text2Video generados rápidamente), en esta página web lo tienen gratis temporalmente: comfy.icu/serverless

                                                  En la parte de abajo de la intefaz podeis seleccionar la opción de Animatediff + LCM.

                                                  Estoy creando videos de 768X512 de 7 segundos, en sólo unos 330 segundos.

                                                  Pero para hacer los videos más largos que 1 segundo tenéis que añadir la ventana "Uniform Contex Options" a la de "AnimateDiff Loader", tal y como se ve en la captura. Luego la longitud del video se puede cambiar en la ventana "Empty Latent Image", en el apartado "Batch size". Para unos 7 segundos he puesto un valor de 60. Si modificáis ese valor sin la ventana "Uniform Contex Options" os dará error.   media
                                              2. @Nadieenespecial

                                                No creas que estoy demasiado avanzado en esto, por ahí estoy cogiendo confianza con ComfyUI
                                                @thorin @iveldie   media
                                                1. @visualito Si no dudo que no sea mucho mas dificil que lo anterior, simplemente no me he puesto, me da un poco pereza, y el proyecto para el que lo iba a usar anda parado por falta de creatividad mia
                                                  @thorin @iveldie
                                              3. @Nadieenespecial Nah, los modelos Epicrealism Y la extension ADetailer son muy fáciles de usar. Si sabes qué es 2.1 tienes base de sobra y te costará muy poco tiempo.

                                                En ControlNet ha habido muchos cambios, pero personalmente apenas lo uso.

                                                @visualito Tengo que ver si hay algún Colab decente para ComfyUI. Lo poco que he probado no me parece difícil si vienes de Automatic1111

                                                @iveldie
                                                1. @thorin

                                                  Ya la última versión de ControlNet soporta SDXL y se pueden hacer cosas muy interesantes y con un acabado tremendo.

                                                  @Nadieenespecial @iveldie
                                                2. @thorin @Nadieenespecial @iveldie


                                                  Esto de la IA ya se está saliendo de las manos



                                                  www.youtube.com/watch?v=NnuYld4BrBA

                                                menéame