edición general
  1. @visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.

    Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes

    Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew

    Que a lo mejor es que yo soy muy torpe :shit: pero no es tan fácil como lo pintan

    @thorin @ElSev
  1. @visualito Gracias al home Office he estado entrenando modelos a través del Colab de abajo: github.com/TheLastBen/fast-stable-diffusion

    Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
    Además, lo actualiza de vez en cuando.

    El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
    :->

    Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.

    CC/ @Nadieenespecial @ElSev @iveldie
    1. @thorin
      Si, esa es la clave, al ser abierto la velocidad con que avanzan las cosas es impresionante

      Voy a espera a ver si actualizan una herramienta que tengo porque me gustaría probar el entrenamiento en mi máquina sino, google collab.

      @Nadieenespecial @ElSev @iveldie
      1. @visualito Parece que Colab no ha podido con toda la gente experimentando con Stable Diffusión y han puesto un sistema de pago por unidades de computación que no entiende nadie: colab.research.google.com/signup/pricing

        La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.

        Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
        Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.


        CC/ @Nadieenespecial @ElSev @iveldie
          1. @thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.

            Comentar que en esta webui github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion que es la que yo uso la inversión textual ya esta implementada sin tener que andar de historias

            @visualito @ElSev @iveldie
          2. @Nadieenespecial Parece que hay soluciones que juegan entre la RAM y la VRAM, permitiendo que VRAM de 8gbs

            www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_i

            @visualito @ElSev @iveldie
          3. @thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24 :shit:
            Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda

            @visualito @ElSev @iveldie
        1. @visualito He estado leyendo, pero no acabo de enterarme.
          ¿Tienen alguna ventaja más allá de requerir menos VRAM?

          @Nadieenespecial @ElSev @iveldie

          menéame