edición general
  1. @thorin

    ¿Has probado a crear un concepto con la inversión textual? Explicación de que como se hace github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#textual- y la librería publica de conceptos cyberes.github.io/stable-diffusion-textual-inversion-models/
    Si lo entiendo bien simplemente usa el modelo para relacionar un conjunto de imágenes y una palabra que des con lo que ya esta interno en el modelo, para según que cosas sirve. Aparte de que solo ocupan 5kb que también es una ventaja.

    Si no es buscar en las listas de artistas que se han usado en el modelo de SD para buscar uno que haga fotos de cascos históricos y paisajes y meter sus nombres en la generación de texto. Aunque yo estoy explícitamente evitando este enfoque ya que la idea es acabar usando las imágenes comercialmente.

    A mi tampoco especialmente, pero se que ese tipo de autistas son los únicos que tienen miles de imágenes perfectamente clasificadas y anotadas, y a la vez tienen interés en entrenar un modelo. Pero ahora mismo si quieres generar personajes ficticios pueden ser los mejores. Sobre todo si es en plan manga/anime

    @visualito @ElSev
  1. @Nadieenespecial Gracias, miraré a ver si hay algo de las ciudades que tengo en mente.

    Aunque me temo que es algo muy subjetivo, y que una máquina nunca va a poder captar el ambiente de una ciudad, y menos sin una selección cuidada de imágenes. Ahí creo que se trata de arte, no de técnica.

    @visualito @ElSev
  2. @Nadieenespecial
    Es lo mismo que se puede hacer con Dreambooth, pero según entiendo el entrenamiento de dreambooth es más liviano a la hora de exigir recursos.
    @thorin @ElSev
    1. @visualito Con Dreambooth estas reentrenando el modelo entero, mientras que con la inversión textual solo estas relacionando un concepto con el modelo ya existente, o muy mal lo he entendido o Dreambooth usa muchísimos mas recursos.
      Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre :shit: ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local

      @visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas

      A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances

      @thorin @ElSev

menéame