@visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.
Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes
Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew
Que a lo mejor es que yo soy muy torpe pero no es tan fácil como lo pintan
Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
Además, lo actualiza de vez en cuando.
El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.
@visualito Parece que Colab no ha podido con toda la gente experimentando con Stable Diffusión y han puesto un sistema de pago por unidades de computación que no entiende nadie: colab.research.google.com/signup/pricing
La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.
Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.
@thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.
@thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24
Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda
Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes
Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew
Que a lo mejor es que yo soy muy torpe
@thorin @ElSev