Pero es un "notebook" un poco malo en comparación con el de The last ben. Desafortunadamente el de Ben sólo se puede ejecutar en Colab.
Las imágenes de entrenamiento tienes que subirlas a imgur y luego poner todas las URLS en el cuaderno. He intentado ver de subirlas a mano, pero no he encontrado el modo.
Tienes que tener desactivado adblock porque de alguna manera lo fastidia.
Y el modelo final lo tienes que descargar a tu ordenador porque el script para subirlo a google drive no funciona.
Ah, y no lo actualizan mucho, asi que a saber cuando incorporarán SD 1.5. Aunque lo puedes subir a mano, pero mas te vale tener una velocidad alta de subida.
Respecto a las diferencias, me da que mi modelo entrenado en vast.ai con 24 gbs de VRam es algo mejor que en Colab con ¿12? gbs de VRam. Pero el proceso de entrenamiento tiene un factor fuerte de azar, asi que igual ha sido sólo suerte.
@iveldie Ahora que se me ha renovado la suscripción de Colab creo qeu Colab es mejor de lo que pensaba.
Resulta que por 11€ te dan 100 créditos.
Activar el extra de VRAM, con el que pasas de ¿12? a 24 gbs hace un gasto de 2,05 créditos por hora. Lo que te da 50 horas.
Para entrenar un modelo de 2000 pasos puedes estar 45 - 50 minutos (Incluyendo la configuración manual de cada sesión).
Es decir, que da para entrenar uno 60 modelos al mes, a 0,18€/modelo con gran VRAM.
Lo que cuesta mas créditos en Google Colab es un modelo superior de GPU, pero al parecer la ventaja no es tanta y lo que presuntamente mejora el modelo es tener bien de VRAM y no 12 gigas.
Igual ahí patino, pero de momento creo que la relación calidad de precio no es mala.
Si vamos ahora mismo a Vast.ai el precio de la GPU de mas de 22 gigas está a 0,278 USD/hora. Saldría a unos 0,21 EUR el modelo con gran VRAM.
Resumiendo (Si no he metido la gamba): Google Colab es mejor.
-Es mas barato.
-Está siempre disponible (la disponibilidad y precios de GPUs de Vast.ai varían por oferta y demanda)
-Configurar Colab es muy sencillo (Vast.ai es un peñazo)
-Colab tiene integración nativa con Google Drive. Perfecta para guardar automáticamente los modelos e imágenes generadas.
-Los desarrolladores de GUIs de Stable Difussion y Dreambooth lo hacen a medida de Google Colab, mientras que hay que hacer cosillas para hacerlo compatible con Vast.ai y Runpod.
-Y una vez que se te acaban los créditos puedes seguir usando Google Colab el resto del mes para crear modelos (presuntamente con menos calidad, pero no malos), y seguir generando imágenes con Stable Difussion. No ilimitadamente, porque a veces te ponen en pausa, pero da para aburrirte.
Por no hablar de que esto le da mil vueltas al precio de Dall-E 2. Cuyo precio es 115 imágenes por 15 USD (mas impuestos)
Por unos 3 EUR menos y un poco de investigación puedes generar miles de imágenes, y además entrenar modelos propios.
Eso hasta que a Google se le inflen las pelotas y vuelva a poner mas restricciones a Google Colab.
@thorin Sin mirar la noticia que no tengo tiempo, se sabe que los métodos actuales son absurdamente ineficientes.
Usando no se que modelo de resolución de Nvidia se calculaba una mejora de velocidad de generación de imágenes entre 30 y 40 veces, el problema es que aun no era estable o algo
@thorin Ahora mismo hay ofertas interesantes. Las nuevas de intel se supone que las están vendiendo muy baratas en proporción al hardware que tienen por estar muy poco optimizadas. Pero estos procesos usan el hardware mas directamente asi que no debería ser problema.
Yo con la 1070 voy tirando, pero cualquiera de esta generación puede ser muy interesante.
Y bueno que p toda tarjeta gráfica actual debería ser capaz de fabricar una imagen 2d o 3d comparable a los gráficos actuales, otra cosa es que no sea a tiempo real.
@thorin No me gustan los resultados. He usado las mismas galerías y no da imágenes muy buenas. No creo que la velocidad compense.
En los comentarios sugieren usar muchos prompts negativos para compensar, hay mejora pero el resultado son caras más homogéneas, con lo que pierde parte de la gracia.
No tiene conexión con Google Drive, así que supongo que hay que descargarse a mano las imágenes generadas artificialmente.
Para los legos del Notame que no saben de que va esta conversación: Es una manera de tener un Dall-E gratis para crear imágenes a partir de descripciones en texto.
Pero tengo que decir que está uy bien para probar cómo unos 30 modelos diferentes con un solo click, y está siendo actualizado.
La única pega es que no guarda las imágenes a Google Drive, pero no es un drama grande.
Pero hay algunos difíciles porque los de tipo LORA creo que requieren una extensión extra para A1111, y otros modelos requieren meter un archivo VAE en las carpetas de A1111 para que no salga distorsionado.
@visualito Tengo curiosidad de lo que pasaría si haces un retrato en base a un monigote y luego repites el retrato, con la misma semilla y prompt, pero habiendo movido un poco el monigote.
Girandole el cuello o así.
Supongo que cambiará mucho la persona retratada, pero sería la leche poder cambiar de postura al mismo personaje.
En txt2img sólo hay que ir abajo, desplegar ControlNet, seleccionar enable, subir la imagen, poner el prompt, y ya debería estar.
La pestaña CivitAI permite bajarse otros modelos.
Si queréis probar ComfyUI, y con plantillas como Animatediff + LCM (text2Video generados rápidamente), en esta página web lo tienen gratis temporalmente: comfy.icu/serverless
En la parte de abajo de la intefaz podeis seleccionar la opción de Animatediff + LCM.
Estoy creando videos de 768X512 de 7 segundos, en sólo unos 330 segundos.
Pero para hacer los videos más largos que 1 segundo tenéis que añadir la ventana "Uniform Contex Options" a la de "AnimateDiff Loader", tal y como se ve en la captura. Luego la longitud del video se puede cambiar en la ventana "Empty Latent Image", en el apartado "Batch size". Para unos 7 segundos he puesto un valor de 60. Si modificáis ese valor sin la ventana "Uniform Contex Options" os dará error.
@visualito Si no dudo que no sea mucho mas dificil que lo anterior, simplemente no me he puesto, me da un poco pereza, y el proyecto para el que lo iba a usar anda parado por falta de creatividad mia @thorin@iveldie
@Nadieenespecial Nah, los modelos Epicrealism Y la extension ADetailer son muy fáciles de usar. Si sabes qué es 2.1 tienes base de sobra y te costará muy poco tiempo.
En ControlNet ha habido muchos cambios, pero personalmente apenas lo uso.
@visualito Tengo que ver si hay algún Colab decente para ComfyUI. Lo poco que he probado no me parece difícil si vienes de Automatic1111
FrayM en El Preparado con el culo acolchado.
dunachio en @Golan_Trevize En 1993, 15 años antes que saliese el bitcoin. Y según...
Senaibur en Menos mal.... Me acabo de despertar y he tenido una pesadilla horrible...
paumal en Si no hubiera sido por el strike del chistecito, os contaría en qué...
Hangdog en Estoy viendo con preocupación una moda entre la chavalería, que consiste...
Amperobonus en Mañana es el festival de final de curso del cole. Es mas especial que...
paumal en @Amperobonus tu, necesito esto: Si no las sacan online me haces de dealer?
ElenaTripillas en @Amperobonus @Senaibur @golan_trevize @noexisto Créame un calvo pelirrojo...
Fesavama en Buenas noches a todos menos a @senaibur
FrayM en @dunachio ¿Con qué corbata las combinas? @Hangdog