edición general
ElSev

ElSev

En menéame desde agosto de 2007

11,74 Karma
483 Ranking
23 Enviadas
4 Publicadas
31K Comentarios
9 Notas
  1. @ElSev @ripio @ElenaTripillas Pues las demás han llegado con regularidad. Eureka, Senserrich,labrujula...
  2. @ElSev le saltaría la luz anoche :-|
  3. @ElSev ¡Es muy majo! Casi consigo que venga justo la semana del tren aquel que no cabía en el túnel
  4. @onainigo hombre, hay algunos negativos fijos, si pones algo de Xataka tienes altas posibilidades de dos negativos con un comentario sobre xatamierda que copia, pero sin dar un enlace alternativo, si pones de algún sketch de Polonia tienes también dos negativos fijos con un comentario sobre que no tiene gracia, si estás cerca de 100 de karma en la noticia siempre hay un par que intenta tumbarla para llevarse karma, ¿pero a usuarios? Tenemos varios monotema que esos lo mismo están arriba que están abajo del todo, porque incluso en su monotemismo de vez en cuando ponen algo interesante, es más la fuente que el que lleva el cántaro @Zoidborg @Ripio @painful @plutanasio @ElSev @MiguelDeUnamano
  5. @Zoidborg @Ripio @painful @plutanasio @ElSev
    @MiguelDeUnamano
    Que sepáis que no votáis negativo por su spam recurrente, ni por sus envíos muy humanos, ni por sus originales etiquetas, ni siquiera, por la valiosa info de cursos ,seminarios,suscripciones y ofertas de viajes xD xD xD . Lo hacéis porque es un usuario activo y sois haters, pobrecito.
    old.meneame.net/story/polemica-escritora-ministerio-tiempo-bbc-asegura :wall:
  6. @onainigo @Zoidborg @painful @plutanasio @ElSev
    La culpa de todo es de Chrome:
    www.meneame.net/notame/3619663

    (Es tan mierda el chrome segun sus palabras que lo usa a todas horas)

    Y la culpa de no editar es de MnM y de los usuarios que pudiendo hacerlo no lo hacen
    www.meneame.net/story/urna-contiene-restos-brasidas-general-espartano-

    Y la de enviar duplicadas es del falaz contubernio.
    Y patatas, porque si yo lo hago está bien.

    Es el mundo que no quiere darmelo mascadito.
  7. @visualito Pero de 12 ya hacia un par de días que había bajado, creo, es difícil seguir todo el progreso técnico.

    Si usáis el webui de automatic han añadido el comando "AND" permitiendo fusionar 2 entradas de texto old.reddit.com/r/StableDiffusion/comments/xwplfv/and_prompt_combinatio
    En 4chan, que es donde se esta desarrollando hay algún ejemplo útil de la diferencia boards.4channel .org/g/thread/89013562#p89014696


    @thorin @ElSev @iveldie
  8. @Nadieenespecial

    A mi me sirve, tengo una RTX 2060 con 12 GB de VRAM y 64GB de RAM en el equipo

    @thorin @ElSev @iveldie
  9. @thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24 :shit:
    Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda

    @visualito @ElSev @iveldie
  10. @Nadieenespecial Parece que hay soluciones que juegan entre la RAM y la VRAM, permitiendo que VRAM de 8gbs

    www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_i

    @visualito @ElSev @iveldie
  11. @thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.

    Comentar que en esta webui github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion que es la que yo uso la inversión textual ya esta implementada sin tener que andar de historias

    @visualito @ElSev @iveldie
  12. @visualito He estado leyendo, pero no acabo de enterarme.
    ¿Tienen alguna ventaja más allá de requerir menos VRAM?

    @Nadieenespecial @ElSev @iveldie
  13. @visualito Parece que Colab no ha podido con toda la gente experimentando con Stable Diffusión y han puesto un sistema de pago por unidades de computación que no entiende nadie: colab.research.google.com/signup/pricing

    La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.

    Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
    Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.


    CC/ @Nadieenespecial @ElSev @iveldie
  14. @thorin
    Si, esa es la clave, al ser abierto la velocidad con que avanzan las cosas es impresionante

    Voy a espera a ver si actualizan una herramienta que tengo porque me gustaría probar el entrenamiento en mi máquina sino, google collab.

    @Nadieenespecial @ElSev @iveldie
  15. @visualito Gracias al home Office he estado entrenando modelos a través del Colab de abajo: github.com/TheLastBen/fast-stable-diffusion

    Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
    Además, lo actualiza de vez en cuando.

    El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
    :->

    Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.

    CC/ @Nadieenespecial @ElSev @iveldie
  16. @visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.

    Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes

    Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew

    Que a lo mejor es que yo soy muy torpe :shit: pero no es tan fácil como lo pintan

    @thorin @ElSev
  17. @Nadieenespecial

    Reentrenando el modelo da una imágenes que no es posible conseguir con impaiting o imgtoimg pero ni de cerca.,

    mira este video:

    www.youtube.com/watch?v=W4Mcuh38wyM

    @thorin @ElSev
  18. @visualito Con Dreambooth estas reentrenando el modelo entero, mientras que con la inversión textual solo estas relacionando un concepto con el modelo ya existente, o muy mal lo he entendido o Dreambooth usa muchísimos mas recursos.
    Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre :shit: ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local

    @visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas

    A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances

    @thorin @ElSev
  19. @Nadieenespecial
    Es lo mismo que se puede hacer con Dreambooth, pero según entiendo el entrenamiento de dreambooth es más liviano a la hora de exigir recursos.
    @thorin @ElSev
  20. @Nadieenespecial

    Pues el inetrés en entrenarlo con tus propias fotografías para hacer cosas como las de Corridor Crew.
    @thorin @ElSev
  21. @Nadieenespecial Gracias, miraré a ver si hay algo de las ciudades que tengo en mente.

    Aunque me temo que es algo muy subjetivo, y que una máquina nunca va a poder captar el ambiente de una ciudad, y menos sin una selección cuidada de imágenes. Ahí creo que se trata de arte, no de técnica.

    @visualito @ElSev
  22. @thorin

    ¿Has probado a crear un concepto con la inversión textual? Explicación de que como se hace github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#textual- y la librería publica de conceptos cyberes.github.io/stable-diffusion-textual-inversion-models/
    Si lo entiendo bien simplemente usa el modelo para relacionar un conjunto de imágenes y una palabra que des con lo que ya esta interno en el modelo, para según que cosas sirve. Aparte de que solo ocupan 5kb que también es una ventaja.

    Si no es buscar en las listas de artistas que se han usado en el modelo de SD para buscar uno que haga fotos de cascos históricos y paisajes y meter sus nombres en la generación de texto. Aunque yo estoy explícitamente evitando este enfoque ya que la idea es acabar usando las imágenes comercialmente.

    A mi tampoco especialmente, pero se que ese tipo de autistas son los únicos que tienen miles de imágenes perfectamente clasificadas y anotadas, y a la vez tienen interés en entrenar un modelo. Pero ahora mismo si quieres generar personajes ficticios pueden ser los mejores. Sobre todo si es en plan manga/anime

    @visualito @ElSev
« anterior12

menéame