edición general
185 meneos
6529 clics
Midjourney ya puede unir 2 fotos, y estos son algunos de los resultados de la prueba compartidos por un usuario de Telegram. [ENG]

Midjourney ya puede unir 2 fotos, y estos son algunos de los resultados de la prueba compartidos por un usuario de Telegram. [ENG]

Los internautas han estado probando una nueva versión de la red neuronal Midjourney - V4, y el autor del canal de Telegram llamado "AI molodca" mostró a sus suscriptores las imágenes únicas que la IA ha generado a partir de sus fotos sugeridas. El usuario explicó que en lugar de consultas de texto, se pueden insertar enlaces a imágenes en formato jpeg en la barra de búsqueda para obtener contenido exclusivo.

| etiquetas: midjourney , ia
  1. Espectaculares, algunas hilarantes, menudos trolls tienen que ser algunos.
  2. Solo le veo utilidad como generador infinito de pokemons.
  3. -Rápido, a metadorfosearse.
    -Querrás decir metamorfosearse.
    -¿Y que cojones es la metamorna? ¿Se esnifa?  media
  4. #1 La de los teletubbies acojona.
  5. Me parto

    .  media
  6. #3 ¡A metadonearse!
  7. Menuda memada, lo siento pero así lo veo.
  8. #2 y para sondear que hijos tendrá el matrimonio. :->
  9. Aún le queda mucho a las AI esas para llegar a las cotas de mala leche de algunos xD
    mobile.twitter.com/QuirofanoL/status/1085916712225116160
  10. ¿Del cruce de Natalie Portman con Keira Knightley sale Keira Knightley?
  11. Algunas son brutales. Esto de las imágenes generadas por IA no sé a donde llegarán, pero de lo que estoy seguro es que va a conquistar el mundo meme.

    Salu3
  12. #10 A mí me ha parecido más bien que del cruce de Keira Knightley y Natalie Portman sale Natalie Portman :troll:
  13. estoy partiendome el culo y alucinando a la vez, como puede conseguir generar imagenes así...
  14. ¿Soy el único nativo digital que empieza a sentir que el mundo empieza a ir más deprisa de lo que uno es capaz de asimilar?
  15. #7 Anda que los caballos de hierro... ¡jamás sustituirán los buenos percherones!
  16. ¿cómo se instala esto?
  17. #16 Salvo contadas excepciones las IA actuales no se instalan, son servicios en la nube.

    La única excepción que conozco a ello es el Stable Diffusion: github.com/CompVis/stable-diffusion

    Tiene como requisito una tarjeta gráfica con 10 GB de VRam.
  18. El del queso y el salchichon lo quiero en la vida real.
  19. #15 No te metas con los artistas. Aún los necesitamos para trabajar en restaurantes de comida rápida (al menos hasta que los precios de los robots bajen lo suficiente).
  20. Por favor, que nadie haga la trastada de unir a Almeida y unos genitales, seamos serios, que os veo venir >:-(
  21. #11 Ojalá sea sólo en los memes. Como demuestra la PepaPig+Terrorista estas tecnologías tienen un potencial muy peligroso para crear tantas imágenes falsas que no vamos a poder distinguirlas de las verdaderas.
  22. #8 Hostia...
  23. #5 xD xD para esto pago internet
  24. #20 Qué raro sale Almeida solamente. :-S
  25. #7 Es como la cosa rara esa de unir ondas y hacer música, pudiendo golpear un palo contra una pared.
  26. #17 ya hay posibilidades de correrlo por CPU, aunque esta verde.
  27. #18
    Salchieso.

    O

    Quelchichón.
  28. Mierda, creo que sale una de Silent Hill :-O
  29. #20 Sería la polla ver eso :troll:
  30. #14 El avance del deep learning en 2022 (principalmente en aplicaciones basadas en transformers) pasará sin duda a la historia. Estamos viviendo una revolución cuyo impacto es difícil de predecir pero que muy probablemente todos estemos infravalorando.

    Historias como la de Her (peliculón), que hasta hace un par de años parecían propias de un futuro lejano, están a la vuelta de la esquina... O ya entre nosotros.

    Y mientras tanto, los medios preocupados en hablarnos de metaversos, NFTs y cryptobros...
  31. #20 Si Midjourney pudiese manejar diferencias... saldría una cara :shit:
  32. Es la versión cañera de Ostagram.
  33. #31 Los transformers posibilitaron el paso a un mundo de deep learning multimodal. Dándole a video, audio y texto una codificación común de entrada al sistema. Es un pasito más a simular la inteligencia, al fin y al cabo, nuestro cerebro procesa imágenes, audios y textos a las vez.
  34. #34 Bueno, eso en realidad ya lo teníamos con las redes convolucionales. El gran aporte de los transformers es la "atención", es decir, la capacidad de manejar el contexto paramétricamente.
  35. #26 muy verde, ayer instalé una app en mi OS X y tardó más de 20 minutos en generar una imagen
  36. #35 Tienes razón. Disculpa, me he expresado fatal. No pretendía decir que fueran los primeros, sino por decirlo de alguna forma, los mejores en hacerlo. Las redes convolucionales no iban bien un input de texto, por ejemplo. Se necesitó de "atención" para que los sistemas multimodales evolucionaran.
  37. #27 salquechon?
  38. totalmente de acuerdo. Esto va muy rápido..
  39. ¡¡¡Cheburaskaaaaaa!!!
  40. #3 Los Blyat Rangers.
  41. #19 el artista no solo crea una imagen con su impronta, crea un mundo a su aldedor. Los que manejen las Ia serán artesanos usando herramientas
  42. #19 Creía que para suplir a los restaurantes de comida rápida teníamos las universidades.
  43. #37 Mientras los que promuevan ese desarrollo sean los autobots, vale. Pero cuidado no se esté colando algún decepticon.
  44. #38 Si juntan una salchicha con una papa sale Leticia Sabater.
  45. #36 Pero es lo que hay, es para equiparar la potencia en paralelo de una gráfica con una CPU, pues tiene que ser muy potente la CPU, para un tiempo decente.
  46. #26 #17 Buscad stable-difussion-openvino
  47. Antigua
  48. #16 puedes tener un cliente con stable horde. bit.ly/textoaimagen
    Si quieres programas como dice #17 busca (control + f) "programas".
    Stable Horde está muy bien. Y no solo tiene cliente para escritorio sino plugins para krita o gimp.
  49. #43 Las carreras de humanidades, sí. Muchos artistas salen de ellas, pero tienes razón en que no he generalizado lo suficiente. :-P
  50. #33 el styletransfer de GAN. El img2img lleva varios meses. Lo dicen como si fuera nuevo.
    tuscriaturas.miraheze.org/wiki/Anexo:Lista_de_generadores_de_imagen_a_ mi lista aún está incompleta
  51. #2 y para apps de “qué aspecto tendrán tus hijos” (como las que ya existen desde hace años)
  52. #33 #51 Pues sí era nuevo cc #48
  53. #42 Cierto, un artista genera un mundo de especulación alrededor de sus obras (lo que ahora llaman NFTs).

    En cuanto a qué son quienes "manejan" las IAs... No tengo problema en llamarlos "artesanos", mientras se los diferencie de los "ingenieros/investigadores" que crean dichas IAs.
  54. #39 #34 #31 #14

    Hace unos 50 años, en 1965 Gordon Moore enunció lo que se llama Ley de Moore: la potencia de los ordenadores se duplica cada año. Ni había nacido yo, menos aún los nativos digitales. Más tarde fue presidente de Intel, y en 1975 revisó su estimación y lo amplió a cada 18 meses. Es decir, crecimiento exponencial. La mente humana está más acostumbrada a reglas de 3, proporciones, crecimiento lineal.

    A finales de los 80, Ray Kurzweil empezó a escribir un libro llamado "La Era de las Máquinas Inteligentes", publicado en 1990. Ahí predijo que los ordenadores vencerían al campeón mundial de ajedrez a finales de los 90, y predijo un año, 1998, basado en los algoritmos y crecimiento exponencial de potencia. El error de su predicción fue de unos pocos meses, ya que ocurrió en mayo de 1997, cuando el ordenador Deep Blue de IBM derrotó a Kaspárov. Kurzweil diseñaba y elaboraba instrumentos para discapacitados, como, por ejemplo, OCR con síntesis de voz que leía libros a los ciegos. Unía dos tareas de inteligencia artificial: reconocimiento de imágenes/texto/caracteres, con síntesis de voz. En ese mismo libro predijo otras cosas: la explosión/popularización de Internet, o que se accedería a Internet habitualmente de forma inalámbrica.

    Entre 2000 y 2010 se iba notando que las cosas se aceleraban más: redes sociales, blogs, web 2.0, Second Life, Google Maps, teléfonos táctiles... Aunque en la Antigua Roma, Vitruvio, el arquitecto de Julio César ya escribió que tenían "poco tiempo".

    Hacia el año 2000, concretamente en 1999, el mismo Kurzweil, publicó un nuevo libro: "La Era de las Máquinas Espirituales" (cuando los ordenadores superen la mente humana). En este predijo los años siguientes. Según ese libro, la Singularidad ocurriría hacia 2029. Pero según este libro, en 2019 el ordenador de 1000 dólares tendría la capacidad de un cerebro humano... Esto no se ha cumplido, solo se popularizaron servicios como Alexa, con la que personas de 80 años hablan como si fuese humana. Según el libro, hacia 2029 el ordenador de 1000 dólares tendría la capacidad de 1000 cerebros humanos. No parece que vaya a ser así... No exactamente.
    Se salta 2039 y demás y el último capítulo es directamente 2099, donde dice que los humanos no se distinguen de las máquinas. No solo en sentido Turing, sino que las máquinas se proclaman humanas, y la mayoría de humanos lleva implantes artificiales y el que no los lleva es incapaz de conversar con uno que sí los lleva, ya que el que los lleva es muy superior.

    Otros dicen que la Singularidad llegaría hacia 2035, cuando habría un ordenador con la potencia de un cerebro humano, aunque fuese "recién nacido" , es decir, que posiblemente esa máquina tenía que aprender. Y que, más tarde, hacia 2050 llegaría un momento en el que todas las máquinas tendrían más potencia de "cálculo"/"pensamiento" que todos los humanos. Incluso, poco después, una sola máquina tendría más potencia que todos los humanos. En lenguaje llano, que "nos superarían completamente".

    Kurzweil también colaboró hace años en crear la Singularity University, reuniendo personalidades de Google y otras organizaciones prestigiosas.

    Aunque en algunas cosas no haya acertado con los años y demás, parece que sí es clara la aceleración y que llegará en este siglo la Singularidad.

    RESUMEN: si este año estáis alucinando, preparaos... solo "acaba de empezar".
  55. #14 Enhorabuena, has dejado de "ser joven". Lo que cuentas ha pasado siempre y nos pasa a todos tarde o temprano.
  56. #8 o para verificar si son del matrimonio xD
  57. #55 lo sé, concluía lo mismo que tú con en muchos menos bytes :-D. Aka: compresión de datos Con pérdida.
  58. #5 El mejor sin duda.
  59. #15 Cualquier artista mediocre lo hace mejor. Pero ganaréis, idiocracia avanza. :shit:
  60. #17 Hay versiones para 4GB de VRAM. No puedes hacer fine-tuning con poca RAM pero sí generar imágenes.

    #16 De todas formas no necesitas instalarlo. Midjourney es un bot de discord al que le pides cosas (puedes probar un poco gratis), y Stable Diffusion tiene mogollón de interfaces gratuitas y de pago en Internet.
  61. #60 lo curioso es que yo ahora todos los cuadros de mi casa me los ha hecho Midjourney, esta IA, a mi gusto. Con las imágenes que yo quiero y con unas ilustraciones con una calidad alucinante. Ni de coña pagaría a un artista para que me hiciese 5 o 6 cuadros a mi gusto, y con el agravante de que si no me gusta alguno o lo tendría que repetir o no lo querría.

    Ahora todo el mundo tiene acceso a la ilustración. Si quieres algo más profesional o más serio pues vas a seguir recurriendo al artista humano. Si quieres algo de andar por casa, que cumpla, que más o menos de el pego...pues tienes a las IA.

    Yo creo que pueden convivir perfectamente los dos mundos.
  62. #21 ya se está trabajando en eso. Ya hay proyectos de una IA de detección de imágenes enfrentada contra una IA de creación de imágenes. Se retroalimentan la una a la otra y por el momento tienen muy buena pinta.

    Básicamente es eso, una IA capaz de detectar imágenes creadas por una IA. Próximamente en sus navegadores de confianza.
  63. #14 esto de las IA generadoras de contenido lleva en auge, cuanto, 3 años? 5 años? Y ya las hay que generan video, imágenes, hasta música. Hasta alguna que tú dibujas con unos trazos más o menos lo que quieres, rollo dibujo de niño de 5 años y te saca una pedazo imagen que te caes de culo.

    En 5 años. Me da miedo y a la vez ganas de saber a lo que va a llegar esto en 10-15 años.
  64. #63 Pues muchísimas gracias. Sigo añadiendo cosas a diario. Me falta otra de las tablas.
  65. #70:-) . Si quieres alguna recomendación o alguna invitación a beta dímelo. Muchas gracias de nuevo :hug: Aún tengo muchísimas cosas que añadir. Los sitios enlazados en la parte de listas del principio tienen muchas cosas nuevas todos los días.
  66. #72 yo en el "trabajo"becario como no puedo hacer imágenes pongo workers para Stable Horde (es decir que gracias al poder de computación otros pueden hacer imágenes). Es muy rápido y tiene muchos modelos y es lo más similar a tenerlo instalado en el ordenador sin necesidad de entrar en Google Colab o cualquier página. Además, me gusta mucho el modelo de comunidad. Si quieres hacer cosas con DALL-E 2 a parte de que ya no está en beta, en nightcafé todos los días te dan 5 créditos y valen también para dall-e. Y bueno, hay mucha info por ahí jeje pero en mi opinión de las mejores que he visto son Stableboost que la descubrí ayer y Renderflux.
  67. #74 Lo amplié un poco. Pero lo explico más. Stable Horde es una red distribuida de cálculo para Stable Diffusion. Significa que tú mandas una petición a la red de ordenadores y uno de ellos coge la petición y la realiza y luego te la manda. Como esos "ordenadores" ("workers") caben en un Google Colab personalizado significa que con varias cuentas de gmail se puede donar cálculo a esa red de ordenadores. Como en el trabajo tengo que estar trabajando :shit: pues lo que hago es arrancar en segundo plano varios workers para que vayan haciendo ese trabajo. Luego tengo más prioridad en la cola y tengo que esperar poquito si quiero hacer imágenes en mi casa :-D

    Lo interesante es que es una red que sirve para varias interfaces diferentes e incluso para plugins. Aunque como cambia todo cada día hay que andar actualizando todo...
  68. #74 otra muy buena también es getimgai porque tiene un outpainting* que funciona muy bien sin tener que instalar nada.
    *Para hacer una imagen más grande con los bordes uniéndose. Esta es una mía: www.deviantart.com/jakeukalane/art/Confrontation-of-Nemot-934110837
  69. #77 no sé si getimg.ai tiene cuentas abiertas o no, creo que sí, ya salió de beta. Cada generación gasta 4 créditos y al principio no te saldrá muy allá pero ha mejorado mucho la interfaz desde la primera vez que la usé. La primera vez gasté 50 créditos (dan 100 al mes gratis) y no conseguí apenas nada. Los bordes tienen que solaparse un poco para que haya una transición. Para una herramienta aún mejor estaría PaintHua pero no he conseguido probarla aún porque requiere instalación (o usar un Colab que no he conseguido hacer funcionar). Fíjate que cuánto más largos los prompts mejores salen las imágenes (puse enlaces a las imágenes sueltas). También tengo iniciado hace poco una lista de ingeniería de prompts por si te ayuda: tuscriaturas.miraheze.org/wiki/Anexo:Listado_de_ingeniería_de_prompts Aún está todo desordenado.
  70. Esto y la Steam Deck, lo más destacado de este siglo, de momento
  71. #82 Hubiera pegado más Starscream, que es el que más nvidioso.
  72. #79 :hug: cualquier cosa me preguntas :-)
comentarios cerrados

menéame