edición general
63 meneos
8263 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Una nueva y espeluznante aplicación de IA cambia a las mujeres por vídeos porno con un clic [ENG]

El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón. Por el momento, "Y" existe en una relativa oscuridad..

| etiquetas: inteligencia artificial , pornografía , aplicación
Comentarios destacados:                        
«12
  1. Traducción automática:

    El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón.

    MIT Technology Review ha optado por no nombrar el servicio, al que llamaremos Y, ni utilizar citas directas ni capturas de pantalla de su contenido, para evitar atraer tráfico al sitio. El investigador de deepfakes Henry Ajder, que ha seguido la evolución y el auge de los medios de comunicación sintéticos en Internet, lo descubrió y nos llamó la atención.

    Por el momento, Y existe en una relativa oscuridad, con una pequeña base de usuarios que dan su opinión sobre el desarrollo del creador en foros online. Pero los investigadores han temido que surja una aplicación como ésta, que rompa una línea ética que ningún otro servicio ha cruzado antes.

    Desde el principio, los deepfakes, o medios sintéticos generados por la IA, se han utilizado principalmente para crear representaciones pornográficas de las mujeres, que a menudo encuentran esto psicológicamente devastador. El creador original de Reddit que popularizó la tecnología intercambió los rostros de las celebridades femeninas en vídeos porno. A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.

    A medida que la tecnología ha ido avanzando, también han surgido numerosas herramientas fáciles de usar y sin código, que permiten a los usuarios "desnudar" los cuerpos femeninos en las imágenes. Muchos de estos servicios se han visto obligados a desaparecer, pero el código sigue existiendo en repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último de estos sitios recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, que lo descubrió. Todavía no se ha desconectado.

    Ha habido otras aplicaciones de intercambio de rostros con una sola foto, como ZAO o ReFace, que colocan a los usuarios en escenas seleccionadas de películas convencionales o vídeos pop. Pero Y es la primera aplicación

    …   » ver todo el comentario
  2. En el contenido no quieren citar la web a la que se refieren.

    Es posible que sea esta:

    myporndeepfake.club
  3. #2 Por la descripción que dan de "sobre un fondo blanco, un gigantesco botón azul" creo que no es esa.
  4. ¿A los hombres no?
  5. #1 que lo hagan con hombres en videos porno gay y nos echamos unas risas con algun que otro politico fachita.
  6. #4 A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.

    Por lo que sí, un 10%.
  7. #3 Con fondo blanco y botón azul hay esta pero según entiendo no hace vídeos sino meramente desnudos en fotos: deepnude.gg
  8. #3 En slashdot indican1 que el sitio es éste: www.yapty.com/

    En estos momentos ya no aparece como describen en el contenido del meneo, aparece un mensaje indicando que el servicio no está disponible para nuevos usuarios.

    El "about" parece confirmar que efectivamente es este sitio: www.yapty.com/about

    1 slashdot.org/comments.pl?sid=19773451&cid=61793893
  9. jaja a mi me hace gracia, pero reconozco que es denunciable usar imagenes de mujeres sin su consentimiento
  10. La Ayuso va a poner muy contentos a unos cuantos.
  11. #10 Hay algún link ya? Es para un amigo que querría denunciarlo.
  12. #1 se puede hacer con hombres?
  13. #5 tú te crees que eso sería noticia ? En eso la gente no se indigna
  14. Mientras pongan mi cara con el cuerpo de Nacho Vidal que es parecido al mío ni tan mal. :troll:
  15. #5 Según la noticia, el sitio incluye vídeos porno gays, también.
  16. Pues no si será ese sitio web u otro, pero como idea lo puede petar. Al fin y al cabo alimenta las típicas fantasías sexuales humanas y eso da mucho dinerito.
  17. #5, lo malo es que esas mismas risas, como dice el artículo, se las puede echar alguno a costa de condenar a muerte a algún ciudadano de un país donde la homosexualidad es un crimen.

    #12, leer antes de comentar va muy bien a veces.
  18. Pues qué asco. Cada día es más difícil distinguir la realidad de lo que es falso.
  19. #5 y demuestras que no te has leído ni lo que respondes para salir contestando arriba.
  20. #11 próximamente en tu pantalla :roll: o_o
  21. "MIT Technology Review has chosen not to name the service, which we will call Y, or use any direct quotes and screenshots of its contents, to avoid driving traffic to the site"

    Quiero la URL ya
  22. Cuando salió Bin Laden en la cueva diciendo cosas malvadas, recuerdo que algunos musulmanes creían que le habían hecho un deep fake, porque un musulmán jamás diría esas cosas.

    Visionarios de la excusa.
  23. Según el título de la noticia si pongo la foto de una mujer, me devuelve un video porno... pero luego entro y veo que el vídeo tengo que elegirlo también yo para que "cambie" una mujer por la de la foto... y se me quitan las ganas.

    PD: En serio, el título está traducido con el culo.
  24. #17 menudo merluzo eres, no es una pregunta tan simple como contestar si o no, si no más bien que pasa, que a los hombres estos dramas no les afecta ?
    Madre mía que haya que explicar todo
  25. #8 veo que sois hombres de cultura :troll:
  26. Si buscas, encuentras algunos sitios de estos en la web. Es posible, por la descripción, que hablen de Deep Fakes App, pero como no lo he usado, y hay que registrarse para usarlo (paso, no tengo interés en esos temas, ya hay demasiado porno gratis en el mundo como para pajearse de por vida), pues no puedo confirmarlo.
    El que quiera, que lo busque y lo mire.
  27. #22 lo mismo dijeron con Mahoma (los versos satánicos)
  28. #8 os veo muy puestos al día. :troll:
  29. #10 #11 #20 Holi que bueno es el deep fake casi no se nota que es un montaje

    .  media
  30. #14 lo tuyo es mas plan Torbe ........ y lo sabes :troll:
  31. Esto lleva haciéndose unos añitos ya... esto solo es publicidad del vigésimo servicio de este tipo. Hay tanto porno con la cara de Alexa Ocasio Cortez (una politica estadounidense) que seguramente compita en cantidad con el de estrellas del porno destacadas.
  32. #5 o rojito. Los hay muy guapos!
  33. #10 no me digas  media
  34. Sería interesante que tuviera opciones, como subir una foto de Rajoy y ponerle cuerpo de mujer xD .
  35. yo quiero uno para tíos así me mato a pajas usando la cara del Hemsworth
  36. #15 pero anuncian lo anuncian con mujeres
  37. El día que usen este servicio para poner la cara de una cabra sobre los vídeos de Mia Khalifa, los sitios porno árabes explotan.
  38. #37 Ya, pero luego el artículo dice “ The vast majority feature women, though a small handful also feature men, mostly in gay porn.” (“La mayoría está protagonizada por mujeres, aunque una pequeña cantidad está protagonizada por hombres, mayormente en porno gay”)
  39. #14: ¿Y haciendo lo del "sapowned"?
  40. #26 No parece que sea el que digo, sino el que mencionan arriba, Yapty, pero han restringido la suscripción al servicio, así que no podréis probarlo de momento.
  41. #9 A mi no me hace gracia porque esto puede tener unos efectos devastadores, y me refiero a que no se pueda confiar en una escena de video si esta tecnología se extiende y se perfecciona. Las consecuencias pueden ser tales como:

    Mujeres asesinadas en paises donde se castiga con la muerte que vean un video porno de ella
    Perdida de la confianza de la gente en los políticos y dirigentes, que transmiten sus ideas principalmente por video, limitando su área de influencia a las pocas personas que puedan verlos en directo :troll:
    Venganzas de todo tipo...
    Etc
  42. La mitad de los comentarios: ¡Qué horror! ¿Qué sitio es, tan horrible?  media
  43. #16 El tema es que no puedes subir fotos de terceros sin su consentimiento a una plataforma cualquiera.

    Si tu por tu cuenta te bajas un software, y te montas el vídeo en tu casa, para tu uso personal y sin que nadie lo sepa, ni lo compartes con nadie, pues es otro rollo. Nadie lo sabrá más que tú.

    Pero usar plataformas online, como que no… y menos aún, crear cosas así, y compartirlas con otra gente. O poner eso online.
  44. #10 un trio con Almeida carapolla y el coletas?
  45. #18 Es posible que llegue un momento en el que sea imposible saber qué es falso y qué no, y no podamos dar validez a ninguna imagen que veamos online.
    Es bastante complicado el tema…
  46. #42 y bueno, el paso natural para que eventualmente, luego de asesinar a diestra y siniestra uno cuantos miles, se den cuenta de la ridiculez de sus leyes. Evolución natural tristemente. Como todo, tuvieron que morir cientos de miles de inocentes antes de eliminar casi por completo la pena de muerte del mundo, y aún así hay injusticias por todos lados en otras magnitudes, la única forma de aprendizaje social es repetir el error hasta el hartazgo.
  47. #42 Photoshop existe desde hace décadas. Fotomontajes más y menos realistas de famosas y demás han existido desde entonces y nadie se ha muerto por ello. No sé exactamente por qué esto va a hacer más daño que lo que hemos tenido hasta ahora.
  48. #32 La verdad es que hacer una noticia de esto genera efecto Streissand… :roll:
  49. Deleznable... alguien tiene el enlace para investigarlo más profundamente :roll:
  50. Que monos, se creen que por no poner link al sitio no va a haber efecto streissand
  51. #47 Ya no dormiré xD .
  52. #38 Ellos pensaran que el día que usen este servicio para la cara de Mia Khalifa sobre los vídeos de una cabra, los sitios porno occidentales explotan.
  53. #54 no me jodas que no sabias del tema
  54. Me parece exagerado decir que esto es espeluznante o puede ser traumático para las mujeres.
    Ahora no son populares este tipo de videos fake, pero cuando sean cosa de todos los días hasta podría ser una ventaja para las mujeres, ya que cualquier vídeo porno que aparezca en la red por más que sea verdadero pueden decir que es fake y le van a creer.
  55. #18 Para bien o para m, la único soluciones es establecer relaciones de dependencia con medios que se ganen una buena reputación... y que abusar de ella suponga una fuerte penalización. Por supuesto, eso hace que aquellos que busquen/tengan el poder, intenten manipular ese sistema... pero no es nada nuevo.
  56. Es el futuro que nos espera.
    Si la tecnología ha llegado al punto en que se puede hacer un deepfake porno con darle click a un botón, o nos convertimos todos en personas decentes, o aprendemos a convivir con ello y pasamos del tema porque esto ya no hay quién lo pare.
  57. Si hubiese tenido esto en mi adolescencia, eso poner la cara de la chica que te gusta del cole sin tener que usar la imaginación. :foreveralone:

    Eran tiempos difíciles donde valía hasta el canal plus codificado.
  58. #57 pues también es verdad :popcorn:
  59. Una espeluznante aplicación llamada photoshop permite cambiar la cara de una persona en cualquier foto porno! el horror!

    Venga ya...
  60. Esto da muchísimo mal rollo. Lo facilísimo que se le puede joder la vida a alguien. Ahora ya no hace falta ni engañarla (o quizá engañarlo, aunque menos) para que te pase fotos comprometedoras: Basta con sacarse un selfie inocente, recortar la cara de la víctima y PAM, video porno que en realidad nunca ha ocurrido.

    Pero ya sabemos cómo somos los seres humanos. ¿Acaso importa si ha sido real o no? El daño ya estará hecho.
  61. #62 Gracias, es para un amigo. Voy a comprar pañuelos que se me han gastado, vaya resfriado que llevo encima. :troll:
  62. #56 No es algo que se encuentre entre mis intereses {0x1f605} .
  63. #25 Y trabajadores!! No a dos manos, porque una la tienen ocupada :roll: ...pero muy trabajadores!
  64. #10 :-S Con la de gente que hay por el mundo...Pero mejor que la Espe...o_o :wall:
  65. #14 Nacho Vidal ha hecho un deepfake poniendo su cara en tu cuerpo :hug: :-D
  66. #17 o lo contrario, pierde la validez como prueba.
  67. Qué mal va el mundo para que el MIT Technology Review saque titulares tan sensacionalistas: "horrifying" OMG!!
  68. #50 La diferencia para mi es que photoshop no es tan sencillo de usar como esto. Veremos en que queda la cosa.
  69. #64 Todo lo contrario, si es tan fácil hacerlo se dará por hecho que la foto es falsa aunque no lo sea. Diría que estas páginas serán incluso una liberación contra el chantaje.
  70. #65 espero que tú y #75 tengáis razón, la verdad.
  71. #18 y preparate, que solo es el principio. Los algoritmos se hacen cada día mas eficaces en generar y mezclar contenido multimedia. Lo cual permite construir videos e imágenes de lo que quieras, al coste de la energía de alimentar la computadora.
  72. #7 Gracias  media
  73. #18 ¿Para qué quieres que sea real? Una película es una película, tan real es una como otra. ¿Quién sabe cuál es mejor? ¿quién sabe cuál es más cierta?

    Y si no, siempre podrás ir a Memory Call, y allí te lo acaban de ajustar :troll:
  74. #8 No sé qué decir. Esto ha llegado demasiado lejos.

    Que uno pueda acceder a esta web como si tal cosa y luego se encuentre el acceso desactivado no es de recibo. Pero peor aún, que uno entre al otro sitio y le digan que tiene que pagar para ver cómo de bueno es el armatoste o que le pongan en una cola para procesar su vídeo es humillante. Uno llega todo ilusionado y al final acaba en pornhub como todo hijo de vecino.

    Me quedo con mi app de Deepnude, que aunque lento me procesa las fotos que yo le diga sin colas ni pagos. Ea.
  75. #28 ¿Y para qué si no es Internet?

    www.youtube.com/watch?v=hhl6uC8tyek
  76. No entiendo la alarma y el sonar de campanas, la verdad.
    De toda la vida Internet ha sido por y para el porno.

    www.youtube.com/watch?v=hhl6uC8tyek
  77. #29 Ayuso en el lado malo de la historia, osea cuando comienza lo malo.
  78. Hmm, a medio plazo hasta podrías podrás elegir en las plataformas de streaming la cuota racial que quieras para los personajes de una serie.
    Ideal para cietos países decimonónicos que aun mantienen el campo "raza" en sus formularios oficiales pero que todavía no han adoptado el sistema métrico :troll:
  79. #78 melafo....
  80. #24, ah, vale, que solo venías a hacer el incel y lo dices como si eso te dejase en mucho mejor lugar xD xD xD
  81. #72, me temo que en esos países les da un poco igual.
  82. #74 es que hasta que no lo veamos aplicado a algo realmente enorme y polemico que genere un impacto real en el mundo más allá de la vida, emociones y sentimientos de un sólo indoviduo no vamos a percibir la magnitud de disponer de este tipo de herramientas.
    Como los drones de uso civil usados para el mal, como el intento de asesinato a Maduro o los que casi se chocan aviones o provocan desvios en aeropuertos enteros. Son todavia tecnologias en pañales y no alcanzamos a dimensionar el alcance de los eventos que pueden desencadenar. Otro ejemplo mucho más preocupante: las armas impresas en 3D.
  83. #65 cuando pasa la novedad o algo se vuelve tan común deja de tener tanta importancia. Mirá el COVID, a pesar de seguir en pandemia ya no genera tanto impacto como los primeros meses. Se naturalizan las cosas muy facilmente por no decir que muchas veces caen en el olvido.
  84. #50 Porque las ideas se transmiten por vídeo, no por fotos, simplificando
  85. #58 mucho le pides al espectador/cliente/usuario/consumidor medio
  86. #63 ¿sabes usar photoshop?
  87. #73 si lo lees con voz de Piqueras suena más natural. "Una página horripilante, apocalíptica"
  88. Dinero es el único dios.... y porno, su profeta...
  89. #18 #48 #77 Los humanos ya no podemos distinguir entre lo real y lo no real hace tiempo, ahora es una carrera entre redes neuronales. Unas generan contenido, la otras dicen si el contenido es real o generado. A este proceso se le llama generative adversarial network.

    en.wikipedia.org/wiki/Generative_adversarial_network
  90. #2 Ostias, alguien ha editado mi comentario para que no sea un enlace.

    :palm:

    Joder con la censura. Solo quería dejar constancia que no fue decisión mía dificultar al resto de usuarios acceder al sitio que indiqué, que lo puse para que fuera fácil pinchar en vez de obligar a copiar/pegar. Eso lo ha decidido otra persona, a saber quién, que no ha tenido la integridad de poner su nombre a ese acto.

    Vergüenza.

    Debería llegar algún tipo de notificación cuando lo que has escrito ha sido modificado por un tercero, no me parece de recibo que se haga eso sin el conocimiento del autor a la par que manteniendo el apodo intacto, como si eso lo hubiera escrito quién está detrás del apodo siendo ya falso, habiendo sido editado o censurado o modificado por un tercero que no da la cara. Lo más triste es que lo ven tan normal que lo hacen hasta con un automatismo, por ejemplo en el caso de la lista negra de ignorar, que el sistema borra las referencias al otro usuario sin avisar, sin decir nada, y publicando el comentario con el apodo original sin ninguna anotación ni nada de que ha sido manipulado.
  91. #45 puaj,..
  92. #65 ahora sí pillan un vídeo real tuyo puedes decir que es un deepfake, todo son ganancias.
  93. #8 ¡¡Me parece increible..................que slashdot siga ahí después de tantos años!! ;)
«12
comentarios cerrados

menéame