El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón. Por el momento, "Y" existe en una relativa oscuridad..
|
etiquetas: inteligencia artificial , pornografía , aplicación
Por lo que sí, un 10%.
En estos momentos ya no aparece como describen en el contenido del meneo, aparece un mensaje indicando que el servicio no está disponible para nuevos usuarios.
El "about" parece confirmar que efectivamente es este sitio: www.yapty.com/about
1 slashdot.org/comments.pl?sid=19773451&cid=61793893
Es posible que sea esta:
myporndeepfake.club
El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón.
MIT Technology Review ha optado por no nombrar el servicio, al que llamaremos Y, ni utilizar citas directas ni capturas de pantalla de su contenido, para evitar atraer tráfico al sitio. El investigador de deepfakes Henry Ajder, que ha seguido la evolución y el auge de los medios de comunicación sintéticos en Internet, lo descubrió y nos llamó la atención.
Por el momento, Y existe en una relativa oscuridad, con una pequeña base de usuarios que dan su opinión sobre el desarrollo del creador en foros online. Pero los investigadores han temido que surja una aplicación como ésta, que rompa una línea ética que ningún otro servicio ha cruzado antes.
Desde el principio, los deepfakes, o medios sintéticos generados por la IA, se han utilizado principalmente para crear representaciones pornográficas de las mujeres, que a menudo encuentran esto psicológicamente devastador. El creador original de Reddit que popularizó la tecnología intercambió los rostros de las celebridades femeninas en vídeos porno. A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.
A medida que la tecnología ha ido avanzando, también han surgido numerosas herramientas fáciles de usar y sin código, que permiten a los usuarios "desnudar" los cuerpos femeninos en las imágenes. Muchos de estos servicios se han visto obligados a desaparecer, pero el código sigue existiendo en repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último de estos sitios recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, que lo descubrió. Todavía no se ha desconectado.
Ha habido otras aplicaciones de intercambio de rostros con una sola foto, como ZAO o ReFace, que colocan a los usuarios en escenas seleccionadas de películas convencionales o vídeos pop. Pero Y es la primera aplicación
… » ver todo el comentario
.
Si tu por tu cuenta te bajas un software, y te montas el vídeo en tu casa, para tu uso personal y sin que nadie lo sepa, ni lo compartes con nadie, pues es otro rollo. Nadie lo sabrá más que tú.
Pero usar plataformas online, como que no… y menos aún, crear cosas así, y compartirlas con otra gente. O poner eso online.
Es bastante complicado el tema…
#12, leer antes de comentar va muy bien a veces.
Ahora no son populares este tipo de videos fake, pero cuando sean cosa de todos los días hasta podría ser una ventaja para las mujeres, ya que cualquier vídeo porno que aparezca en la red por más que sea verdadero pueden decir que es fake y le van a creer.
Eran tiempos difíciles donde valía hasta el canal plus codificado.
Visionarios de la excusa.
Si la tecnología ha llegado al punto en que se puede hacer un deepfake porno con darle click a un botón, o nos convertimos todos en personas decentes, o aprendemos a convivir con ello y pasamos del tema porque esto ya no hay quién lo pare.
Madre mía que haya que explicar todo
Mujeres asesinadas en paises donde se castiga con la muerte que vean un video porno de ella
Perdida de la confianza de la gente en los políticos y dirigentes, que transmiten sus ideas principalmente por video, limitando su área de influencia a las pocas personas que puedan verlos en directo
Venganzas de todo tipo...
Etc
Quiero la URL ya
www.youtube.com/watch?v=hhl6uC8tyek
Ideal para cietos países decimonónicos que aun mantienen el campo "raza" en sus formularios oficiales pero que todavía no han adoptado el sistema métrico
Venga ya...
en.wikipedia.org/wiki/Generative_adversarial_network
Como los drones de uso civil usados para el mal, como el intento de asesinato a Maduro o los que casi se chocan aviones o provocan desvios en aeropuertos enteros. Son todavia tecnologias en pañales y no alcanzamos a dimensionar el alcance de los eventos que pueden desencadenar. Otro ejemplo mucho más preocupante: las armas impresas en 3D.
- ¿cual es la primera palabra más buscada en Internet?
- Porno
- ¿ y la segunda?
- Prono.
Pd: la gente se equivoca mucho al teclear.
Pero ya sabemos cómo somos los seres humanos. ¿Acaso importa si ha sido real o no? El daño ya estará hecho.
Que uno pueda acceder a esta web como si tal cosa y luego se encuentre el acceso desactivado no es de recibo. Pero peor aún, que uno entre al otro sitio y le digan que tiene que pagar para ver cómo de bueno es el armatoste o que le pongan en una cola para procesar su vídeo es humillante. Uno llega todo ilusionado y al final acaba en pornhub como todo hijo de vecino.
Me quedo con mi app de Deepnude, que aunque lento me procesa las fotos que yo le diga sin colas ni pagos. Ea.
Joder con la censura. Solo quería dejar constancia que no fue decisión mía dificultar al resto de usuarios acceder al sitio que indiqué, que lo puse para que fuera fácil pinchar en vez de obligar a copiar/pegar. Eso lo ha decidido otra persona, a saber quién, que no ha tenido la integridad de poner su nombre a ese acto.
Vergüenza.
Debería llegar algún tipo de notificación cuando lo que has escrito ha sido modificado por un tercero, no me parece de recibo que se haga eso sin el conocimiento del autor a la par que manteniendo el apodo intacto, como si eso lo hubiera escrito quién está detrás del apodo siendo ya falso, habiendo sido editado o censurado o modificado por un tercero que no da la cara. Lo más triste es que lo ven tan normal que lo hacen hasta con un automatismo, por ejemplo en el caso de la lista negra de ignorar, que el sistema borra las referencias al otro usuario sin avisar, sin decir nada, y publicando el comentario con el apodo original sin ninguna anotación ni nada de que ha sido manipulado.
Y si no, siempre podrás ir a Memory Call, y allí te lo acaban de ajustar
De toda la vida Internet ha sido por y para el porno.
www.youtube.com/watch?v=hhl6uC8tyek
El que quiera, que lo busque y lo mire.