"Es tan realista que lo primero que he pensado al verlo ha sido 'qué has hecho'". Son las palabras a este periódico de Miriam Al Adib, la ginecóloga almendralejense (Badajoz) que ha denunciado este domingo en sus redes sociales el robo de imágenes de menores de edad de la localidad para manipularlas con Inteligencia Artificial y simular que estas niñas están desnudas: "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans', cuenta a este periódico.
|
etiquetas: almendralejo , inteligencia artificial , manipulación , imágenes , desnudos
Ufff, pensando en esto, ¿como se avanza legalmente para que se prohíban desnudos de niños generados por IA. Como se demuestra la edad de algo completamente generado por IA?
Pero vamos tampoco vamos a negar lo evidente. una adolescente de 16 anyos puede estar igual de buena que una de 25.
Por contar una historieta, trabajaba en una tienda de informática y un día llego un chico que quería que arregláramos el PC ya que no funcionaba bien. Pues al hacer el scaneo de datos en busca de virus, veíamos que tenia muchísimas fotos de niños y niñas, fotos normales en el parque, en la calle, etc... pero nos llamo la atención que tenia bastantes de niños en ropa interior, bañadores y tal.
Nada, por protocolo llamamos a la policía para informarles y decidieron retener al chaval cuando volviera. Resulta que le retienen en la tienda al ir a recoger el PC y pedir explicaciones, el pobre dibujaba manga y lo usaba como base de sus dibujos.
En su caso, al no ser desnudos entiendo que no es un delito, pero si esas imágenes las pasas por una IA y las desnudas, pasa a ser delito directamente? La verdad que tendrían que hacer una legislación para estas nuevas tecnologias...
#95 El cuerpo es "inventado" por una IA, ahora bien, creo que según la legislación española eso sigue siendo considerado pornografía infantil.
Sobre legislación, algunos sitios ya solo permiten contenido "verificado" y borran cualquier otro tipo de contenido, igual se hacen leyes más restrictivas al respecto.
Por ejemplo, si un niño mata o viola a los 16, que tenga la misma pena de cárcel que un mayor de edad.
Quizás esto traiga algo positivo, y es que si se normalizan esas imagenes, incluso si fuera una imagen real puede pasar más desapercibida, o alguien siempre tendrá el comodin de alegar que una imagen es falsa.
De repente me has recordado a Matrix: no es real, tu mente hace que lo sea.
En este caso al ser fotorealista, relacionado con menores de edad reales, etc, creo que es mucho más claro que aplique dicha ley.
Es más, si te das cuenta de que se te ha escapado una foto así, te apuras tu mismo a hacer deep fakes de varias personas más y las filtras para que entre todos puedan indignarse en grupo y despotricar contra la IA.
Incluso esto serviría para invalidar pruebas. Cualquier foto o video que no tenga un mecanismo de validación bastante avanzado (como que el dispositivo grabador agregue una firma digital o algo así) puede ponerse en duda. Basta con que el abogado defensor muestre como ejemplo el mismo vídeo pero con la cara del juez o de los del jurado si hay, para sembrar dudas sobre las pruebas. Lo acompaña del testimonio de su secretaria que atestiguará que lo hizo con el ordenador de la oficina en media hora para demostrar que ninguna foto o vídeo es creíble.
Son leyes que quizás se hicieron con objetivos claros, pero su redacción hace que sean interpretables a "cualquier cosa". Así que si le dices hijo de puta a un policía, vale, lo mismo te mereces una sanción, pero cuando haces esa ley, la gente de decirlo, y empieza a usar cosas como "All Cats Are Beautiful" que litearlmente no significan nada, pero "puedes" "interpretar" que es un insulto...
De hecho, la mayoría de noticias como esa habla de detenciones, pero no de condenas. Hay que tener encuenta que incluso hace pococ había una surrealista noticia de alguien a quién decomisaron gigas y gigas de material pornográfico infantil, y luego resulta que el la mayoría (+70%) eran imágenes no pornográficas, como un niño jugando en un parque, o cosas que cada uno sube a sus propias redes sociales.
Así que de esas noticias puedes fiarte poco, pero como digo, nominalmente, según la ley serían pornografía infantil (cc #40).
Por mi parte, ojalá sea como dices y se le quite importancia al asunto.
Las leyes tienen que ser proporcionales.
Y te diré más, preferiría que los pedófilos se la cascasen todos con imagenes fabricadas por una IA, aunque resulten desagradables para todo el mundo, a que busquen -y por tanto sustenten el crimen- fotos reales.
Y por tanto no me parece que puedas tener el mismo tipo legal en ambas.
Y esto hace 30 años ya se hacía.
A mí me pasaron una foto con mi cara en un cuerpo que no era el mío.
De hecho se hizo con toda la gente de clase y tenía su gracia porque sabías que era mentira.
-Una veintena de madres ---> Pero solo tenemos precisamente a la que no ha denunciado, lo de la veintena es porque nos lo ha dicho ella
-Una tiktoker que hacia tiempo no hacia directos (dicho por ella) y justo justo esto le pasa a ella, con sus miles de seguidores. Casualidades de la vida.
-Felicitandose de que se haga viral. Tiene tiempo para entrevistas al periodico pero no para ir a poner una denuncia (yo ya la estaria poniendo ese mismo dia. Es que me falta tiempo si le pasa algo asi a una hija mia)
Yo lo siento por ser tan desconfiado, pero no es ni medio normal que la madre diga que no ha tenido tiempo a ir a denunciar en la policia. Que puede que haya pasado? ( y que seguro va a ocurrir ) Vale, me lo creo porque esto lleva pasando siglos hasta poniendo fotos sobre cuerpos desnudos. Lo que me cuesta es confiar en que le haya ocurrido a esta persona, y no lo este usando de autobombo.
En aquel momento hubo cierto revuelo porque enseguida algunos pensaron que te podrían sancionar por dibujos, como el manga. Pero la judicatura ya explico y creo que hubo hasta una circular, para explicar que no se trataba de eso, no iba de dibujos si no de representar menores reales.
Por ejemplo el photoshop o supongo que ahora la ai también cuenta.
Pero tienen que ser menores "reales" lo que no tiene que ser real es la imagen. No sé si me explico. Recortas la cara de una menor y la pegas en una foto de un desnudo, eso seria considerado pornografía infantil aunque la del desnudo sea mayor. También dijeron en su momento que debía revestir cierto aire de "credibilidad". Por ejemplo poner una foto de una niña en la cabeza de una negra con tetas como melones no contaría como pornografía infantil.
OJO, que no revista credibilidad no significa que no pueda ser sujeto de otros delitos como protección de datos, intromisión al honor o la propia imagen, etc. Lo de la credibilidad va dirigido a ser considerado pornografía infantil, aunque no sea el caso también puede ser otros delitos a parte de eso.
Una imagen 100% generada por AI, que no fuera una menor existente ni la cara ni nada teóricamente no, pero claro, la AI avanza a pasos agigantados así quien sabe.
Me encantan los insultos por la mañana sin venir a cuento, te definen a ti, no a mi.
La ironía no quita importancia, enfatiza y añade valor.
Creo que tienes toda la razón.
Y en mi opinión la solución es cambiar la mentalidad. Es una imagen ireal. Por qué decimos que es una menos si no es su cuerpo?
Por otra parte debemos hacer entender a los jóvenes (y a los adultos) que si se sube a internet una foto ya es una foto con acceso para todo el mundo
no sería delito el que un artista dibuje realísticamente a un menor desnudo,
Aun no siendo delito no me fiaría yo mucho de ese "artista"
Por poner un ejemplo, si vas a 160 por la carretera puedes matar a alguien, por lo que hacemos una ley para que sea delito. Si vas a 160 por una autopista recta sin tráfico con un buen coche es poco probable que mates a nadie, aún así sigue siendo delito
Pero esto es diferente y no le veo mucha solución, si antes tenias que controlar Photoshop y buscarte un poco la vida para hacer este tipo de montajes, ahora puedes meter a cualquier actriz conocida en una peli porno, y por supuesto para desnudar cualquier foto no tienes que instalarte Stable Diffusion y tener un ordenador medio potente y bla bla bla, no es necesario, ya hay apps y paginas webs que lo hacen sin que tengas que tener ni puta idea de nada ni ningún super equipo, lo único que nos va a salvar de todo esto es el pensamiento critico porque la linea entre la verdad y la mentira va estar mas difuminada que nunca.
Hasta diría que se puede ir un poco más lejos ¿Qué pasa si yo con 16 años me saco fotos desnudo, no interviene nadie más ni profesionalmente ni no profesionalmente, y luego siendo mayor de edad decido compartirlas o incluso venderlas?
Han descubierto que el agua moja y los adolescentes están salidos.
Repito, si mal no recuerdo, en todo caso es una ley que no ha hecho ruido para nada, lo mismo porque no se aplica, ni ha habido casos polémicos. En todo caso, el tema de la finalidad es un poco absurdo, una foto es una foto, tu puedes pajearte con ella si quieres y otro no. Por eso comentaba lo del "material pedófilo" que luego eran fotos "normales" sacadas del facebook de los padres.
x.com/FroilLannister/status/1702236239955378292?s=20
Si hablas de los fiscales, pues eso, afectará a los fiscales, si alguien quiere hacer una denuncia particular sobre algo/alguien el juez se tendrá que ceñir a las leyes y son las que son. Y entiendo que perfectamente puede ir contra esas recomendaciones si entiende que no es el principio de la ley. Es lo que ocurre siempre con las leyes, y es por eso que siempre hay jurisprudencias que van cambiado con los años.
Luego se puede ajustar la pena dependiendo del contenido exacto y las consecuencias.
Sobre pedófilos y similares, yo desde luego prefiero que usen imágenes falsas que reales, sobre todo si esas imágenes reales imnplican daño a las personas que ahí figuran. Pero esa es otra historia.
#141 Lo has dicho en la última frase. Tenía gracia porque sabías que era mentira. Si la gente cree que es real tiene mucha menos gracia.
Es más, aunque no existan desnudos, el simple hecho de enviar fotografías de una persona real a otras personas sin su consentimiento ya es un problema legal.
Tomate la pastilla o busca alguien que te dé cariño
Por un lado la foto de origen. Si la comparte voluntariamente la persona en un lugar público (como si es WhatsApp), pues está cediendo su imagen. Si la comparte una tercera sin su permiso es un ilícito contra el derecho a la imagen.
Sobre el tratamiento de las fotos. El Código Penal español considera pornografía infantil todo material (aunque sea un puñetero cómic) de un menor o que simplemente parezca un menor, en conductas sexuales. sea de forma real o simulada.
Ese es el delito del que estamos hablando y no el hecho de coger una foto pública, tratarla como te dé la gana y volverla a publicar. Eso no lo es.
Estoy casi convencido de que todas las legislaciones del planeta persiguen la pornografía infantil, distinto es las que localmente consideren pornografía infantil este supuesto. Por mero sentido común, podría asegurar que como mucho, si no es exclusivo de España, sólo serán algunos países occidentales que apliquen el baremo moral de los tiempos que corren. Personalmente me parece un despropósito por lo excesivo.
Que sirva esto de respuesta para #153 #64 y #44
Lo que tienen que hacer es fomentarlo, cuando todos tengamos una foto desnudos, a nadie le importará.
Es más, acabará saliendo algún chat de padres.....
Por otro lado aunque tenga atributos sexuales, hay que respetar a esa persona y no son un cacho de carne con ojos.
Hay chicas muy jovenes que reciben atencion no deseada de gente con mucha diferencia de edad.
Con chicos pasa, aunque menos. Frank rivera cuenta que recibio proposiciones de una señora con 16. Parece que hay un reducto se buenorros que atraen la atencion de la mayoria de mujeres.
#115 Es un tema peliagudo, porque hay diferentes opiciones y seguro que vas a molestar mucho a alguien. No se si la ciencia tienen una verdad mas o menos oficial a la que atenerse.
#118 Relacionado:
old.meneame.net/story/deepnude-ia-desnuda-funciona-realmente
#111 Supongo que perdiste un cliente... Cuanto tardo en irse y aclararse todo?
Relacionado:
old.meneame.net/m/actualidad/exculpado-tener-porno-infantil-informatic
En el caso asunta, tambien se montó revuelo por una fotos de la niña en un sofa con medias de rejilla y tirada. En otras se veia como forzaba una sonrisa incluso con los dedos. La explicacion es que hizo una funcion de teatro tipo Cabaret y estaba molida y queria una fotos de recuerdo antes de cambiarse.
No entiendo muy bien como para escanear virus, se visualizan las fotos. HAbria que consultar si eso es un delito.
Tampoco se si es legal abrir una carpeta que ponga "cosas de pedrastras", para ver si es algo denunciable.
#121 Siempre ha sido muy facil simular con texto algo malo. Ahora tambien es facil hacerlo con multimedia.
Se deberia aplicar las mismas tecnicas que al texto. Con texto se pueden difundir falsedades, bulos o demas perjucios. Una imagen es aun mas potente. La ley deberia adaptarse a las imagenes y audio generado.
En el caso de suplantacion de identidad, como en el texto habria que empezar a firmarlas criptograficamente para certificar quien las manda.
Antes te podias fiar de una videoconferencia o llamada a ojo u oido, pero ya no es asi.
Aunque imitadores de voz ya han engañado a gente importante.
Se podria asimilar a difundir bulos de gente. Siempre entra la posibiilidad de ser inventado. Pero hay gente que se lo cree o se genera duda.
Lo bulos no dejan de ser nocivos, porque la gente sepa que pueden ser inventados. Pero estan castigados.
Por otro lado no es lo mismo algo que alguien dice que un imagen, aunque tambien quepa la posibilidad de no corresponder a la realidad.
#138 #77
No hay que pasarse de dramatismo, pero hay que darle la importancia que tiene y tampoco quitarsela. Porque no actuar, para evitar que se difunda, ni castigar al deliicuente, ni dar un mensaje de que no se puede estas cosas, puede ser muy dañino para la victima.
Obviamente, decirle a la victima que no va levantar cabeza, no es bueno y compadecerse tal vez tampoco.
Hay veces que la actuacion posterior es mucho peor que el propio agravio.
El otro @PAsapollo, conto la historia de uno que le toca el culo a una chica y la madre la lia y al final la hija dice "Que verguenza me haces pasar".Tambien en la adolescencia todo lo que hacen los padres da verguenza.
A la periodista que ¿elisa? que le toco el culo un individuo, la forma de tratarlo el presentado, le hizo la situaciion mas violenta.
#141 Si alguien te acusa de robar el banco de Abu dabi. Te hace gracia porque no tiene ninguna credibilidad. Si te acusan de robar en el trabajo, a tu madre, el cepillo de la iglesia, etc, es mas creible y te perjudicará mas.