"Es tan realista que lo primero que he pensado al verlo ha sido 'qué has hecho'". Son las palabras a este periódico de Miriam Al Adib, la ginecóloga almendralejense (Badajoz) que ha denunciado este domingo en sus redes sociales el robo de imágenes de menores de edad de la localidad para manipularlas con Inteligencia Artificial y simular que estas niñas están desnudas: "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans', cuenta a este periódico.
|
etiquetas: almendralejo , inteligencia artificial , manipulación , imágenes , desnudos
Es decir, lo que le parece mal, entre otras cosas es el exceso de información, como si para informar de un atentado con bomba se indicara de que web han sacado la lista de materiales necesarios para fabricarlos.
No estoy de acuerdo con el, creo que decir páginas tipo only fans no aclaran nada, es como decirte "pagina tipo Reddit"
Cuando se pueda fingir fotos tan fácil y realisticamente, cuando tengan una real no sera creíble, tan simple como decir:
...payasos, no veis que no soy yo, que es mi cara en el cuerpo de Jordi El Niño Polla o Apolonia Lapiedra.
Eso dejara de poner tanto interes en este tipo de imagenes y videos porque todos asumiran que son fakes.
En este caso supongo que también aplica, aunque la imagen del cuerpo sea falsa puesto que representan a menores de las que han usado sus caras sería considerado pornografía infantil aunque los cuerpos sean falsos asi que los autores se enfrentan a cargos serios.
El que produjere, vendiere, distribuyere, exhibiere, ofreciere o facilitare la producción, venta, difusión o exhibición por cualquier medio de pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección, o lo poseyere para estos fines, aunque el material tuviere su origen en el extranjero o fuere desconocido.
A los efectos de este Título se considera pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección:
a) Todo material que represente de manera visual a un menor o una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.
b) Toda representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.
c) Todo material que represente de forma visual a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte tener en realidad dieciocho años o más en el momento de obtenerse las imágenes.
d) Imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.
El artículo es más largo, incluyendo las agravantes y el delito de posesión de este material o el acceso a este tipo de contenido. Pero creo que quedan contestadas las preguntas.
Han descubierto que el agua moja y los adolescentes están salidos.
De hecho, lo mismo hasta nos vale para normalizar un poco las desnudez, que parece quer porque alguien vea una foto tuya en pelotas ya tiene que acabarse el mundo. Y no lo digo por este caso en concreto, donde son menores y al final también están en contextos y edades difíciles, pasa para personas audltas formadas y maduras. Que se filtra una foto de X en pelotas y parece ya que es una vergüenza máxima y un drama... cuando realmente tiene la importancia que queremos darle que es, que debería de ser ninguna.
Todo aquel que sale a la calle debe ser consciente a lo que se expone
De verdad, hay tutoriales por ahí sobre como hacer eso solo con herramientas gratuitas de IA (stable difusion) y los resultados son mejores que "x con el cuerpo de apolonia lapiedra", porque el cuerpo es totalmente inventado (no es un collage de fotos, así que no hay "cuerpo original" al que referenciar).
En estos casos con imagenes de gente real yo creo que con esto tendremos que acabar consdierándolo pornografia infantil (y tratándolo como tal a nivel legal). Es decir: si usa el rostro de un menor, aunque el cuerpo sea inventado es pornografia inantil y punto. Luego se les explica a los chavales que a nivel legal es lo mismo que le pongan un cuerpo inventado a su compañer@ de clase que si le hubieran sacado una foto en el vestuario y con eso sí que lo frenamos. Si no vamos por ahí... no veo cómo
Pongamos el foco en el que ha cometido el delito, no en las víctimas.
Sin embargo, los buenistas se dedicaron a pensar por su cuenta y decidieron que el motivo de la prohibición era que eran fotos asquerosas. Asquerosas lo son, pero no fueron prohibidas por eso. Así que se dedicaron a condenar por porno infantil a quién solamente tenía dibujos, sin ningún menor involucrado por el medio.
Es donde estamos ahora. En las condenas por porno de menores sin que exista ningún menor.
En las pelis de actores que dicen ser menores sin serlo, al menos existe la posibilidad de demostrar que no son menores. Casos ha habido de condenas por porno de menores debido a videos donde no hay ningún menor.
También hay condenas por porno de menores usando fotos de menores que no son porno ni de lejos.
Lo que nos lleva a que los pederastas dan mucho asco, pero los buenistas no dan menos asco. Yo considero a los buenistas como algo aún peor.
Para mi, el máximo del buenismo fue el día que en Inglaterra se condenó a una fotógrafa por tomar una foto de una piscina infantil. La piscina estaba vacia, sin gente, sin agua.
Algunas madres ya han denunciado a la Policía Nacional y yo aún no he tenido tiempo",
Tiempo para ponerlo en las redes Sociales : OK
Tiempo para ir a la policía a denunciarlo : NOPE
Joder la sociedad actual.
#95 El cuerpo es "inventado" por una IA, ahora bien, creo que según la legislación española eso sigue siendo considerado pornografía infantil.
Yo estoy haciendo referencia a ceder tu imagen voluntariamente, tu hablas de una ley local que penaliza determinados usos de esas imágenes.
Las leyes tienen que ser proporcionales.
Y te diré más, preferiría que los pedófilos se la cascasen todos con imagenes fabricadas por una IA, aunque resulten desagradables para todo el mundo, a que busquen -y por tanto sustenten el crimen- fotos reales.
Y por tanto no me parece que puedas tener el mismo tipo legal en ambas.
www.meneame.net/story/detenido-menor-hacia-montajes-porno-fotografias-
Y ya lo de leerse el artículo es para nota
Precisamente ayer hablaba con un amigo que es CNP que dice que les va a tener que tocar lidiar con denuncias a miles por estos temas, a él ya le ha tocado estar mil veces en historias de "no sé quien dijo no sé que de mi por internet", etc. Imaginad cuando empiece el tema de que la gente haga fotos y audios falsos de otros.
Por cierto, esas leyes que penalizan la creación y distribución de pornografia infantil no son locales, la Interpol, por ejemplo, las persigue alrededor del mundo...
En aquel momento hubo cierto revuelo porque enseguida algunos pensaron que te podrían sancionar por dibujos, como el manga. Pero la judicatura ya explico y creo que hubo hasta una circular, para explicar que no se trataba de eso, no iba de dibujos si no de representar menores reales.
Por ejemplo el photoshop o supongo que ahora la ai también cuenta.
Pero tienen que ser menores "reales" lo que no tiene que ser real es la imagen. No sé si me explico. Recortas la cara de una menor y la pegas en una foto de un desnudo, eso seria considerado pornografía infantil aunque la del desnudo sea mayor. También dijeron en su momento que debía revestir cierto aire de "credibilidad". Por ejemplo poner una foto de una niña en la cabeza de una negra con tetas como melones no contaría como pornografía infantil.
OJO, que no revista credibilidad no significa que no pueda ser sujeto de otros delitos como protección de datos, intromisión al honor o la propia imagen, etc. Lo de la credibilidad va dirigido a ser considerado pornografía infantil, aunque no sea el caso también puede ser otros delitos a parte de eso.
Una imagen 100% generada por AI, que no fuera una menor existente ni la cara ni nada teóricamente no, pero claro, la AI avanza a pasos agigantados así quien sabe.
Realmente es pornografía infantil una imagen generada con un ordenador? Un dibujo es pornografía? Por que no es una foto real, aun que se usara para ello una real no ilegal.
De hecho, la mayoría de noticias como esa habla de detenciones, pero no de condenas. Hay que tener encuenta que incluso hace pococ había una surrealista noticia de alguien a quién decomisaron gigas y gigas de material pornográfico infantil, y luego resulta que el la mayoría (+70%) eran imágenes no pornográficas, como un niño jugando en un parque, o cosas que cada uno sube a sus propias redes sociales.
Así que de esas noticias puedes fiarte poco, pero como digo, nominalmente, según la ley serían pornografía infantil (cc #40).
Quizás esto traiga algo positivo, y es que si se normalizan esas imagenes, incluso si fuera una imagen real puede pasar más desapercibida, o alguien siempre tendrá el comodin de alegar que una imagen es falsa.
De repente me has recordado a Matrix: no es real, tu mente hace que lo sea.
Es más, si te das cuenta de que se te ha escapado una foto así, te apuras tu mismo a hacer deep fakes de varias personas más y las filtras para que entre todos puedan indignarse en grupo y despotricar contra la IA.
Incluso esto serviría para invalidar pruebas. Cualquier foto o video que no tenga un mecanismo de validación bastante avanzado (como que el dispositivo grabador agregue una firma digital o algo así) puede ponerse en duda. Basta con que el abogado defensor muestre como ejemplo el mismo vídeo pero con la cara del juez o de los del jurado si hay, para sembrar dudas sobre las pruebas. Lo acompaña del testimonio de su secretaria que atestiguará que lo hizo con el ordenador de la oficina en media hora para demostrar que ninguna foto o vídeo es creíble.
Pero esto es diferente y no le veo mucha solución, si antes tenias que controlar Photoshop y buscarte un poco la vida para hacer este tipo de montajes, ahora puedes meter a cualquier actriz conocida en una peli porno, y por supuesto para desnudar cualquier foto no tienes que instalarte Stable Diffusion y tener un ordenador medio potente y bla bla bla, no es necesario, ya hay apps y paginas webs que lo hacen sin que tengas que tener ni puta idea de nada ni ningún super equipo, lo único que nos va a salvar de todo esto es el pensamiento critico porque la linea entre la verdad y la mentira va estar mas difuminada que nunca.
Por un lado la foto de origen. Si la comparte voluntariamente la persona en un lugar público (como si es WhatsApp), pues está cediendo su imagen. Si la comparte una tercera sin su permiso es un ilícito contra el derecho a la imagen.
Sobre el tratamiento de las fotos. El Código Penal español considera pornografía infantil todo material (aunque sea un puñetero cómic) de un menor o que simplemente parezca un menor, en conductas sexuales. sea de forma real o simulada.
Ese es el delito del que estamos hablando y no el hecho de coger una foto pública, tratarla como te dé la gana y volverla a publicar. Eso no lo es.
Estoy casi convencido de que todas las legislaciones del planeta persiguen la pornografía infantil, distinto es las que localmente consideren pornografía infantil este supuesto. Por mero sentido común, podría asegurar que como mucho, si no es exclusivo de España, sólo serán algunos países occidentales que apliquen el baremo moral de los tiempos que corren. Personalmente me parece un despropósito por lo excesivo.
Que sirva esto de respuesta para #153 #64 y #44
Como se trate despues importa mucho. Si es un tema tabu del que avergonzarse, o no se puede comentar, o el violador hace vida normal, sin ningun castigo o no se hace justicia Puede ser mas perjudicial que la propia violacion.
En un reportaje sobre abusos y violaciones en el ejercito de USA, una chica se sintio mas agraviada por la justicia militar que por la propia violacion que fue bastante violenta.
Sobre legislación, algunos sitios ya solo permiten contenido "verificado" y borran cualquier otro tipo de contenido, igual se hacen leyes más restrictivas al respecto.
Por ejemplo, si un niño mata o viola a los 16, que tenga la misma pena de cárcel que un mayor de edad.
Por poner un ejemplo, si vas a 160 por la carretera puedes matar a alguien, por lo que hacemos una ley para que sea delito. Si vas a 160 por una autopista recta sin tráfico con un buen coche es poco probable que mates a nadie, aún así sigue siendo delito
Es más, aunque no existan desnudos, el simple hecho de enviar fotografías de una persona real a otras personas sin su consentimiento ya es un problema legal.