Una nueva ley de Luisiana que entrará en vigor el 1 de agosto criminalizará la producción y posesión de deepfakes que representen el abuso sexual de menores. El proyecto de ley legislativo de Luisiana SB175, firmado por el gobernador de Luisiana, John Bel Edwards, establece que cualquier persona condenada por crear, distribuir o poseer imágenes deepfake ilegales que representen a menores podría enfrentar una pena obligatoria de 5 a 20 años de prisión, una multa de hasta $10.000 o ambas penas.
|
etiquetas: pornografía , infantil , inteligencia , artificial , luisiana , ilegalizaci
PD: Podrías crear otro tipo de DeepFakes sin meterte en líos? Porque sordidez hay por ahí a punta pala.
Esto explica las penas de 20 y 30 años por generar imágenes falsas de alguien: necesitan esclavos.
#5 Repito mi opinión: incluso el Hentai más horrible al fin y al cabo son sólo dibujos y está a años luz de distancia de este tipo de contenidos, que no podría existir sin explotación infantil real.
El problema es usar ese contenido para condicionar a menores reales de que lo que ven, es correcto
Usar deepfakes de un menor para extorsionar y conseguir material real
Usar deepfakes para provocar intentos de suicidio
Una red puedes entrenar caras infantiles con material libre de derechos de autor del s. XIX que hayan muerto ya todos y cuerpos con adultos de constitución pequeña. Y seguirán pudiendo usarlo para extorsionar o intentar convencer a menores de que es correcto lo que les exigen hacer.
Además, que deepfakes <> IA.
"Deepfake" means any audio or visual media in an electronic format,
5 including any motion picture film or video recording, that is created, altered,
6 or digitally manipulated in a manner that would falsely appear to a reasonable
7 observer to be an authentic record of the actual speech or conduct of the
8 individual or replace an individual's likeness with another individual and
9 depicted in the recording. "Deepfake" does not include any material that
10 constitutes a work of political, public interest, or newsworthy value, including
11 commentary, criticism, satire, or parody, or that includes content, context, or
12 a clear disclosure visible throughout the duration of the recording that would
13 cause a reasonable person to understand that the audio or visual media is not
14 a record of a real event.
No especifica que sea mediante la ayuda de la IA.
Si te pones a manipular digitalmente una imagen (ni siquiera tiene que ser un vídeo, visual media incluye fotos) para hacer que una persona parezca que está haciendo algo que no está haciendo, es un deepfake para la ley de la noticia.
Y tienes exclusiones, por ejemplo no incluyen en esa definición la sátira política (hacer un deepfake de Biden comiendo helado que pongas una pistola en vez del cucurucho, de cara a esta ley, no lo incluyen)
Tienes el enlace en los primero párrafos de la noticia
O en #10 que lo copié.
La noticia es un mal resumen. Porque no limita la prohibición a que estén generados por IA. Es cierto que hasta hace poco no había tanto problema ya que el tiempo necesario para hacer un deepfake "a pelo" con Photoshop o herramientas de la industria del cine era inmensamente mayor al que se tarda con la IA. Pero no es una prohibición sólo del contenido generado con IA.
Un deepfake es una grabación donde alteras la imagen de una persona para que parezca otra. Es un tema serio porque estás atentando contra el derecho a la imagen de esa persona, con lo cual se suelen limitar a bromas (donde está muy claro que es un deepfake y no hay equivocación posible) o se precisan los derechos de imagen que permitan hacerlo (lo que está siendo un conflicto ahora mismo entre sindicatos de actores y productoras).
En la ley incluye las imagenes creadas desde cero, lo cual no es deepfake sino actores virtuales. Y no indica a que se refiere con "individual". Generalmente, se entiende que se referiría a una persona real, pero aquí han eliminado cualquier indicación previa o referencia que indique que es "one person", así que quedaría a criterio del juez.
In a manner that would falsely appear to a reasonable observer to be an authentic record of the actual speech or conduct of the individual or replace an individual's likeness with another individual and depicted in the recording.
Vamos, que parezca que una persona en concreto esté haciendo algo que realmente haya sucedido pero que no esté grabado. Es decir incluye en deepfake recreaciones de hechos reales (por ejemplo un deepfake de Cristiano Ronaldo defecando)
Estamos tontos o qué nos pasa? Por terrible que sea, es ficción cojones. Acaso no es terrible la tortura o el asesinato? Metemos en la carcel a los directores de cine?
Venga un saludo.
En realidad no se entrena desde cero, se toma un modelo preentrenado con imágenes de muchos tipos y se ajusta con las nuevas. Como digo solo necesitas el software, disponible gratuitamente, y una máquina con una buena gpu. Hay servicios que te permiten acceder a estas máquinas. O lo puedes hacer en tu pc si tienes una buena tarjeta.
Ahora ya lo sabes, un saludo, a ti y a todos los Flanders del universo.
Muy a menudo mato a personas en videojuegos. Las descuartizo, las acribillo a balazos, las aplasto bajo carros de combate… les hago de todo. Y sin sentimiento de culpa alguno, oye.
Y resulta que en mi vida real he tenido todo tipo de armas de guerra a mi alcance. ¿Y sabéis qué? Jamás he disparado a nadie.
www.filmaffinity.com/es/film343458.html
material that depicts a minor engaging in sexual conduct shall be punished
Lo que has copiado es la explicación de lo que se entiende por deepfake, no lo que pena la ley que son los puntos del 1 al 3. Dibujar asesinatos, torturas o cualquier otro abuso no está penado.