edición general
11 meneos
44 clics

La pornografía infantil generada por Inteligencia Artificial es ilegalizada en Luisiana

Una nueva ley de Luisiana que entrará en vigor el 1 de agosto criminalizará la producción y posesión de deepfakes que representen el abuso sexual de menores. El proyecto de ley legislativo de Luisiana SB175, firmado por el gobernador de Luisiana, John Bel Edwards, establece que cualquier persona condenada por crear, distribuir o poseer imágenes deepfake ilegales que representen a menores podría enfrentar una pena obligatoria de 5 a 20 años de prisión, una multa de hasta $10.000 o ambas penas.

| etiquetas: pornografía , infantil , inteligencia , artificial , luisiana , ilegalizaci
  1. Por un lado lo medio-entiendo, pero por el otro... No sería todo ficción sin víctimas reales? No sería eso mejor que un abuso real?

    PD: Podrías crear otro tipo de DeepFakes sin meterte en líos? Porque sordidez hay por ahí a punta pala.
  2. #1 Como debe ser, porque el problema real no son las imágenes generadas, si no el contenido con el que hubo que entrenar a esas IAs... {0x1f625}
  3. #2 Ah mira, ese es un punto, el del entrenamiento, que no había tenido en cuenta. Pero quién entrena la IA? No sería la compañía la responsable?
  4. Si el tiempo tras las rejas y una multa cuantiosa no fueran suficientes, los legisladores de Louisiana se aseguraron de incluir que cualquier sentencia emitida bajo la nueva ley también incluiría "trabajo duro".

    Esto explica las penas de 20 y 30 años por generar imágenes falsas de alguien: necesitan esclavos. :-P
  5. #1 Yo tengo mis dudas también acerca de este tema... En Japón, si mal no recuerdo hay hentai de todo tipo, y cuando digo de todo es de todo tipo, incluyendo este tipo de perversiones. Es posible que fuese una buena idea para que la gente lo use como válvula de escape y para que descienda la demanda de este tipo de contenido en cuanto a la creación del mismo. Sin embargo nuestra mentalidad y carácter no es la misma, ni de lejos, que la de los japoneses y no sé si algo así podría hacer que hubiese gente a la que le potenciase las ganas. Podrían ser un barómetro el impacto que tienen los videojuegos en cuanto a violencia en la sociedad.
  6. #3 No, esas IAs no las entrenan empresas. Son modelos de uso "casero" que los pederastas entrenan con contenido que le arrancaría el alma al mismísimo belcebú.

    #5 Repito mi opinión: incluso el Hentai más horrible al fin y al cabo son sólo dibujos y está a años luz de distancia de este tipo de contenidos, que no podría existir sin explotación infantil real.
  7. #2 no

    El problema es usar ese contenido para condicionar a menores reales de que lo que ven, es correcto

    Usar deepfakes de un menor para extorsionar y conseguir material real

    Usar deepfakes para provocar intentos de suicidio

    Una red puedes entrenar caras infantiles con material libre de derechos de autor del s. XIX que hayan muerto ya todos y cuerpos con adultos de constitución pequeña. Y seguirán pudiendo usarlo para extorsionar o intentar convencer a menores de que es correcto lo que les exigen hacer.

    Además, que deepfakes <> IA.
  8. #7 Estás confundiendo los deep fakes con el contenido creado mediante difusión de imágenes. Son cosas diferentes.
  9. ¿Y exactamente que bien jurídico pretender proteger? Si alguien responde "defendemos a los niños" supongo que también estarán prohibidas las imágenes IA donde salgan niños siendo asesinados, torturados, esclavizados, zombificados, mutados, etc.
  10. #8 copio y pego de la ley, perdón por los formatos, estoy en el móvil

    "Deepfake" means any audio or visual media in an electronic format,
    5 including any motion picture film or video recording, that is created, altered,
    6 or digitally manipulated
    in a manner that would falsely appear to a reasonable
    7 observer to be an authentic record of the actual speech or conduct of the
    8 individual or replace an individual's likeness with another individual and
    9 depicted in the recording. "Deepfake" does not include any material that
    10 constitutes a work of political, public interest, or newsworthy value, including
    11 commentary, criticism, satire, or parody, or that includes content, context, or
    12 a clear disclosure visible throughout the duration of the recording that would
    13 cause a reasonable person to understand that the audio or visual media is not
    14 a record of a real event.


    No especifica que sea mediante la ayuda de la IA.

    Si te pones a manipular digitalmente una imagen (ni siquiera tiene que ser un vídeo, visual media incluye fotos) para hacer que una persona parezca que está haciendo algo que no está haciendo, es un deepfake para la ley de la noticia.

    Y tienes exclusiones, por ejemplo no incluyen en esa definición la sátira política (hacer un deepfake de Biden comiendo helado que pongas una pistola en vez del cucurucho, de cara a esta ley, no lo incluyen)
  11. Es de locos. La tecnología nos da una solución para que tarados puedan satisfacerse sin hacer daño a nadie, y estos lumbreras prohíben el uso de dicha tecnología por imponer su particular sentido de la moral. Si por esta gente fuera, nos escanearían el cerebro y nos encarcelarían en caso de que nuestros pensamientos se salieran de su “recta” moral.
  12. #2 pero puedes entrenar una IA con contenido que no sea literalmente lo que quieres. Ya Dall-e 1 creaba sillas con forma de aguacate, solo tenia que entender el concepto de silla y de aguacate. A mi el problema me parece el normalizar ciertas escenas.
  13. #9 sí, lo están (con esa ley). Excepto si lo consideran sátira crítica o uso humorístico, etc
  14. No hay argucia legal ni enmarañados detalles técnicos que sirvan de argumento para validar puta pornografía infantil, a la trena con todos ellos.
  15. #13 No lo leo en la noticia.
  16. #12 Y hará un pastiche. Por no entrar a que generar humanos en situaciones tan determinadas es mucho más difícil. Si realmente quieres imágenes de calidad, tienes que entrenar las IAs con contenido apropiado. Estoy con #14
  17. #15 legiscan.com/LA/text/SB175/id/2832119

    Tienes el enlace en los primero párrafos de la noticia

    O en #10 que lo copié.

    La noticia es un mal resumen. Porque no limita la prohibición a que estén generados por IA. Es cierto que hasta hace poco no había tanto problema ya que el tiempo necesario para hacer un deepfake "a pelo" con Photoshop o herramientas de la industria del cine era inmensamente mayor al que se tarda con la IA. Pero no es una prohibición sólo del contenido generado con IA.
  18. #10 La ley parece escrita a propósito para ser vaga.

    Un deepfake es una grabación donde alteras la imagen de una persona para que parezca otra. Es un tema serio porque estás atentando contra el derecho a la imagen de esa persona, con lo cual se suelen limitar a bromas (donde está muy claro que es un deepfake y no hay equivocación posible) o se precisan los derechos de imagen que permitan hacerlo (lo que está siendo un conflicto ahora mismo entre sindicatos de actores y productoras).

    En la ley incluye las imagenes creadas desde cero, lo cual no es deepfake sino actores virtuales. Y no indica a que se refiere con "individual". Generalmente, se entiende que se referiría a una persona real, pero aquí han eliminado cualquier indicación previa o referencia que indique que es "one person", así que quedaría a criterio del juez.
  19. #6 Puede ser. No tengo ni idea de cómo crea una IA ese contenido. Si es así como tu dices sí que sería jodido.
  20. En mi opinión debería ser accesible, pero bajo control y monopolio del gobierno. El propio gobierno podría encargarse de generar este contenido virtual, asegurandose de que nadie sufriera daño en el proceso, y el acceso se podría permitir bajo prescripción médica.
  21. #18 la ley es vaga sí, pero lo que dices está cubierto más o menos...

    In a manner that would falsely appear to a reasonable observer to be an authentic record of the actual speech or conduct of the individual or replace an individual's likeness with another individual and depicted in the recording.

    Vamos, que parezca que una persona en concreto esté haciendo algo que realmente haya sucedido pero que no esté grabado. Es decir incluye en deepfake recreaciones de hechos reales (por ejemplo un deepfake de Cristiano Ronaldo defecando)
  22. #14 Pero es que no es real.

    Estamos tontos o qué nos pasa? Por terrible que sea, es ficción cojones. Acaso no es terrible la tortura o el asesinato? Metemos en la carcel a los directores de cine?
  23. #22 Lo que pasa es que, por lo general, la gente no va al cine a hacerse pajas con bebés.

    Venga un saludo.
  24. #19 Es posible entrenar una IA gratis y solo con acceso a Internet. No requiere grandes y profundos conocimientos, tan solo un conjunto de imágenes seleccionadas para lo que tú quieres.

    En realidad no se entrena desde cero, se toma un modelo preentrenado con imágenes de muchos tipos y se ajusta con las nuevas. Como digo solo necesitas el software, disponible gratuitamente, y una máquina con una buena gpu. Hay servicios que te permiten acceder a estas máquinas. O lo puedes hacer en tu pc si tienes una buena tarjeta.
  25. #23 Hay una escena en que se follan un bebé, en "A Serbian Film".

    Ahora ya lo sabes, un saludo, a ti y a todos los Flanders del universo.
  26. #25 Entendería tu argumento si además de no saber distinguir entre niños y adultos tampoco supieras distinguir entre cine y porno, pero bueno aquí no vamos a solucionar nada y creo que tampoco llegar a un punto en común.
  27. #11 Todos los casos de pederastia que he leído necesitan un aprendizaje, inicialmente son acercamientos de captación para poder comprobar hasta donde se puede llegar y después se producen los abusos, la única terapia es que inhiban sus deseos y si tienen fantasías que al menos sean propias y controladas
  28. #27 Por eso mismo, por lo que de que esas fantasías sean propias y controladas, me parece que las imágenes de pedofilia generadas mediante IA pueden ser más una solución que un problema. Entiendo que estamos de acuerdo, ¿no?
  29. #4 Aprovechando que el río Atchafalaya pasa por Luisiana...
  30. A los que os parece una monstruosidad la pedofilia creada por IA os voy a confesar un secreto:

    Muy a menudo mato a personas en videojuegos. Las descuartizo, las acribillo a balazos, las aplasto bajo carros de combate… les hago de todo. Y sin sentimiento de culpa alguno, oye.

    Y resulta que en mi vida real he tenido todo tipo de armas de guerra a mi alcance. ¿Y sabéis qué? Jamás he disparado a nadie.
  31. #20 Un mundo en el que las fantasías sexuales de cada cual se desarrollen bajo prescripción médica… Sí, suena genial.
  32. #28 Hay una película que trata sobre la zoofilia, lo hace de forma académica y comprensiva. Un individuo con cierta tendencia que tiene acceso a una comunidad y a material zoófilo llega a cometer actos aberrantes a los que individualmente nunca se hubiese atrevido, creo que esa IA puede ser un refuerzo y un entrenamiento para romper la barrera. La peli es buena:
    www.filmaffinity.com/es/film343458.html
  33. Un saludo a todos los de "ficción es ficción" que no ven que haya que comentar nada respecto al tema de que haya gente masturbándose con imágenes de ficción en la que niños son víctimas de abusos sexuales, por que para ellos debe ser lo mismo una película de acción con violencia y un cómic pornográfico con pederastia.
  34. #17 Y te sigo insistiendo que esa ley que enlazas solo pena la conducta sexual:

    material that depicts a minor engaging in sexual conduct shall be punished

    Lo que has copiado es la explicación de lo que se entiende por deepfake, no lo que pena la ley que son los puntos del 1 al 3. Dibujar asesinatos, torturas o cualquier otro abuso no está penado.
  35. #31 No es una fantasía sexual normal. Es un tema muy conflictivo y se necesita un punto de encuentro que pueda ser aceptado por todos.
  36. #35 depende, si tienen una connotación sexual (sadismo, humillación etc) sí están incluidos
  37. #36 Mientras sea una fantasía no se necesita acuerdo alguno. Deja a los demás en paz con sus fantasías… y procura que no se metan con las tuyas.
comentarios cerrados

menéame