'Roxxxy TrueCompanion', un robot que se puede comprar y simular la violación con un simple interruptor en la configuración. Una de las personalidades programables para el robot es 'Frigid Farrah', descrito como "reservado y tímido". Esta opción no es capaz de dar su consentimiento ante un acercamiento sexual, para la compañía esto "permiten a cada uno realizar sus sueños sexuales más privados". Un nuevo informe de la Fundación para la Robótica Responsable advierte de las numerosas implicaciones éticas en nuestro futuro sexual con los robots.
|
etiquetas: robots , robótica , abuso , agresión sexual , deshumanización , mundo
Mecagoenlaputa no habrá cosas que hacer antes que inventar un robot sexual que permita ser violado.
Si dándole un chisme de estos a un delincuente sexual, no siente el impulso de violar a personas de verdad, bienvenido sea.
Si dándole un chisme de estos a una persona normal, puede convertirlo en delincuente sexual, que no se haga.
A ver si aprendemos a hacer las cosas según las implicaciones científicas y sociales y nos olvidamos de las putas implicaciones éticas.
Si todo lo hubiésemos detenido por las implicaciones éticas de la época, aún estaríamos practicando medicina con sanguijuelas.
Pues las mismas implicaciones éticas y morales que si violas a tu nevera...
Igual que, fíjate, para jugar a los médicos, o al jefe y la secretaria, o al guardia civil... ¡no tienen por qué serlo de verdad! ¿Cómo te has quedado? Supongo que flipando, eh..
Lo que hagan dos adultos libremente en su dormitorio es cosa de ellos.
www.europapress.es/epsocial/noticia-mas-millar-mujeres-son-violadas-ho
De lo que no se habla es cuando esa situación se da dentro de la pareja. No estoy hablando de una simulación consentida, sino de una auténtica violación. Es una situación que está reconocida por la ONU:
www.endvawnow.org/es/articles/460-agresion-sexual-en-una-relacion-cony
Hace poco, salió un corto que hablaba de esto:
verne.elpais.com/verne/2017/03/13/articulo/1489421352_370416.html
Un saludo
Pero es que yo no hablaba de violaciones, hablaba de juegos de rol y simulaciones, que es en cualquier caso lo que podrás hacer con ese robot.
(Es como quejarse de las implicaciones éticas de matar en el Call Of Duty, si matar algoritmos pixelados es ético).
Pero vamos, que solo quería aclarar antes que se estaba hablando de fantasías y juegos sexuales, nada mas, no de algo real.
Un saludo
Un saludo
Que omites lo que te da la gana (vale, acabo de llegar al final y leer los otros comments)
#19 Y seguirá pasando, igual que seguirán habiendo asesinatos, robos, etc... Creer que algún día viviremos en un mundo perfecto es muy inocente.
Lo que no puedes decir es que hay "una tolerancia muy alta" cuando es uno de los delitos que mas rechazo provocan. Otra cosa es que no se pueda mencionar, que eso aun me parece peor, pq de lo que no se habla no existe. Y si no mira el tema de los suicidios.
Las fantasías sexuales de dominación son muy comunes, para todos los sexos, roles y personalidades, y para mí el límite está en la interacción (y consentimiento expreso, no tácito) con las demás personas
Hombre, la violación no creo/espero que sea una cuestión de época. Es un delito, una agresión deleznable. ¿Qué hacérselo a un robot no lo es? Vale, puedes tener razón (al menos mientras la inteligencia artificial no sea una verdadera inteligencia y los robots se parezcan más a una batidora que a un ser humano).
También la disyuntiva que propones es razonable: estudiar si sirve para que los violadores dejen de violar personas o si fomenta la violación de personas y después decidir... pero pese a todo si que está en la cuerda floja de lo éticamente correcto, demasiado al límite diría yo.
Es como si crean un robot niño que puede ser violado... ¿Reduciría la pederastia o la fomentaría? Yo creo que en ambos casos no será blanco o negro y que habrá casos en ambos sentidos... Y algo tan sumamente delicado hay que verlo desde un punto ético: ¿Merece la pena el riesgo? Yo creo que no, hay mejores opciones para intentar erradicar delitos de índole sexual que ofreciendo vías de escape artificiales accesibles para todo aquel que se las pueda pagar.
¿Eso reducirá los abusos a menores? Si la respuesta es si, me dan igual las implicaciones éticas, adelante con ello.
Si la respuesta es que aumentarían, prohibición y persecución de tenencia de esos robots.
Si la respuesta es "no cambia nada", entonces podemos empezar a mirar otros factores como la ética.
Te planteo al respecto una pregunta: ¿Debe evitar inventarse algo poco ético que de inventarse solucionaría problemas no éticos más graves en costes personales que los problemas éticos?
Vas a crear un instrumento que de partida es negativo porque se sustenta sobre la virtualización física de un delito, pero que puede ser (como bien dices) una herramienta para evitar delitos. Se harán estudios y es probable que ayude a unos y perturbe a otros. Aunque ayude a más de los que perturba es positivo? o es éticamente censurable una herramienta con tantos puntos oscuros?
¿La bomba atómica en Hiroshima fue positiva porque evitó más muertes de las que produjo? Se que es un ejemplo bastante extremo, incluso rozando la demagogia, pero ilustra mis dudas.
PD: Vuelvo a hacer hincapié en que mis dudas se basan en un robot al nivel de inteligencia artificial actual, cuando sean más complejos con una inteligencia real, incluso emocional (aunque sea virtualizada), mis dudas se tornarán mucho más severas, casi convirtiéndose en certezas.
No me parece un ejemplo demagógico, al revés, me parece muy interesante.
Y mi respuesta (no LA respuesta) está en que independientemente de que esa bomba evitase más muertes, mató indiscriminadamente civiles, no militares que es lo que hubiese muerto. Los militares llevan el riesgo en su salario, por tanto a mi personalmente me parece peor.
Adicionalmente, más que hablar de la bomba de hiroshima, que fué un uso puntual de una herramienta, hablaría de la herramienta en general, y ahí si puedo asegurar que una herramienta que solo sirve para la destrucción indiscriminada no puede ser bueno socialmente nunca. Puede ser bueno para los intereses de la minoría que la controla, pero nunca lo será para la sociedad en su conjunto.
Sobre la inteligencia artificial... Hoy por hoy podemos emular sentimientos con algoritmos, pero sabemos que no son sentimientos de verdad ya que siguen unas intrucciones secuenciales e incluso los que se mejoran (IAs) siguen siendo una serie de instrucciones secuenciales.
Quizás lleguemos un momento en que hagamos inteligencias artificiales biológicas y llegar a dotarlas de conciencia sobre si mismas, y entonces hablaría de otra manera, pero hoy por hoy, siguen siendo simples máquinas que no son conscientes de su existencia y no sufren (aunque puedan emular sufrimiento).
Lo que gente desconoce es que la mayoría de las violaciones se dan dentro de la pareja. Como tú bien dices, pasa algo parecido con el suicidio. Son temas tabú de los que casi ni se habla y de los que hay muy poca información.
Un saludo
El auténtico debate moral con las IAs será: Hasta qué punto será comparable con la esclavitud humana cuando las IAs sean "suficientemente" conscientes.