266 meneos
2915 clics
El bot detenido por comprar drogas por Internet queda en libertad
La policía Suiza ha devuelto un ordenador confiscado con un bot programado para realizar compras en la Deep Web que forma parte de un proyecto artístico. Sus compras le llevaron ante la justicia abriendo un interesante debate entorno a la resposabilidad de los programadores y la intención de la IA
|
comentarios cerrados
#1 Si le leyeron los derechos al pc todo correcto, no?
Si la IA tiene menos de 13 años de antigüedad es inimputable y el programador corre con toda culpa. De ahí hasta los 18 ya sí es culpa de la IA aunque puede que el programador se vea afectado.
Bender dixit: Siempre quise saber si puedo fastidiar a la gente más de lo que la fastidio
Debe preocuparle el cáncer de pulmón
Y dice el artículo que les han devuelto todos los artículos salvo el éxtasis. Me pregunto si también les habrán dado el pasaporte falso que pone que compraron. ¿Eso no es ilegal también?
- ¡Sarah Connor! ¿Me has traido lo mio?
¿Quién no se gasta 100.000 euros al mes en proyectos artísiticos?
Aquí el problema no es que alguien haya programado algo para cometer un delito, el problema es que ha sido programado para que tome sus propias decisiones, y ahí si hay un dilema serio.
Si en vez de comprar unas pastillas hubiese contratado un asesino a sueldo, quien sería responsable?
No es moco de pavo el tema, teniendo en cuenta que el camino que llevamos es el de cada vez más máquinas con autonomía propia. Empezando por los coches sin conductor.
- Me imagino que si programas una IA para una tarea ilegal concreta, eres responsable de la misma.
- Pero si haces un algoritmo que puede ir probando cosas él mismo y aprendiendo, ¿aplica la misma norma?
- Incluso sería posible que el sistema programase otro sistema independiente para hacer una tarea específica. ¿Hasta que grado de parentesco eres responsable en ese caso?
Cortocircuito
Fue el bot quien tomo la decisión de comprar droga en base a las condiciones.
Ahí el debate. Y es tremendamente interesante.
Hay ya infinidad de sistemas de decisión automáticos que son estadísticamente mas certeros que la decisión humana, pero que no se aplican por problemas legales o actuariales (de seguros).
Por ejemplo existen programas de diagnostico médico que aciertan mas que los médicos humanos, pero no se aplican por el vacío legal y actuarial que genera, pues no está claro de quien sería la responsabilidad en caso de fallo.
wwwwwwwwwwwwwwwwwwwwww.bitnik.org/r/
Y cuando las condiciones son tantas que es imposible preveer todos las posibles opciones?
Imagina una piloto que toma la decisión de estrellar un avión para no arrasar una ciudad.
En una investigación se puede determinar que esa decisión fue negligente, con lo que la responsabilidad penal, es del piloto, pero no del instructor que le formó.
Si en vez de un piloto humano, hubiera sido un bot, traspasamos la responsabilidad penal al programador?
Ese es el debate.