Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.
|
etiquetas: maquinas , elegir , paradoja , libre , albedrío , robots
El ejemplo que pone es un tanto futurista, pero hace un tiempo estuve conversando con una persona metida en estos asuntos sobre una posibilidad que se me ocurrió un día viendo los primeros vídeos del Tesla y su conducción autónoma.
El escenario es que tu vas en tu flamante Tesla y llegas a una intersección en la que por la derecha se aproximan unas personas en bicicleta que se detienen justo antes de la incorporación al carril. De frente, por el carril contrario, se aproxima un camión cargado hasta el máximo y a gran velocidad. A unos 200 metros estalla un neumático del lado izquierdo del camión, los sensores del Tesla captan y analizan la situación. El camión va a invadir el carril en el que estamos y debería escapar, pero en la parte derecha detecta a unos humanos en bicicleta con los que va a impactar si intenta esquivar y salvar al ocupante…...
El ejemplo que pone es un tanto futurista, pero hace un tiempo estuve conversando con una persona metida en estos asuntos sobre una posibilidad que se me ocurrió un día viendo los primeros vídeos del Tesla y su conducción autónoma.
El escenario es que tu vas en tu flamante Tesla y llegas a una intersección en la que por la derecha se aproximan unas personas en bicicleta que se detienen justo antes de la incorporación al carril. De frente, por el carril contrario, se aproxima un camión cargado hasta el máximo y a gran velocidad. A unos 200 metros estalla un neumático del lado izquierdo del camión, los sensores del Tesla captan y analizan la situación. El camión va a invadir el carril en el que estamos y debería escapar, pero en la parte derecha detecta a unos humanos en bicicleta con los que va a impactar si intenta esquivar y salvar al ocupante "dueño" de la IA. ¿Que hace el coche?
Si el coche no esta dirigido por una IA habría una cantidad indeterminada de personas que esquivaría el camión y mataría a los ciclistas y otra cantidad que no esquivaría el camión por no impactar con los ciclistas e intentaría esquivar el camión con el resultado que fuese.
La solución desde el punto de vista de la programacion estaría mas o menos claro, se asignan unas provabilidades a cada escenario y que la IA decida en función de los resultados, pero ¿Quien es el responsable ultimo de lo que suceda?
Hace no mucho vi una chorra-serie en la que un zagal moría en un accidente de coche autonomo porque había dejado los ajustes del coche "en su contra" es decir, en caso de duda, matame a mi y protege a los de fuera. ¿Se podría asignar responsabilidad en función de como has dejado configurada tu IA?
Tema complejo y apasionante!!
(Jóvenes, a la wikipedia)
No me digas que en el 2043 todavía se ocultaba que el MI6 dirige el DAESH.
Asi se escribe la historia
Igual la legislacion funciona asi , pero yo como juez habria desestimado la demanda , el general hizo lo necesario para proteger al pais , y la muerte de los prisioneros era inevitable, si no los hubiera matado el dron , los habrian ejecutado los del daesh cuando dejaran de ser de utilidad.
Incluso se podria argumentar que matarlos fue un acto de clemencia.
Que caiga un trozo de un balcón no es cuestión de suerte, es por un mal diseño o mal mantenimiento. Que caiga justo cuando tú pasas por debajo sí es mala suerte. Por que esos dos eventos no son dependientes, no cae por que tú pases por debajo si no que tú pasas por debajo y casualmente es en ese momento cuando cae.
Suerte. De la mala.
Todo aquello que lleva a ese desenlace pero no nos es realista analizar para conocer que se producirá ese desenlace de esa forma se resume en suerte.
Lo mismo ocurre con el libre albedrío. Lo que lleva a tomar decisiones es un conjunto de variables de tal envergadura que no nos es viable analizarlas y extraer la conclusión de qué hará esa persona en ese momento, por lo tanto lo que haga lo atribuimos al libre albedrío.
Nada impide que eso pueda ocurrir en seres basados en silicio en vez de carbono.
A video game-playing AI beat Q*bert in a way no one’s ever seen before
First, it completes the first level and then starts to jump from platform to platform in what seems to be a random manner. For a reason unknown to us, the game does not advance to the second round but the platforms start to blink and the agent quickly gains a huge amount of points (close to 1 million for our episode time limit).
www.theverge.com/tldr/2018/2/28/17062338/ai-agent-atari-q-bert-cracked
Afirmar que eso no cuenta sería como afirmar que el jugador humano tampoco hace nada imprevisible dentro del juego por que sabemos que pondrá fichas en el tablero, lo que no sabemos con el humano como no sabemos con la IA es dónde y el motivo en muchas ocasiones no se conoce hasta que se ven las consecuencias de ese movimiento.
Ya, pero eso es lo que esperaban sus programadores que hiciera.
Y ojo, que tienes razón con lo del Wert, no te la quito, simplemente me parece que se sale de lo que estabamos hablando, la IA hace algo extraordinario porque el juego tiene un bug que ningún humano había descubierto antes, eso no es mérito de la IA sino un fallo del programa y de los humanos que no lo habían descubierto antes, es un caso tremendamente condicional y random, que no quita qeu tengas razón, pero creo que si le resta peso al argumento.
Esperaban que ganase al mejor jugador humano del mundo en el juego más complejo que conocemos. Como esperaban que ganase pues nada, no cuenta.
Basta con que los programadores esperen que la IA resuelva la teoría del todo, que unifique la mecánica cuántica con la relatividad especial, de forma que si obtiene esa teoría del todo pues nada, como es lo que esperaban, no cuenta.
Basta con que los programadores esperen que supere el test de Turing y sea indistinguible en apariencia y comportamiento a un humano para que, como es lo que esperaban, no cuente.
Me parece que eso no puede funcionar así.
Ya avanzo yo por ti. La mente no existe.
Vuelvo a insistir, ¿es una broma que no he pillado?
if "boobs01" > "boobs02"
then choose "boobs01"
Si, ese era el plan, eso no significa que tuvieran un 100% de seguridad de que funcionara, pero por supuesto que era su esperanza.
¿ Y qué sucede si son iguales ?
¡ Me has dejado un malestar que nada podrá resolver !
Me explico: los humanos ya utilizan sin miramientos a otros seres conscientes de su entorno y con libre albedrío, los animales. De acuerdo que tenemos leyes para evitar su sufrimiento innecesario, pero aún así seguimos criándolos y matándolos para nuestro consumo y por los materiales que producen. Si hacemos eso con seres que no hemos creado ¿por qué no lo vamos a hacer con seres que sí hemos creado? ¿Por qué daremos más derechos y diferente consideración a una inteligencia artificial que a una vaca, un cerdo o una gallina? Ya me respondo: no lo haremos.
Ojo, esto no es un alegato animalista (hoy mismo me comí un delicioso solomillo de pollo empanado), sólo es la constatación de un hecho: el ser humano está donde está a base de aprovecharse de plantas (cultivos), animales (ganadería, caza y pesca) y otros humanos (esclavitud, explotación laboral en el tercer mundo y trabajo precario en países desarrollados), así que no veo por qué las máquinas y las inteligencias artificiales iban a ser una excepción.
Este comentario tiene más fondo del que parece... los más ricos podrán elegir entre salvar su vida a costa de otros, mientras que los pobres tendrán el paquete estándar.
En cuanto al resto, estoy de acuerdo: el libre albedrío no existe, en tanto que el cerebro es un objeto físico y, por lo tanto, no puede escapar de las leyes de la física.
La gente con suerte no existe, puede existir gente que haya tenido mucha suerte (buena o mala) pero eso no nos dice nada sobre su futuro, solo sobre hechos pasados.
Lo del balcón es claramente mala suerte, eso no significa que esa persona tenga mala suerte y por eso le ha ocurrido si no que ha tenido la mala suerte que le ha ocurrido.
Saludos
Todo es causa efecto.
Lo que no sabemos predecir ni de lejos lo llamamos azar
por la forma de andar
Por ejemplo: una persona compra una pistola, dispara a otra y la mata, la culpa es de la persona, no del fabricante de la pistola. Ahora bien, una persona compra una pistola, va a disparar a otra y la pistola le revienta en las manos habiendo hecho un buen uso de ella y habiéndole hecho un mantenimiento correcto, la culpa es del fabricante.
El materialismo me parece completamente absurdo. Carece de sentido afirmar que existe una sustancia, la materia, independiente de la mente, de la experiencia. Postular que algo que nadie experimenta, ni pueda nunca experimentar, existe es anticientífico por definición.
Fíjate que el seguro de tu coche va a tu nombre, como ser responsable y con voluntad, como ente legal y como "manejador" del vehículo en cuestión. En un coche autónomo con IA, ¿el seguro del coche va también hacia el dueño del coche? ¿Un fallo mecánico de los frenos es lo mismo que un fallo en la toma de decisiones de una IA de un coche autónomo? Hmm...
www.amazon.com/Free-Will-Deckle-Edge-Harris/dp/1451683405
www.youtube.com/watch?v=vCGtkDzELAI
www.theatlantic.com/magazine/archive/2016/06/theres-no-such-thing-as-f
El problema viene cuando mediante Big data, IA, filtraciones en Facebook y datos biométricos de tu reloj digital pueden entenderte y manipularte mejor que tú mismo.
Tu como agente (no libre) tomarás una "elección" la cuál vendrá determinada por el estado en ese momento de tu cerebro. Es el resultado de ese proceso mental la que plasmarás en un voto.
Tus gustos tampoco son libres, tu no tienes la libertad de "elegir" que te gusta, simplemente te gusta.
www.moralmachine.net/hl/es
boobs++
Nadie experimenta su propia muerte y para que una mente deje de existir se precisa de otra que así lo perciba. Negar realidad a la mente es negársela al universo.
Nada deja un “cadáver” permanente. Sólo es cuestión de tiempo que nuestro cuerpo se degrade hasta que no quede ni el menor rastro, siendo imaginable que el proceso sucediera en un instante. Si nos vaporizásemos al momento al morir ¿seríamos entonces un concepto más abstracto que una realidad concreta?
Por esto último que dices, entiendo que justificas que no por no tener libre albedrío no tendría cabida un sistema liberal en una sociedad.
Y estoy de acuerdo, son dos cosas distintas y sin relación.