En 1942 el bioquímico y escritor ruso Isaac Asimov publicó sus tres leyes de la robótica. Primera: un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Segunda: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley. Tercera: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Asimov pensó que estas leyes serían su legado más duradero, pues no.
|
etiquetas: robots , asesinos , realidad , supera , ficción
En todo caso eso lo pensó alguien que escuchó campanas sobre Asimov y no sabía de donde venían.
Si algo hizo Isaac Asimov fue escribir novela tras novela poniendo ejemplo tras ejemplo de por qué esas hipotéticas leyes no sobrevivirían a la tozuda realidad, si algo hizo fue explicar una y otra vez cómo esas supuestas leyes acabarían siendo quebrantadas por ser inaplicables en el mundo real.
www.meneame.net/m/ocio/regueton-afecta-inteligencia-artoficial
Y en otros casos directamente se desactivaban esas leyes deliberadamente para que el robot cumpliera su cometido y/o permitiera al ser humano cumplir el suyo.
A una persona que lleva hasta el extremo sus principios sin incumplirlos ante ninguna circunstancia ni contexto los describimos como fanáticos, son personas que pueden ser muy peligrosas y no querríamos poner bajo su responsabilidad tareas importantes. Un robot fanático está en las antípodas de aquello a lo que aspiramos la mayoría.
Venga, todos tontos, todo sea por evitar un Skynet.
Un robot militar, debera distinguir matar en ciertas circunstancias, pero no a sus aliados.
Un ejercito de cuidara de tener robots que fueran asesinos despiadados que pudieran ser controlados por otros. . Y como determinas el sistema de control?le manda una persona por radio? Tiene instrucciones, pero igual tendra que tener cierto criterio...
Hablo de robots, no de cañones autopropulsados
??Lo sabía el?? Porque nacer si que nació en Rusia, pero...
Podría haber sido Israelí, ya puestos.
Militares humanos han decidido conscientemente matar a aliados en circunstancias específicas, entendieron en esos casos que era la decisión correcta, ¿propones que los robots tomen decisiones incorrectas?
Lo de no matar a aliados es un principio, como muchos otros, pero el cumplimiento de los principios depende de las circunstancias.
a) Que la tecnología de inteligencia artificial se integre en las personas de forma que aunque también haya IA en maquinas ésta no pueda suponer una amenaza para el ser humano, asumiendo éste no solo la capacidad humana si no también la de la IA.
b) Que la tecnología de inteligencia artificial sea lo más parecida al ser humano posible, con las mismas ventajas e inconvenientes en cuanto al ámbito ético y moral. Lo que implicaría educar a la IA con criterios humanos, con valores humanos, asumiendo el riesgo que algunas actuasen también como las personas a quienes castigamos por su conducta. En ese sentido sería prácticamente inevitable que acabaran teniendo derechos reconocidos (lo contrario se vería como esclavitud) y que sufrieran consecuencias por sus actos, a que se aspirase a una relación no tanto de sumisión como de colaboración. De ahí la necesidad del camino a) para evitar nuestra extinción.
Que pudieran intentar obligarnos? Seria si asumen un rol autoritario-paterno, pero creo que no seria tan nocivo como se venden en las pelis, ni tan intrusivo
Seria algo paralelo. Existiran ciertas limitaciones biológicas, y los virus que salgan de ahi terribles. Veo mejor entender la genética.y no incluir rollo frankstein por medio
¿Ha sido la premisa lógica del ser humano mejorar los ecosistemas y tratar de preservar la vida?
Puestos a buscar objetivos, entenderian que ese es mejor que subyugar nuestras voluntades.
¿Es mejor para el ser humano subyugar a nuestra voluntad a seres menos inteligentes que nosotros?
Seria algo paralelo. Existiran ciertas limitaciones biológicas, y los virus que salgan de ahi terribles. Veo mejor entender la genética.y no incluir rollo frankstein por medio
Ya usamos las máquinas para sustituir la memoria, hace unas décadas memorizar era uno de los principales valores del conocimiento mientras que ahora tendemos a valorar más saber hacer la pregunta que conocer la respuesta, por que disponemos de tecnología que nos aporta información suficiente para responder a la pregunta si la conocemos.
¿No sería más eficiente que ello estuviera integrado cuanto más cercano a nuestro pensamiento mejor? ¿Que no fuera necesario teclear o hablar para obtener la respuesta a nuestras preguntas?