13 meneos
130 clics
Diez razones por las que la inteligencia artificial no se convertiría en maligna (ENG)
Todos sabemos la historia. El momento en que los equipos con los sistemas interconectados y potencia relámpago de procesamiento ganan sensibilidad - es el día del juicio final . ¿Pero realmente esto sucedería? Aquí están algunas razones psicológicas por las que una "súper inteligencia digital" no sería maligna
|
comentarios cerrados
A mí sólo se me ocurren tres:
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
(ser de derechas sería un poco ser egoísta :P)
Imagino que todo debería resolverlo el algoritmo, es decir, cualquier conflicto entre un policía robot y una web juez, debería estar resuelto por el mismo código, no? un ente superior, tipo dios, que controla todo.
Bueno, igual en un supuesto de que hubiera más de un país en el mundo (p. ej. Rusia y EEUU) si el IA de EEUU dice esto es mío, y el de Rusia dice que mío... No sé, guerra de robots?
Edit: o igual una partida de ajedrez, así no habría pérdida de recursos por ninguna parte y se sabe quién ganaría. El algoritmo más IA se ganaría.
Todo esto ebajo los supuestos anteriores, IA muy desarrollados con objetivos claros de bien común.
Estos parámetros sería más del tipo de I, robot, de Isaac Asimov:
Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
O sea, algo en esta línea, más general, menos centradas en el robot, más en el gobierno de la humanidad. Hablaríamos de una IA super avanzada...
O sea, de izquierdas, no?
Posteriormente en la cronología se crean los grandes computadores que administran cuatro cuadrantes de la Tierra, de forma supuestamente óptima. Ahí también aparecen conflictos en el relato El conflicto evitable, y la propia Susan Calvin reconoce que esos errores los toman de forma deliberada las máquinas para poder llevar a cabo de forma global la primera ley.
«Descubren que las máquinas han generalizado la Primera Ley para significar "ningún robot lastimará a la humanidad, o por inactividad, permitir a la humanidad el daño". (Esto es similar a la Ley Cero que Asimov desarrolló en novelas posteriores). La Dra. Calvin concluye que los "errores" son actos deliberados de las máquinas, permitiendo una pequeña cantidad de daño a unos cuantos para prevenir las grandes cantidades que recibiría la humanidad.»
es.wikipedia.org/wiki/El_Conflicto_Evitable
Los propios robots de Solaria, que parecen desobedecer completamente cualquier orden de cualquier humano que no sea su propietario, lo hacen también con el fin de poder proteger a sus dueños, ya que en ese planeta en el que no existía contacto físico real, la presencia de extraños y la petición de órdenes a los robots ajenos solía ser equivalente a una amenaza.
Sea como fuere, se vio a lo largo de la cronología que las leyes se cumplían y a la larga beneficiaron a la humanidad, primero con las grandes computadoras de los cuadrantes y luego con los robots espaciales que salvaron a la humanidad dejando que la tierra se destruyera, por la visión a largo plazo en la que los humanos se quedan cortos. Incluso aunque las máquinas no fuesen perfectas, siempre serán superiores al ser humano.
Y si no, le preguntas a Multivac.