Cultura y divulgación
13 meneos
130 clics

Diez razones por las que la inteligencia artificial no se convertiría en maligna (ENG)

Todos sabemos la historia. El momento en que los equipos con los sistemas interconectados y potencia relámpago de procesamiento ganan sensibilidad - es el día del juicio final . ¿Pero realmente esto sucedería? Aquí están algunas razones psicológicas por las que una "súper inteligencia digital" no sería maligna

| etiquetas: inteligencia artificial , malignidad , razones expuestas
11 2 0 K 123
11 2 0 K 123
  1. La pregunta es, la Inteligencia Artificial ¿será de derechas o de izquierdas? ;)
  2. ¿Somos malignos cuando sin querer pisamos una hormiga? Pues una IA podría hacer lo mismo con nosotros sin remordimientos.
  3. ¡Como molaba Arnold en "Terminator"!  media
  4. ¿Donde estará el enchufe? :ffu:
  5. «Diez razones por las que la inteligencia artificial no se convertiría en maligna»

    A mí sólo se me ocurren tres:

    1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
    2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
    3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.


    :-D
  6. #1 Según se programe :-) Pero si fuera un algoritmo basado en la ética de la humanidad, diría que de izquierdas, no? O sea, debería actuar para el bien de la mayoría. Digo yo.

    (ser de derechas sería un poco ser egoísta :P)
  7. #6 El problema es cuando la mayoría no quiere aceptar ese "bien" y la imposición de la decisión produce más problemas que el beneficio esperado.
  8. #7 Debería ser aceptada, como si de Dios se tratase
  9. #8 ¿Y si hay más de una Inteligencia Artificial y opinan distinto? Ya tenemos el politeismo y sus seguidores, que si yo soy más de HAL, que yo de D.A.R.Y.L....
  10. #9 Uhmm, no se supone que nos gobernaría sólo una? O sea, un todo absoluto, que controlaría imaginemos la energía, los servicios públicos o la policía robótica?

    Imagino que todo debería resolverlo el algoritmo, es decir, cualquier conflicto entre un policía robot y una web juez, debería estar resuelto por el mismo código, no? un ente superior, tipo dios, que controla todo.

    Bueno, igual en un supuesto de que hubiera más de un país en el mundo (p. ej. Rusia y EEUU) si el IA de EEUU dice esto es mío, y el de Rusia dice que mío... No sé, guerra de robots?

    Edit: o igual una partida de ajedrez, así no habría pérdida de recursos por ninguna parte y se sabe quién ganaría. El algoritmo más IA se ganaría.

    Todo esto ebajo los supuestos anteriores, IA muy desarrollados con objetivos claros de bien común.
  11. #10 El problema de una IA es que si le marcamos nosotros los objetivos ya es subjetiva y si se los marca ella misma quizás nosotros no entremos entre ellos.
  12. #11 No es exactactamente objetivos, sería más bien parámetros genéricos, aprobados en referendum por la humanidad.

    Estos parámetros sería más del tipo de I, robot, de Isaac Asimov:

    Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

    Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

    Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

    O sea, algo en esta línea, más general, menos centradas en el robot, más en el gobierno de la humanidad. Hablaríamos de una IA super avanzada...
  13. #12 Hay que leerse sus novelas para entender que esos parámetros siempre pecaban de indefinidos ya que evaluar qué es un ser humano, sea autista o deforme y que nunca se considere a sí mismo humano, obedecer órdenes que llevan indirectamente a la muerte de seres humanos, que no actúe por no hacer daño a un ser humano y deje morir a cien por ello, etc. Hay unas cuantas historias suyas para ver que esas leyes eran un engaño psicológico.
  14. #13 Ya ya, te decía que con otra orientación, o sea, como me imagina esta IA es interconectada, o sea, no habría robots independientes, si no más bien funcionarían como una colmena, dirigido todo (desde el movimiento a sus acciones) por la IA vía internet o similar.

    O sea, de izquierdas, no?

    :-D
  15. Yo creo que nunca existirá una Inteligencia Artificial realmente "inteligente" y con sentido común (por lo menos ahora mismo es inimaginable y nada practico).
  16. #15 Totalmente de acuerdo. De hecho, no creo que incluso lleguemos a crear un sistema inteligente que sea capaz de resolver problemas de ámbito general (no al menos con la teoría computacional actual). Algunos proyectos como Watson de IBM o Wolfram Alpha lo intentan simular, pero en realidad están implementados por módulos o agentes que se dedican a solucionar un tipo de problema en particular.
  17. #13 En realidad en todas sus historias se ven que aunque hay situaciones de conflicto en esas leyes, al final se acaban cumpliendo. Es como la historia esa en la que están en una base espacial en las que el robot principal se niega a obedecer sus órdenes. Ellos creían que estaba incumpliendo la segunda ley, pero en realidad al hacerlo estaba cumpliendo la primera, ya que al llevar él el control conseguía unos resultados mucho mejores para ellos mismos.

    Posteriormente en la cronología se crean los grandes computadores que administran cuatro cuadrantes de la Tierra, de forma supuestamente óptima. Ahí también aparecen conflictos en el relato El conflicto evitable, y la propia Susan Calvin reconoce que esos errores los toman de forma deliberada las máquinas para poder llevar a cabo de forma global la primera ley.

    «Descubren que las máquinas han generalizado la Primera Ley para significar "ningún robot lastimará a la humanidad, o por inactividad, permitir a la humanidad el daño". (Esto es similar a la Ley Cero que Asimov desarrolló en novelas posteriores). La Dra. Calvin concluye que los "errores" son actos deliberados de las máquinas, permitiendo una pequeña cantidad de daño a unos cuantos para prevenir las grandes cantidades que recibiría la humanidad.»
    es.wikipedia.org/wiki/El_Conflicto_Evitable

    Los propios robots de Solaria, que parecen desobedecer completamente cualquier orden de cualquier humano que no sea su propietario, lo hacen también con el fin de poder proteger a sus dueños, ya que en ese planeta en el que no existía contacto físico real, la presencia de extraños y la petición de órdenes a los robots ajenos solía ser equivalente a una amenaza.
  18. #5 Precisamente ese tipo de reglas son las que nunca se podrán programar en un robot. Para que las entienda debes programar el "sentido común" que no es representable. Así que mal vas
  19. #17 Claro, y también queda claro que los robots cumpliendo las leyes no evitan que humanos los usen para matar, esto es, son una herramienta que puede ser mal usada para beneficio propio incluyendo el matar.
  20. #19 Un robot que pudiera matar a otro humano sólo se me ocurre los de Solaria, y siempre sería en defensa de su dueño. Tampoco es que tuvieran problema de que eso ocurriera, ya que allí no tenían contacto físico.

    Sea como fuere, se vio a lo largo de la cronología que las leyes se cumplían y a la larga beneficiaron a la humanidad, primero con las grandes computadoras de los cuadrantes y luego con los robots espaciales que salvaron a la humanidad dejando que la tierra se destruyera, por la visión a largo plazo en la que los humanos se quedan cortos. Incluso aunque las máquinas no fuesen perfectas, siempre serán superiores al ser humano.

    Y si no, le preguntas a Multivac.
  21. #20 Hay varios historias de Asimov en que un robot mata a un ser humano teniendo las "leyes". Por su puesto sin intención.
  22. #16 Yo lo mas parecido que he visto a la aproximación de lo que es "sentido común", es algún proyecto que se basa en un Sistema Experto o Sistema Basado en Conocimiento como por ejemplo (es.wikipedia.org/wiki/Cyc), pero que me parece algo bastante limitado y con multitud de posibles problemas. Lo veo algo "gigantesco" y no demasiado practico si se abarca el conocimiento general y no algo muy especifico (como suelen funcionar los Sistemas Expertos). Hay muchas cosas que no son implementables en una computadora (por ejemplo la intuición, la imaginación, creatividad, los sentimientos, etc...) y pueden contribuir a lo que llamamos "inteligencia". Personalmente creo que hasta que no se pueda explicar todo el funcionamiento cerebral de forma "matematica" o "algoritmica", no podremos crear una verdadera Inteligencia Artificial completa y autonoma (similar a la humana).
comentarios cerrados

menéame