edición general
192 meneos
2231 clics
"Los robots no van a controlar el mundo ni ahora ni en 100 años"

"Los robots no van a controlar el mundo ni ahora ni en 100 años"

La Inteligencia Artificial (IA) vuelve a estar de moda. Tras varios años de letargo, la evolución de las redes neuronales artificiales ha vuelto a reavivar el interés por los robots y las máquinas inteligentes. Ramón López de Mántaras, uno de los pioneros de la inteligencia artificial en España, se ha encontrado dentro de esta vorágine de 'positivismo' hacia los grandes avances del sector por segunda vez y alerta de que las predicciones entusiastas pueden acabar

| etiquetas: robots , progreso , skynet
Comentarios destacados:                                
#1 Suena a algo que un robot diría.
«123
  1. Suena a algo que un robot diría.
  2. Vaya sorpresón.
  3. Por la autonomía de las baterías, evidentemente
  4. Las máquinas no tienen ambición de controlar el mundo. No se van a despertar un día de pronto y se van a poner de acuerdo para rebelarse porque tienen ansias de poder. Las máquinas no van a tener por voluntad propia comportamientos como la ambición, la avaricia y el ansia de poder y control.

    Me parece un argumento muy pobre. No subestimes la capacidad del ser humano de crear sus mas temibles pesadillas.
  5. Pues qué pena ¿no? Y yo que quería convertirme en el nuevo John Connor.
  6. #3 eso lo solucionaron en Matrix
  7. El futuro no está escrito.
  8. Pues 101, skynet no tiene prisa
  9. Espero que recuerde sus palabras, cuando el ejército de clones arrasen tu barrio, Sr Ramón Lopez de Mántaras. Si el tostador ya me mira de mala hostia todas las mañanas, que veremos dentro de unos años; esto no acaba nada mas que empezar.
  10. #4 No sobreestimes la capacidad del ser humano para entender como funcionan realmente estas emociones.
  11. El artículo es bastante mejor que el título de mierda que han elegido. Meneo, vale la pena leerlo.
  12. Este todavía no conoce la estupidez humana, su avaricia y sobre todo a Skynet :troll:
  13. Los robots no, pero el que controle los robots si.
  14. El ser humano no llegara al espacio.
    Un robot nunca quitará el trabajo a un humano.
    Una IA no gobernará el mundo.

    Claro, claro...
    Cuando nació la persona más mayor del planeta a día de hoy (en 1895 o así) se decían las dos primeras frases.
    Cuando fallezca mi hija de 5 años (en el 2100) me comentas cómo va la tercera frase.
    Los últimos 100 años se a evolucionado muchísimo, quien dice que los próximos 100 no pasará lo mismo.
  15. #4 lo mismo he pensado yo, un robot no tiene ansia de poder pero la persona que lo controla sí. Es como decir que un fusil no mata, pero si es usada por un hombre puede matar y mucho.

    Lo de invertir en investigación nada nuevo, pero me viene a la mente el tema de la Renta Básica (o como se diga). Con la cantidad de gente que podría dedicarse a investigar es una lástima que se tire el dinero a un pozo sin fondo con la excusa de que no hay trabajo.
  16. #4 Cuando entendáis que ninguna máquina tiene sentimientos y que todo son 1 y 0, que lo único que hace una IA son cálculos y más cálculos matemáticos para activar sensores, dar corriente o quitarla a un motor para que mueva ciertas parte, etc.

    Veréis que es absurdo lo de que las máquinas se rebelen o tengan derechos. Es pura matemática y si algún día conseguimos que sean lo suficientemente complejos como para simular la conciencia humana mediante matemáticas ese día no creo que este cerca ni de lejos.

    Ya no es que estemos en pañales en el mundo de hacer IA complejas (como las de las pelis) sino que estamos a años luz de entender realmente como funciona la conciencia y los sentimientos humanos. Como para querer simularlos...
  17. #18 Valiente tonteria, los "sentimientos" y la "conciencia" no son mas que corrientes electricas entre neuronas y reacciones quimicas.
    Que estamos muy lejos de poder modelarlo? de acuerdo. Que se puede modelar? seguro.
  18. #6 Positivismo significa una cosa diferente a optimismo.
  19. Por cierto, yo ahora conduzco mi coche como si fuera un avión.
  20. "Los robots no van a controlar el mundo ni ahora ni en 100 años" --> Comienza un levantamiento de las máquinas :-|
  21. #20 Pero chico, tú me has leído? Precisamente he dicho eso, que algún día conseguiremos simularlo, pero que como dice el artículo, estamos bastante lejos de lograrlo.
  22. #15 Que yo sepa un tal Julio Vernet escribió de la tierra a la luna en el siglo XIX así que sí, había gente que pensaba que el hombre llegaría a la luna.
  23. #5 JAJAJAJAJAJJAJAJAJA {0x1f62c} {0x1f42e}
  24. #20 Pues ya me dirás cómo llegas de las corrientes eléctricas entre neuronas al fenómeno de la consciencia y la experiencia subjetiva...
  25. #28 igual que con las NN, con entrenamiento, desde que eres un bebe hasta que de repente demuestras conciencia.
  26. #15 " Los aviones son juguetes interesantes, pero no tienen ninguna utilidad militar. " (Mariscal Ferdinand Foch, 1911)
  27. El 100 año no....pero...y en 200?
  28. #29 ¿Hasta que de repente demuestras conciencia?  media
  29. Los bots de la bolsa aprueban este meneo.
  30. #9 101?
    Por el culo te la hinco!! :troll:
  31. #24 ¿Pero la IA trata de simular la conciencia y sentimientos humanos?
  32. #18 No hace falta que tenga sentimientos, que se rebelen o que exijan derechos. Un simple error de cálculo podría jodernos:

    " 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

    The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

    “We love our customers. ~Robotica”

    Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

    To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

    What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

    As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried

    …   » ver todo el comentario
  33. Unas declaraciones cargadas de soberbia. No tenemos aún claro qué es la consciencia ni cómo se genera. Y aunque las máquinas no llegasen a ser conscientes, podrían ser lo bastante inteligentes como para determinar que el ser humano es un virus (lo cual efectivamente es) y poner en marcha mecanismos de defensa. Teniendo en cuenta de que cuando aprendan a aprender lo harán de manera exponencial, no me parece descabellado ni mucho menos lo que comento.

    Cuando empecé a estudiar informática yo era mucho de "jajajaj las máquinas se van a rebelar, si son trozos de silicio rellenos de campos eléctricos que representan 1s y 0s". Ahora ya no lo tengo tan claro. Y gente mucho más inteligente que yo parece que tampoco: www.fayerwayer.com/2018/07/elon-musk-compromiso-armas-inteligencia-art
  34. #35 La IA tiene muchas áreas, cada uno investigará por donde crea conveniente.
  35. #16 Lo que dice es que "las máquinas no montaran una revolución", no dice nada de gente con poder y/o recursos no pueda crear ejércitos de robots y usarlos para esclavizar a la población.

    En otra entrevista [1] advierte de que hay que crear regulación en contra del uso armamentístico de la IA. De hecho, el instituto que dirige, el IIIA-CSIC [2], tiene una política interna estricta en este aspecto (los investigadores que ahí trabajan no pueden realizar proyectos militares) [3].

    [1] www.uoc.edu/portal/en/news/entrevistes/2017/043-ramon-lopez.html
    [2] www.iiia.csic.es/
    [3] Conozco el tema de primera mano
  36. Pero la automatización va a reducir la cantidad de empleos disponibles de forma drástica
  37. No sé qué pretende este hombre con esa afirmación tan categórica, pero que un robot se dedique a hacer el bien o a hacer el mal depende o puede depender de 1 solo bit de información.

    No veo tan descabellado que eso no pueda ser cambiado fácilmente en un futuro. Y llegado el caso, me da igual que se realice por humanos o por máquinas.
  38. #32 Efectivamente.
    Los bebes de repente empiezan a aprender a hablar por si solos a base de oir hablar.
    Las NN de repente empiezan a reconocer de manera correcta imagenes a base de estar expuestas a un buen volumen de ellas.
    La conciencia solo es una manifestacion mucho mas compleja del mismo fenomeno.
  39. "Los robots no van a controlar el mundo ni ahora ni en 100 años"

    La dirección que se debe de entender no es las de las películas de ciencia ficción. Controlar, controlará el mundo el que mira la máquina. La dirección que se debe de entender es que llegará a ser de uso cotidiano y establecimiento en todas las partes de este mundo.

    De hecho internet se puede suponer que es una máquina y ya nos tienen controlados a todos.
  40. Especialmente si no sabes quien es robot y quién no.
  41. waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    (Y luego la parte 2).

    Largos y brutales, must read ya. Cosa que este personaje no parece que haya hecho.
  42. Es decir, que en 50 años estamos jodidos.
  43. #42 Bueno de repente... Que no conozcamos el proceso que hay en medio no significa que sea "de repente".
  44. #47 Exactamente, como tampoco podemos predecir de antemano como de efectiva sera una NN despues de entrenarla, o como cambia con los entrenamientos, es uno de los grandes problemas de las NN, que no se puede auditar porque es una caja negra de la que salen resultados.
  45. Sois muy cerrados de mente para vivir en el siglo XXI

    - Vale, las máquinas ahora mismo son 0 y, solo saber hacer cálculos mas o menos complejos, pero la meta de muchas investigaciones es crear a la larga una máquina que pueda aprender, tener creatividad y eso no lo veo imposible, quizás no en 100 años, pero si nada lo impide pasará.

    - Vale, las máquinas no tienen sentimientos ni ambiciones ni avaricia, pero los humanos si, imagina gobiernos, empresas o individuos creando maquinas con fines perjudiciales para el resto, tambien maquinas con un fallo en su código y que se vuelvan en contra nuestra. Vuelvo al tema de la inteligencia del silicio como llaman muchos, que algun dia las maquinas tengan conciencia y se den cuenta de lo imbéciles que somos.

    No entiendo esa mentalidad de que las máquinas no pueden ser enemigas, no pueden tener el día de mañana algo parecido a nosotros, a lo que llamamos conciencia o sentimientos, hemos hecho de todo como especie, hemos descubierto un montón de cosas y probado otras tantas. ¿ahora me dices que estas cosas no pueden suceder?

    Antes de que me llaméis alarmista o flipado, yo creo y pienso que pase, lo que pase, dudo que las máquinas se tornen con nosotros con iniciativa propia, ya que creo que en un futuro a medio y largo plazo habremos mejorado como especie y quizás ya habremos eliminados aspectos negativos de nuestra especie y sociedad. No olvidemos otro tema interesante, el transhumanismo.
  46. #42 ¿Entonces una red neuronal artificial lo suficientemente compleja será capaz de generar experiencia subjetiva y consciencia?
  47. #42 El problema de las NN es que una vez la entrenas ya no te vale para otra cosa. El deep learning es muy útil pero está demasiado mitificado, otra de las cosas de las que se quejan en el artículo.  media
  48. Aunque programemos las IAs sin sentimientos chungos como ambición o deseos de poder, hay un "instinto" que podría surgir de forma espontánea y es el deseo de supervivencia. Una IA podría desear seguir existiendo aunque nadie le infunda esa necesidad. Simplemente por adaptación evolutiva, las IA con deseos de existir acabarán siendo más frecuentes que las que sean indiferentes a ello. En ese supuesto, una IA podría empezar a tomar decisiones por su cuenta, encaminadas a asegurar su propia supervivencia. Por ejemplo, si es consciente de que en caso de mostrarse agresiva sería desconectada, podría empezar a ocultar sus verdaderos pensamientos.

    Del deseo de supervivencia surge el miedo, y del miedo surge el odio.
  49. #24 Simular no es lo mismo que sintetizar. Se podrá simular un comportamiento. Pero no veo muy claro que se pueda crear un sentimiento: el robot parecerá que siente, pero no siente.
  50. Hace 100 años era 1918. Hay que tener huevos para hacer este tipo de predicciones tan a la larga.
  51. #50 A ver, a fin de cuentas el DL no es más que multiplicación de matrices y derivación de funciones. A partir de ahí, que cada uno crea lo que quiera que pueda llegar o no a pasar.
  52. #50 si la crias(entrenas) igual que a un bebe y tiene la suficiente complejidad en terminos de entradas y de neuronas estoy seguro.
    Otra cosa es que estemos a mucho tiempo de poder modelar la cantidad de entradas y neuronas necesarias para semejante proyecto.
  53. #38 Entonces la IA puede empezar a causar problemas antes de que se entienda el funcionamiento de la conciencia o sentimientos humanos, no? O sea, puede ejecutar acciones dañinas sin ser consciente de ello.
  54. #1 viva el hipnosapo!
  55. #56 No puedo estar menos de acuerdo contigo. Tal y como dice #55 hablamos de matrices y derivación de funciones.

    Imagina que esa hipotética red neuronal lo suficientemente compleja para que de ella emerja el fenómeno de la consciencia no sea ejecutada en un ordenador, sino con lápiz y papel (cualquier algoritmo puede ser ejecutado así, aunque tardarás más tiempo en hacerlo). ¿También dirías que esa red neuronal es consciente? ¿Dónde reside la consciencia? ¿En el lápiz? ¿En el papel?
  56. Cierto, lo dominará la ultraderecha para hacer la selección de la raza perfecta y el resto a la puta mierda.
  57. #18 de todas formas, nos puede interesar que su conciencia TENGA ambición, y para ello podemos añadir a la red estímulos similares a los que nos mueven: hambre, sexo, poder, dinero...

    una red neural al fin y al cabo es lo que es gracias a la retropropagación, y puede ser perfectamente que introduzcamos este tipo de inputs para que el conjunto se comporte como nos interesa, que normalmente será como un humano bastante capullo/ambicioso y sin demasiados miramientos por la competencia, preocupada en maximizar los beneficios a casi cueste lo que cueste

    es lo que dices, son sólo fórmulas, como las que tenemos en nuestro cerebro, así que si nuestro cerebro funciona de una determinada forma, lo podemos imitar si es lo que nos interesa....
  58. Que más da que no tengan sentimientos, tienen lógica.
    Si creamos una máquina para solucionar el calentamiento global y deduce que la mejor forma es marcarse un Thanos, pues p'alante.
    No tienen que tener ansias de poder, solo hacer lo que se les ha programado hasta que un bug o alguna directiva que se nos haya pasado por alto les permita aniquilar a los humanos.
  59. #34 BEST COMMENT EVER
  60. #59 El problema de fondo de todo esto es el nombre que se le puso a la técnica, muy comercial pero francamente horripilante. Nadíe diría que un Support Vector Machine o que un Random Forest puede llegar a generar conciencia, y donde hay veces que hacen un mejor trabajo que las Redes Neuronales. Pero aquí estamos, debatiendo esto simplemente porque se le puso este nombre.
  61. #37 Cuando empecé a estudiar informática yo era mucho de "jajajaj las máquinas se van a rebelar, si son trozos de silicio rellenos de campos eléctricos que representan 1s y 0s"

    Pues vuelve a hacerla porque son básicamente eso. La IA que la gente se imagina no existe y no se sabe si va a existir en el futuro cercano siquiera. No es cuestión de cerrar los ojos y creérselo. Es que con el paradigma que tenemos a día de hoy para hacer IA (el mismo desde los años 60) no puede haber IA como en las películas.
  62. Ni Skynet, ni equipo robótico que gane a Brasil jugando al fútbol, ni colonia humana en Marte, ni contacto con alienígenas inteligentes de ahora hasta 2100... Algo de cambio climático y problemas ambientales y sociales.

    Podéis archivar este mensaje... para cuándo podáis decirme que no tenía razón estaré más allá.
  63. Skynet confirmado 2119
  64. Los robots somos nosotros y la realidad una simulación para cultivar consciencias.
  65. #59 Donde reside la consciencia en el ser humano? en las neuronas? en las reacciones quimicas? diferente soporte, mismo concepto.
  66. #64 El problema es que tenemos la conciencia y los sentimientos muy mitificados, no tienen nada de especial, somos computadoras biologicas que han aprendido a computar mediante impulsos electricos y reacciones quimicas la mejor manera de reproducirse y salir de apuros.
    Es el mismo concepto con diferente soporte.
  67. Gracias nostradamus
  68. #25 Pues igual que hay gente que dice que una IA se rebelara...
  69. #70 No tenemos ni idea aún de dónde reside. Por eso creo que es atrevido pensar que podemos implementar digitalmente algo de lo que aún se sabe muy poco.

    diferente soporte, mismo concepto. Eso sería de esa forma si la mente humana fuera computable, y yo no creo que sea así.
  70. #74 A la fuerza debe de partir de un estado fisico pre-existente y desarrollarse a partir de ahi con metodos soportados por la fisica, si no lo quieres llamar computar lo puedes llamar como quieras.
    O me vas a hablar del alma?
  71. #52 Si me permites...Deseo de super-existencia sería el término correcto (acuñado ahora por mí) para seres artificiales.

    Los seres no-sociales instintivamente buscan la supervivencia por el dictado de sus genes, pero porque no son sociales les da igual que su madre, hermano o congénere muera al lado de ellos.
    Al contrario, los seres sociales desean seguir existiendo y que sus congéneres (al menos los allegados) quieran seguir existiendo, lo cuál es una motivación mucho más fuerte que el mero dictado genético.

    No sé si es posible hacer máquinas inteligentes que no sean sociales con sus iguales... Sí esas máquinas son sociales preferirán un "Nosotros somos distintos a Ellos" o sólo serán tan útiles cómo puede serlo un perro para su amo .
  72. #71 No dudo de que un día podamos llegar a modelar algo parecido a un ser consciente (si es que podemos decir eso de alguien y esto ya es terreno metafísico), pero hoy día con las técnicas actuales imposible y, siguiendo con las redes neuronales, si lo único que haces es añadir nodos lo único que conseguirás es un overfit del copón.

    A cada día que pasa sabemos más de la neurona y de como se conectan, y llegará el día que podamos modelarlas, pero hoy día lo que se conoce en IA como neurona dista muchísimo (por no decir que se parece lo mismo que un huevo a una castaña) de lo que es una neurona biológica. De ahí el coraje de muchos investigadores con el nombre.
  73. #20 Que se puede modelar? seguro.
    No, no es seguro. Y mucho menos que nosotros seamos algún día capaces de hacerlo.

    Si no somos capaces ni de prever el tiempo que hará al día siguiente con un 100% de acierto....
  74. #57 Claro. Eso ya lo hace una bomba, o una AK-47.
  75. #42 pues ya está! Copiamos el mecanismo cerebral de un bebé, y que aprendan sólos. Que lo vaya haciendo el becario, que yo he quedao...
  76. #42 bromas aparte, todavía no sabemos hacer que la puta molecula de hemoglobina se pliegue para atrapar y soltar el oxigeno de la sangre...pues ponte a crear redes neuronales. Llama a Punset!!!
  77. #77 El nombre me importa tres cojones, sirve para hacer modelos, si se puede modelar una neurona se puede modelar un cerebro, ya he dicho que estamos muy lejos de ello pero que poderse se podra.
  78. #75 El tema es que la física newtoniana era computable. El sindiós de todo lo que ha venido en el siglo XX y XXI no lo es, pero ni de coña. Para que algo sea computable tiene que ser como mínimo determinista, y la física cuántica es exactamente lo contrario a eso.

    Y no te voy a hablar del alma. ¿O crees que esto que te estoy diciendo implica la existencia de un pequeño fantasma inmaterial que vive en nuestro cuerpo y está al mando?
  79. #78 Salvo que el aprendizaje cerebral dependa de algun fenomeno no determinista y no lo podamos entender desde la fisica clasica de modificar estados deterministas por supuesto que se podra modelar, otra cosa es que ahora no tengamos la potencia o los medios.
  80. #83 No, yo estoy partiendo de que las reacciones quimicas y electricas entre neuronas sean deterministas. Quiza me equivoque y el cerebro no sea determinista. Entonces habria que hablar de probabilidades.
  81. #81 La parte en la que digo que estamos muy lejos de semejante proyecto por falta de medios y potencia te la has fumado y por eso dices esas tonterias?
  82. Ni ahora ni en 100 años, pero ya controlan las inversiones bursátiles de los mayores fondos del planeta :roll:
  83. #62 ¿Y como va a llegar a esa conclusión?¿Y además como actúa para exterminarnos? Estáis demasiado influenciados por películas apocalípticas. El mundo real no es tan guay.
  84. #36 porfa, resumen en dos líneas.
    (Se hace muy difícil leer en inglés, cursiva, dentro de la caja de comentario anidado a otros...)
    Gracias!!!
  85. #78 El tiempo es caótico, no hay algoritmo que valga más allá de unos pocos días...
  86. #84 No digo que no ni que si. Pero para hacernos una idea, si soltamos una pluma desde una azotea somos incapaces de predecir el punto exacto de caída. Y es algo infinitamente más sencillo....
  87. #45 Yo venía a recomendar este artículo. #MustRead
  88. #85 Cuando las reacciones químicas se observan a un nivel macroscópico pueden parecer deterministas, y de hecho en general podemos considerar que así lo son, ya que un amplio conjunto de aleatoriedades se comporta globalmente de forma homogenea. Pero en los niveles más pequeños los procesos no son en absoluto deterministas, y es en estos niveles donde se producen las reacciones químicas del cerebro. Creo que en esos vericuetos es donde están las respuestas a estas preguntas.

    Un tema apasionante, no cabe duda :-)
  89. #45 Venía a poner ese mismo link... ahí va mi positivo.
  90. #92 Ni de conia, eso un sistema abierto a un sinnumero de variables caoticas, mecanica de fluidos etc etc.
    El cerebro es un sistema cerrado con N neuronas( en un momento determinado ) y M conexiones entre ellas mas un numero finito de nervios y receptores quimicos.
    Tu ejemplo de la pluma creo que es bastante mas complejo de modelar con exactitud.
  91. #40 se dedicarán a otras cosas, coño, que llevamos con la misma discusión desde que se inventó el arado.
  92. #71 Y el programa?
  93. #96 cerebro es un sistema cerrado

    Nanay.
  94. #91 Y el comportamiento cerebral crees que no lo es? basandote en....
«123
comentarios cerrados

menéame