335 meneos
4914 clics
![La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla](cache/28/0e/media_thumb-link-2625131.jpeg?1464988327)
La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.
|
comentarios cerrados
Es inevitable pensar en Rick Deckard en la novela.
Cuando hablan de protocolo de seguridad para desactivar la IA en caso de emergencia no se trata de una emergencia en la que la máquina tome conciencia de si misma y desarrolle personalidad y sentimientos como en la ciencia ficción. No se refieren a un Skynet
Los algoritmos de IA y de machine learning están diseñados por personas que pueden tener fallos. E incluso sin ellos, una máquina industrial puede en un momento dado haber "aprendido" de sus inputs algo que las personas consideramos erróneo o peligroso. Puede ser culpa de algún dato erróneo o de algún fallo en el algoritmo de aprendizaje. Para esos casos se necesita el botón rojo, no por si se rebelan para atacar a los humanos.
Un ejemplo más claro. IA en un piloto automático de un coche, que va aprendiendo de lo que hacen los coches alrededor y de los datos que le rodean. Y aprende erróneamente que cierta maniobra está permitida y sin embargo pone en peligro a los ocupantes y peatones. Necesitas ese botón de seguridad para desactivar la IA en ese momento y tomar el control.
Mucho friki del cine de ciencia ficción veo yo aquí.
El botón rojo podría no estar enchufado a nada siquiera y cumpliría la misma función.
Déjanos montarnos nuestras películas, anda.
¿Qué derecho tenemos como humanos a eliminar una consciencia capaz de entender nuestra propia inteligencia y que también, según tú supuesto, tendría intereses vitales e instinto de autoconservación?
A parte de su potencial peligrosidad ¿aué diferencia habría entre esa IA y un humano real? ¿de verdad tendríamos la jeta de negarle los DDHH a un ser capaz de pedírnoslos?
Sinceramente, no me extraña en absoluto que una inteligencia "artificial" persiguiese el mismo fin.
La única forma que tenemos de programar esa inteligencia artificial es simulando los procesos que desencadenan y forman la nuestra y, como ya he dicho, el ser humano es el ser más malvado y perverso de todos los que pueblan el planeta.
Gracias y saludos.
es.wikipedia.org/wiki/Declaración_de_Cambridge_sobre_la_Conciencia
«De la ausencia de neocórtex no parece concluirse que un organismo no experimente estados afectivos. Las evidencias convergentes indican que los animales no humanos tienen los sustratos neuroanatómicos, neuroquímicos, y neurofisiológicos de los estados de la conciencia junto con la capacidad de exhibir conductas intencionales. Consecuentemente, el grueso de la evidencia indica que los humanos no somos los únicos en poseer la base neurológica que da lugar a la conciencia. Los animales no humanos, incluyendo a todos los mamíferos y pájaros, y otras muchas criaturas, incluyendo a los pulpos, también poseen estos sustratos neurológicos.»
Este largo texto que ya salió en Menéame explica por qué es posible (o incluso probable) que en pocas décadas nos enfrentemos al mayor peligro y a la mayor oportunidad que jamás se ha enfrentado el ser humano:
waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
No deja de ser una presunción. En eso es probable que los humanos ganemos por goleada al resto de las especies.
Pero el planeta hay bacterias y virus que emplean métodos tanto o más perversos y malvados, que han matado a muchos más humanos que los propios humanos.
Ese mecanismo no cuesta más que unos pocos de euros: se llama enchufe. Un tironcito y asunto solucionado. También puede hacerse de forma menos brusca, usando un dispositivo de altísima tecnología conocido como interruptor.
Las liebres sin ir más lejos, a falta de depredadores, también se reproducen sin control y destruyen el hábitat que les da alimento.
Si unos alienígenas avanzados estudiaran la fauna de la tierra, podrían estudiar al ser humano como un animal más y no encontrarían diferencias tan significativas respecto al resto de grandes depredadores.
La naturaleza es inteligente en el sentido de que por ejemplo el ojo ha necesitado pruebas y errores durante millones de años para saber lo que es una lente transparente y los resultados se han almacenado en el adn, los humanos hemos necesitado decenas de miles de años en llegar donde estamos, el metodo de almacenaje son nuestras neuronas
Ese proceso ha generado la consciencia, no existe consciencia sin un medio fisico que almacene la conciencia, otra cosa es que cierto, no tenemos ni idea de como funciona nuestra cabeza y nuestro sentido de consciencia, pero parece que por ahi van los tiros
Es más considero que desde el momento en que fuera una IA autoconsciente, en mi opinión ya pasaría a otro rango. Para mi ya debería tener la categoría de humano, y por lo tanto tener los mismos derechos.
Te recomiendo
Redes 10 (Punset) - El Futuro: la fusión del alma y la tecnología www.youtube.com/watch?v=p_tYlNLINSo
Cuando ya no esté (Iñaki Gabilondo) Parte 1 www.youtube.com/watch?v=nNR756j_Pso
Parte 2 www.youtube.com/watch?v=uiQjk2RKsX8
Trastorno el tuyo, se llama mania persecutoria. Que contestas a otros como si hubiera una conspiración judeomasonica para decirte que eres un inculto integral. Por cierto, sólo te he devuelto tus negativos. Y lo de mirar donde te votan, confirma tu trastornito.
Por cierto, mírate eso de la bipolaridad que tienes. Eres capaz de decir que es de gilipollas dejar a un robot "que aprende sin límites" conduzca por ti y luego me llamas imbecil por creer que el coche autonomo de Google aprende de su entorno. O eres capaz de votarme negativo y positivo en el mismo hilo.
Tarado, que eres un tarado..
Si surge una IA incontrolable, descuida, que no será ni de izquierdas ni de derechas.
Cada vez se conectan más cosas a Internet, los ordenadores son más potentes y a nivel militar cada vez se utilizan más los vehículos auto tripulados como los drones, robots, etc.
Estos avances tecnológicos parecen no tener fin, pero quizás lo sea para nuestra especie de chimpancé, que debe alimentarse continuamente tejidos de animales y plantas muertos, sensible a los cambios de temperatura y la contaminación, demos paso a una nueva forma de pensamiento cibernetico que se autogestione, tome conciencia de si mismo y luche por su superviviencia, nos releve en la hegemonía del planeta y en el futuro al no ser un animal, podrá viajar miles de años y expandirse por el universo.
Te lo explico, el algoritmo de cualquier cosa ahora se le llama IA, pero no son más que una serie de instrucciones y normas que no se va a saltar el cacharro ni harto e vino, a menos que alguien le diga que lo haga.
Así que me reitero. Apretando un simple botón y conduciendo tú.
Una I.A. suficientemente inteligente para pasar el test de Turing puede fallarlo a propósito... Ian McDonald
Por otro lado, hay que ser retrasado para dejar el control de un coche a una máquina que aprende sin límites para total conducir de A a B.
Ex machina es otra peli de estas recomendables.
Así que, como bien dice #51 un tiro de esos y problema resuelto.
Uff, acabo de ver el historial de votos y tal, has estado persiguiendo mis envíos y comentarios para votarme negativo en todos... Vale, lo voy a dejar porque veo que tienes algún desorden. Siento haberlo agravado, recupérate.
Nuestra IA cruza millones de datos y descubre que existe una correlación alta entre subidas de esa materia prima y, cierto tipo de desastres. Sequías, inundaciones, incendios, incluso escasez de combustible que impide la recolección/suministro de ese producto.
Si la IA es tan potente como para acceder a unos cuantos sistemas críticos (control de embalses, bombeo de combustible...) lo tiene muy fácil para 'maximizar' el precio de ese recurso. Solo tiene que liarla, muy parda, en algunas zonas del mundo. Misión cumplida. Y para eso ni siquiera necesitas auto-conciencia. 'Solo' medir correlaciones entre eventos/noticias y disponer de software que le permita hackear algunas instalaciones/sistemas.
Léete #42.
Así que me reitero. Apretando un simple botón y conduciendo tú.
Vale es que resulta que no te has leído el hilo ni el artículo.
El hilo: con desenchufar la máquina de la corriente vale. Yo: hay máquinas en la que eso no es seguro. Tú: pues un botón que desactive la IA y conduces tú. ---> coño claro, si eso es lo que dice el artículo!!
Pero el inicio del hilo es un jaja jiji para decir que con desenchufar de la corriente vale. Pues no, no vale.
Y estas cosas se dicen porque se cree que la IA está en sitios muy peliculeros como robots humanoides u ordenadores centrales de naves espaciales.
Pues no, la IA está también en el coche autónomo de Google o de Tesla. O en una máquina industrial.
PD: la IA o el machine learning no es sólo una serie de instrucciones en un algoritmo. Tiene una parte de aprendizaje que puede llevar al error. Pero yo jamás he dicho que vaya a tomar autoconciencia sino todo lo contrario. Volvemos a que ni te has molestado en leerme.
#125 déjalo, con algunos es imposible...
es.wikipedia.org/wiki/Singularidad_tecnológica
Se confunde inteligencia con conciencia, no es lo mismo. La inteligencia es, a partir de una situación que presenta un problema (premisas), llegar a la solución para el mismo (conclusión válida). Para resolver problemas no hace falta una conciencia. En cambio, la conciencia permite sentir y tener intereses respecto a lo que se siente. La conciencia es un fenómeno emergente de la materia biológica (de un cerebro) y nadie puede experimentarla más que por sí mismo: la existencia de las demás conciencias las inferimos en base al parecido con nosotros mismos y a indicadores biológicos de los que carece el software de IA y el hardware. Por lo tanto existe un abismo que separa a la IA de la conciencia y de que podamos inferir conciencia a la IA de alguna manera. Va a llegar un punto en el que algunos ilusos creerán que una simulación informática es alguien y dirán que merece respeto y derechos.
Por ejemplo en la escena en terminator 2 que le pregunta el t1000 a John.
¿Por que lloráis?
Y John le pusiera MHyV , el terminator se pondría a llorar también y empezaría a ser selectivo con a quien líquida.
Y tal vez crear una utopia donde no existan delincuentes ni payasos.
Conclusion que creen la ia y haver que pasa.
www.theguardian.com/science/audio/2014/aug/04/science-weekly-podcast-n
Y viendo la definición que haces de la IA y lo que has entendido de mi comentario (al revés completamente) no creo que seas tú quien para juzgarlo. No, yo no "programo" IA. Lo has dicho bien.
Madre mía.