335 meneos
4914 clics
La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.
|
comentarios cerrados
Es inevitable pensar en Rick Deckard en la novela.
El botón rojo podría no estar enchufado a nada siquiera y cumpliría la misma función.
Sinceramente, no me extraña en absoluto que una inteligencia "artificial" persiguiese el mismo fin.
La única forma que tenemos de programar esa inteligencia artificial es simulando los procesos que desencadenan y forman la nuestra y, como ya he dicho, el ser humano es el ser más malvado y perverso de todos los que pueblan el planeta.
Si surge una IA incontrolable, descuida, que no será ni de izquierdas ni de derechas.
No deja de ser una presunción. En eso es probable que los humanos ganemos por goleada al resto de las especies.
Pero el planeta hay bacterias y virus que emplean métodos tanto o más perversos y malvados, que han matado a muchos más humanos que los propios humanos.
Además, las bacterias y los virus matan porque forma parte de su ciclo vital, pero no es gracias a su inteligencia que maten a sus anfritriones sino a que se reproducen sin control.
Es más, matar a tu propio anfritrión no es muy inteligente.
El ser humano también hace lo mismo que los virus, pero al hacerlo demuestra precisamente lo contrario: que carece totalmente de inteligencia al destruir el hábitat que le cobija y que le proporciona alimento.
Ese mecanismo no cuesta más que unos pocos de euros: se llama enchufe. Un tironcito y asunto solucionado. También puede hacerse de forma menos brusca, usando un dispositivo de altísima tecnología conocido como interruptor.
Las liebres sin ir más lejos, a falta de depredadores, también se reproducen sin control y destruyen el hábitat que les da alimento.
Si unos alienígenas avanzados estudiaran la fauna de la tierra, podrían estudiar al ser humano como un animal más y no encontrarían diferencias tan significativas respecto al resto de grandes depredadores.
es.wikipedia.org/wiki/Declaración_de_Cambridge_sobre_la_Conciencia
«De la ausencia de neocórtex no parece concluirse que un organismo no experimente estados afectivos. Las evidencias convergentes indican que los animales no humanos tienen los sustratos neuroanatómicos, neuroquímicos, y neurofisiológicos de los estados de la conciencia junto con la capacidad de exhibir conductas intencionales. Consecuentemente, el grueso de la evidencia indica que los humanos no somos los únicos en poseer la base neurológica que da lugar a la conciencia. Los animales no humanos, incluyendo a todos los mamíferos y pájaros, y otras muchas criaturas, incluyendo a los pulpos, también poseen estos sustratos neurológicos.»
¿Qué derecho tenemos como humanos a eliminar una consciencia capaz de entender nuestra propia inteligencia y que también, según tú supuesto, tendría intereses vitales e instinto de autoconservación?
A parte de su potencial peligrosidad ¿aué diferencia habría entre esa IA y un humano real? ¿de verdad tendríamos la jeta de negarle los DDHH a un ser capaz de pedírnoslos?
Es más considero que desde el momento en que fuera una IA autoconsciente, en mi opinión ya pasaría a otro rango. Para mi ya debería tener la categoría de humano, y por lo tanto tener los mismos derechos.
Este largo texto que ya salió en Menéame explica por qué es posible (o incluso probable) que en pocas décadas nos enfrentemos al mayor peligro y a la mayor oportunidad que jamás se ha enfrentado el ser humano:
waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
La mejor seguridad es por tanto avanzar hacia una economía de la abundancia.
Curiosamente la IA nos puede ayudar a conseguir tal sistema económico revolucionando la física.
Cada vez se conectan más cosas a Internet, los ordenadores son más potentes y a nivel militar cada vez se utilizan más los vehículos auto tripulados como los drones, robots, etc.
Estos avances tecnológicos parecen no tener fin, pero quizás lo sea para nuestra especie de chimpancé, que debe alimentarse continuamente tejidos de animales y plantas muertos, sensible a los cambios de temperatura y la contaminación, demos paso a una nueva forma de pensamiento cibernetico que se autogestione, tome conciencia de si mismo y luche por su superviviencia, nos releve en la hegemonía del planeta y en el futuro al no ser un animal, podrá viajar miles de años y expandirse por el universo.
Cuando hablan de protocolo de seguridad para desactivar la IA en caso de emergencia no se trata de una emergencia en la que la máquina tome conciencia de si misma y desarrolle personalidad y sentimientos como en la ciencia ficción. No se refieren a un Skynet
Los algoritmos de IA y de machine learning están diseñados por personas que pueden tener fallos. E incluso sin ellos, una máquina industrial puede en un momento dado haber "aprendido" de sus inputs algo que las personas consideramos erróneo o peligroso. Puede ser culpa de algún dato erróneo o de algún fallo en el algoritmo de aprendizaje. Para esos casos se necesita el botón rojo, no por si se rebelan para atacar a los humanos.
Un ejemplo más claro. IA en un piloto automático de un coche, que va aprendiendo de lo que hacen los coches alrededor y de los datos que le rodean. Y aprende erróneamente que cierta maniobra está permitida y sin embargo pone en peligro a los ocupantes y peatones. Necesitas ese botón de seguridad para desactivar la IA en ese momento y tomar el control.
Mucho friki del cine de ciencia ficción veo yo aquí.
Déjanos montarnos nuestras películas, anda.
es.wikipedia.org/wiki/Singularidad_tecnológica
Se confunde inteligencia con conciencia, no es lo mismo. La inteligencia es, a partir de una situación que presenta un problema (premisas), llegar a la solución para el mismo (conclusión válida). Para resolver problemas no hace falta una conciencia. En cambio, la conciencia permite sentir y tener intereses respecto a lo que se siente. La conciencia es un fenómeno emergente de la materia biológica (de un cerebro) y nadie puede experimentarla más que por sí mismo: la existencia de las demás conciencias las inferimos en base al parecido con nosotros mismos y a indicadores biológicos de los que carece el software de IA y el hardware. Por lo tanto existe un abismo que separa a la IA de la conciencia y de que podamos inferir conciencia a la IA de alguna manera. Va a llegar un punto en el que algunos ilusos creerán que una simulación informática es alguien y dirán que merece respeto y derechos.
Nuestra IA cruza millones de datos y descubre que existe una correlación alta entre subidas de esa materia prima y, cierto tipo de desastres. Sequías, inundaciones, incendios, incluso escasez de combustible que impide la recolección/suministro de ese producto.
Si la IA es tan potente como para acceder a unos cuantos sistemas críticos (control de embalses, bombeo de combustible...) lo tiene muy fácil para 'maximizar' el precio de ese recurso. Solo tiene que liarla, muy parda, en algunas zonas del mundo. Misión cumplida. Y para eso ni siquiera necesitas auto-conciencia. 'Solo' medir correlaciones entre eventos/noticias y disponer de software que le permita hackear algunas instalaciones/sistemas.
www.theguardian.com/science/audio/2014/aug/04/science-weekly-podcast-n
Por otro lado, hay que ser retrasado para dejar el control de un coche a una máquina que aprende sin límites para total conducir de A a B.
Así que, como bien dice #51 un tiro de esos y problema resuelto.
youtu.be/QMgSELBA7kw
Por ejemplo en la escena en terminator 2 que le pregunta el t1000 a John.
¿Por que lloráis?
Y John le pusiera MHyV , el terminator se pondría a llorar también y empezaría a ser selectivo con a quien líquida.
Y tal vez crear una utopia donde no existan delincuentes ni payasos.
Conclusion que creen la ia y haver que pasa.
Te lo explico, el algoritmo de cualquier cosa ahora se le llama IA, pero no son más que una serie de instrucciones y normas que no se va a saltar el cacharro ni harto e vino, a menos que alguien le diga que lo haga.
Así que me reitero. Apretando un simple botón y conduciendo tú.
Léete #42.
Así que me reitero. Apretando un simple botón y conduciendo tú.
Vale es que resulta que no te has leído el hilo ni el artículo.
El hilo: con desenchufar la máquina de la corriente vale. Yo: hay máquinas en la que eso no es seguro. Tú: pues un botón que desactive la IA y conduces tú. ---> coño claro, si eso es lo que dice el artículo!!
Pero el inicio del hilo es un jaja jiji para decir que con desenchufar de la corriente vale. Pues no, no vale.
Y estas cosas se dicen porque se cree que la IA está en sitios muy peliculeros como robots humanoides u ordenadores centrales de naves espaciales.
Pues no, la IA está también en el coche autónomo de Google o de Tesla. O en una máquina industrial.
PD: la IA o el machine learning no es sólo una serie de instrucciones en un algoritmo. Tiene una parte de aprendizaje que puede llevar al error. Pero yo jamás he dicho que vaya a tomar autoconciencia sino todo lo contrario. Volvemos a que ni te has molestado en leerme.
Película recomendada sobre el tema: Ex machina
Va, venga, por encima, redes neuronales, algoritmos genéticos, simulated anealing... dime algo, porfa.