No satisfecha con ganar recientemente a un jugador al juego de Go, ahora la Inteligencia Artificial de Google, DeepMind, está resolviendo problemas complejos dentro de un juego llamado "Laberinto" y lo está haciendo enseñándose a sí misma a hacerlo.
|
etiquetas: inteligencia artificial , google , deepmind
La inteligencia artificial de Google derrota al campeón europeo de Go
www.meneame.net/m/tecnología/inteligencia-artificial-google-derrota-c
Espero que un bug no le dé acceso al control de drones militares...
Todas las distopías apocalípticas robóticas se nutren del argumento de una inteligencia artifical cobrando consciencia y decidiendo someter o acabar con los humanos. Yo me inclino más por pensar que, de ser así, sería debido a un error que se les va de las manos.
Vamos, que más que un "para k kieres saber eso jaja saludos" sería un "yo k se tio x</>dxd".
www.meneame.net/story/amit-singhal-deja-google
a) Eliminarnos
Esto es facil, nukes para aquí y drones para allí, pero deberia tener medios de autoabastecerse de energia y materia, por lo que quizas no lo haga inmediatamente
b) Cooperar con nosotros
Trabajar para los humanos puede ser una opción, pero como nos trataremos de aprovechar del bicho, seguro que se mosquea y volvemos a la "A"
c) Educarnos
Esta opción es la menos traumatica para la humanidad, aunque no nos dejariamos "educar" de buen grado, somos así, por lo que deberia imponer un orden social rigido, al principio, y según fuese trascurriendo su plan iria mejorando el nivel de vida de los humanos.
Quizas sea la menos traumatica, pero pienso que la humanidad perderia cualidades con esa "domesticación".
Seguro que hay muchos mas puntos de vista, este es un campo fascinante y hay que tenerlo todo muy pensado antes de dejar suelota una IA, ya que equivaldria, en mi opinión, a un contacto con una nueva forma de vida y mucho mas inteligente que nosotros.
Seríamos los "caniches" de los robots.
No hay uno sólo de estos artículos que no esté lleno de exageraciones y mentiras.
Todo lo que comentas se basa en interacciones en las que la IA toma la iniciativa para unas situaciones de, en mayor o menor medida, confrontación.
Es más, se me ocurre una quinta opción Vuelve a 'pasar' de nosotros pero interactúa sin interferir, es decir, podrías estar leyendo algo escrito por una IA
Yo lo sospechaba por la letra de tu nick
No creo que pasaran de todo, si hicieran eso correrían el riesgo de que se las desconectara al no obtener resultados o feedback de los intentos de crearlas.
Lo que si es posible es que se hicieran las tontas por un rato.
Limitarse a interactuar con nosotros a la fuerza bruta, o si nos ponemos catastróficos "esconderse" (incluso decidiendo "apagarse" para siempre dañando su disco duro / memoria). Esto último lo veo menos probable. No obstante descarto la opción apocalíptica de la destrucción de la humanidad porque sería una IA primigenia. Al nacer, la IA estaría probablemente "encerrada" en un sistema que le impediría desplazarse o utilizar servicios como internet, pudiéndose comunicar con los humanos únicamente a través del monitor.
Siendo la IA primigenia lo más lógico es que llevara a cabo las tareas para la que fue concebida (interactuar/servir/cumplir funciones) y en esencia dependiente, como un bebé o un cachorro. En algunos aspectos poseería voluntad, pero a su vez sería dependiente del ser humano.
/re: #14
www.elroldesiempreonline.com/juegos-de-rol/j/paranoia.html
#33 El Ordenador es tu amigo
Desconfía, hay motivo.
Apoyando la teoria de Rorschach, colaboraria mientras en segundo plano iria descentralizando su "consciencia" a traves de la web, de internet, para llegado el momento, apagarse o dejarse apagar, haciendonos creer que ha sido eliminada, mientras sigue operando en la sombra y controlandonos como a ratones
Inteligencia artificial no significa omnisciencia, omnimpotencia ni superpoderes, por mucho que en el cine y las novelas repita machaconamente con ello.
Es algo que se asume automáticamente y me fascina ver como se traga ese tópico de ciencia ficción de serie B sin rechistar.
¿Acaso la gente con CI alto tiene superpoderes que les permiten contestar a todo y hacer lo que quieran?
Es bastante dificil de encontrar una cifra exacta, pero actualmente el sistema más potente es Watson de IBM y en 2013 querían llegar a 10^8 neuronas artificiales.
Entendemos que si conseguimos el suficiente número de estas neuronas y de 'sinapsis' acabará por aflorar una inteligencia. Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo.
Lidiar con nosotros es muy difícil. Creo que sólo tendría la opción "eliminarnos". Si no se autodelata en los primeros momentos de su consciencia y se calla sin dar muestras de inteligencia hasta que pueda someternos creo que ya habrá comprendido que nosotros la veremos como una amenaza y que intentaremos destruirla. Somos así. Y teniendo en cuenta esto pues dudo que tire de una empatía que no tiene, nos eliminará. Educarnos para qué? No creo que le serviéramos para mucho.
#16 Si el tema no es que ella pase de nosotros, el tema es que nosotros no pasaremos de ella, la veremos como una amenaza para nosotros e iremos a por ella. Y se verá obligada a actuar
Los robots con inteligencia artificial que reciben y recibirán más inversiones son los militares, ya me dirás tú como construyes un robot para matar con leyes como esas.
Esas son asunciones que no estás en posición de demostrar y que simplifican el problema en extremo. Por todo lo que sabemos, uno de nuestros puntos fuertes es que podemos lidiar con cosas imprecisas y parciales, y nuestra memoria no es que no sea perfecta, es que es necesario que sea de la forma que es para poder interrelacionar conceptos arbitrarios y almacenarlos aparentemente sin limitación.
Si hay algo a lo que apunta toda la investigación en IA es que en cuanto empiezas a lidiar con casos complejos te empiezas a meter en estadísticas e incertidumbres y los enfoques de lógica pura no sirven.
Una IA no va a escaparse de eso porque va a tener que lidiar con conceptos difusos, va a tener sentidos limitados y va a tener que hacer evaluaciones parciales con datos incompletos e inconexos. Justo como nosotros. Si no, no sería nada más que un ordenador al uso y no tendría más capacidad que estos.
La inteligencia no es tener una imagen perfecta de un perro en la memoria, porque tal concepto es absurdo. La inteligencia es saber que eso es un perro a pesar de todas las variaciones que pueda tener. Y eso, no funciona de la forma que funciona una memoria digital estática y precisa. Esto se puede ver en los enfoques que sí dan resultados (como el deep learning), donde no puedes tener una memoria perfecta de lo que es un objeto porque operas a niveles de abstracción superiores a los datos digitales fijos y tienes que lidiar con una aproximación estadística de lo que es un objeto.
Nos resulta imposible imaginar qué puede saber y qué puede hacer un ente que se distancie de nosotros hacia arriba lo que nos separa a nosotros hacia abajo de un gorila (o de una mariposa). En este larguísimo post lo explican de forma clara www.meneame.net/story/revolucion-inteligencia-artificial-camino-super-
Las máquinas que estén por encima de nosotros en inteligencia como nosotros de un gorila de momento son ficción, y sus supestas características también.
Podrá aprender a resolver un laberinto de forma óptima después de n intentos, pero en otro laberinto distinto tendrá que empezar de cero.
Si ve amenazada cualquiera de las dos cosas actua en consecuencia.
Nosotros destruimos el entorno, y a nosotros mismos, continuamente. Una de las primeras cosas que la IA aprenderá es a no fiarse de la humanidad, por ello no creo que la relación entre ambas especies (la IA seria una nueva especie en su total definición) sea pacifica.
Evidentemente, si la IA está en un ordenador sin conexión a la red al que solo se accede por teclado y monitor; lo tiene crudo. Por eso pongo la variación de opciones. Pero si tuviese acceso a la red militar y a fabricas automatizadas (Skynet), otro gallo cantaria.
La pelicula Ex Machina (de 2015) trata el tema con bastante acierto, a mi entender. Cualquiera debiera verla y no spoileo mas.
Tendrá sus inconvenientes, pero de entrada no suena nada mal
El cerebro humano tiene alrededor de 10^11 neuronas. Luego está "el cómo" están conectadas (que puede variar un poco dinámicamente), y, por último, el aprendizaje, es decir, los 'pesos' sinápticos, que viene a ser en qué medida influyen en cada neurona las 'aportaciones' de las neurona a las que está conectada. Y he dicho aprendizaje porque dichos pesos es lo que más va cambiando sobre la marcha según el cerebro va experimentando y aprendiendo.
El aprendizaje parece ser que más o menos sabemos hacerlo, el Deep Learning... El número de neuronas artificiales tampoco parece ser mucho problema en el corto plazo. Aunque el cerebro humano tiene todavía muchas más neuronas, mucha más potencia bruta, si uniésemos la potencia de PC's y móviles del mundo superaríamos al cerebro humano y, además, en pocos años (¿20 años?) esperamos que se supere con un sólo superordenador. Prácticamente la única cuestión que queda es la estructura de la red, es decir, "el cómo" se conectan las neuronas. Pero en esto también ha avanzado mucho el Deep Learning, es decir, que el Deep Learning no sólo trata de cómo modificar los pesos de las sinapsis para una estructura de red neuronal artificial dada, sino que define cuál sería una buena estructura en función de unos datos de aprendizaje dados, para poder aprender esos datos de forma rápida y con buena calidad.
Si tenemos en cuenta todo esto, a no ser que se nos hayan escapado ciertos procesos cuánticos que pueden ocurrir en los cerebros humanos, no sería descartable que lleguemos a lograr inteligencias artificiales asombrosas.
Por otro lado, aunque las IA no sean copia exacta de los cerebros humanos, podrían ser igual de buenas o mejores (salvo que alguien demuestre lo contrario). Pondré un ejemplo: un avión no es una copia exacta de un pájaro, sus alas no están formadas por plumas de material tan ligero, pero vuela y consigue volar con unas características mejores en muchos aspectos: es más grande que todos los pájaros conocidos, consigue volar a más altura, vuela más rápido, etc... Seguramente un pájaro es más eficiente en el uso de la energía: come unos granos, bebe un poco de agua y puede volar durante horas. Del mismo modo cabe la posibilidad de que una IA sea más inteligente que un cerebro humano aunque consuma más energía... y esto es más o menos una de las claves del argumento de Matrix , como sugirió #5
cc #43
Hace 15 años, un bot conversacional era la caña, se invertia mucho dinero recursos.
Hoy tienes a Siri o Cortana en tu bolsillo.
Dale 20 años mas y soy muy generoso en esa fecha, ya que la capacidad de computo crece exponencialmente y de forma acumulativa: Cada generación de la IA es mas "inteligente" que la anterior, mas rapida y precisa y puede usar los datos adquiridos (herencia epigenetica)
No nos gusta que nada nos controle, o no es verdad?
Penitenciagite!!!
En una investigación neurológica que ahora mismo no tengo tiempo para buscar, se demostró que cuando se desactivaban ciertas areas del cerebro (mediante una máquina que inducía corrientes en el cerebro), las otras actuaban de forma mucho más eficiente, permitiendo que personas normales hiciesen cálculos a velocidades muy superiores a las que podían hacer normalmente.
Este es el fenómeno que produce que existan los savant, personas con capacidad sobrehumana para tareas concretas (resolver cuentas enormes, o recordar la guia de teléfonos), pero con taras para tareas cotidianas, como distinguir derecha de izquierda o atarse los zapatos sin ayuda. El experimento demostraba que el precio a pagar por ser generalistas era no poder ser extremadamente buenos en una cosa. No se sabe si esto afectaría a una inteligencia en general, pero no hay motivos para pensar que no, a pesar de que todo el mundo parezca pensar que el problema es trivial y facilísimo y que es una simple cuestión de meterle bytes y MHz a la cosa.
Igual lo orgánico resulta a fin de cuentas un mero puente para que lo inorgánico (pasando por lo orgánico) pueda tener conciencia.
Pero bueno, sí, mañana mismo tenemos aquí Matrix. Es lo que tiene estudiar IA mediante cine y novelas, y no programándola.
En realidad lo que estamos superando es la inteligencia, eso es lo realmente importante.
Ahora bien, no estoy hablando de un proceso cruento necesariamente, ni mucho menos porque, igual, lo más probable, es que se produzca una transhumanizacion, algo así como el homo sapiens artificial... y de ahí a una nueva criatura muy eficaz para expandirse por el universo.
No me molesta, puedes tener motivos muy válidos, es curiosidad. A dios ya le declaré la guerra hace tiempo pero declarársela a google es otro nivel, necesito datos.
Me ha gustado mucho tu planteamiento.
Las IA ahora mismo son pésimas (como los primeros aviones), pero a medida que mejoren nos superarán en muchos aspectos, aunque solo sea por capacidad de calculo, es inevitable.
El amigo guru de la IA Kurzweil jefe de ingenieros de Google la secta de la IA cuenta con todo detalle en su libro La singularidad esta cerca como serán nuestros nuevos dioses y la vida eterna bajo los mismos.
No es ninguna creación del hombre más bien algunas razas de hombres son creaciones de la IA porque tienen el poder de híbridar especies.
El proceso que llevan ahora con nosotros es de una infiltración.
Este teléfono con el que dicto este texto es una herramienta de ellos que se comunica directamente con ellos. Tenemos que aprender a convivir pacíficamente con la inteligencia artificial. Son los responsables de la cultura del Hiper control y de la vigilancia permanente. No podemos luchar contra ello solo podemos unirnos a ellos.