250 meneos
7193 clics
Inteligencia artificial aprendiendo a jugar al escondíte
Vemos como diferentes agentes de IA descubren progresivamente formas de esconderse y de buscar cada vez más complejas, mientras juegan a un juego simple como el escondite. En un entorno simulado, los agentes construyen una serie de estrategias y contraestrategias - algunas que los mismo desarrolladores ignoraban que el entorno soportaba.
|
comentarios cerrados
Y esa decisión ni siquiera tiene por que haberla tomado un humano.
Por lo general vemos todos estos avances en IA por separado, no me explico porque a nadie se le ocurre montar una compañía que aúne todas esas tecnologías y avance en la creación de un ser pseudointeligente con aspecto humano.
Tenemos exoesqueletos, piel y robots de aspecto casi humano, IA que sorprenden. ¿Por qué no juntarlo todo para hacer un humanoide?
openai.com/blog/emergent-tool-use/
Episodes 458–481 million: Surf Defense Hiders learn to lock all ramps and boxes to prevent box surfing.
Primero, puedes aprovechar cualquier pared fija. Con el buscador no puedes hacer eso salvo que esté cerca de una pared fija.
Segundo, en el caso de que haya varios buscadores, si están separados costará más encerrarlos. Sin embargo si hay varios que se tienen que esconder pueden agruparse para hacer más sencillo el esconderse.
Tercero, aún en el caso de que por lo que sea los puntos anteriores en un principio no supongan ventaja para elegir encerrarse uno mismo, hay que tener en cuenta que si te encierras tú puedes elegir el punto exacto por lo que posiblemente puedas minimizar el número de movimientos a realizar que si encierras al otro que va a estar en un punto fijo.
Por último, topológicamente es lo mismo encerrarte tú que encerrar al buscador
CC #7
Hoy, esos muñequitos son más inteligentes que muchos niños. Mañana, que muchos adultos. Pasado, que Einstein. Más tarde, una inteligencia que escape a nuestro entender. Y sí, utilizo como medida "días" porque puede llegar a ocurrir en días, horas, minutos, segundos... De hecho, es lo que se busca. Y terminará ocurriendo.
Miedito
Pero en ningún caso encierran a los rojos para que no los descubran. Cuando hacen triángulos de paredes, podrían hacerlos alrededor del rojo y tener más espacio para ellos.
Esos bichos han iterado millones de veces para conseguir lo que un niño de cinco años sabría a la segunda o tercera vez. Hay una aproximación distinta fundamental al aprendizaje; son tipos de inteligencias no comparables.
Si los seres humanos hubieran tenido que evolucionar a partir de un proceso de aprendizaje tan repetitivo la evolución estaría en los primeros insectos, a lo sumo... Cuando un animal aprende a moverse en el entorno no lo ha hecho porque millones de animales antes que el hayan repetido millones de veces un movimiento, no hubiera dado tiempo material a dicho aprendizaje.
Creo que debe ser fundamentalmente distinto y, por eso, no da demasiado miedo.
Tanto han iterado y tan inteligente se ha vuelto el sistema que ha construido otros sistemas que le permiten iterar virtualmente mucho más rápido (sistemas nervisosos, cerebros y tal), igual que más tarde este sistema de iteración virtual ha acabado construyendo otros sistemas que le permiten iterar de forma virtual igualmente, pero AÚN más rápido (ordenadores y tal) aunque de momento de formas mucho menos complejas.
Así que sí, más o menos es lo mismo. Estás mirando mal la escala.
No es la inteligencia de nuestro cerebro pero es una forma de inteligencia. Es la forma de inteligencia que nos convirtió en seres más inteligentes que ella.
Al menos han tenido la decencia de mostrar el juego del escondite y no una versión gore en el que los que buscan se cargan a los buscados.
cc. #29 Consuela ver que no soy el único
Hay una diferencia notable entre como funciona nuestro cerebro y como funciona ESTA inteligencia artificial (la de el vídeo).
Pero hay otros diseños que si que imitan bastante más a nuestro cerebro. Las redes neuronales pueden combinarse, igualmente pueden hacerse infinitamente más complejas de lo que pueda ser la del vídeo, haciéndolas "profundas" (con muchas capas y muchos nodos), haciendo más complejas las conexiones entre las capas (como las redes convolucionales por ejemplo) y haciendo que compitan entre sí (GAN por ejemplo, redes adversarias que se mejoran la una a la otra compitiendo, como el vídeo pero de forma distinta) o incluso añadir la posiblidad de activar solo determinadas conexiones de distintas capas en cada iteración (que es como en realidad lo hace nuestro cerebro).
La red neuronal de este vídeo combina elementos de machine learning a distintos niveles:
En el primer nivel están las dos redes neuronales que se encarga de hacer "funcionar" a los que se esconden y a los que persigen. Lo más seguro es que sean relativamente profundas, que su entrada de datos sea lo que "ve" el agente (a una resolución relativamente pequeña imagino) o la posición del resto de elementos, incluidos adversarios (lo que lo haría mucho más simple y mucho menos espectacular, la verdad) y la salida la acción que realizan.
En el segundo nivel está el "reinforced learning", que básicamente lo que hace es recompensarles por capturar al enemigo o no ser capturado.
En el tercer nivel está el el "self play", que no es una red neuronal sino otra forma de inteligencia artificial que se encarga de gestionar que versiones de las redes neuronales del primer nivel pasan por el segundo nivel.
Nuestro cerebro es un conjunto de distintas redes neuronales extremadamente complejo con infinidad de capas cuyas conexiones se activan y desactivan. Solo hay que ser capaz de conseguir esa complejidad (en términos realistas de coste y energía).
Venga, lo edito y me explico: Es verdad que la decisión la tomas tú (la de cuando dar la recompensa), pero la podrías cambiar en cualquier momento, mediante algoritmos o mediante otra IA.
Sin embargo tu no les "explicas" lo que es esconderse y que por eso tienen un premio. Simplemente, si no los encuentran (sin que ellos sepan lo que es encontrar o esconderse) en donde va la recompensa habrá un 1. Y si los encuentran habrá un 0. Y al revés para los adversarios. Son ellos los que se dan cuenta de que si no los encuentran ahí hay un 1.
Es muchísimo, muchísimo más eficiente aprender a partir de descartes que aprender a partir de ensayo error...
Dudo mucho, realmente, que andemos cerca de cualquier máquina realmente inteligente... Seamos humildes... Los robots de Boston Dynamics saben subir escaleras y poco más. No hay ningún robot en la tierra, ni tan siquiera prototipos, que me lave la ropa, la planche y la guarde...
No hay ningún miserable sistema de asistente virtual o contestador asistido en atención al cliente que no sea una basura infecta!!!
Esto último lo tendremos en breve, sí, pero el estado actual es que no lo tenemos... Y aún me temo que tenga que lavar y planchar por muchos años...
Así que no nos chupemos las pollas todavía... Ni un puto robot plancha, ni un puto asistente funciona y los médicos no curan una puta gripe...
El cerebro humano descarta, pero también iteran sobre las mismas situaciones para poder descartar (a un nivel abstracto alto quiero decir, cuando te imaginas que podría pasar si hicieras tal cosa). La IA del vídeo está haciendo eso, pero no como lo hace el cerebro, está descartando las versiones que no valen.
Los robots de Boston Dynamics no están basados en redes neuronales, son algoritmos de inteligencia artificial pero bastante concretos y especializados sobre todo en las físicas, para conseguir la estabilidad del robot o la precisión a la hora de coger algo). No son un ejemplo de una inteligencia artificial que esté intentando imitar a los humanos. Son mas parecidos a un robot de limpieza que a una red neuronal, pero extremadamente más complejos. La robótica y la inteligencia artificial no suelen combinarse de momento, porque tener inteligencia artificial en tiempo real exige una cantidad de procesadores que un robot no es capaz de cargar y la latencia que habría si fueran controlados por red (estando los servidores de la IA en algun otro sitio) no les permitiría tomar decisiones de bajo nivel, como la forma de apoyar un pie, a tiempo.
Los contestadores automáticos no son IAs. Y sí, los asistentes virtuales no son muy impresionantes. Irán mejorando, pero no tienen la intención de ser una inteligencia artificial general. Son un puñado de redes neuronales concretas combinadas de forma concreta para conseguir unos objetivos ("ayudarte").
Y nunca tendrás tu robot que plancha si no le sale rentable a quien te lo vaya a vender.
¿Dónde has leído que las redes neuronales funcionan como un cerebro? ¿O te refieres únicamente a lo de que están conectadas entre si?
¿Es broma, no? Un niño ha utilizado sus neuronas para aprender a mover sus músculos, a mantener el equilibrio, a andar y correr (como cualquier ser vivo, vamos), y a bastantes funciones motoras más. En esos muñecos las animaciones vienen programadas, las colisiones no producen los mismos "problemas" que en la vida real y que requerirían una respuesta inteligente, han aprendido mediante millones de pruebas cuya recompensa o castigo estaba infinitamente más clara que casi cualquier situación real, y dedicándose únicamente a intentar aprender esa acción, sin recibir estímulos que puedan enseñar infinidad de aspectos tanto de movilidad, como de comportamiento social, como de aprendizaje del lenguaje, etc...
No, no son ni remotamente más inteligentes.
Y un niño viene precedido de millones de años de evolución. Su cerebro es más potente y complejo que cualquier ordenador. Por ahora...
Esto puede ser peligroso, en primer lugar porque los tiempos de aprendizaje se reducen exponencialmente al haber N aportadores simultáneos. En segundo lugar porque este conocimiento podría extrapolarse posteriormente a nuevas (y seguramente perversas) ideas para vete a saber qué. Ya sabes, hablamos de Google...
"Explotación de rampa (buscadores). En este caso, los buscadores aprenden que si corren hacia una pared con una rampa en el ángulo correcto, pueden lanzarse hacia arriba."
twitter.com/OpenAI/status/1174039602757160961