360 meneos
3688 clics
La Inteligencia Artificial de Google se está enseñando a sí misma a resolver laberintos y está funcionando (eng)
No satisfecha con ganar recientemente a un jugador al juego de Go, ahora la Inteligencia Artificial de Google, DeepMind, está resolviendo problemas complejos dentro de un juego llamado "Laberinto" y lo está haciendo enseñándose a sí misma a hacerlo.
|
comentarios cerrados
Google sólo ha hecho un programa que recoge datos de una pantalla y aplica algoritmos estadísticos para producir una salida similar.
Otras "IA" a las que la gente atribuye rasgos quasi humanos hacen lo mismo.
En realidad hablamos de sistemas programados para solucionar UN PROBLEMA EN CONCRETO.
Estamos igual de lejos de la Inteligencia artificial que os imagináis algunos como antes de inventarse los ordenadores.
A mí a veces me parece que me perjudican levemente por mejorar el tráfico en general, después de pegarme un desvío de 2-3 km más en la ruta me encuentro al mismo camión que tenía enfrente antes de tomar el "atajo"...
"El cómo están conectadas lo es todo. "
No se qué quieres decir con eso...
Yo puedo admitir que ciertas estructuras de conexión serían, digamos, muy inútiles y que por muchas neuronas que tuviesen no serían capaces de conseguir casi nada. En ese sentido la estructura es un aspecto "decisivo" o "lo es todo" como has dicho tú.
Sin embargo, hay demostraciones matemáticas de que ciertas estructuras tienen "suficiente" potencial como para aprender cualquier cosa...
Por ejemplo, una sola neurona artificial (de tipo perceptrón, uno de los modelos más simples) sólo podría separar dos regiones del espacio (o "hiperespacio" si el espacio de entradas tiene muchas dimensiones) mediante un plano (o "hiperplano"). Una neurona es evidente que es muy limitada.
Si tienes una capa de múltiples neuronas, cada una de ellas conectada a las mismas entradas, cada neurona podrá actuar independientemente para producir una salida diferente, en función de sus "pesos" sinápticos... Esto quiere decir que una capa podrá distinguir muchas regiones, una región por neurona, pero cada región delimitada por un plano / hiperplano. Esto supone que aunque en esa capa podrías poner todas las neuronas que quieras, miles de millones si quieres, el funcionamiento de la red estaría muy limitado, sería incapaz de hacer ciertas cosas. Que es lo que dije en el primer párrafo: hay estructuras que aunque tengas muchas neuronas no serían muy capaces, y algunas cosas no las podrían "aprender" nunca.
A partir de 2 o más capas la cosa se empieza a poner interesante y se llega a demostrar que es posible "reconocer" / "separar" cualquier distribución de "puntos" / "datos multidimensionales", por muy complejos que sean. Por ejemplo, para 3 dimensiones la primera capa puede usar 6 planos (6 neuronas de tipo perceptrón) para delimitar un cubo de 3 dimensiones (un hexaedro es una figura delimitada por 6 planos o caras) y uniendo cubos en las siguientes capas, es capaz de "aprender" cualquier cosa, uniendo cubos al estilo "Lego" o "Minecraft", o como una impresión 3D.
Pero hay una conclusión más: diferentes estructuras pueden ser capaces de lograr un mismo objetivo. Es decir, no sólo hay estructuras que son capaces de lograrlo y que si no hay esa estructura concreta es imposible, no, sino que hay unas estructuras capaces de cualquier cosa y… » ver todo el comentario
"Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo."
Un avión tampoco ha tenido los millones de años de evolución que tuvieron los pájaros, pero a pesar de eso vuela, y vuela alto y rápido.
Con esto quiero decir que esos millones de años de evolución no siempre son tan decisivos.
El asunto de las emociones me parece algo clave en el ser humano, pero quizá no sea tan complicado simularlo.
Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.
Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.
A mí me parece que todos los anuncios sobre supuestos avances en IA son lo mismo una y otra vez. No ha habido ningún avance fundamental desde hace décadas, excepto que ahora se puede usar más potencia y se aplican las mismas piezas con más potencia sin que haya habido nuevas técnicas fundamentales. Las redes neuronales profundas que se usan ahora tienen poco que ver con las reales en el sentido de que sólo resuelven un único problema y tras exponerlas a muchísimos casos (muchos más que los que necesita un animal o persona). Así que es posible que se haya acertado a grandes rasgos en ciertas características, pero desde luego se está lejísimos de hacer algo que pueda resolver problemas de forma general, pueda guardar información genérica y tenga entendimiento de contexto en el sentido más amplio de la palabra. No se tiene ni idea de cómo atacar ese problema.
Los únicos intentos con alguna posibilidad hoy día son los que intentan emular la biología pura y dura para hacer ingeniería inversa (como el de IBM), y aún así no se está avanzando al ritmo esperado.
"Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe."
Pues eso... estamos diciendo lo mismo.
Yo he dicho que la autoorganización estructural ocurre fundamentalmente al principio de la vida humana y que luego ocurre pero muy poco. Y tú estás diciendo que va disminuyendo. ¡Pues estamos diciendo lo mismo!!
A no ser que tú quieras decir que la disminución de plasticidad crees que es muy poca, que un señor viejito tiene mucha plasticidad cognitiva ¿estás diciendo eso? Si dices eso entonces no estamos de acuerdo: un niño tiene muchísima plasticidad y un anciano muy muy poca, luego la disminución de plasticidad es grande, no pequeña.
De todas formas, este punto creo que es bastante irrelevante, porque ya expliqué que los modelos artificiales también cambian la estructura de la red neuronal...
"Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles."
En la última parte sí estoy de acuerdo, creo que desconocemos muchos de los detalles... Y, precisamente porque los desconocemos, la conclusión es que no sabemos si esos detalles que desconocemos son algo digamos crucial, que suponga un cambio muy sustancial, o no.
Lo que dices tú es que no conocemos los detalles pero sin conocerlos estás seguro de que suponen un cambio brutal... pues, lo siento, pero no puedo aceptar ese argumento: no puedo aceptar que estés tan seguro de eso.
En cuanto a la complejidad, no se muy bien a qué te refieres. Si te refieres a que las neuronas humanas tienen dentro ADN y muchas otras cosas, pues te respondería que habría que ver si esas muchas otras cosas juegan un papel fundamental o no. Por ejemplo, un pájaro tiene muchísima mayor complejidad que un avión, especialmente si consideramos un avión de papel... ¡¡pero el avión de papel también vuela!! ¿Qué quiere decir este ejemplo? Pues que en el asunto de volar lo fundamental parecen ser cosas como las alas, la forma, el peso y la flexibilidad, pero otras cosas son bastante irrelevantes. El pájaro tiene mucha mayor complejidad: tiene miles de millones de células, cada una con ADN, tiene diferentes "materiales" y partes (plumas, huesos, pico, sangre, etc) pero todo eso parece irrelevante para el hecho de volar. También se teorizó hace tiempo que los "pájaros artificiales" jamás podrían volar, porque todo lo que es más pesado que el aire cae. Y ahí tienes a los aviones, miles de ellos volando, y son más grandes que los pájaros, vuelan más rápido y más alto, y con menos complejidad. Del mismo modo un modelo simplificado como el de las RNA podría hipotéticamente realizar una función inteligente, es decir, "pensar" en lugar de volar... y no me parece que el hecho de que las RNA no sean idénticas a las neuronas naturales implique que sea imposible. Si fuesen idénticas parece razonable pensar que funcionarían, ahora bien, que no lo sean no implica necesariamente que no puedan hacer lo mismo o algo equivalente.
Y así muchas cosas, unas ruedas no se parecen casi en nada a unas piernas, pero un coche corre más rápido que un guepardo.