Tecnología, Internet y juegos
360 meneos
3688 clics
La Inteligencia Artificial de Google se está enseñando a sí misma a resolver laberintos y está funcionando (eng)

La Inteligencia Artificial de Google se está enseñando a sí misma a resolver laberintos y está funcionando (eng)

No satisfecha con ganar recientemente a un jugador al juego de Go, ahora la Inteligencia Artificial de Google, DeepMind, está resolviendo problemas complejos dentro de un juego llamado "Laberinto" y lo está haciendo enseñándose a sí misma a hacerlo.

| etiquetas: inteligencia artificial , google , deepmind
166 194 5 K 458
166 194 5 K 458
12»
  1. #13 Ya no se puede hacer nada estamos en sus manos.
  2. #21 Google es un mero ejecutor de la IA no te preocupes no son humanos por eso son de fiar.
  3. #77 Es el nuevo Dios sin duda.
  4. #81 El hominido ha caído en las manos de la AI no se le ha ido nada de sus torpes manos. TranquI.
  5. Este post es como un diálogo de cuñados en el bar. Felicidades a casi todos los participantes, los programadores nos estamos partiendo el culo con vuestros disparates.
  6. #43 No, no, no y NO. No os dejéis llevar por el sensacionalismo de este tipo de artículos.

    Google sólo ha hecho un programa que recoge datos de una pantalla y aplica algoritmos estadísticos para producir una salida similar.

    Otras "IA" a las que la gente atribuye rasgos quasi humanos hacen lo mismo.

    En realidad hablamos de sistemas programados para solucionar UN PROBLEMA EN CONCRETO.

    Estamos igual de lejos de la Inteligencia artificial que os imagináis algunos como antes de inventarse los ordenadores.
  7. #9 Pues como cualquier gobierno.
  8. #11 Me acabo de dar cuenta de que dios existe y es una IA de una civilización antigua que optó por resetear la vivilización humana y domesticarlos con el cuento de la religión.
  9. #108 pues se lo ha montado fatal
  10. #36 el principal problema que tiene Google en la opinión pública (que yo sepa) es el tema de la seguridad de los datos. Te aseguro que es algo que se toma muy en serio, otra cosa es que se cometan errores. Entiendo que empresas como Facebook o Google generen desconfianza por el volumen de datos que manejan, eso me parece aceptable. Lo que no me parece bien es hablar de ellas como si fueran petroleras o constructoras. De momento Google no anda dándole sobres al PP ni se la ha visto envuelta en ningún escándalo de corrupción política además de ser uno de los referentes en la industria en esfuerzos en pos de la diversidad y la educación universal y gratuita (Udacity). Para ser una empresa grande es de las mejores en mi opinión.
  11. Ha llegado...  media
  12. #94 sí, por ejemplo con la aplicación Waze desvían parte del tráfico para que haya menos atascos.

    A mí a veces me parece que me perjudican levemente por mejorar el tráfico en general, después de pegarme un desvío de 2-3 km más en la ruta me encuentro al mismo camión que tenía enfrente antes de tomar el "atajo"...
  13. #99 Puede ser. Pero, puestos a especular ¿Por que una IA habría de involucionar en humano? No parece tener mucho sentido, ¿no?
  14. #107 Hombre pero en este caso no podrías alegar "Error humano"...
  15. #109 Depende de cuales sean sus intereses, ya sabes que los caminos del señor son inescrutables
  16. #45 Yo creo que todas vuestras teorías son pajas mentales de primate y que una verdadera IA hará algo que no entenderemos, como pasarse la eternidad escribiendo poesía.
  17. #110 Que sea de las menos malas no la convierte en buena. Ellos controlan el mundo, diría que es la empresa más poderosa aunque no sea la que más dinero mueve. Es peligrosa. Ha llegado hasta donde está en gran parte gracias a ese "buenrollismo", si desapareciese de golpe sus sucesores también deberían recurrir a esa estrategia. Pero no hacen nada gratis (que lo entiendo, no son una ONG), siempre maximizan el beneficio en sus buenas acciones aunque te hagan creer que es puro altruismo. Un país con una situación económica bastante precaria como España lo exprimen y parasitan, evadiendo impuestos y utilizando mano de obra gratuita, para crecer destruyen a empresas locales que sí generan trabajo e impuestos. Últimamente estoy prestando más atención a los valores que promueven en la sociedad, que es de lo más importante que aporta una empresa de sus características, aún tengo la visión un poco verde pero diría que nos están jodiendo bien.
  18. #73

    "El cómo están conectadas lo es todo. "

    No se qué quieres decir con eso...
    Yo puedo admitir que ciertas estructuras de conexión serían, digamos, muy inútiles y que por muchas neuronas que tuviesen no serían capaces de conseguir casi nada. En ese sentido la estructura es un aspecto "decisivo" o "lo es todo" como has dicho tú.

    Sin embargo, hay demostraciones matemáticas de que ciertas estructuras tienen "suficiente" potencial como para aprender cualquier cosa...

    Por ejemplo, una sola neurona artificial (de tipo perceptrón, uno de los modelos más simples) sólo podría separar dos regiones del espacio (o "hiperespacio" si el espacio de entradas tiene muchas dimensiones) mediante un plano (o "hiperplano"). Una neurona es evidente que es muy limitada.
    Si tienes una capa de múltiples neuronas, cada una de ellas conectada a las mismas entradas, cada neurona podrá actuar independientemente para producir una salida diferente, en función de sus "pesos" sinápticos... Esto quiere decir que una capa podrá distinguir muchas regiones, una región por neurona, pero cada región delimitada por un plano / hiperplano. Esto supone que aunque en esa capa podrías poner todas las neuronas que quieras, miles de millones si quieres, el funcionamiento de la red estaría muy limitado, sería incapaz de hacer ciertas cosas. Que es lo que dije en el primer párrafo: hay estructuras que aunque tengas muchas neuronas no serían muy capaces, y algunas cosas no las podrían "aprender" nunca.
    A partir de 2 o más capas la cosa se empieza a poner interesante y se llega a demostrar que es posible "reconocer" / "separar" cualquier distribución de "puntos" / "datos multidimensionales", por muy complejos que sean. Por ejemplo, para 3 dimensiones la primera capa puede usar 6 planos (6 neuronas de tipo perceptrón) para delimitar un cubo de 3 dimensiones (un hexaedro es una figura delimitada por 6 planos o caras) y uniendo cubos en las siguientes capas, es capaz de "aprender" cualquier cosa, uniendo cubos al estilo "Lego" o "Minecraft", o como una impresión 3D.

    Pero hay una conclusión más: diferentes estructuras pueden ser capaces de lograr un mismo objetivo. Es decir, no sólo hay estructuras que son capaces de lograrlo y que si no hay esa estructura concreta es imposible, no, sino que hay unas estructuras capaces de cualquier cosa y…   » ver todo el comentario
  19. #43

    "Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo."


    Un avión tampoco ha tenido los millones de años de evolución que tuvieron los pájaros, pero a pesar de eso vuela, y vuela alto y rápido.
    Con esto quiero decir que esos millones de años de evolución no siempre son tan decisivos.
    El asunto de las emociones me parece algo clave en el ser humano, pero quizá no sea tan complicado simularlo.
  20. #119 Estoy hablando de neurociencia. Me parece que fue en una charla TED donde una neuróloga comentaba que las conexiones entre neuronas se desarrollaban de diferentes formas según lo que hiciese la persona y que esa autoorganización condicionaba las capacidades futuras del individuo, pero que la estructura se autoorganizaba continuamente hasta el momento de la muerte. Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe.

    Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.
  21. #119 Estoy hablando de neurociencia. Me parece que fue en una charla TED donde una neuróloga comentaba que las conexiones entre neuronas se desarrollaban de diferentes formas según lo que hiciese la persona y que esa autoorganización condicionaba las capacidades futuras del individuo, pero que la estructura se autoorganizaba continuamente hasta el momento de la muerte. Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe.

    Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.

    A mí me parece que todos los anuncios sobre supuestos avances en IA son lo mismo una y otra vez. No ha habido ningún avance fundamental desde hace décadas, excepto que ahora se puede usar más potencia y se aplican las mismas piezas con más potencia sin que haya habido nuevas técnicas fundamentales. Las redes neuronales profundas que se usan ahora tienen poco que ver con las reales en el sentido de que sólo resuelven un único problema y tras exponerlas a muchísimos casos (muchos más que los que necesita un animal o persona). Así que es posible que se haya acertado a grandes rasgos en ciertas características, pero desde luego se está lejísimos de hacer algo que pueda resolver problemas de forma general, pueda guardar información genérica y tenga entendimiento de contexto en el sentido más amplio de la palabra. No se tiene ni idea de cómo atacar ese problema.

    Los únicos intentos con alguna posibilidad hoy día son los que intentan emular la biología pura y dura para hacer ingeniería inversa (como el de IBM), y aún así no se está avanzando al ritmo esperado.
  22. #113 Porque son la policía del cosmos y nosotros una especie peligrosa para el planeta.
  23. #87 Sí, es una idea que fascina. Asusta y sentimos atracción y curiosidad. Si puedes, no dejes de leer el larguísimo post que mencionaba. Elabora esta idea de una forma amena y espeluznante www.meneame.net/story/revolucion-inteligencia-artificial-camino-super-
  24. #122

    "Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe."

    Pues eso... estamos diciendo lo mismo.
    Yo he dicho que la autoorganización estructural ocurre fundamentalmente al principio de la vida humana y que luego ocurre pero muy poco. Y tú estás diciendo que va disminuyendo. ¡Pues estamos diciendo lo mismo!!
    A no ser que tú quieras decir que la disminución de plasticidad crees que es muy poca, que un señor viejito tiene mucha plasticidad cognitiva ¿estás diciendo eso? Si dices eso entonces no estamos de acuerdo: un niño tiene muchísima plasticidad y un anciano muy muy poca, luego la disminución de plasticidad es grande, no pequeña.
    De todas formas, este punto creo que es bastante irrelevante, porque ya expliqué que los modelos artificiales también cambian la estructura de la red neuronal...

    "Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles."

    En la última parte sí estoy de acuerdo, creo que desconocemos muchos de los detalles... Y, precisamente porque los desconocemos, la conclusión es que no sabemos si esos detalles que desconocemos son algo digamos crucial, que suponga un cambio muy sustancial, o no.
    Lo que dices tú es que no conocemos los detalles pero sin conocerlos estás seguro de que suponen un cambio brutal... pues, lo siento, pero no puedo aceptar ese argumento: no puedo aceptar que estés tan seguro de eso.
    En cuanto a la complejidad, no se muy bien a qué te refieres. Si te refieres a que las neuronas humanas tienen dentro ADN y muchas otras cosas, pues te respondería que habría que ver si esas muchas otras cosas juegan un papel fundamental o no. Por ejemplo, un pájaro tiene muchísima mayor complejidad que un avión, especialmente si consideramos un avión de papel... ¡¡pero el avión de papel también vuela!! ¿Qué quiere decir este ejemplo? Pues que en el asunto de volar lo fundamental parecen ser cosas como las alas, la forma, el peso y la flexibilidad, pero otras cosas son bastante irrelevantes. El pájaro tiene mucha mayor complejidad: tiene miles de millones de células, cada una con ADN, tiene diferentes "materiales" y partes (plumas, huesos, pico, sangre, etc) pero todo eso parece irrelevante para el hecho de volar. También se teorizó hace tiempo que los "pájaros artificiales" jamás podrían volar, porque todo lo que es más pesado que el aire cae. Y ahí tienes a los aviones, miles de ellos volando, y son más grandes que los pájaros, vuelan más rápido y más alto, y con menos complejidad. Del mismo modo un modelo simplificado como el de las RNA podría hipotéticamente realizar una función inteligente, es decir, "pensar" en lugar de volar... y no me parece que el hecho de que las RNA no sean idénticas a las neuronas naturales implique que sea imposible. Si fuesen idénticas parece razonable pensar que funcionarían, ahora bien, que no lo sean no implica necesariamente que no puedan hacer lo mismo o algo equivalente.
    Y así muchas cosas, unas ruedas no se parecen casi en nada a unas piernas, pero un coche corre más rápido que un guepardo.
12»
comentarios cerrados

menéame