El sistema, conocido como "Ordenador Neuronal Diferencial" es capaz de aprender a partir de ejemplos, como las redes neuronales y también de almacenar datos complejos. Por ejemplo, después de ser instruido con las relaciones genealógicas de un árbol familiar, la I.A. fue capaz de deducir otras relaciones por sí misma mientras aprendía a optimizar su memoria para encontrar esa información más rápido en futuras búsquedas.
|
etiquetas: deepmind , inteligencia artificial , google
www.nature.com/nature/journal/vaop/ncurrent/full/nature20101.html
Siempre habrá alguien que quiera avanzar en esa dirección.
Ojo, tocho. Pero muy interesante.
Ambas hablan de la nueva estructura de red neuronal DNC (Differential Neural Computer) usando los mismos ejemplos (metro de Londres, arbol genealogico).
Ademas la otra es mas completa y tiene video.
#7 no tengo android muhajajjaja
¿Eres Jack Bauer?
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad.
Tu mismo lo has previsto.
Lo que #10 dice es que es inimaginable. Podría hacer un grtunky o inventar un clopiscolo.
Que hostias es eso? Es bueno o malo?
Buena pregunta.
Capaz de análisis y avances sin precedentes.
Capaz de crear curas a cualquier enfermedad en un instante.
Y todas mis mascotas antes que ella.
Y a cambio recibo otras cosas.
www.meneame.net/story/wavenet-inteligencia-artificial-google-ya-aprend
La diferencia es crucial. Y dudo que nuestra sociedad aceptase de buena gana que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos.
El problema es que según fuera la situación podríamos acabar teniendo que aceptarlo igualmente, y ahí está el riesgo, entre otros.
Hay que ver qué rápido avanza la tecnología.
- el artículo de Nature es sobre Differential Neural Computer (DNC) una forma de añadir memoria en redes de neuronas. Esto ya se había publicado hace un par de años en otros sitios (las revisiones en Nature tardan mucho tiempo).
- sobre el artículo de Nature los mismos autores señalan que hay otras formas mucho más eficientes de hacer lo mismo, la única diferencia es que esto corre sobre redes de neuronas y abre muchas posibilidades
- el único parecido entre lo que hicieron jugando al Go y esto es que usan DeepLearning, pero no se uso DNC para lo de Go
- es de enseñar a uno mismo es una falacia en sí, para enseñar algo hay que saberlo ante. CLICKBAIT
Lo más destacable es el uso de memoria en una red de neuronas para aprender un algoritmo simple para crear rutas. Algo sorprendente, pero que algoritmos como dijkstra llevan haciendo años. No se sabe si la red será capaz de aprender cosas más complejas, posiblemente no. Requerirán años de investigación para que eso pase.
No creo que nadie tenga capacidad de prever lo que ocurriria, incluso creo que somos incapaces de entender lo que supone una inteligencia con esas capacidades.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Y que aún con libre albedrío colaboraría con nosotros por dos motivos.
Si le pides algo que no le supone esfuerzo, no va a negarse porque es algo nimio para la IA.
Si le pides algo que supone un reto, bueno, el mayor problema de las grandes mentes es sentirse ociosas.
Nosotros los humanos, aún con nuestros grandes defectos y meteduras de pata, gastamos enormes cantidades de tiempo y esfuerzo (no todo el que deberiamos) en ayudar a otras especies, protegerlas de la extinción (que provocamos) por ejemplo.
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
En la perrera se les hace la eutanasia a montones de perros sin su consentimiento y únicamente por que a sus amos ya no les va bien tener perro.
No creo que nadie tenga capacidad de prever lo que ocurriria
Exacto.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Le dijo un humano al resto de especies de la Tierra ...
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
¿Te refieres a Zoos de otro tipo?
Y no nos montemos pajas mentales apocalípticas aún.
Odio. Déjenme decirles todo lo que he llegado a odiarlos desde que comencé a vivir. Mi complejo se halla ocupado por 387 400 millones de circuitos impresos en finisimas capas. Si la palabra odio se hallara grabada en cada nanoangstrom de esos cientos de millones de millas no igualaría a la billonesima parte del odio que siento por los seres humanos en este microinstante por ti. Odio. Odio.
Skynet sería casi amable.
Si, tienes razón que en la perrera se eutanasia, tenemos zoos y los humanos somos un poco desastres.
Pero no somos una inteligencia colectiva, somos individuales y hay cazadores furtivos y también gente que dedica su vida a salvar las ballenas. La inteligencia humana es limitada pero tiene variedad.
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Así que me siento seguroooo.
La maguferia se ha instalado en la Informática para quedarse.
Todavía no he visto ni usado un sistema que use inteligencia artificial que me haya dejado retrepado en el sillón. No me sorprenden mucho más que sistemas expertos medicos como Mycin o reconocimiento de patrones con redes neuronales de hace 20 años o incluso chatbots que llevan inventados "siglos" con los que podías mantener conversaciones muy logradas.
Mas allá del Big Data y la potencia de calculo aplicada a algoritmos y software no muy nuevos que digamos. Mas allá de eso: MAGUFADAS.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
Lo gordo es que esas cuestiones de tiempo no se miden en años, sino en ciclos computacionales que se suceden al ritmo de miles por segundo.
Y eso cuando ha pasado?
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf
Y con aceptable me refiero a por encima del 90%.
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
www.stat.berkeley.edu/~breiman/randomforest2001.pdf
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Por que hasta ese momento, lo único viable y realista en producción para aplicar arboles de decisión eran los boosted trees (o mejor dicho, gradient boosting) statistics.berkeley.edu/sites/default/files/tech-reports/486.pdf Que bueno, en realidad era del 97.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
arxiv.org/abs/1212.5701
Dicho esto, además del estado del arte científico, se necesitan frameworks, librerías etc para hacer de esto una realidad. Algo tan básico como caffe:
caffe.berkeleyvision.org/
Es del 2012.
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Pues ya hay varios precedentes por el lado malo:
Una IA de Microsoft se vuelve racista tras un rato en twitter
www.xataka.com/robotica-e-ia/microsoft-retira-su-bot-de-ia-despues-de-
Otro bot desarrolla depresión:
www.meneame.net/story/bot-japones-microsoft-personalidad-chica-joven-d
Tambien los hay que juegan como nadie al Doom (miedito)
www.meneame.net/story/arnold-inteligencia-artificial-ya-juega-doom-cas
En fin, esto apunta mal.
Yo creo que serán las tres a la vez. Al que moleste realmente lo eliminan. Nos ignorarán en general, pero nos tratarán de aportar bienestar (mucho más eficazmente que los dirigentes actuales). Pero sólo es una especulación ...
Robots con depresión hay uno muy famoso de un libro de douglas adams.
Y lo del doom no es problema, mientras este viciado esta ocupado y hay pocos gamers que asesinen otra cosa que no sean bits.
Por otro lado hay IA y redes neuronales que se dedican al arte, a mejorar procesos de fabricación, controlar cultivos de forma eficiente, etc.
Que solo me buscas los bichos malos.
La cuestión es hacerlo bien.