Los investigadores de Google DeepMind acaban de anunciar la próxima evolución de su inteligencia artificial aparentemente indomable, AlphaGo Zero, que prescindió de lo que podría haber sido el recurso más ineficiente en su búsqueda constante de conocimiento: los humanos. Traducción en
#1
* La singularidad tecnológica
* Las 3 leyes de la robótica de Asimov
* Skynet
* Impuestos a robots y RBU.
Pero recordad que la noticia va de un programa para jugar al go.
El predecesor de Zero, simplemente conocido como AlphaGo, fue descrito como "Divino" por uno de los mejores campeones humanos del antiguo juego de tablero chino, Go, pero la nueva evolución ha perfeccionado su arsenal de entrenamiento al erradicar por completo las enseñanzas humanas de su educación.
Las versiones de AlphaGo que lanzaron en una serie de concursos este año y el año pasado aprendieron a jugar el juego analizando miles de juegos humanos de aficionados y profesionales, pero AlphaGo Zero es completamente autodidacta, aprendiendo al 100% por su propia cuenta.
Los investigadores informaron cómo esa sorprendente autosuficiencia afiló la inteligencia de Zero a un efecto devastador: de 100 juegos contra la nueva versión de AlphaGo, el oponente humano no obtuvo una sola victoria. Ni una.
Aún más sorprendente, el auto aprendizaje se produjo después de solo tres días de entrenamiento de AlphaGo Zero, el equivalente a miles de años de estudio humano del juego.
"Es como una civilización alienígena inventando sus propias matemáticas", dijo el informático Nick Hynes MIT al portal Gizmodo .
* La singularidad tecnológica
* Las 3 leyes de la robótica de Asimov
* Skynet
* Impuestos a robots y RBU.
Pero recordad que la noticia va de un programa para jugar al go.
Por ejemplo: Un vehículo autónomo que vaya por una carretera no asfaltada, enfrenta la IA a cosas que ni de coña están perfectamente implementadas en una simulación como aves que se atraviesan, insectos, huecos, salientes, barro, charcos profundos, terreno pantanoso, etc..
Si la IA falla, el vehículo queda patas arriba en la vida real y de allí no se recupera tan fácilmente a que hubiese tenido el accidente en un entorno virtual (vuelve y reinicia).
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
* Catalunya.
* Podemos.
* Corrupción del PP.
Coño el detecto borregos ha saltado!
Que eres, ¿de los que al inventor del avión lo habéis llamado sensacionalista por decir que podemos volar como los pájaros no?
Jajajajajajajja #edadmediathinkingstyle
El problema de la conciencia, vida, muerte es que son términos que hay problemas para definir, pero algo que se tiene que fabricar difícilmente puede considerarse vida.
Por otra parte ... tiene razon. Es impresionante lo q han logrado pero el articulo parece q ha nacido skynet ... y no es asi la cosa.
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
podemos hablar que simular el caos en una simulacion de entrenamiento de IA podria ser simplemente dios jugando a los dados (o sea, variar los datos de entrada segun un rand()), pero lo que sucede es que un entorno totalmente caotico presupone que capas intermedias de la IA se comportan de forma caotica e inesperada, y que la IA es capaz de detectar cuando se ha producido un evento caotico y no 'fiarse' de su conclusion.
Una IA capaz ejecutarse decentemente en un entorno caotico puede ser perfectamente varios grados mas compleja que una IA capaz de jugar al GO, donde las reglas son muy estrictas y estables.
Imaginate esa IA AlphaGoZero, con toda su capacidad para jugar al GO, contra otra IA que directamente 'hace trampa' (pone una ficha entre turnos, le da la vuelta al tablero, quita fichas contrarias...). Es posible que AlphaGoZero jamas detectase que la otra IA le esta haciendo trampas y que por eso esta perdiendo las partidas, es mas, aunque las jugadas de AlphaGoZero fuesen las mejores que pueden realizarse y fuesen ganadoras, serian desechadas por la misma AlphaGoZero porque aunque las realizase, perderia la partida.
A esos entornos caoticos me refiero.
En una IA capaz de conducir un vehiculo, se supone que un humano jamas cruzara por mitad de una carretera con trafico, habiendo un paso de cebra a menos de 20 metros, y sin embargo...
a) Uno de los ingenieros de Google DeepMind, que son los autores de AlphaGo
b) El CTO de una compañía dedicada a la AI
c) Un doctor especializado en IA
d) Un estudiante de doctorado haciendo su tesis sobre IA
e) Un estudiante de grado de 21 años que no tiene nada que ve con el proyecto.
Qué me decís?
*Ni de coña es lo mismo una IA que examina estados y los evalúa, que crear unas matemática.
A mí este tipo de noticias me resultan más de marketing que de realidad, me sumo a lo que dice #4
La comparacion con las matematicas del titular es una frase suelta que han aprovechado para el titular, pero si proyectas, ¿que ocurriria si le das al bichito ese las reglas basicas del algebra y le dejas jugar con ellas? Lo mismo en un mes te presenta unos teoremas nuevos o te inventa una nueva geometria...
Lo interesante es que puede darle vueltas a una cosa 24x7 durante el tiempo que haga falta hasta que escupa algo que nos sea util, por prueba y error.
Y mientras no lo enchufeis a los misiles, no hay nada de lo que preocuparse, por cierto.
skynetMe pregunto si ese programa podría ser vulnerable a estrategias "estúpidas" que no tengan ningún sentido pero confeccionadas de forma que se aproveche de los propios sesgos que pueda generar el algoritmo al jugar contra sí mismo. Personalmente diría que no, pero lo planteo por relacionarlo con esto:
www.evolvingai.org/fooling
El que un algoritmo esté libre de sesgos humanos, no significa que no tenga ningún sesgo.
"I like to learn things; I read WIkipedia when I have free time. My goal is simply to leave a better world than I entered."
Que ha dicho la primera tontería que se le ha pasado por la cabeza ya sería demasiado prejuicio, pero bastante más certero.
Te has retratao.
A portada ha llegado una noticia que merece la pena, por raro que parezca de technologyreview.es, una traducción de "The Seven Deadly Sins of Predicting the Future of AI" de Rodney Brooks.
www.technologyreview.es/s/9655/los-siete-grandes-errores-de-quienes-pr
El resto, la morralla habitual que suele aparecer en Xataka y singularityhub.com
Al final nuestra definición de vida está hecha medida sobre lo que consideramos vida. Y aún así dentro de eso seguramente habremos pasado por etapas en dónde quizás no estaba claro si una planta estaba "viva" y no le hables de "dolor" a un vegano porque te dirá que la definición de dolor pasa por "tener sistema nervioso central".
i0.kym-cdn.com/photos/images/newsfeed/001/236/187/b11.jpg
www.youtube.com/watch?v=QMgSELBA7kw
Para mi la IA va camino de ser nuestra evolución como especie interestelar..
Madre mía...
Joshua tenia en el WOPR los distintos juegos que utilizó el profesor Falken (su diseñador) para enseñar a la IA como y que decisiones tomar, malas decisiones, porque todavía no había aprendido lo que hoy en día la mayoría de la población mundial sigue sin entender.
Si llego a saber que eres tan cortito no digo nada, no queria ponerte en evidencia