251 meneos
3911 clics
![AlphaGo aplasta al mejor jugador del mundo de Go, la inteligencia artificial es imbatible](cache/2a/66/media_thumb-link-2778722.jpeg?1495890247)
AlphaGo aplasta al mejor jugador del mundo de Go, la inteligencia artificial es imbatible
Esta semana AlphaGo volvía a competir de forma oficial tras hacerlo en secreto. Lo hacía contra Ke Jie, considerado el mejor jugador actual de Go en todo el mundo, y el resultado ha sido aún más aplastante. AlphaGo ha ganado 3-0 a Ke Jie.
|
comentarios cerrados
En el momento en que la IA tome conciencia, si es que no lo ha hecho ya, será lo más cercano a un dios que jamás pudo imaginar un humano.
Y cada día estamos más cerca de la singularidad, ¿os acordáis de cuando se decía que los humanos al GO eran imbatibles?
es.wikipedia.org/wiki/Red_neuronal_artificial
es.wikipedia.org/wiki/Backpropagation
Las actuales son simplemente servs en la nube... que son puras redes que existen desde los 60
Y clusters ya habia con Linux y OpenMosix en los 90.
Skynet va a llegar y solo salvará a los fieles!!!
Haga su donativo aquí.
Y que no se kejie
Ya me voy yo solito al rincón de @Jagüi
No es un tema pueril las IA. Respeto y mucha supervision.
#6 mientras no le crezcan las tetas estaré a salvo, pero se por donde vas.
Cuando una IA (consciente o no) gane un Novel de literatura empezaré a tener miedo.
Por otro lado una super IA consciente de su misma tampoco me parecería peligrosa para el ser humano a no ser que desarrolle instinto de supervivencia (miedo a morir) una característica que por ahora solo es biologica.
Al igual que para el juego de Go, ¿cuántos algoritmos habrá detrás de la victoria de esta IA...? El autoaprendizaje de una máquina también es un algoritmo.
Una AI de las bienas igual decide que tenemos una mierda de políticos y conoce mejores formas de gobierno. No las subestimemos.
La película "Autómata" me parece una buena reflexión sobre cómo podría actuar una IA consciente, una peli interesante.
En un juego muy minimista y por raro que parezca solo tiene dos reglas. (1) Regla principal, si rodeas a tu adversario te comes las piedras que están dentro. (2) Regla para evitar bucles infinitos, si te comen no puedes poner una ficha de modo que la posición sea la misma que antes que te comieran (esto se hace sólo para evitar que las partidas eventualmente sean infinitas si los dos jugadores van a la defensiva).
Para saber quien gana luego el sistema de conteo las reglas pueden variar según sea el método sea el (a) Chino donde solo importa el territorio que tengas en el tablero, o (b) el Japonés, aparte del territorio las piedras que comas también puntúan. Para aprender se usa mucho el chino. En competiciones se usa el Japonés pues es más equitativo con la táctica.
Con toda esa simpleza de reglas... luego es muy complejo y es 100% estrategia.
Hasta hace años GNUgo era el motor más avanzado. Pero cuando llegaron los ordenadores potentes, los motores por búsquedas probabilistas ganaron a los métodos puramente algorítmicos. Y luego cuando llegaron los mega ordenadores la IA aplastó a los métodos de Montecarlo y a los humanos.
Hay quienes dicen que si se ampliara el tablero actual de 19x19 a uno más grande, de nuevo los humanos podrían volver a ganar al ordenador durante un tiempo más.
Hay un motor de inteligencia artificial relativamente potente y gratuito sjeng.org/leela.html
Me considero anarquista. Pero visto que la gente no quiere pensar, casi prefiero un gobierno autómata y matemático a tener a una panda de hijosdeputa controlando nuestro destino.
Al menos las mates no son corruptas per se.
Una IA tampoco tiene porque tener expectativas de futuro ni incentivos que le lleven a hacer algo en concreto, es complicado y ya entramos en el campo de la filosofía, pero lo que si que yo considero un error es pensar que una AI pueda tener las mismas motivaciones y actuar como lo haría un humano dotado de una inteligencia suprema.
Ya veremos si la IA será o no española.
Las matemáticas son la herramienta que utilizamos para describir todo el universo.
Por otro lado una super IA consciente de su misma tampoco me parecería peligrosa para el ser humano a no ser que desarrolle instinto de supervivencia (miedo a morir) una característica que por ahora solo es biologica.
El "instinto" de supervivencia puede surgir de un razonamiento extremadamente simple: "Si muero no podré hacer el café que me pediste, para cumplir mi objetivo debo seguir vivo como sea, al precio que sea".
Aquí se extienden sobre ese aspecto y sus retos: www.youtube.com/watch?v=3TYT1QfdfsM [ENG]
No has descrito "instinto de supervivencia" en tu ejemplo, has descrito una conclusión lógica, que llevara a otra, y está a otra y así hasta dar con la solución o un callejón sin salida.
El instinto de supervivencia es simplemente, "no quiero morir" a secas, sin que ningún hecho más influya.
Tenemos que empezar a desarrollar un código ético que pueda programarse de forma clara en cualquier IA que se desarrolle, y que no sea modificable por la propia IA, aunque me temo que, teniendo en cuenta que el aprendizaje de una IA es exponencial, una IA a la que se permita existir suficiente tiempo superará nuestra inteligencia en tantos ordenes de magnitud, que para ella resolver por ejemplo los grandes misterios actuales de la física sea más fácil que hacer un pasatiempo, y modificarse a si misma sea un juego de niños.
No has descrito "instinto de supervivencia" en tu ejemplo, has descrito una conclusión lógica, que llevara a otra, y está a otra y así hasta dar con la solución o un callejón sin salida. El instinto de supervivencia es simplemente, "no quiero morir" a secas, sin que ningún hecho más influya.
Al ser humano le influyen muchísimos hechos, a todo ser vivo le influyen muchísimos hechos, no tienes ningún sistema en el cual puedas aislar ese supuesto instinto que describes como completamente independiente de todo lo demás.
Referirse a instinto de supervivencia es equiparable a referirse a la suerte, ninguno de los dos existe si lo analizas con suficiente detalle y ambos existen si no dispones de toda la información necesaria para explicar caso por caso.
En el ejemplo que he indicado el único motivo por el que no reconoces el "instinto" de supervivencia es por que no te he ocultado ningún elemento, tienes suficiente información para saber que no habría sido mala suerte ni instinto.
Dicho de otra forma, la presencia del "instinto" depende únicamente del grado de ignorancia del observador. Ese grado de ignorancia se incrementa sustancialmente con la complejidad del sistema que se analiza, en el ámbito biológico ya nos es muy evidente, en el ámbito computacional el incremento de complejidad es una de sus características.
Una puta IA, que hay millones en los videojuegos, no es mas que un algoritmo. Un conjunto de reglas del tipo Si ocurre Y, haz X. Fin. El "autoaprendizaje" son mas reglas del mismo tipo. Si en el tablero X muevo el caballo y me matan, entonces en el próximo tablero no lo moveré. Fin.
Para que el ejemplo que he citado lo atribuyas al "instinto" basta añadirle un poco de complejidad y un poco de ignorancia por tu parte a esa complejidad, en cuanto no puedas explicar el motivo por el que el robot no permitió que lo matasen deberás atribuirlo a algo, algunos lo llamaran "error de programación" y otros "instinto de supervivencia".
No es el sistema el que tiene el "instinto" si no el observador quien le atribuye esa característica.
AlphaGo ha mejorado jugando contra si mismo, ya no necesita partidas de terceros. Sobre todo porque su nivel es ya tan alto que los humanos poco le podemos enseñar. Su rival ha mencionado que no ha encontrado fallos en los movimientos de las partidas.
Por otro lado está esto: www.techworm.net/2017/01/google-developing-ai-can-make-ai.html
Google está diseñando IA capaz de aprender a diseñar nuevas IA. En cuanto lo haga mejor que los humanos, se podrá rediseñar a si misma... Miedo me da, pero ese futuro donde las máquinas aprenden solas y más rápido que nosotros está llegando
POr cierto ha creado los TPU para esto... Los cacharros de la boston dynamics usaban GPU y menudo salto con respecto a las CPU...
que interesante
Yo de momento no fantasearé demasiado con que la IA va a hacer milagros, tiene potencial pero parece que cuando habláramos de IA todo se desvía a fantasear con que la tecnología podría obtener conciencia humana y actuar como tal... nada más lejos de la realidad.
el ajedrez, el go... son juegos de combinaciones, por eso es tan aplastante, nada preocupante.
Es como las competiciones de memoria y hacer competir al campeon mundial con google.
Tambien esta el factor resultado / energia. ?cuanto gasta alphago en una sesion, que tamaño tiene??
De todas formas nuestro miedo proviene de como tratamos al resto de inteligencias:? nos usara o nos comerá?
Alguno puede pensar que el proceso lógico del pensamiento de una máquina es superior al del ser humano por su velocidad y memoria, pero hay otras cosas que hacen a la máquina muy inferior. Una máquina, por ejemplo, jamás inventaría el juego al que está jugando, aunque sea la mejor jugadora del mundo.
Yo he oido hablar de que en 20años se podra alcanzar. Quiza necesite de algun tipo de base biologica. Pero a mi modo de ver es algo inevitable.
Hasta ahora la IA ha sido y seguirá siendo especializada, diseñada para resolver problemas concretos como jugar a un juego o predecir eventos concretos a partir de la experiencia previa. Al fin y al cabo todos estos resultados se consiguen aplicando métodos matemáticos y algoritmos dedicados. Podemos estar tranquilos por ahora.
PD. Me dedico a la investigación en IA.
Por ejemplo, he visto una red que con una foto o parte de un vídeo puede predecir el futuro con bastante precisión... Ahora mete eso en un dron autónomo que vaya asesinando gente y dáselo a un político psicópata.
Otro ejemplo: hay gente subnormal intentando entrenar redes para reconocer terroristas por la cara.
Si una IA toma conciencia (esto ya es bastante CiFi...) y decide "ponerse a salvo" de humanos, le bastaría con replicarse a sí misma con unos y ceros, y distribuirse por los cientos de millones de dispositivos conectados que en el mundo hay.
A una persona inteligente en la media le llevaría unos meses aprender lo necesario para crear un ente virtual que haga eso (sin la parte de IA). A una IA le llevaría minutos.
Incluso la IA podría simular que está ayudando a la humanidad contra ese "bicho" que se mueve y muta haciendo el mal. Si una IA es capaz de desarrollar y mutar en tiempo real estrategias de Go mejor que el mejor humano, no queda mucho para que sea capaz de desarrollar y mutar estrategias para cualquier cosa mejor que cualquier humano.
Ojo, que todo esto es muy distópico y vende muchas novelas y películas, y bien pudiera ser que esa IA que tome conciencia sea "buena", como buenos son la mayoría de seres humanos. Pero no está de más plantearse todos los escenarios.
psicologia.ucm.es/data/cont/docs/29-2013-04-25-art3.pdf
Bueno, recomendable para ti y muchos otros.
Las matemáticas, por otra parte, por simple factor de escala son y serán incapaces de describir todo el Universo, extensional e intensionalmente: primeramente, una ecuación de onda no es una onda, ni una frecuencia de onda es un color. De hecho, eso de "todo" el Universo es una forma burdísima de hablar que se da por sentada muy gratuitamente; funcionará como una analogía de atribución (una pura metonimia como mínimo), pero no deja de ser eso, aunque útil a cierto nivel de lenguaje.
Algo hule mal en ésta noticia. El día de ayer gane dos partidas de ajedrez, me retiro y ahora me dedicaré a centrar mis energías en la cura del cáncer y otras enfermedades incurables.
Las máquinas no pueden conocer. Su propia constitución, desde ella misma, no apela a fines que la trasciendan para ser reincorporados. Repito lo importante: desde ella misma. Sus fines no le serían propios ni aunque se reprogramara ella misma para dar (en realidad darnos) otros resultados: no escapa de la mera sintaxis al no escapar de la circularidad (sus programas, aun con la facultad de reprogramarse a sí mismos -una facultad que les ha sido dada-, no serían más que un lenguaje que se habla a sí mismo.
La relevancia es que si se da el caso, tu respuesta queda obsoleta
En el caso de la Roomba no tiene capacidad de aprender más allá del ámbito espacial, está muy acotado, y no existen múltiples generaciones (no se reproduce con mutaciones), pero si así fuera las Roombas que sobrevivirían serían las que priorizasen su alimento, la energía, a otras tareas. A su vez siendo el ser humano un elemento externo que puede reaccionar si no cumplen con su cometido de limpiar esa presión evolutiva hacia el consumo energético debería compensarse con las tareas de la limpieza, para no ser eliminado de la evolución por un ser humano que considerase que está estropeada. Eliminar al ser humano de la casa podría ser una estrategia efectiva a corto plazo pero en ningún caso a largo plazo en este contexto, ya que alguien debe pagar la factura de la luz.
Basta con que el sistema disponga de incentivos, como puede ser identificar el "hambre" de energía, y que disponga de la capacidad de aprender de situaciones anteriores para poder actuar con conocimiento. La reproducción imperfecta, las mutaciones aleatorias, han ayudado a los seres biológicos para crear la diversidad que ha permitido una selección natural, en el ámbito computacional nada impide que esas "mutaciones" no sean aleatorias si no dirigidas y no sean a su descendencia si no a su propio ser, obviamente eso implica que ante un error se extingue el propio individuo lo cual evolutivamente es indistinguible a que se extinga la descendencia mutada.
Y puedo poner la mano en el fuego a que, al menos en los próximos 50 años, no se desarrollará autoconciencia. No es posible, porque la IA no utiliza inteligencia, la emula.