El dos veces campeón británico Matthew Sadler comparte las valoraciones de AlphaZero de las últimas cuatro partidas a ritmo clásico del Campeonato Mundial de 2018 entre Magnus Carlsen y Fabiano Caruana. AlphaZero es el sistema de inteligencia artificial de DeepMind al cual Matthew y su coautora Natasha Regan tuvieron acceso privilegiado mientras escribían su libro "Game Changer: AlphaZero’s Groundbreaking Chess Strategies and the Promise of AI". Matthew explicó que su método consistió en encender el motor de AlphaZero 1 minuto/posición (...)
|
etiquetas: ajedrez , mundial , carlsen , caruana , alphazero
Relacionado: www.meneame.net/story/carlsen-caruana-cronica-desempate-anunciado
github.com/LeelaChessZero
Los torneos de motores de ajedrez actualmente en curso:
El de chess.com:
www.chess.com/computer-chess-championship
El de TCEC:
tcec.chessdom.com/live.html
Porque nos quiere robar otra vez.
Muchas gracias por la información.
¿Te ves habilitado para fijar los baremos de calidad del portal tú sólo, o podrías aceptar una decisión colegiada?
Tú diste tu parecer, y yo intenté ponerlo en contexto humildemente (lo cual no deja de ser otro parecer...)
No lo he buscado todavía, pero me gustaría ver un estudio de las partidas en Stockfish. Una cosa de la noticia que no es del todo cierta es que no sea habitual que los módulos predigan el porcentaje de posibilidades de victoria, en lichess cuando analizas una partida con Stockfish te dice el porcentaje de victorias de cada posición. Lo divertido de Leela es que puede "aprender" jugando contra otros motores, lo que unido a la superioridad de hardware podría llegar a superarlos.
El problema que todos conocemos de analizar las partidas humanas con IAs como Stockfish, Houdini o Zero, es que predicen situaciones que se nos escapan, victorias aseguradas en cien movimientos en las que cualquier fallo puede ser catastrófico o jugadas tan poco habituales que casi todas las personas pasarían por alto. Las IA buscan situaciones que una IA pueda manejar. Las personas juegan de otra manera. El ajedrez, y más entre grandes maestros, es un duelo de confianza, un juego en el que buscas un patrón reconocible para ti y extraño para tu rival, y los GM lo reflejan con elaboradas celadas y descartando las jugadas evidentes. Una IA, y en eso Alpha Zero no es distinta, sólo ve el plano matemático del juego, la guerra psicológica se le escapa. Me pregunto si algún día un programa será capaz de hacer análisis como los de los expertos, y conseguir evaluar la ventaja psicológica además de la matemática.
La verdad es que son temas interesantes, aunque el artículo no tenga demasiada chicha en mi opinión.
www.chess.com/news/view/computer-chess-championship-back-for-rapid-red
Y en este otro los de TCEC:
www.chessdom.com/tcec-season-14-lets-get-ready-to-boom/
En cuanto a fallos catastróficos, la página de Github de Leela tiene un apartado bastante divertido sobre cagadas gordas que ha hecho durante los entrenamientos de la red neuronal:
github.com/glinscott/leela-chess/issues/558
Yo vi en la anterior edición de uno de los torneos, creo que fue el de chess.com, una partida contra Arasan, que parecía humana porque se obcecó con una jugada de mate en la 8ªfila con torre que no le acababa de salir por más que lo intentaba, cuando podía coronar un peón pasado.
Pero después del hype de AlphaZero contra Stockfish (manipulado) es un pelín decepcionante ver que ni es capaz de ganar a SF ni de jugar "como un humano".
Además,muchas fases de diseño hay que simplificarlas por distintos motivos. Por un lado para que sean más fácilmente computables, por otro lado para que sean más entendibles por humanos.
Por eso a mí me parece increíble que se acerque a Stockfish, un motor desarrollado durante años por cientos de programadores que en la mayoría de los casos saben lo que están haciendo y con conocimientos profundos de ajedrez. No me parece en relevancia muy diferente a la primera vez que un motor fue capaz de competir de tú a tú con un Gran Maestro.
Sí, es que es para ciegos.