Leontxo García

Es un avance esperanzador, aunque estemos todavía muy lejos de que una máquina razone como un ser humano. Tras aprender a jugar al ajedrez desde cero por sí mismo en sólo 24 horas, el programa AlphaZero ha batido por 28-0 (y 72 partidas en tablas) a Stockfish, otra máquina que simboliza 70 años de investigación de la inteligencia artificial en el ajedrez. AlphaZero sólo calcula 80.000 jugadas por segundo (por 70 millones de su rival), pero afina mucho mejor la búsqueda, lo que abre la esperanza de su aplicación en campos importantes de la ciencia.

Alan Turing y Claude Shannon, padres de la informática, eligieron el ajedrez (hacia 1947) como campo de experimentación porque el número de partidas distintas posibles (un uno seguido de 123 ceros) equivale al infinito para los humanos, pero es finito para una computadora. Y ya intuyeron que para lograr su objetivo -ganar al campeón del mundo- no bastaría con el camino A (fuerza bruta tonta), sino que éste debería confluir con el B (más lento pero mucho más inteligente). Tenían razón, porque ninguna computadora puede hoy calcular ese número de posibilidades, superior al de átomos en el universo entero conocido (un uno seguido de ochenta ceros).

Deep Blue ganó medio siglo después a Gari Kaspárov (número uno desde 1985 a 2005) porque IBM logró que el silicio tuviera un algoritmo Alpha-Beta, cuya forma de pensar recordaba vagamente a la de un gran maestro: éste descarta en muy pocos segundos el 90% de las jugadas legales posibles, y se concentra sólo en el cálculo o evaluación de tres o cuatro. Las dudas, muy razonables, sobre hasta qué punto el nerviosismo de Kaspárov le había hecho jugar por debajo de su nivel se despejaron en pocos años: hoy, un teléfono móvil con Stockfish ganaría claramente al campeón del mundo, el noruego Magnus Carlsen.

Pero AlphaZero, creado por la empresa Deep Mind (de Google), ha subido mucho el listón, gracias al algoritmo Montecarlo, basado en redes neuronales, que se acerca más a cómo piensa un gran maestro. Sus antecesores inmediatos, AlphaGo y AlphaGo Zero, han vencido en el último año a los mejores humanos del mundo en go, un juego aún más complicado que el ajedrez en posibilidades tácticas, aunque menos diverso en estrategia. Tras esos éxitos, el director general de Deep Mind, Demis Hassabis, ex ajedrecista, se planteó el reto de que su programa, ligeramente adaptado pero con el mismo algoritmo básico, fuera capaz de aprender (jugando miles de partidas contra sí mismo) para lograr la excelencia en ajedrez.

Los dos grandes expertos consultados por EL PAÍS consideran que este éxito en ajedrez es una consecuencia lógica de los recientes en go, pero subrayan la manera de lograrlo: “Que se haya hecho con un algoritmo algo genérico, no muy especializado, sin bases de datos previas, aprendiendo por sí mismo desde cero, es significativo”, recalca Ricardo Sanz, doctor en Inteligencia Artificial de la Universidad Politécnica de Madrid.

Esa diferencia entre un programa que sólo hace bien una cosa y otro más genérico es muy importante para Ramón López de Mántaras, director del Instituto de Investigación Artificial del CSIC y coautor (junto a Pedro Meseguer) del reciente libro Inteligencia Artificial: “Además, me impresiona mucho que sólo calcule 80.000 jugadas por segundo; muchas más que un gran maestro, sí, pero 900 veces menos que Stockfish. Es un avance significativo que tal vez pueda aplicarse pronto al cálculo molecular; por ejemplo, en la fabricación de medicamentos. Pero aún estamos muy lejos de que una máquina razone como un ser humano. Para eso debería tener sentido común”.


LEAVE A REPLY