Inteligencia artificial derrota al juego más complejo creado por humanos

Gogame.jpg

Un sistema de inteligencia artificial ha vencido a un jugador profesional de Go. El nuevo sistema, llamado AlphaGo, derrotó al jugador humano mediante el aprendizaje del juego desde el principio con un enfoque conocido como “aprendizaje profundo”, dicen los investigadores involucrados.

La impresionante derrota sugiere que la nueva estrategia de aprendizaje de inteligencia artificial (IA) puede ser una herramienta poderosa en otros ámbitos, tales como el análisis de grandes cantidades de datos climáticos sin estructura aparente o hacer diagnósticos médicos complicados.

El hombre contra la máquina

El juego de estrategia, que se originó en China hace unos 2.500 años se basa en normas engañosamente simples. Los jugadores colocan piedras blancas y negras sobre un gran tablero cuadriculado con el fin de rodear la mayor parte del territorio.

Pero detrás de las reglas simples se encuentra un juego de increíble complejidad. Los mejores jugadores pasan toda una vida para dominar el juego, aprender a reconocer secuencias de movimientos tales como “la escalera”, la elaboración de estrategias para evitar interminables batallas por el territorio denominado “guerras ko”, y el desarrollo de una capacidad extraordinaria para mirar el Go bordo y saber en un instante que las piezas están vivos, muertos o en el limbo.

Cada jugador Go tiene la opción de seleccionar a partir de 200 movimientos de cada uno de sus turnos, en comparación con 20 posibles movimientos por turno en el ajedrez. Además, no hay manera fácil de mirar y cuantificar qué tan bien un jugador está haciendo en un momento dado. (En contraste, las personas pueden tener una idea aproximada de lo que es ganar una partida de ajedrez, simplemente mediante la asignación de valores de puntos a cada una de las piezas todavía en juego o capturado).

Como resultado, los mejores sistemas de inteligencia artificial, tales como Deep Blue de IBM, sólo han logrado derrotar aficionado humano.

Aprendizaje profundo

En el pasado, los expertos han enseñado sistemas de inteligencia artificial secuencias específicas de movimientos o patrones tácticos. En lugar de este método, Hassabis y sus colegas entrenaron al programa, llamado AlphaGo, sin utilizar nociones preconcebidas.

El programa utiliza un enfoque llamado aprendizaje profundo o redes neuronales profundos, en los que los cálculos se producen a través de varias capas jerárquicamente organizadas, y el programa de entrada se alimenta desde un nivel inferior en cada capa superior sucesiva.

En esencia, AlphaGo “observaba” millones de juegos entre humanos para aprender las reglas de juego y la estrategia básica. El equipo entonces jugó partidas contra sí mismo para inventar nuevas estrategias en Go. Por sí solo, AlphaGo graduó en el dominio de las secuencias básicas de movimientos locales para comprender los patrones tácticos más grandes.

Para lograr esta tarea, AlphaGo se basa en dos conjuntos de redes neuronales – una red de valor, que se parece esencialmente a las posiciones de la junta y decide quién está ganando y por qué, y una red de políticas. Con el tiempo, las redes de políticas capacitados las redes de valor para ver cómo el juego progresaba.

A diferencia de los métodos anteriores, que trataban de calcular los beneficios de cada movimiento posible a través de la fuerza bruta, el programa sólo tiene en cuenta los movimientos más probables para ganar, según los investigadores, que es un enfoque que usan buenos jugadores humanos.

“Nuestra búsqueda mira hacia adelante al jugar el juego muchas veces a lo largo de su imaginación” David Silver, coautor del estudio, científico informático en Google DeepMind que ayudó a construir AlphaGo. “Esto hace que AlphaGo busque enfoques mucho más parecidos a los humanos.”

Aprender de los seres humanos parece ser una estrategia ganadora.

AlphaGo ha derrotado sistemas rivales de IA aproximadamente el 99.8 por ciento del tiempo, y derrotó al actual campeón europeo de Go, Fan Hui, en un torneo, ganando los cinco juegos. Frente a otros sistemas de inteligencia artificial, el programa se puede ejecutar en un ordenador de escritorio normal, aunque por el torneo contra Hui, el equipo reforzó la capacidad de procesamiento de AlphaGo, con cerca de 1.200 unidades de procesamiento central (CPU) que dividen el trabajo computacional.

Y AlphaGo no ha terminado con los seres humanos todavía. Se ha fijado su mirada sobre el Lee Sedol, el mejor jugador de go del mundo, y un cara a cara está programada dentro de unos meses.

“Se puede pensar en él como el Roger Federer del mundo Go”, dijo Hassabis.

Muchos en el mundo  estaban aturdidos por la derrota – y aún mantenía la esperanza para el simple mortal que se enfrentará contra AlphaGo en marzo.

“La fuerza de AlphaGo es realmente impresionante! Yo quedé sorprendido cuando oí Fan Hui perdió” Hajin Lee, el secretario general de la Confederación Internacional de Go, dijo en un comunicado. “Mi impresión general fue que AlphaGo parecía más fuerte, pero no podía decir por cuánto. Me queda la duda de si lo suficientemente fuerte como para jugar contra los mejores del mundo, pero tal vez se hace más fuerte con cada oponente al que se enfrenta.”

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s