En marzo de 2016, AlphaGo de Google DeepMind sorprendió al mundo al derrotar a Lee Sedol, entonces el jugador de Go mejor clasificado del mundo. Esta victoria no fue sólo una victoria en el juego; marcó un gran salto en la inteligencia artificial. La historia detrás de AlphaGo se trata menos de un avance repentino y más de un esfuerzo concentrado, comenzando con una idea simple de un pasante.
La chispa inicial
El proyecto comenzó con una pregunta planteada por Ilya Sutskever, más tarde cofundador de OpenAI: ¿podría una IA aprender a jugar Go a un nivel experto? Sutskever argumentó que si los jugadores humanos eligen movimientos en medio segundo, una red neuronal debería poder aproximarse a ese proceso. Esto se basó en éxitos anteriores en el reconocimiento de imágenes, donde la IA ya había demostrado su capacidad para procesar información visual rápidamente.
Chris Maddison, entonces estudiante de maestría, se unió a Google Brain como pasante en el verano de 2014 para comenzar a construir las redes neuronales necesarias. El equipo, que incluía a Aja Huang y David Silver, probó inicialmente varios enfoques. Maddison descubrió que la estrategia más simple (entrenar una red neuronal para predecir el siguiente movimiento que haría un experto) arrojaba los mejores resultados.
Del proyecto interno al fenómeno global
A finales de ese verano, las redes de Maddison ya estaban superando a los propios jugadores de DeepMind. Este éxito inicial generó una mayor inversión y un equipo más grande dedicado al proyecto. El objetivo pasó de ser una prueba de concepto a vencer a los mejores del mundo.
El equipo mantuvo la imagen de Lee Sedol en sus escritorios como un recordatorio constante del desafío. Cada mejora en la IA se midió en función de su nivel de habilidad. Como dijo Maddison: “Estamos un poco mejor, ¿qué tan cerca estamos de Lee Sedol?” La respuesta, según Huang, fue que Sedol estaba “a una piedra de Dios”.
El partido de Seúl y más allá
Maddison abandonó el proyecto antes del histórico partido contra Sedol y decidió centrarse en su doctorado. Sin embargo, su trabajo inicial sentó las bases de la IA que finalmente ganaría. El ambiente en Seúl durante los partidos fue intenso. A pesar de la confianza en la IA, había una sensación de incertidumbre. Incluso con ventaja estadística, cualquier cosa podría pasar.
La victoria no fue sólo una victoria para DeepMind, sino un momento cultural. Cientos de millones de personas sólo en China vieron el primer partido, y multitudes se reunieron en Seúl para ver los partidos en vivo en pantallas gigantes.
La evolución de la IA: el impacto duradero de AlphaGo
El éxito de AlphaGo no fue un hecho aislado. Sentó las bases para los sistemas de inteligencia artificial modernos, incluidos los modelos de lenguajes grandes (LLM). El principio básico sigue siendo el mismo: entrenar una red neuronal para predecir el siguiente elemento (movimiento o palabra) en función de los datos existentes, luego refinar ese modelo utilizando el aprendizaje por refuerzo para alinearlo con objetivos específicos.
La clave para progresar, como lo demostró AlphaGo, no son solo algoritmos inteligentes, sino también tener suficientes datos para el pre-entrenamiento y señales de recompensa claras para el post-entrenamiento. Sin estos ingredientes, ninguna innovación técnica será suficiente.
El elemento humano
La victoria sobre Lee Sedol fue agridulce. El propio Sedol se disculpó ante la humanidad por su pérdida, calificándola de su fracaso, no de ellos. La tradición de la revisión posterior al partido, piedra angular de la cultura del Go, era imposible porque AlphaGo no era humano. El equipo observó cómo los amigos de Sedol intervinieron para llenar el vacío, pero no fue lo mismo.
En última instancia, AlphaGo fue producto de un esfuerzo colectivo, una “tribu” que construyó un artefacto capaz de superar la habilidad humana en un juego complejo. El objetivo de Go puede ser ganar, pero su propósito se extiende al entretenimiento y la exploración, asegurando que incluso con el dominio de la IA, la participación humana perdurará.
