La Inteligencia Artificial DeepMind de Google se ha vuelto más alienígena que nunca

Una primera versión de la IA, AlphaGo, se hizo famosa en 2016 al derrotar al campeón mundial de Go Lee Sedol en un torneo. La nueva versión de AlphaGoZero superó la versión anterior a 100-0 en el juego.

El ritmo al que avanza la Inteligencia Artificial puede parecer aterrador para algunos. El proyecto DeepMind de Google ha revelado otro gran avance en Inteligencia Artificial ya que una de sus máquinas ha “dominado” el juego chino de Go sin la ayuda de humanos.

Lo que llamamos el futuro, esa cosmovisión excitable y a veces espeluznante que las películas de ciencia ficción nos muestran, puede comenzar con cosas como esta.

 

Render 3D de un robot tratando de resolver un rompecabezas de cubo de madera

Un sofisticado programa de inteligencia artificial llamado AlphaGoZero, desarrollado por la compañía DeepMind de Google, ha sido capaz de aprender a dominar el clásico juego de estrategia Go, que muchos consideran más sofisticado que el ajedrez.

Y lo ha hecho desde cero, a una velocidad increíble y sin intervención humana.

La investigación sobre inteligencia artificial ha avanzado rápidamente en una amplia variedad de campos, pero su gran desafío es desarrollar algoritmos que aprendan conceptos desafiantes de una pizarra en blanco y con competencia sobrehumana. Y eso, según la revista Nature, es lo que ha logrado el nuevo programa.

Una primera versión de la IA, AlphaGo, se hizo famosa en 2016 al derrotar al campeón mundial de Go Lee Sedol en un torneo.

Pero para lograr esto, la IA se entrenó durante varios meses mediante un aprendizaje supervisado basado en millones de movimientos humanos expertos, combinado con el aprendizaje del refuerzo solitario.

El programa requirió 48 TPU (chips especializados que funcionan de manera similar a las redes neuronales).

Pero AlphaGo Zero es mucho más inteligente.

 

La derrota de Google DeepMind del campeón Go, el jugador Lee Se-dol, se convirtió en un documental.

Aprende solo jugando contra sí mismo, a partir de movimientos aleatorios, con solo el tablero y las piezas como insumos y sin que ningún ser humano le diga cómo hacerlo. Se ha convertido en su propio maestro, y mejora con cada repetición de juego automático. IT usa solo cuatro TPU para “pensar” cada movimiento, en solo 0.4 segundos.

Después de solo tres días de entrenamiento, que incluyeron casi 5 millones de juegos de solitario (en comparación con 30 millones de juegos que tomaron varios meses para la primera versión), el nuevo software ya estaba preparado para superar a los jugadores humanos y derrotar a todas las versiones anteriores de AlphaGo. a cero.

Incluso descubrió algunos de los mismos principios del juego que los humanos han tardado miles de años en conceptualizar mientras también desarrollan nuevas estrategias.

Go es solo un juego, pero no solo cualquier juego.

Es muy popular en países como China, Corea del Sur o Japón, el objetivo es conquistar la mayor cantidad de territorio posible colocando algunas piedras blancas y negras en un tablero.

Las reglas son simples, pero hay múltiples posibilidades.

Edward Lasker, un maestro de ajedrez y gran entusiasta de la diversión, llegó al extremo de decir que “si formas de vida inteligentes existen en otras partes del Universo, es casi seguro que jugarán Go”.

En cierto sentido, la IA de DeepMind ha demostrado que Lasker puede no estar equivocado.