Las máquinas están aprendiendo a escribir poesía

ajvoft

Ranjit Bhatnagar, artista y programador, inventó en 2012 Pentametron, un proyecto de arte que explora la Twittersfera en busca de tuits en formato pentámetro yámbico. Primero, utilizando un diccionario de pronunciación creado en Carnegie Mellon, creó un programa para contar sílabas y reconocer mediciones. Luego, con un código separado para identificar rimas, comenzó a armar sonetos. Para el primer Mes Nacional de Generación de Novelas (NaNoGenMo), en 2013, Bhatnagar presentó “¡Tengo un cocodrilo como mascota!“, Una colección de 504 sonetos creados con Pentametron. El código de Bhatnagar requería que cada línea fuera un tweet completo, o esencialmente un pensamiento completo (o al menos lo que cuenta como un pensamiento en Twitter). También hizo todo lo posible para cumplir con las estrictas reglas de metro y rima. Así es como “¡Buenas noches! Mañana es otro día 🙂” (los títulos también están escritos por una máquina), comienza:

I pay attention to the little shit
yeah, teacher aren’t trying anymore… 🙂
Not even going to encourage it.
I never been in twitter jail before ….

Two people wanna be in my bio ?
I wanted some banana pudding to
Don’t be a menace is a classic tho
Know what’s amazing? Johnnie Walker Blue

Another day another dollar tho.
Tomorrow is another awesome day
She going hard and he’s complaining so
I never liked Sabrina anyway.

Fuck my retainer has a crack in it
This Maybelline mascara is the shit!!!

En la colección más reciente de sonetos asistidos por computadora de Bhatnagar, “Encomials“, él relaja estas limitaciones. Bhatnagar se dio cuenta de que, para que una máquina produjera un trabajo que sonara generado por el hombre, tenía que lograr un delicado equilibrio entre precisión y autenticidad. “Si cometiera demasiados errores, entonces no se vería humano, por lo que espero que sean suficientes errores”, dijo.

Los algoritmos de Bhatnagar utilizan una inteligente combinación de minería de datos y coincidencia de patrones para construir sonetos a partir de la escoria de Twitter. Esto es más poesía como collage que verdadera composición. “Apenas soy poeta, pero, como muchos, tuve experiencias tempranas en la escuela aprendiendo a escribir poesía”, reconoce. “Entonces, si los niños pueden aprender a escribir poemas desde cero, ¿qué pasa con las máquinas? Pude comenzar a componer después de leer solo un puñado de ejemplos. Mi cerebro, como el cerebro de la mayoría de los niños, no necesitaba mucho material para comenzar el proceso de mimetismo.”

Con el aprendizaje automático, las computadoras podrían finalmente hacer lo mismo. Pero incluso las técnicas de aprendizaje automático más sofisticadas que existen, las redes neuronales profundas, necesitan muchos datos para entrenarse o ser más precisos en una tarea determinada. La arquitectura de la red neuronal ha sido una bendición para tareas como la traducción de idiomas y el reconocimiento de imágenes, en gran parte debido a la disponibilidad de datos. Pero, en ausencia de datos suficientes, las máquinas no pueden comenzar a aprender en primer lugar. Es por eso que la tarea aparentemente simple de enseñarle a una máquina a componer un soneto es una hazaña de programación tan compleja; el aprendizaje profundo necesita más datos que un niño de escuela promedio.

Kevin Knight, un científico de computación de la Universidad del Sur de California, fue uno de los primeros investigadores que estudió cómo las redes neuronales profundas podrían usarse para atacar los desafíos de la traducción. La experiencia general de Knight está en el procesamiento del lenguaje natural, el área de la informática que trata con los problemas de generar y comprender el lenguaje humano. En 2015, Marjan Ghazvininejad, uno de los estudiantes de posgrado de Knight, comenzó a trabajar en Hafez, un programa utilizado para generar sonetos y otras formas poéticas que llevan el nombre del letrista persa del siglo XIV. Había dos partes en su proyecto: primero, codificar las reglas para la composición, la plantilla que encajaría cada soneto, y luego decidir qué poner en la plantilla. La primera etapa fue fácil: los programadores son buenos para elaborar reglas, y los programas son buenos para seguirlas. Además, como explicó Knight, al equipo de Ghazvininejad se le ocurrieron algunas innovaciones inteligentes, como decirle a la computadora que primero escoja la última palabra de cada línea, y luego seleccionar pares de rimas que parecían tópicamente similares. Pero, ¿de dónde vendrían las palabras en primer lugar? A pesar de que el mundo de la poesía lírica es pobre en datos (no hay suficientes sonetos disponibles en Internet), Ghazvininejad y sus colaboradores se dieron cuenta de que el mundo cercano de las letras de las canciones es rico en datos. Su equipo decidió entrenar su programa en 95 mil canciones extraídas de la base de datos Music Lyrics. Para cada poema, Hafez respondió a un tema dado, luego recopiló palabras que rimaban dentro de la base de datos y las unió utilizando sus redes neuronales en constante mejora. El entrenamiento también ayudó a crear coherencia y estilo, el más esquivo de los toques humanos. Un poema, generado a partir de la palabra “wave“, tiene una sensación siniestra y futurista:

People picking up electric chronic.
The balance like a giant tidal wave,
Never ever feeling supersonic,
Or reaching any very shallow grave.

An open space between awaiting speed,
And looking at divine velocity.
A faceless nation under constant need,
Without another curiosity.

Or maybe going through the wave equation.
An ancient engine offers no momentum,
About the power from an old vibration,
And nothing but a little bit of venom.

Surrounded by a sin Omega T,
On the other side of you and me.

La dicción aquí se siente creíblemente consistente; “velocidad”, “impulso” y “vibración” pertenecen a un registro matemático similar. “Divino”, “omega” y “poder” crean otra línea de paso tonal. Además, hay un sentido de coherencia temática, destellos de narrativa.

Hafez fue presentado a las Pruebas de Turing 2016 en las Artes Creativas en Dartmouth. Una máquina pasa la prueba de Turing si puede demostrar que es indistinguible de un humano. El desafío de Hafez era engañar a los jueces para que pensaran que sus sonetos habían sido escritos por poetas reales. Al final, ganó la competencia, pero no pasó la prueba de Turing. Hafez era mejor que las otras máquinas, pero aún distinguible de una persona. Cuando los sonetos escritos por una máquina se intercalaban entre obras escritas por humanos, no hubo un sola IA poeta que pudiera engañar a la mayoría de los jueces de la competencia.

Dado el poder de las nuevas técnicas en inteligencia artificial, ¿por qué no pensar de manera más amplia sobre los tipos de arte que uno puede hacer al usarlo? Podríamos pensar en “generado por máquina” como una especie etiqueta, o podríamos pensar en ella como una categoría de arte completamente nueva y digna.

 

The Mechanical Muse.

 

Una red neuronal que puede hacer matemáticas avanzadas

inference-002

Guillaume Lample y Francois Charton, de Facebook AI Research en París, dicen que han entrenado una red neuronal para realizar el razonamiento simbólico necesario para diferenciar e integrar expresiones matemáticas por primera vez. El trabajo es un paso significativo hacia un razonamiento matemático más poderoso y una nueva forma de aplicar redes neuronales más allá de las tareas tradicionales de reconocimiento de patrones.

Las redes neuronales son muy eficaces en tareas como el reconocimiento de rostros y objetos, ciertos tipos de procesamiento del lenguaje natural, e incluso juegos como ajedrez, Go y Space Invaders. Pero a pesar de mucho esfuerzo, nadie ha sido capaz de entrenarlas para realizar tareas de razonamiento simbólico, como los involucrados en las matemáticas.

Una de las dificultades con las expresiones matemáticas avanzadas son las abreviaturas de las que dependen. Por ejemplo, la expresión es una forma abreviada de escribir x multiplicado por x multiplicado por x. En este ejemplo, “multiplicación” es la abreviatura de la suma repetida, que es en sí misma la abreviatura del valor total de dos cantidades combinadas. Incluso una expresión matemática simple es una descripción muy condensada de una secuencia de operaciones matemáticas mucho más simples.

Sin embargo, en un nivel fundamental, procesos como la integración y la diferenciación aún implican tareas de reconocimiento de patrones, aunque ocultas por las abreviaturas matemáticas. Lample y Charton encontraron una forma elegante para “descomprimir” abreviaturas matemáticas en sus unidades fundamentales. Enseñaron a una red neuronal a reconocer los patrones de manipulación matemática que son equivalentes a la integración y diferenciación . Y finalmente probaron el modelo con expresiones que nunca había visto y compararon los resultados con las respuestas resultantes de programas convencionales como Mathematica y Matlab.

La primera parte de este proceso es dividir las expresiones matemáticas en sus partes componentes. Esto se hace representando expresiones como estructuras en forma de árbol. Las hojas de estos árboles son números, constantes y variables como x; los nodos internos son operadores como suma, multiplicación, diferenciar con respecto a, etc. Estos árboles también se pueden escribir como secuencias, tomando cada nodo consecutivamente. De esta forma, están listos para ser procesados por un enfoque de red neuronal llamado seq2seq.

La siguiente etapa es el proceso de entrenamiento, y esto requiere una gran base de datos de ejemplos para aprender. Lample y Charton crean esta base de datos mediante el armado aleatorio de expresiones matemáticas de una biblioteca de operadores binarios. De esta forma, los investigadores generaron un conjunto de datos de entrenamiento masivo que consiste en 80 millones de ejemplos de ecuaciones diferenciales de primer y segundo orden y 20 millones de ejemplos de expresiones integradas por partes.

Finalmente la red neuronal es puesta a prueba al alimentarla con 5000 expresiones que nunca antes había visto y comparar los resultados que produce con 500 casos provenientes de programas disponibles comercialmente, como Maple, Matlab y Mathematica. Las comparaciones entre estos y el enfoque de la red neuronal son reveladoras. “En todas las tareas, observamos que nuestro modelo supera significativamente a Mathematica”, dicen los investigadores. “En la integración de funciones, nuestro modelo obtiene una precisión cercana al 100%, mientras que Mathematica apenas alcanza el 85%”. Y los paquetes Maple y Matlab tienen un rendimiento inferior en promedio a Mathematica. En muchos casos inclusive, los programas convencionales no pueden encontrar una solución dentro de los 30 segundos. En comparación, la red neuronal tarda aproximadamente un segundo en encontrar sus soluciones.

Ese es un avance significativo. “Hasta donde sabemos, ningún estudio ha investigado la capacidad de las redes neuronales para detectar patrones en expresiones matemáticas”. Ahora que lo han hecho, el resultado claramente tiene un enorme potencial en el cada vez más importante y complejo mundo de las matemáticas computacionales.

Facebook has a neural network that can do advanced math.

 

Pionero de la IA quiere que sus algoritmos entiendan el ‘por qué’.

inference-001

Yoshua Bengio recibió una parte del Premio Turing, el más alto galardón en informática, por sus contribuciones al desarrollo del aprendizaje profundo. Ahora dice que la disciplina no alcanzará todo su potencial, y no ofrecerá una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y pueda aprender más sobre causa y efecto. En otras palabras, cree que el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.

Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. Estos algoritmos no pueden explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.

En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un artículo que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales. El algoritmo esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.

El trabajo de Bengio sobre la causalidad podrá ser un pequeño paso para responder esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma.

An AI Pioneer Wants His Algorithms to Understand the ‘Why’.

 

Herramientas Artificialmente Inteligentes Capturan Movimiento Animal

leap-is-accurate-and-requires-little-training-or-labeled-data-a-part-wise-accuracy

Se tarda un promedio de 17 minutos para que una pareja de moscas de la fruta pase de encontrarse a aparearse. El encuentro está marcado por muchas etapas complejas, posiblemente más complejas que el cortejo humano. Talmo Pereira, un estudiante de doctorado que estudia neurociencia en los laboratorios de Joshua Shaevitz y Mala Murthy en la Universidad de Princeton, está estudiando cómo la danza del cortejo está representada en el cerebro de las moscas. Él y sus colegas desarrollaron un método poderoso para seguir el comportamiento animal. Su herramienta, LEAP Estimates Animal Pose (LEAP), aprovecha un tipo de inteligencia artificial llamada red neuronal profunda, esencialmente una “máquina fantástica que puede aprender a hacer… cualquier operación arbitraria para la que sea entrenada”, dice Diego Aldarondo, actualmente estudiante de doctorado en la Universidad de Harvard, quien construyó la herramienta con Pereira durante sus estudios universitarios en Princeton. “Desarrollamos toda esta inteligencia artificial solo para tratar de entender el sexo entre moscas”, bromea Pereira. “O ni siquiera el sexo realmente, solo lo que conduce a ello”.

Tradicionalmente, los investigadores han recopilado datos sobre los movimientos de los animales revisando videos cuadro por cuadro y etiquetando las partes del cuerpo de interés. Es un proceso laborioso que puede llevar a los estudiantes de grado o voluntarios horas y horas. El éxito de LEAP proviene de una combinación de aportes humanos y artificiales. Después de recibir un conjunto de cuadros de video etiquetados, los utiliza para aprender cómo se colocan los puntos de acuerdo con las características de cada imagen, y luego produce las etiquetas para el siguiente conjunto de cuadros, que posteriormente un investigador revisa. A fines del año pasado, publicaron una versión de la herramienta que necesita alrededor de 100 cuadros para lograr una precisión de hasta el 95 por ciento en el seguimiento de 32 puntos en el cuerpo de una mosca. En su informe, los investigadores utilizaron LEAP para rastrear las seis piernas de una mosca, más sus alas, cuerpo y cabeza. También aplicaron su herramienta para capturar los movimientos de las extremidades de un ratón.

Estas herramientas podrían tener aplicaciones en muchos campos, desde la ecología del comportamiento hasta la investigación médica, en donde podrían ayudar a estudiar trastornos como el autismo que están asociados con movimientos estereotipados. También ayudaría a los neurocientíficos a investigar las conexiones entre el cerebro y el comportamiento.

 

Artificially Intelligent Tools Capture Animal Movement.

 

La IA de Affectiva oye tu ira en 1.2 segundos.

emodet-002

Alexa de Amazon puede detectar el habla susurrada, así es como sabe cuándo susurrar. Pero ¿qué pasa con la inteligencia artificial que es capaz de percibir la frustración? La red neuronal de Affectiva del MIT Media Lab, SoundNet, puede clasificar la ira en datos de audio en tan solo 1,2 segundos, independientemente del idioma del hablante, igual que el tiempo que los humanos tardan en percibir la ira.

Los investigadores de Affectiva lo describen en un trabajo recientemente publicado. “Un problema importante en el aprovechamiento del poder de las redes de aprendizaje profundo para el reconocimiento de las emociones es la diferencia entre la gran cantidad de datos requeridos por las redes profundas y el pequeño tamaño de los conjuntos de datos de voz etiquetados con emociones”, escribieron los coautores del artículo. “Nuestro modelo de detección de ira entrenado mejora el rendimiento y generaliza bien en una variedad de conjuntos de datos emocionales actuados, provocados y naturales. Además, nuestro sistema propuesto tiene una baja latencia, adecuada para aplicaciones en tiempo real “.

SoundNet consiste en una red neuronal convolucional, un tipo de red neuronal comúnmente aplicada para analizar imágenes visuales, entrenada sobre un conjunto de datos de video. Para lograr que reconozca la ira en el habla, el equipo primero obtuvo una gran cantidad de datos de audio generales (dos millones de videos, o un poco más de un año) con el etiquetado producido por otro modelo. Luego, lo ajustaron con un conjunto de datos más pequeño, IEMOCAP, que contiene 12 horas de datos de emoción audiovisual anotados, que incluyen video, voz y transcripciones de texto. Para probar la generalización del modelo AI, el equipo evaluó su modelo entrenado en inglés sobre los datos de la emoción del habla en chino mandarín (el Corpus del habla afectiva del mandarín, o MASC). Informan que no solo se generalizó bien a los datos del habla en inglés, sino que fue efectivo en los datos chinos, aunque con una leve degradación en el rendimiento.

Finalmente dejan como trabajo futuro el aprovechar otros grandes conjuntos de datos disponibles públicamente, y  el entrenar sistemas de inteligencia artificial para tareas relacionadas con el habla, como reconocer otros tipos de emociones y estados afectivos.

 

Affectiva’s AI hears your anger in 1.2 seconds.

 

DeepMind AlphaFold ofrece un “progreso sin precedentes” en el plegamiento de proteínas

deepmind-002

En 2016, DeepMind de Google sorprendió al mundo cuando AlphaGo logró una histórica victoria sobre el gran maestro coreano Lee Sedol. Recientemente, el equipo del Reino Unido presentó su último sistema de inteligencia artificial, AlphaFold, que encabezó la competencia de evaluación crítica de predicción de estructuras (CASP). Esta es una Olimpiada virtual de plegamiento de proteínas, cuyo objetivo es predecir la estructura 3D de una proteína en función de sus datos de secuencia genética.

“Las proteínas son esenciales para la vida. Predecir su estructura 3D es un gran desafío no resuelto en biología y podría ayudar a entender enfermedades y descubrir nuevos fármacos. ¡Me complace anunciar que hemos ganado la competencia de plegamiento de proteínas CASP13! “, anunció en un tweet Demis Hassabis, fundador y CEO de DeepMind.

La puntuación SUMZ de AlphaFold de 127.99 fue 20 puntos más alta que la del segundo equipo clasificado, logrando lo que CASP denominó “progreso sin precedentes en la capacidad de los métodos computacionales para predecir la estructura de proteínas”.

Los investigadores de DeepMind utilizaron redes neuronales profundas para aprender la correlación entre la forma de una molécula de proteína y su secuencia de aminoácidos. Las propiedades físicas de una molécula de proteína incluyen las distancias entre pares de aminoácidos y los ángulos entre los enlaces químicos que conectan esos aminoácidos. El modelo creó una puntuación que estima la precisión de una estructura de proteína propuesta, y luego utilizó descenso por gradiente, un algoritmo común de entrenamiento de redes neuronales que encuentra el mínimo de una función, para optimizar esa puntuación.

Para aquellos que no están familiarizados con el problema del plegamiento de proteínas, a menudo lo que se necesita saber es:

  • Las proteínas son los bloques de construcción de nuestro cuerpo y realizan una amplia gama de funciones esenciales. Una molécula de proteína está formada por una cadena de componentes más pequeños llamados aminoácidos, que se pliegan en la forma 3D nativa de la molécula.
  • El problema del plegamiento de proteínas implica determinar cómo la cadena de aminoácidos codifica la forma 3D de una molécula de proteína. Esto puede producir una mejor comprensión de las proteínas y permitir a los científicos cambiar su función por el bien de nuestros cuerpos, por ejemplo, en el tratamiento de enfermedades causadas por proteínas mal plegadas, como la enfermedad de Alzheimer, Parkinson, Huntington y la fibrosis quística.
  • El problema del plegamiento de proteínas es considerado como uno de los mayores desafíos bioquímicos de los últimos 50 años. Los enfoques actuales incluyen el uso de algoritmos para calcular la estructura 3D de proteínas con datos de secuencia de aminoácidos, o el uso de cristalografía de rayos X y otras técnicas para obtener una imagen de la estructura de una proteína.

Mientras que DeepMind ha estado trabajando en el plegamiento de proteínas durante dos años y ha avanzado significativamente en el desarrollo de la ingeniería de proteínas, Hassabis admitió en una entrevista que la técnica aún requiere mejoras adicionales. “No hemos resuelto el problema del plegamiento de proteínas, esto es solo un primer paso”.

> DeepMind AlphaFold Delivers “Unprecedented Progress” on Protein Folding.

AlphaZero: arrojando nueva luz sobre los grandes juegos de ajedrez, shogi y Go

replacement2520AZ2520blog2520bar2520graph25207252012252018.width-1500

A fines de 2017, DeepMind presentó a AlphaZero, un sistema único que aprendió desde cero cómo dominar los juegos de ajedrez, shogi (ajedrez japonés) y Go, superando a un programa campeón del mundo en cada caso. Hoy ofrecen la evaluación completa de AlphaZero, que confirma y actualiza los resultados preliminares, y describe cómo puede aprender rápidamente cada juego, a pesar de comenzar su entrenamiento de forma aleatoria, sin conocimiento incorporado del dominio, y con solo las reglas básicas del juego.

Esta capacidad de aprender cada juego de cero, sin restricciones por las normas del juego humano, da como resultado un estilo de juego distintivo, poco ortodoxo, a la vez que creativo y dinámico. El Gran Maestro de Ajedrez Matthew Sadler y la Maestra Internacional de Mujeres Natasha Regan, que analizaron miles de juegos de ajedrez de AlphaZero para su próximo libro Game Changer, dicen que su estilo es diferente a cualquier motor de ajedrez tradicional. “Es como descubrir los cuadernos secretos de algún gran jugador del pasado”, dice Matthew.

Los motores de ajedrez tradicionales, incluido el campeón mundial de ajedrez por computadora Stockfish y el innovador Deep Blue de IBM, se basan en miles de reglas y heurísticas creadas por fuertes jugadores humanos que intentan explicar cada eventualidad en un juego. Los programas de Shogi también son específicos del juego, y utilizan motores de búsqueda y algoritmos similares a los de los programas de ajedrez. AlphaZero adopta un enfoque totalmente diferente, reemplazando estas reglas hechas a mano con una red neuronal profunda y algoritmos de propósito general que no saben nada sobre el juego más allá de las reglas básicas.

Para aprender cada juego, una red neuronal no entrenada juega millones de juegos contra sí misma a través de un proceso de prueba y error llamado aprendizaje por refuerzo. Al principio, se juega de forma completamente aleatoria, pero con el tiempo el sistema aprende de las ganancias, las pérdidas y los empates para ajustar los parámetros de la red neuronal, lo que hace que sea más probable que elija movimientos ventajosos en el futuro. La cantidad de entrenamiento que necesita la red depende del estilo y la complejidad del juego: aproximadamente 9 horas para el ajedrez, 12 horas para el shogi y 13 días para el Go.

La red entrenada se usa para guiar un algoritmo de búsqueda, conocido como Búsqueda de árboles de Monte-Carlo (MCTS), para seleccionar los movimientos más prometedores en los juegos. Para cada movimiento, AlphaZero busca solo una pequeña fracción de las posiciones consideradas por los motores de ajedrez tradicionales. En Ajedrez, por ejemplo, busca solo 60 mil posiciones por segundo en el ajedrez, en comparación con aproximadamente 60 millones para Stockfish.

Los sistemas completamente entrenados se probaron contra los motores más fuertes hechos a mano para el ajedrez (Stockfish) y el shogi (Elmo), junto con el anterior sistema autodidacta AlphaGo Zero, el jugador Go más fuerte conocido. En cada evaluación, AlphaZero venció convincentemente a su oponente.

Sin embargo, fue el estilo en el que AlphaZero juega estos juegos que los jugadores pueden encontrar más fascinantes. En Ajedrez, por ejemplo, AlphaZero descubrió y jugó de manera independiente estrategias humanas comunes durante su entrenamiento de juego propio, como aperturas, seguridad de rey, y estructura de peones. Sin embargo, al ser autodidacta y, por lo tanto, no estar limitado por la sabiduría convencional sobre el juego, también desarrolló sus propias intuiciones y estrategias, agregando un conjunto nuevo y expansivo de ideas emocionantes y novedosas que aumentan siglos de pensamiento sobre la estrategia del ajedrez.

La capacidad de AlphaZero para dominar tres juegos complejos diferentes, y potencialmente cualquier juego de información perfecto, es un paso importante para crear un único sistema capaz de resolver un amplio rango de problemas del mundo real, y demuestra que un solo algoritmo puede aprender a descubrir nuevos conocimientos en una variedad de configuraciones.

 

> AlphaZero: Shedding new light on the grand games of chess, shogi and Go.