El PAC-MAN fue recreado por una Red Adversaria-Generativa

Para el 40º aniversario del PAC-MAN la compañía NVIDIA creó una recreación del juego utilizando redes neuronales artificiales. Entrenado en 50.000 partidas del juego, un nuevo modelo creado por NVIDIA Research, llamado GameGAN, puede generar una versión completamente funcional de PAC-MAN, sin un motor de juego subyacente. Eso significa que incluso sin comprender las reglas fundamentales de un juego, la IA puede recrearlo con resultados convincentes.

GameGAN es el primer modelo de red neuronal que imita un motor de juego de computadora al aprovechar las redes adversas generativas, o GAN. Estas están formadas por dos redes neuronales competidoras, una generadora y una discriminadora, los modelos basados en GAN aprenden a crear contenido nuevo que sea lo suficientemente convincente como para pasar por el original.

Cuando un agente artificial juega el juego generado por GAN, GameGAN responde a las acciones del agente, generando nuevos cuadros del entorno del juego en tiempo real. GameGAN incluso puede generar instancias de juegos que nunca antes se habían visto, si se entrena en variantes del juego con múltiples niveles o versiones. Esta capacidad podría ser utilizada por los desarrolladores de juegos para generar automáticamente diseños para nuevos niveles de juego, así como por investigadores de IA para desarrollar más fácilmente sistemas de simulador para entrenar máquinas autónomas.

La edición GameGAN se basa en redes neuronales, en lugar de un motor de juego tradicional, para generar el entorno de PAC-MAN. No importa el juego, la GAN puede aprender sus reglas simplemente alimentándola con grabaciones de pantalla y pulsaciones de teclas de agentes pertenecientes a jugadas previas. No se utilizó programación ni imágenes renderizadas previamente para que el software hiciera la recreación. Los desarrolladores podrían usar esta capacidad para experimentar con nuevas ideas.

Los robots autónomos, por ejemplo, generalmente se entrenan en un simulador, donde la IA puede aprender las reglas de un entorno antes de interactuar con objetos en el mundo real. Crear un simulador es un proceso que lleva mucho tiempo para los desarrolladores, que deben codificar las reglas sobre cómo los objetos interactúan entre sí y cómo funciona la luz dentro del entorno. Los simuladores se utilizan para desarrollar máquinas autónomas de todo tipo, como robots de almacén que aprenden a agarrar y mover objetos, o robots de entrega que deben navegar por las aceras para transportar alimentos o medicamentos. GameGAN presenta la posibilidad de que el trabajo de escribir un simulador para tareas como estas pueda reemplazarse algún día simplemente entrenando una red neuronal.

 

40 Years on, PAC-MAN Recreated with AI by NVIDIA Researchers.

 

Una Red Neuronal descubrió la heliocentricidad por sí misma

inference-003

Una red neuronal pudo redescubrir uno de los cambios de paradigma más importantes en la historia científica: la Tierra y otros planetas giran alrededor del Sol. El logro sugiere que las técnicas de aprendizaje automático podrían algún día ayudar a revelar nuevas leyes de la física, tal vez incluso dentro del complejo ámbito de la mecánica cuántica. The results are set to appear in the journal Physical Review Letters, according to Nature.

La red neuronal, un algoritmo de aprendizaje automático llamado SciNet, mostró medidas de cómo el Sol y Marte aparecen desde la Tierra contra el fondo de estrellas fijo del cielo nocturno. La tarea de SciNet, asignada por un equipo de científicos del Instituto Federal Suizo de Tecnología, era predecir dónde estaría el Sol y Marte en puntos futuros. En el proceso, SciNet generó fórmulas que colocan al Sol en el centro de nuestro sistema solar. Sorprendentemente, SciNet logró esto de una manera similar a cómo el astrónomo Nicolaus Copérnico descubrió la heliocentricidad.

“En el siglo XVI, Copérnico midió los ángulos entre una estrella fija distante y varios planetas y cuerpos celestes e hipotetizó que el Sol, y no la Tierra, está en el centro de nuestro sistema solar y que los planetas se mueven alrededor del Sol en simples órbitas”, escribió el equipo en un artículo publicado en el repositorio de preimpresión arXiv. “Esto explica las complicadas órbitas vistas desde la Tierra”.

El equipo “alentó” a SciNet a encontrar formas de predecir los movimientos del Sol y Marte de la manera más simple posible. Para hacer eso, SciNet pasa información de ida y vuelta entre dos subredes. Una red “aprende” de los datos, y la otra usa ese conocimiento para hacer predicciones y probar su precisión. Estas redes están conectadas entre sí por unos pocos enlaces, por lo que cuando se comunican, la información se comprime, lo que da como resultado representaciones “más simples”. SciNet decidió que la forma más sencilla de predecir los movimientos de los cuerpos celestes era a través de un modelo que colocara al Sol en el centro de nuestro sistema solar. Entonces, la red neuronal no necesariamente “descubrió” la heliocentricidad, sino que la describió a través de matemática que los humanos pueden interpretar.

“En resumen, el objetivo principal de este trabajo es mostrar que las redes neuronales se pueden utilizar para descubrir conceptos físicos sin ningún conocimiento previo”, escribió el equipo de SciNet. “Para lograr este objetivo, introdujimos una arquitectura de red neuronal que modela el proceso de razonamiento físico. Los ejemplos ilustran que esta arquitectura nos permite extraer datos físicamente relevantes de los experimentos, sin imponer un mayor conocimiento sobre física o matemática”.

> A neural network discovered Copernicus’ heliocentricity on its own.

Desde modelos de galaxias hasta átomos, las IA aceleran las simulaciones millones de veces

neuarq-001

Modelar fenómenos naturales inmensamente complejos, como la interacción de las partículas subatómicas o la forma en que la neblina atmosférica afecta el clima, puede llevar muchas horas incluso en las supercomputadoras más rápidas. Los emuladores, algoritmos que aproximan rápidamente a estas simulaciones detalladas, ofrecen un atajo. Ahora, un nuevo trabajo muestra cómo la inteligencia artificial (IA) puede producir fácilmente emuladores precisos para acelerar las simulaciones en el orden de miles de millones de veces.

Una simulación de computadora típica podría calcular, en cada paso de tiempo, cómo las fuerzas físicas afectan a los átomos, las nubes, las galaxias, lo que sea que se esté modelando. Los emuladores, basados en aprendizaje automático, omiten la laboriosa reproducción de la naturaleza. Alimentados con las entradas y salidas de la simulación completa, los emuladores buscan patrones y aprenden a adivinar qué haría la simulación con las nuevas entradas. Pero crear datos de entrenamiento para ellos requiere ejecutar la simulación completa muchas veces, que es lo que se está tratando de evitar. Los nuevos emuladores se basan en redes neuronales y necesitan mucho menos entrenamiento con una técnica llamada búsqueda de arquitectura neuronal.

La técnica, llamada Deep Emulator Network Search (DENSE), se basa en esta búsqueda general de arquitectura neuronal desarrollada conjuntamente por Melody Guan, un científico de la computación de la Universidad de Stanford. Esta funciona insertando aleatoriamente capas de cálculo entre la entrada y la salida de las redes, y prueba entrenando el modelo resultante con datos limitados. Si la capa adicional mejora el rendimiento, es más probable que se incluya en futuras variaciones. Repetir el proceso mejora el emulador.

Los investigadores utilizaron DENSE para desarrollar emuladores para 10 simulaciones, en física, astronomía, geología y climatología. Una simulación, por ejemplo, modela la forma en que el hollín y otros aerosoles atmosféricos reflejan y absorben la luz solar, afectando el clima global. Estos emuladores se destacaron a pesar de usar muchos menos datos. Y al utilizar procesamiento con chips especializados fueron aproximadamente entre 100 mil y 2 mil millones de veces más rápidos que las simulaciones. Esa aceleración no es inusual para un emulador, pero estos fueron muy precisos: en una comparación, los resultados de un emulador de astronomía fueron más del 99.9% idénticos a los resultados de la simulación completa, y en las 10 simulaciones, los emuladores de redes neuronales fueron mucho mejores que los convencionales.

Los emuladores DENSE, además de ser rápidos y precisos, tienen otra aplicación poderosa. Pueden resolver “problemas inversos”, utilizando el emulador para identificar los mejores parámetros del modelo para predecir correctamente los resultados. Estos parámetros podrían usarse para mejorar las simulaciones completas. DENSE incluso podría permitir a los investigadores interpretar datos sobre la marcha, donde el tiempo es precioso.

From models of galaxies to atoms, simple AI shortcuts speed up simulations by billions of times.

 

Las máquinas están aprendiendo a escribir poesía

ajvoft

Ranjit Bhatnagar, artista y programador, inventó en 2012 Pentametron, un proyecto de arte que explora la Twittersfera en busca de tuits en formato pentámetro yámbico. Primero, utilizando un diccionario de pronunciación creado en Carnegie Mellon, creó un programa para contar sílabas y reconocer mediciones. Luego, con un código separado para identificar rimas, comenzó a armar sonetos. Para el primer Mes Nacional de Generación de Novelas (NaNoGenMo), en 2013, Bhatnagar presentó “¡Tengo un cocodrilo como mascota!“, Una colección de 504 sonetos creados con Pentametron. El código de Bhatnagar requería que cada línea fuera un tweet completo, o esencialmente un pensamiento completo (o al menos lo que cuenta como un pensamiento en Twitter). También hizo todo lo posible para cumplir con las estrictas reglas de metro y rima. Así es como “¡Buenas noches! Mañana es otro día 🙂” (los títulos también están escritos por una máquina), comienza:

I pay attention to the little shit
yeah, teacher aren’t trying anymore… 🙂
Not even going to encourage it.
I never been in twitter jail before ….

Two people wanna be in my bio ?
I wanted some banana pudding to
Don’t be a menace is a classic tho
Know what’s amazing? Johnnie Walker Blue

Another day another dollar tho.
Tomorrow is another awesome day
She going hard and he’s complaining so
I never liked Sabrina anyway.

Fuck my retainer has a crack in it
This Maybelline mascara is the shit!!!

En la colección más reciente de sonetos asistidos por computadora de Bhatnagar, “Encomials“, él relaja estas limitaciones. Bhatnagar se dio cuenta de que, para que una máquina produjera un trabajo que sonara generado por el hombre, tenía que lograr un delicado equilibrio entre precisión y autenticidad. “Si cometiera demasiados errores, entonces no se vería humano, por lo que espero que sean suficientes errores”, dijo.

Los algoritmos de Bhatnagar utilizan una inteligente combinación de minería de datos y coincidencia de patrones para construir sonetos a partir de la escoria de Twitter. Esto es más poesía como collage que verdadera composición. “Apenas soy poeta, pero, como muchos, tuve experiencias tempranas en la escuela aprendiendo a escribir poesía”, reconoce. “Entonces, si los niños pueden aprender a escribir poemas desde cero, ¿qué pasa con las máquinas? Pude comenzar a componer después de leer solo un puñado de ejemplos. Mi cerebro, como el cerebro de la mayoría de los niños, no necesitaba mucho material para comenzar el proceso de mimetismo.”

Con el aprendizaje automático, las computadoras podrían finalmente hacer lo mismo. Pero incluso las técnicas de aprendizaje automático más sofisticadas que existen, las redes neuronales profundas, necesitan muchos datos para entrenarse o ser más precisos en una tarea determinada. La arquitectura de la red neuronal ha sido una bendición para tareas como la traducción de idiomas y el reconocimiento de imágenes, en gran parte debido a la disponibilidad de datos. Pero, en ausencia de datos suficientes, las máquinas no pueden comenzar a aprender en primer lugar. Es por eso que la tarea aparentemente simple de enseñarle a una máquina a componer un soneto es una hazaña de programación tan compleja; el aprendizaje profundo necesita más datos que un niño de escuela promedio.

Kevin Knight, un científico de computación de la Universidad del Sur de California, fue uno de los primeros investigadores que estudió cómo las redes neuronales profundas podrían usarse para atacar los desafíos de la traducción. La experiencia general de Knight está en el procesamiento del lenguaje natural, el área de la informática que trata con los problemas de generar y comprender el lenguaje humano. En 2015, Marjan Ghazvininejad, uno de los estudiantes de posgrado de Knight, comenzó a trabajar en Hafez, un programa utilizado para generar sonetos y otras formas poéticas que llevan el nombre del letrista persa del siglo XIV. Había dos partes en su proyecto: primero, codificar las reglas para la composición, la plantilla que encajaría cada soneto, y luego decidir qué poner en la plantilla. La primera etapa fue fácil: los programadores son buenos para elaborar reglas, y los programas son buenos para seguirlas. Además, como explicó Knight, al equipo de Ghazvininejad se le ocurrieron algunas innovaciones inteligentes, como decirle a la computadora que primero escoja la última palabra de cada línea, y luego seleccionar pares de rimas que parecían tópicamente similares. Pero, ¿de dónde vendrían las palabras en primer lugar? A pesar de que el mundo de la poesía lírica es pobre en datos (no hay suficientes sonetos disponibles en Internet), Ghazvininejad y sus colaboradores se dieron cuenta de que el mundo cercano de las letras de las canciones es rico en datos. Su equipo decidió entrenar su programa en 95 mil canciones extraídas de la base de datos Music Lyrics. Para cada poema, Hafez respondió a un tema dado, luego recopiló palabras que rimaban dentro de la base de datos y las unió utilizando sus redes neuronales en constante mejora. El entrenamiento también ayudó a crear coherencia y estilo, el más esquivo de los toques humanos. Un poema, generado a partir de la palabra “wave“, tiene una sensación siniestra y futurista:

People picking up electric chronic.
The balance like a giant tidal wave,
Never ever feeling supersonic,
Or reaching any very shallow grave.

An open space between awaiting speed,
And looking at divine velocity.
A faceless nation under constant need,
Without another curiosity.

Or maybe going through the wave equation.
An ancient engine offers no momentum,
About the power from an old vibration,
And nothing but a little bit of venom.

Surrounded by a sin Omega T,
On the other side of you and me.

La dicción aquí se siente creíblemente consistente; “velocidad”, “impulso” y “vibración” pertenecen a un registro matemático similar. “Divino”, “omega” y “poder” crean otra línea de paso tonal. Además, hay un sentido de coherencia temática, destellos de narrativa.

Hafez fue presentado a las Pruebas de Turing 2016 en las Artes Creativas en Dartmouth. Una máquina pasa la prueba de Turing si puede demostrar que es indistinguible de un humano. El desafío de Hafez era engañar a los jueces para que pensaran que sus sonetos habían sido escritos por poetas reales. Al final, ganó la competencia, pero no pasó la prueba de Turing. Hafez era mejor que las otras máquinas, pero aún distinguible de una persona. Cuando los sonetos escritos por una máquina se intercalaban entre obras escritas por humanos, no hubo un sola IA poeta que pudiera engañar a la mayoría de los jueces de la competencia.

Dado el poder de las nuevas técnicas en inteligencia artificial, ¿por qué no pensar de manera más amplia sobre los tipos de arte que uno puede hacer al usarlo? Podríamos pensar en “generado por máquina” como una especie etiqueta, o podríamos pensar en ella como una categoría de arte completamente nueva y digna.

 

The Mechanical Muse.

 

Una red neuronal que puede hacer matemáticas avanzadas

inference-002

Guillaume Lample y Francois Charton, de Facebook AI Research en París, dicen que han entrenado una red neuronal para realizar el razonamiento simbólico necesario para diferenciar e integrar expresiones matemáticas por primera vez. El trabajo es un paso significativo hacia un razonamiento matemático más poderoso y una nueva forma de aplicar redes neuronales más allá de las tareas tradicionales de reconocimiento de patrones.

Las redes neuronales son muy eficaces en tareas como el reconocimiento de rostros y objetos, ciertos tipos de procesamiento del lenguaje natural, e incluso juegos como ajedrez, Go y Space Invaders. Pero a pesar de mucho esfuerzo, nadie ha sido capaz de entrenarlas para realizar tareas de razonamiento simbólico, como los involucrados en las matemáticas.

Una de las dificultades con las expresiones matemáticas avanzadas son las abreviaturas de las que dependen. Por ejemplo, la expresión es una forma abreviada de escribir x multiplicado por x multiplicado por x. En este ejemplo, “multiplicación” es la abreviatura de la suma repetida, que es en sí misma la abreviatura del valor total de dos cantidades combinadas. Incluso una expresión matemática simple es una descripción muy condensada de una secuencia de operaciones matemáticas mucho más simples.

Sin embargo, en un nivel fundamental, procesos como la integración y la diferenciación aún implican tareas de reconocimiento de patrones, aunque ocultas por las abreviaturas matemáticas. Lample y Charton encontraron una forma elegante para “descomprimir” abreviaturas matemáticas en sus unidades fundamentales. Enseñaron a una red neuronal a reconocer los patrones de manipulación matemática que son equivalentes a la integración y diferenciación . Y finalmente probaron el modelo con expresiones que nunca había visto y compararon los resultados con las respuestas resultantes de programas convencionales como Mathematica y Matlab.

La primera parte de este proceso es dividir las expresiones matemáticas en sus partes componentes. Esto se hace representando expresiones como estructuras en forma de árbol. Las hojas de estos árboles son números, constantes y variables como x; los nodos internos son operadores como suma, multiplicación, diferenciar con respecto a, etc. Estos árboles también se pueden escribir como secuencias, tomando cada nodo consecutivamente. De esta forma, están listos para ser procesados por un enfoque de red neuronal llamado seq2seq.

La siguiente etapa es el proceso de entrenamiento, y esto requiere una gran base de datos de ejemplos para aprender. Lample y Charton crean esta base de datos mediante el armado aleatorio de expresiones matemáticas de una biblioteca de operadores binarios. De esta forma, los investigadores generaron un conjunto de datos de entrenamiento masivo que consiste en 80 millones de ejemplos de ecuaciones diferenciales de primer y segundo orden y 20 millones de ejemplos de expresiones integradas por partes.

Finalmente la red neuronal es puesta a prueba al alimentarla con 5000 expresiones que nunca antes había visto y comparar los resultados que produce con 500 casos provenientes de programas disponibles comercialmente, como Maple, Matlab y Mathematica. Las comparaciones entre estos y el enfoque de la red neuronal son reveladoras. “En todas las tareas, observamos que nuestro modelo supera significativamente a Mathematica”, dicen los investigadores. “En la integración de funciones, nuestro modelo obtiene una precisión cercana al 100%, mientras que Mathematica apenas alcanza el 85%”. Y los paquetes Maple y Matlab tienen un rendimiento inferior en promedio a Mathematica. En muchos casos inclusive, los programas convencionales no pueden encontrar una solución dentro de los 30 segundos. En comparación, la red neuronal tarda aproximadamente un segundo en encontrar sus soluciones.

Ese es un avance significativo. “Hasta donde sabemos, ningún estudio ha investigado la capacidad de las redes neuronales para detectar patrones en expresiones matemáticas”. Ahora que lo han hecho, el resultado claramente tiene un enorme potencial en el cada vez más importante y complejo mundo de las matemáticas computacionales.

Facebook has a neural network that can do advanced math.

 

Pionero de la IA quiere que sus algoritmos entiendan el ‘por qué’.

inference-001

Yoshua Bengio recibió una parte del Premio Turing, el más alto galardón en informática, por sus contribuciones al desarrollo del aprendizaje profundo. Ahora dice que la disciplina no alcanzará todo su potencial, y no ofrecerá una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y pueda aprender más sobre causa y efecto. En otras palabras, cree que el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.

Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. Estos algoritmos no pueden explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.

En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un artículo que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales. El algoritmo esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.

El trabajo de Bengio sobre la causalidad podrá ser un pequeño paso para responder esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma.

An AI Pioneer Wants His Algorithms to Understand the ‘Why’.

 

Una IA lee las políticas de privacidad por usted

readcompr-002

Las políticas de privacidad pueden ser muy densas y confusas teniendo en cuenta que están llenas de trucos y palabras legales intencionalmente oscuras. No es extraño que casi nadie se moleste en leerlas, simplemente hemos aceptado que estamos renunciando a nuestros datos y, en parte, a nuestros derechos.

Pero gracias a esta nueva IA de lectura de políticas, las cosas no tendrán que ser así por mucho más tiempo. Guard es una aplicación basada en redes neuronales recurrentes que lee y analiza los términos de privacidad, para que usted no tenga que hacerlo. Si bien aún no puede examinar las políticas a pedido, la IA ha calificado los términos de privacidad de una serie de servicios populares como Netflix, Instagram, Twitter y Tinder.

Lo particularmente ingenioso de Guard es que no solo otorga una puntuación general, sino que también desglosa las principales amenazas incluidas en las políticas de privacidad. También enumera la cantidad total de amenazas y analiza los escándalos de privacidad anteriores en los que ha estado involucrado un servicio. La aplicación fue desarrollada por Javi Rameerez, quien creó el software como parte de su tesis sobre IA y procesamiento de lenguaje natural. Puedes leer más sobre la tecnología detrás de esto aquí.

Solo un aviso: parece que la IA no siempre capta todas las preocupaciones de privacidad, por ejemplo a Telegram le otorga una calificación de “A+”, señalando que “no tiene ninguna amenaza de privacidad”. Sin embargo, Telegram tuvo que corregir un error que almacenaba accidentalmente imágenes y sufrió una falla que hizo posible acechar a algunos usuarios.

Sin embargo, es de esperar que estas deficiencias disminuyan a medida que la IA sigue aprendiendo, y aquí es donde su aporte puede ser de ayuda. Guard está ejecutando una prueba rápida donde los humanos pueden darle instrucciones sobre qué políticas de privacidad son más fáciles de usar. Eso debería ayudar a la IA a identificar de manera más eficiente los términos de privacidad potencialmente dañinos.

 

> AI Reads Privacy Policies So You Don’t Have To — and It’s Actually Pretty Good.