El PAC-MAN fue recreado por una Red Adversaria-Generativa

Para el 40º aniversario del PAC-MAN la compañía NVIDIA creó una recreación del juego utilizando redes neuronales artificiales. Entrenado en 50.000 partidas del juego, un nuevo modelo creado por NVIDIA Research, llamado GameGAN, puede generar una versión completamente funcional de PAC-MAN, sin un motor de juego subyacente. Eso significa que incluso sin comprender las reglas fundamentales de un juego, la IA puede recrearlo con resultados convincentes.

GameGAN es el primer modelo de red neuronal que imita un motor de juego de computadora al aprovechar las redes adversas generativas, o GAN. Estas están formadas por dos redes neuronales competidoras, una generadora y una discriminadora, los modelos basados en GAN aprenden a crear contenido nuevo que sea lo suficientemente convincente como para pasar por el original.

Cuando un agente artificial juega el juego generado por GAN, GameGAN responde a las acciones del agente, generando nuevos cuadros del entorno del juego en tiempo real. GameGAN incluso puede generar instancias de juegos que nunca antes se habían visto, si se entrena en variantes del juego con múltiples niveles o versiones. Esta capacidad podría ser utilizada por los desarrolladores de juegos para generar automáticamente diseños para nuevos niveles de juego, así como por investigadores de IA para desarrollar más fácilmente sistemas de simulador para entrenar máquinas autónomas.

La edición GameGAN se basa en redes neuronales, en lugar de un motor de juego tradicional, para generar el entorno de PAC-MAN. No importa el juego, la GAN puede aprender sus reglas simplemente alimentándola con grabaciones de pantalla y pulsaciones de teclas de agentes pertenecientes a jugadas previas. No se utilizó programación ni imágenes renderizadas previamente para que el software hiciera la recreación. Los desarrolladores podrían usar esta capacidad para experimentar con nuevas ideas.

Los robots autónomos, por ejemplo, generalmente se entrenan en un simulador, donde la IA puede aprender las reglas de un entorno antes de interactuar con objetos en el mundo real. Crear un simulador es un proceso que lleva mucho tiempo para los desarrolladores, que deben codificar las reglas sobre cómo los objetos interactúan entre sí y cómo funciona la luz dentro del entorno. Los simuladores se utilizan para desarrollar máquinas autónomas de todo tipo, como robots de almacén que aprenden a agarrar y mover objetos, o robots de entrega que deben navegar por las aceras para transportar alimentos o medicamentos. GameGAN presenta la posibilidad de que el trabajo de escribir un simulador para tareas como estas pueda reemplazarse algún día simplemente entrenando una red neuronal.

 

40 Years on, PAC-MAN Recreated with AI by NVIDIA Researchers.

 

Una Red Neuronal descubrió la heliocentricidad por sí misma

inference-003

Una red neuronal pudo redescubrir uno de los cambios de paradigma más importantes en la historia científica: la Tierra y otros planetas giran alrededor del Sol. El logro sugiere que las técnicas de aprendizaje automático podrían algún día ayudar a revelar nuevas leyes de la física, tal vez incluso dentro del complejo ámbito de la mecánica cuántica. The results are set to appear in the journal Physical Review Letters, according to Nature.

La red neuronal, un algoritmo de aprendizaje automático llamado SciNet, mostró medidas de cómo el Sol y Marte aparecen desde la Tierra contra el fondo de estrellas fijo del cielo nocturno. La tarea de SciNet, asignada por un equipo de científicos del Instituto Federal Suizo de Tecnología, era predecir dónde estaría el Sol y Marte en puntos futuros. En el proceso, SciNet generó fórmulas que colocan al Sol en el centro de nuestro sistema solar. Sorprendentemente, SciNet logró esto de una manera similar a cómo el astrónomo Nicolaus Copérnico descubrió la heliocentricidad.

“En el siglo XVI, Copérnico midió los ángulos entre una estrella fija distante y varios planetas y cuerpos celestes e hipotetizó que el Sol, y no la Tierra, está en el centro de nuestro sistema solar y que los planetas se mueven alrededor del Sol en simples órbitas”, escribió el equipo en un artículo publicado en el repositorio de preimpresión arXiv. “Esto explica las complicadas órbitas vistas desde la Tierra”.

El equipo “alentó” a SciNet a encontrar formas de predecir los movimientos del Sol y Marte de la manera más simple posible. Para hacer eso, SciNet pasa información de ida y vuelta entre dos subredes. Una red “aprende” de los datos, y la otra usa ese conocimiento para hacer predicciones y probar su precisión. Estas redes están conectadas entre sí por unos pocos enlaces, por lo que cuando se comunican, la información se comprime, lo que da como resultado representaciones “más simples”. SciNet decidió que la forma más sencilla de predecir los movimientos de los cuerpos celestes era a través de un modelo que colocara al Sol en el centro de nuestro sistema solar. Entonces, la red neuronal no necesariamente “descubrió” la heliocentricidad, sino que la describió a través de matemática que los humanos pueden interpretar.

“En resumen, el objetivo principal de este trabajo es mostrar que las redes neuronales se pueden utilizar para descubrir conceptos físicos sin ningún conocimiento previo”, escribió el equipo de SciNet. “Para lograr este objetivo, introdujimos una arquitectura de red neuronal que modela el proceso de razonamiento físico. Los ejemplos ilustran que esta arquitectura nos permite extraer datos físicamente relevantes de los experimentos, sin imponer un mayor conocimiento sobre física o matemática”.

> A neural network discovered Copernicus’ heliocentricity on its own.

Desde modelos de galaxias hasta átomos, las IA aceleran las simulaciones millones de veces

neuarq-001

Modelar fenómenos naturales inmensamente complejos, como la interacción de las partículas subatómicas o la forma en que la neblina atmosférica afecta el clima, puede llevar muchas horas incluso en las supercomputadoras más rápidas. Los emuladores, algoritmos que aproximan rápidamente a estas simulaciones detalladas, ofrecen un atajo. Ahora, un nuevo trabajo muestra cómo la inteligencia artificial (IA) puede producir fácilmente emuladores precisos para acelerar las simulaciones en el orden de miles de millones de veces.

Una simulación de computadora típica podría calcular, en cada paso de tiempo, cómo las fuerzas físicas afectan a los átomos, las nubes, las galaxias, lo que sea que se esté modelando. Los emuladores, basados en aprendizaje automático, omiten la laboriosa reproducción de la naturaleza. Alimentados con las entradas y salidas de la simulación completa, los emuladores buscan patrones y aprenden a adivinar qué haría la simulación con las nuevas entradas. Pero crear datos de entrenamiento para ellos requiere ejecutar la simulación completa muchas veces, que es lo que se está tratando de evitar. Los nuevos emuladores se basan en redes neuronales y necesitan mucho menos entrenamiento con una técnica llamada búsqueda de arquitectura neuronal.

La técnica, llamada Deep Emulator Network Search (DENSE), se basa en esta búsqueda general de arquitectura neuronal desarrollada conjuntamente por Melody Guan, un científico de la computación de la Universidad de Stanford. Esta funciona insertando aleatoriamente capas de cálculo entre la entrada y la salida de las redes, y prueba entrenando el modelo resultante con datos limitados. Si la capa adicional mejora el rendimiento, es más probable que se incluya en futuras variaciones. Repetir el proceso mejora el emulador.

Los investigadores utilizaron DENSE para desarrollar emuladores para 10 simulaciones, en física, astronomía, geología y climatología. Una simulación, por ejemplo, modela la forma en que el hollín y otros aerosoles atmosféricos reflejan y absorben la luz solar, afectando el clima global. Estos emuladores se destacaron a pesar de usar muchos menos datos. Y al utilizar procesamiento con chips especializados fueron aproximadamente entre 100 mil y 2 mil millones de veces más rápidos que las simulaciones. Esa aceleración no es inusual para un emulador, pero estos fueron muy precisos: en una comparación, los resultados de un emulador de astronomía fueron más del 99.9% idénticos a los resultados de la simulación completa, y en las 10 simulaciones, los emuladores de redes neuronales fueron mucho mejores que los convencionales.

Los emuladores DENSE, además de ser rápidos y precisos, tienen otra aplicación poderosa. Pueden resolver “problemas inversos”, utilizando el emulador para identificar los mejores parámetros del modelo para predecir correctamente los resultados. Estos parámetros podrían usarse para mejorar las simulaciones completas. DENSE incluso podría permitir a los investigadores interpretar datos sobre la marcha, donde el tiempo es precioso.

From models of galaxies to atoms, simple AI shortcuts speed up simulations by billions of times.

 

Una red neuronal que puede hacer matemáticas avanzadas

inference-002

Guillaume Lample y Francois Charton, de Facebook AI Research en París, dicen que han entrenado una red neuronal para realizar el razonamiento simbólico necesario para diferenciar e integrar expresiones matemáticas por primera vez. El trabajo es un paso significativo hacia un razonamiento matemático más poderoso y una nueva forma de aplicar redes neuronales más allá de las tareas tradicionales de reconocimiento de patrones.

Las redes neuronales son muy eficaces en tareas como el reconocimiento de rostros y objetos, ciertos tipos de procesamiento del lenguaje natural, e incluso juegos como ajedrez, Go y Space Invaders. Pero a pesar de mucho esfuerzo, nadie ha sido capaz de entrenarlas para realizar tareas de razonamiento simbólico, como los involucrados en las matemáticas.

Una de las dificultades con las expresiones matemáticas avanzadas son las abreviaturas de las que dependen. Por ejemplo, la expresión es una forma abreviada de escribir x multiplicado por x multiplicado por x. En este ejemplo, “multiplicación” es la abreviatura de la suma repetida, que es en sí misma la abreviatura del valor total de dos cantidades combinadas. Incluso una expresión matemática simple es una descripción muy condensada de una secuencia de operaciones matemáticas mucho más simples.

Sin embargo, en un nivel fundamental, procesos como la integración y la diferenciación aún implican tareas de reconocimiento de patrones, aunque ocultas por las abreviaturas matemáticas. Lample y Charton encontraron una forma elegante para “descomprimir” abreviaturas matemáticas en sus unidades fundamentales. Enseñaron a una red neuronal a reconocer los patrones de manipulación matemática que son equivalentes a la integración y diferenciación . Y finalmente probaron el modelo con expresiones que nunca había visto y compararon los resultados con las respuestas resultantes de programas convencionales como Mathematica y Matlab.

La primera parte de este proceso es dividir las expresiones matemáticas en sus partes componentes. Esto se hace representando expresiones como estructuras en forma de árbol. Las hojas de estos árboles son números, constantes y variables como x; los nodos internos son operadores como suma, multiplicación, diferenciar con respecto a, etc. Estos árboles también se pueden escribir como secuencias, tomando cada nodo consecutivamente. De esta forma, están listos para ser procesados por un enfoque de red neuronal llamado seq2seq.

La siguiente etapa es el proceso de entrenamiento, y esto requiere una gran base de datos de ejemplos para aprender. Lample y Charton crean esta base de datos mediante el armado aleatorio de expresiones matemáticas de una biblioteca de operadores binarios. De esta forma, los investigadores generaron un conjunto de datos de entrenamiento masivo que consiste en 80 millones de ejemplos de ecuaciones diferenciales de primer y segundo orden y 20 millones de ejemplos de expresiones integradas por partes.

Finalmente la red neuronal es puesta a prueba al alimentarla con 5000 expresiones que nunca antes había visto y comparar los resultados que produce con 500 casos provenientes de programas disponibles comercialmente, como Maple, Matlab y Mathematica. Las comparaciones entre estos y el enfoque de la red neuronal son reveladoras. “En todas las tareas, observamos que nuestro modelo supera significativamente a Mathematica”, dicen los investigadores. “En la integración de funciones, nuestro modelo obtiene una precisión cercana al 100%, mientras que Mathematica apenas alcanza el 85%”. Y los paquetes Maple y Matlab tienen un rendimiento inferior en promedio a Mathematica. En muchos casos inclusive, los programas convencionales no pueden encontrar una solución dentro de los 30 segundos. En comparación, la red neuronal tarda aproximadamente un segundo en encontrar sus soluciones.

Ese es un avance significativo. “Hasta donde sabemos, ningún estudio ha investigado la capacidad de las redes neuronales para detectar patrones en expresiones matemáticas”. Ahora que lo han hecho, el resultado claramente tiene un enorme potencial en el cada vez más importante y complejo mundo de las matemáticas computacionales.

Facebook has a neural network that can do advanced math.

 

Pionero de la IA quiere que sus algoritmos entiendan el ‘por qué’.

inference-001

Yoshua Bengio recibió una parte del Premio Turing, el más alto galardón en informática, por sus contribuciones al desarrollo del aprendizaje profundo. Ahora dice que la disciplina no alcanzará todo su potencial, y no ofrecerá una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y pueda aprender más sobre causa y efecto. En otras palabras, cree que el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.

Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. Estos algoritmos no pueden explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.

En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un artículo que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales. El algoritmo esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.

El trabajo de Bengio sobre la causalidad podrá ser un pequeño paso para responder esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma.

An AI Pioneer Wants His Algorithms to Understand the ‘Why’.

 

Un gran avance para la I.A.: Aprobar un examen de ciencias de octavo grado

textqa-001

Hace cuatro años, más de 700 informáticos compitieron en un concurso para desarrollar una inteligencia artificial que pudiera pasar un examen de ciencias de octavo grado. Había $ 80.000 en premios en juego. Todos fallaron. Incluso el sistema más sofisticado no pudo superar el 60 por ciento en la prueba. La IA no podía igualar las habilidades de lenguaje y lógica que se espera que los estudiantes tengan cuando ingresen a la escuela secundaria.

Pero recientemente, el Instituto Allen de Inteligencia Artificial, un laboratorio prominente en Seattle, dio a conocer un nuevo sistema que pasó la prueba con espacio de sobra. Respondió correctamente más del 90 por ciento de las preguntas en un examen de ciencias de octavo grado y más del 80 por ciento en un examen de 12° grado.

El sistema, llamado Aristo, fue construido únicamente para pruebas de opción múltiple. Tomó exámenes estándar escritos para estudiantes en Nueva York, aunque el Instituto Allen eliminó todas las preguntas que incluían imágenes y diagramas. Responder preguntas como esas habría requerido habilidades adicionales que combinan la comprensión del lenguaje y la lógica con la llamada visión por computadora.

Algunas preguntas de la prueba requirieron solo poco más que recuperación de información, pero otras requerían lógica.

Un grupo de tejidos que trabajan juntos para realizar una función específica se llama:
(1) un órgano, (2) un organismo, (3) un sistema, (4) una célula.

¿Qué cambio probablemente causaría una disminución en el número de ardillas que viven en un área?
(1) una disminución en el número de depredadores, (2) una disminución en la competencia entre las ardillas, (3) un aumento en la comida disponible, (4) un aumento en el número de incendios forestales.

El trabajo fue impulsado en gran medida por redes neuronales, sistemas matemáticos complejos que pueden aprender tareas mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de perros, por ejemplo, una red neuronal puede aprender a reconocer a un perro.  En Google, los investigadores crearon un sistema llamado Bert que revisó miles de artículos de Wikipedia y una vasta biblioteca digital de novelas románticas, ciencia ficción y otros libros autoeditados. Al analizar todo ese texto, Bert aprendió a adivinar la palabra que faltaba en una oración. Al aprender esa habilidad, Bert absorbió enormes cantidades de información sobre las formas fundamentales en que se construye el lenguaje. Y los investigadores podrían aplicar ese conocimiento a otras tareas. El Instituto Allen construyó su sistema Aristo sobre la tecnología Bert. Alimentaron a Bert con una amplia gama de preguntas y respuestas. Con el tiempo, aprendió a responder preguntas similares por su cuenta.

Ahora los investigadores han intentado construir un sistema que pueda aprobar el Examen de Ingreso de Grado, la prueba requerida para la admisión a la universidad. La sección de lenguaje era factible, dijeron, pero desarrollar las habilidades de razonamiento requeridas para la sección de matemáticas era otra cuestión. “Fue demasiado difícil”.

 

A Breakthrough for A.I. Technology: Passing an 8th-Grade Science Test.

 

IBM comparte el código de sus proyectos en IA para combatir el cáncer

medicine-001

IBM ha lanzado a la comunidad de código abierto tres proyectos de inteligencia artificial (IA) diseñados para asumir el desafío de curar el cáncer.  Se estima que el cáncer causó 9.6 millones de muertes en 2018, con un estimado de 18 millones de casos nuevos reportados en el mismo año. Los investigadores del grupo de Biología de Sistemas Computacionales de IBM en Zurich están trabajando en enfoques de IA y aprendizaje automático (ML) para “ayudar a acelerar nuestra comprensión de los principales impulsores y mecanismos moleculares de estas enfermedades complejas”, así como métodos para mejorar nuestro conocimiento de la composición de tumores.

El primer proyecto, denominado PaccMann, que no debe confundirse con el popular juego de computadora Pac-Man, se describe como la “Predicción de la sensibilidad del compuesto anticancerígeno con redes neuronales multimodales basadas en la atención”. IBM está trabajando en el algoritmo PaccMann para analizar automáticamente los compuestos químicos y predecir cuáles son los más propensos a combatir las cepas de cáncer, lo que podría acelerar este proceso. El algoritmo explota los datos sobre la expresión génica, así como las estructuras moleculares de los compuestos químicos. IBM dice que al identificar antes los posibles compuestos anticancerígenos puede reducir los costos asociados con el desarrollo de fármacos.

El segundo proyecto se llama “Influencia de la red de interacción de las representaciones vectoR de palabras”, también conocido como INtERAcT. Esta herramienta es particularmente interesante dada su extracción automática de datos de valiosos artículos científicos relacionados con nuestra comprensión del cáncer. INtERAcT tiene como objetivo hacer que el lado académico de la investigación sea menos pesado mediante la extracción automática de información de estos documentos. En este momento, la herramienta se está probando para extraer datos relacionados con las interacciones proteína-proteína, un área de estudio que se ha marcado como una posible causa de la interrupción de los procesos biológicos en enfermedades como el cáncer.

El tercer y último proyecto es el “aprendizaje de kernel múltiple inducido por la vía” o PIMKL. Este algoritmo utiliza conjuntos de datos que describen lo que sabemos actualmente sobre interacciones moleculares para predecir la progresión del cáncer y las posibles recaídas en los pacientes. PIMKL utiliza lo que se conoce como aprendizaje de múltiples núcleos para identificar vías moleculares cruciales para clasificar a los pacientes, brindando a los profesionales de la salud la oportunidad de individualizar y adaptar los planes de tratamiento.

El código de PaccMann e INtERAcT ha sido lanzado y está disponible en los sitios web de los proyectos. PIMKL se ha implementado en IBM Cloud y también se ha publicado el código fuente. Cada proyecto es de código abierto y ahora está disponible en el dominio público. IBM espera que al hacer que el código fuente esté disponible para otros investigadores y académicos, la comunidad científica pueda maximizar su impacto potencial.

 

IBM Gives Cancer-Killing Drug AI Project To the Open Source Community.

 

Intel presenta una computadora neuromórfica capaz de simular 8 millones de neuronas

neuromorphic-board

La ingeniería neuromórfica, también conocida como computación neuromórfica, describe el uso de sistemas que contienen circuitos analógicos electrónicos para imitar arquitecturas neurobiológicas presentes en el sistema nervioso.  Intel dio a conocer un sistema con el nombre “Pohoiki Beach”, una computadora de 64 chips capaz de simular 8 millones de neuronas en total.

Pohoiki Beach empaca 64 chips neuromórficos Loihi de 128 núcleos y 14 nanómetros, que se detallaron por primera vez en Octubre de 2017 en el taller Neuro Inspired Computational Elements (NICE) en Oregon. Tienen un tamaño de matriz de 60 milímetros y contienen más de 2 mil millones de transistores, 130.000 neuronas artificiales y 130 millones de sinapsis, además de tres núcleos de Lakemont para la orquestación de tareas. Excepcionalmente, Loihi cuenta con un motor de aprendizaje de microcódigo programable para el entrenamiento del chip de redes neuronales de pulso asíncrono (Spiking Neural Networks, SNN): modelos de inteligencia artificial que incorporan tiempo en su modelo operativo, de modo que los componentes del modelo no procesan datos de entrada simultáneamente. Esto se utilizará para la implementación de cálculos paralelos adaptativos, auto modificables, impulsados por eventos, y de alta precisión y eficiencia.

Las herramientas de desarrollo de Loihi comprenden la API en Python, un compilador y un conjunto de bibliotecas de tiempo de ejecución para construir y ejecutar SNN en Loihi. Esto proporciona una forma de crear un esquema de neuronas y sinapsis con configuraciones personalizadas, como el tiempo de caída, los pesos sinápticos y los umbrales de picos, y un medio para simular esos esquemas mediante la inyección de pulsos externos a través de reglas de aprendizaje personalizadas.

Según Intel, Loihi procesa información hasta 1.000 veces más rápido y 10.000 más eficientemente que los procesadores tradicionales, y puede resolver ciertos tipos de problemas de optimización con más de tres órdenes de magnitud en velocidad y eficiencia energética en comparación con las operaciones convencionales de CPU. Además, el fabricante de chips afirma que Loihi mantiene resultados de rendimiento en tiempo real y usa solo un 30% más de potencia cuando se amplía 50 veces, mientras que el hardware tradicional usa un 500% más de potencia. Y dice que el chip consume aproximadamente 100 veces menos energía que los métodos de mapeo y ubicación simultáneos utilizados por la CPU.

 

Intel’s Pohoiki Beach is a Neuromorphic Computer Capable of Simulating 8 Million Neurons.

 

Redes neuronales se han utilizado para traducir automáticamente idiomas perdidos

wordvect-001

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de inteligencia artificial de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático capaz de descifrar idiomas perdidos, y lo han demostrado en un manuscrito de la isla mediterránea de Creta. El manuscrito, Linear B, apareció después de 1400 aC, cuando la isla fue conquistada por los micénicos del continente griego.

La idea detrás de la traducción automática es comprender que las palabras están relacionadas entre sí de manera similar, independientemente del idioma involucrado. El proceso comienza al trazar estas relaciones para un lenguaje específico. Esto requiere enormes bases de datos de texto. Luego, una máquina busca en este texto para ver con qué frecuencia aparece cada palabra junto a otras. Este patrón de aparición es una firma única que define la palabra en un espacio de parámetros multidimensional. De hecho, la palabra puede considerarse como un vector dentro de este espacio. Y este vector actúa como una poderosa restricción sobre cómo puede aparecer la palabra en cualquier traducción.

Luo y sus colegas pusieron a prueba la técnica con dos idiomas perdidos, Linear B y Ugaritic. Los lingüistas saben que Linear B codifica una versión temprana del griego antiguo y que Ugaritic, que fue descubierto en 1929, es una forma temprana de hebreo. Dada la información y las restricciones impuestas por la evolución lingüística, la máquina de Luo y sus colegas puede traducir ambos idiomas con notable precisión. “Pudimos traducir correctamente el 67,3% de Linear B en sus equivalentes griegos”. “Por lo que sabemos, nuestro experimento es el primer intento de descifrar Linear B automáticamente”.

Es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca se han descifrado, como Linear A. En este documento, Linear A brilla por su ausencia. Luo y sus colegas ni siquiera lo mencionan, pero debe tener una gran importancia en su pensamiento, como lo hace para todos los lingüistas. Sin embargo, aún se necesitan importantes avances antes de que este manuscrito sea susceptible de traducción automática. Por ejemplo, nadie sabe qué idioma codifica. Los intentos de descifrarlo en griego antiguo han fracasado. Y sin el lenguaje progenitor, la nueva técnica no funciona.

 

Machine Learning Has Been Used To Automatically Translate Long-Lost Languages.

 

AI entrenada en viejos artículos científicos hace descubrimientos que los humanos pasaron por alto

41586_2019_1335_fig4_esm

Usando solo el lenguaje en artículos científicos antigüos, un algoritmo de aprendizaje automático fue capaz de hacer descubrimientos científicos completamente nuevos. En un estudio publicado en Nature el 3 de julio, los investigadores del Laboratorio Nacional Lawrence Berkeley utilizaron un algoritmo llamado Word2Vec para analizar artículos científicos buscando conexiones que los humanos hubieran pasado por alto. Su algoritmo arrojó predicciones para posibles materiales termoeléctricos, que convierten el calor en energía y se utilizan en muchas aplicaciones de calefacción y refrigeración. Sin embargo, el algoritmo no conocía la definición de termoeléctrico. No recibió formación en ciencia de los materiales. Usando solo asociaciones de palabras, el algoritmo pudo proporcionar candidatos para futuros materiales termoeléctricos, algunos de los cuales pueden ser mejores que los que utilizamos actualmente.

Para entrenar el algoritmo, los investigadores evaluaron el lenguaje en 3.3 millones de resúmenes relacionados con la ciencia de los materiales y terminaron con un vocabulario de aproximadamente 500,000 palabras. Alimentaron los resúmenes a Word2vec, que utiliza redes neuronales artificiales para analizar las relaciones entre las palabras. El algoritmo vinculó las palabras que se encontraron juntas, creando vectores de palabras relacionadas que ayudaron a definir conceptos. En algunos casos, las palabras estaban vinculadas a conceptos termoeléctricos, pero nunca habían sido escritas como termoeléctricas en ningún resumen considerado. Esta brecha en el conocimiento es difícil de atrapar con un ojo humano, pero es fácil de detectar para un algoritmo.

Después de mostrar su capacidad para predecir materiales futuros, los investigadores llevaron su trabajo en el tiempo, virtualmente. Desecharon datos recientes y probaron el algoritmo en documentos antiguos, viendo si podía predecir descubrimientos científicos antes de que sucedieran. Una vez más, el algoritmo funcionó. En un experimento, los investigadores analizaron solo los artículos publicados antes de 2009 y pudieron predecir uno de los mejores materiales termoeléctricos modernos cuatro años antes de que se descubriera en 2012.

Esta nueva aplicación de aprendizaje automático va más allá de la ciencia de los materiales. Debido a que no está atado a un conjunto de datos específicos, podría ser aplicado fácilmente a otras disciplinas, y volver a entrenarlo en la literatura de cualquier tema que se desee.

 

AI Trained on Old Scientific Papers Makes Discoveries Humans Missed.