Intel presenta una computadora neuromórfica capaz de simular 8 millones de neuronas

neuromorphic-board

La ingeniería neuromórfica, también conocida como computación neuromórfica, describe el uso de sistemas que contienen circuitos analógicos electrónicos para imitar arquitecturas neurobiológicas presentes en el sistema nervioso.  Intel dio a conocer un sistema con el nombre “Pohoiki Beach”, una computadora de 64 chips capaz de simular 8 millones de neuronas en total.

Pohoiki Beach empaca 64 chips neuromórficos Loihi de 128 núcleos y 14 nanómetros, que se detallaron por primera vez en Octubre de 2017 en el taller Neuro Inspired Computational Elements (NICE) en Oregon. Tienen un tamaño de matriz de 60 milímetros y contienen más de 2 mil millones de transistores, 130.000 neuronas artificiales y 130 millones de sinapsis, además de tres núcleos de Lakemont para la orquestación de tareas. Excepcionalmente, Loihi cuenta con un motor de aprendizaje de microcódigo programable para el entrenamiento del chip de redes neuronales de pulso asíncrono (Spiking Neural Networks, SNN): modelos de inteligencia artificial que incorporan tiempo en su modelo operativo, de modo que los componentes del modelo no procesan datos de entrada simultáneamente. Esto se utilizará para la implementación de cálculos paralelos adaptativos, auto modificables, impulsados por eventos, y de alta precisión y eficiencia.

Las herramientas de desarrollo de Loihi comprenden la API en Python, un compilador y un conjunto de bibliotecas de tiempo de ejecución para construir y ejecutar SNN en Loihi. Esto proporciona una forma de crear un esquema de neuronas y sinapsis con configuraciones personalizadas, como el tiempo de caída, los pesos sinápticos y los umbrales de picos, y un medio para simular esos esquemas mediante la inyección de pulsos externos a través de reglas de aprendizaje personalizadas.

Según Intel, Loihi procesa información hasta 1.000 veces más rápido y 10.000 más eficientemente que los procesadores tradicionales, y puede resolver ciertos tipos de problemas de optimización con más de tres órdenes de magnitud en velocidad y eficiencia energética en comparación con las operaciones convencionales de CPU. Además, el fabricante de chips afirma que Loihi mantiene resultados de rendimiento en tiempo real y usa solo un 30% más de potencia cuando se amplía 50 veces, mientras que el hardware tradicional usa un 500% más de potencia. Y dice que el chip consume aproximadamente 100 veces menos energía que los métodos de mapeo y ubicación simultáneos utilizados por la CPU.

 

Intel’s Pohoiki Beach is a Neuromorphic Computer Capable of Simulating 8 Million Neurons.

 

Anuncios

Redes neuronales se han utilizado para traducir automáticamente idiomas perdidos

wordvect-001

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de inteligencia artificial de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático capaz de descifrar idiomas perdidos, y lo han demostrado en un manuscrito de la isla mediterránea de Creta. El manuscrito, Linear B, apareció después de 1400 aC, cuando la isla fue conquistada por los micénicos del continente griego.

La idea detrás de la traducción automática es comprender que las palabras están relacionadas entre sí de manera similar, independientemente del idioma involucrado. El proceso comienza al trazar estas relaciones para un lenguaje específico. Esto requiere enormes bases de datos de texto. Luego, una máquina busca en este texto para ver con qué frecuencia aparece cada palabra junto a otras. Este patrón de aparición es una firma única que define la palabra en un espacio de parámetros multidimensional. De hecho, la palabra puede considerarse como un vector dentro de este espacio. Y este vector actúa como una poderosa restricción sobre cómo puede aparecer la palabra en cualquier traducción.

Luo y sus colegas pusieron a prueba la técnica con dos idiomas perdidos, Linear B y Ugaritic. Los lingüistas saben que Linear B codifica una versión temprana del griego antiguo y que Ugaritic, que fue descubierto en 1929, es una forma temprana de hebreo. Dada la información y las restricciones impuestas por la evolución lingüística, la máquina de Luo y sus colegas puede traducir ambos idiomas con notable precisión. “Pudimos traducir correctamente el 67,3% de Linear B en sus equivalentes griegos”. “Por lo que sabemos, nuestro experimento es el primer intento de descifrar Linear B automáticamente”.

Es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca se han descifrado, como Linear A. En este documento, Linear A brilla por su ausencia. Luo y sus colegas ni siquiera lo mencionan, pero debe tener una gran importancia en su pensamiento, como lo hace para todos los lingüistas. Sin embargo, aún se necesitan importantes avances antes de que este manuscrito sea susceptible de traducción automática. Por ejemplo, nadie sabe qué idioma codifica. Los intentos de descifrarlo en griego antiguo han fracasado. Y sin el lenguaje progenitor, la nueva técnica no funciona.

 

Machine Learning Has Been Used To Automatically Translate Long-Lost Languages.

 

AI entrenada en viejos artículos científicos hace descubrimientos que los humanos pasaron por alto

41586_2019_1335_fig4_esm

Usando solo el lenguaje en artículos científicos antigüos, un algoritmo de aprendizaje automático fue capaz de hacer descubrimientos científicos completamente nuevos. En un estudio publicado en Nature el 3 de julio, los investigadores del Laboratorio Nacional Lawrence Berkeley utilizaron un algoritmo llamado Word2Vec para analizar artículos científicos buscando conexiones que los humanos hubieran pasado por alto. Su algoritmo arrojó predicciones para posibles materiales termoeléctricos, que convierten el calor en energía y se utilizan en muchas aplicaciones de calefacción y refrigeración. Sin embargo, el algoritmo no conocía la definición de termoeléctrico. No recibió formación en ciencia de los materiales. Usando solo asociaciones de palabras, el algoritmo pudo proporcionar candidatos para futuros materiales termoeléctricos, algunos de los cuales pueden ser mejores que los que utilizamos actualmente.

Para entrenar el algoritmo, los investigadores evaluaron el lenguaje en 3.3 millones de resúmenes relacionados con la ciencia de los materiales y terminaron con un vocabulario de aproximadamente 500,000 palabras. Alimentaron los resúmenes a Word2vec, que utiliza redes neuronales artificiales para analizar las relaciones entre las palabras. El algoritmo vinculó las palabras que se encontraron juntas, creando vectores de palabras relacionadas que ayudaron a definir conceptos. En algunos casos, las palabras estaban vinculadas a conceptos termoeléctricos, pero nunca habían sido escritas como termoeléctricas en ningún resumen considerado. Esta brecha en el conocimiento es difícil de atrapar con un ojo humano, pero es fácil de detectar para un algoritmo.

Después de mostrar su capacidad para predecir materiales futuros, los investigadores llevaron su trabajo en el tiempo, virtualmente. Desecharon datos recientes y probaron el algoritmo en documentos antiguos, viendo si podía predecir descubrimientos científicos antes de que sucedieran. Una vez más, el algoritmo funcionó. En un experimento, los investigadores analizaron solo los artículos publicados antes de 2009 y pudieron predecir uno de los mejores materiales termoeléctricos modernos cuatro años antes de que se descubriera en 2012.

Esta nueva aplicación de aprendizaje automático va más allá de la ciencia de los materiales. Debido a que no está atado a un conjunto de datos específicos, podría ser aplicado fácilmente a otras disciplinas, y volver a entrenarlo en la literatura de cualquier tema que se desee.

 

AI Trained on Old Scientific Papers Makes Discoveries Humans Missed.

 

Un algoritmo genera caras de personas a partir de su voz

ganimg-002

¿Alguna vez ha construido una imagen mental de una persona que nunca has visto, basada únicamente en su voz?  Una red neuronal llamada Speech2Face fue entrenada para hacer esto usando millones de videos educativos de Internet que mostraban a más de 100,000 personas hablando.

De este conjunto de datos, Speech2Face aprendió asociaciones entre señales vocales y ciertas características físicas en un rostro humano, escribieron los investigadores en un nuevo estudio. La IA luego usó un clip de audio para modelar una cara fotorrealista que coincide con la voz. La red neuronal puede reconocer ciertos marcadores en el habla que apuntan al género, la edad y el origen étnico. Es decir, características que comparte mucha gente, pero es incapaz de saber exactamente qué aspecto tiene una persona específica en función de su voz.

Sin embargo, las interpretaciones del algoritmo estuvieron lejos de ser perfectas. Speech2Face demostró “rendimiento mixto” cuando se enfrentó a variaciones de lenguaje. Por ejemplo, cuando la IA escuchó un clip de audio de un hombre asiático que habla chino, el programa produjo una imagen de una cara asiática. Sin embargo, cuando el mismo hombre habló en inglés en un clip de audio diferente, la IA generó el rostro de un hombre occidental.

Otra preocupación sobre este conjunto de datos de video surgió cuando una persona que había aparecido en un video de YouTube se sorprendió al saber que su imagen se había incorporado al estudio. Nick Sullivan, jefe de criptografía de la compañía de seguridad de Internet Cloudflare en San Francisco, vio inesperadamente su rostro como uno de los ejemplos utilizados para entrenar a Speech2Face (y que el algoritmo había reproducido de manera aproximada). Sullivan no había aceptado aparecer en el estudio, pero se considera que los videos de YouTube en este conjunto de datos están disponibles para que los investigadores los utilicen sin adquirir permisos adicionales.

 

AI Listened to People’s Voices. Then It Generated Their Faces.

 

Interfaz de computadora traduce señales cerebrales directamente al habla

41598_2018_37359_fig1_html

Los neuroingenieros de Columbia han creado por primera vez un sistema que traduce el pensamiento en un discurso inteligible y reconocible. Al monitorear la actividad cerebral de alguien, la tecnología puede reconstruir las palabras que una persona escucha con una claridad sin precedentes. Este avance, que aprovecha el poder de los sintetizadores de voz y la inteligencia artificial, podría llevar a nuevas formas para que las computadoras se comuniquen directamente con el cerebro. También sienta las bases para ayudar a las personas que no pueden hablar, como aquellas que viven con esclerosis lateral amiotrófica (ELA) o que se están recuperando de un derrame cerebral, a recuperar su capacidad de comunicarse con el mundo exterior.

La investigación ha demostrado que cuando las personas hablan, patrones de actividad aparecen en su cerebro. Las señales también emergen cuando escuchamos a alguien hablar, o nos imaginamos escuchando. Registrar y decodificar estos patrones podría traducirse a un discurso verbal a voluntad. Pero lograr esta hazaña ha resultado ser un desafío. La decodificación de las señales cerebrales mediante modelos informáticos simples que analizan los espectrogramas no ha logrado producir nada que se parezca al habla inteligible. Este equipo, en cambio, recurrió a un vocoder, un algoritmo de computadora que puede sintetizar el habla luego de ser entrenado en grabaciones de personas que hablan.

Para enseñar al vocoder a interpretar la actividad cerebral, se asociaron con un neurocirujano que trata pacientes de epilepsia, algunos de los cuales deben someterse a cirugías regulares. “Le pedimos a los pacientes con epilepsia que ya se sometían a una cirugía cerebral que escucharan oraciones pronunciadas por diferentes personas, mientras medíamos los patrones de actividad cerebral. Estos patrones neuronales entrenaban al vocoder”.

Luego, los investigadores les pidieron a esos mismos pacientes que escuchen a los oradores recitar dígitos entre 0 y 9, mientras registraban las señales cerebrales que luego podrían ejecutarse a través del vocoder. El sonido producido por el vocoder en respuesta a esas señales fue analizado y limpiado por redes neuronales, un tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro biológico.

El resultado final fue una voz de sonido robótico que recitaba una secuencia de números. Para probar la precisión de la grabación, el equipo encargó a las personas que escucharan la grabación e informaran lo que escucharon. “Descubrimos que las personas podían entender y repetir los sonidos aproximadamente el 75% del tiempo, lo que está muy por encima y más allá de cualquier intento anterior”. La mejora en la inteligibilidad fue especialmente evidente al comparar las nuevas grabaciones con los intentos anteriores basados en espectrogramas. “El sensible vocoder y las poderosas redes neuronales representaban los sonidos que los pacientes habían escuchado originalmente con sorprendente precisión”.

 

Columbia Engineers Translate Brain Signals Directly into Speech.

 

 

Aprendizaje Automático para hacer que un robot canino sea más rápido y ágil.

Un equipo de investigadores del Robotic Systems Lab en Suiza y del Intelligent Systems Lab en Alemania y los EE. UU han encontrado una manera de aplicar el aprendizaje por refuerzo a la robótica para otorgarle a tales máquinas mayores habilidades. En su artículo publicado en la revista Science Robotics, el grupo describe cómo aplicaron el aprendizaje automático a la robótica y al hacerlo le dieron más agilidad y velocidad a un robot parecido a un canino.

El aprendizaje por refuerzos funciona al establecer objetivos para un sistema y luego darle un medio para probar maneras de alcanzar esos objetivos, mejorando continuamente a medida que se alcanzan los puntos de referencia. Las pruebas se realizan una y otra vez, a veces miles de veces. Tales pruebas son difíciles con un robot tanto por los muchos factores involucrados (como todos los atributos involucrados en mantener el equilibrio) y por la enorme inversión de tiempo. Después de encontrar una manera de abordar el primer problema, los investigadores encontraron una forma de solucionar el segundo problema. En lugar de tener a ANYmal (un robot parecido a un perro) luchando a través de su régimen de aprendizaje en el mundo real, los investigadores crearon una versión virtual del robot que podía ejecutarse en una simple computadora de escritorio.

Los investigadores señalan que permitir que el robot aprendiera mientras estaba en su encarnación virtual era aproximadamente 1000 veces más rápido de lo que habría sido en el mundo real. Dejaron que el perro virtual se entrenara por hasta 11 horas y luego descargaron los resultados al robot físico. Las pruebas mostraron que el enfoque funcionó muy bien. La nueva y mejorada versión de ANYmal era más ágil (capaz de evitar que un humano lo pateara y podía enderezarse si se caía) y corría aproximadamente un 25 por ciento más rápido.

ANYmal lleva baterías para más de 2 horas de autonomía y diferentes equipos sensoriales, como cámaras ópticas y térmicas, micrófonos, sensores de detección de gases e iluminación activa. Con esta carga útil, la máquina pesa menos de 30 kg y, por lo tanto, puede ser transportada y desplegada fácilmente por un solo operador.

 

Using a machine learning technique to make a canine-like robot more agile and faster.

 

DeepMind AlphaFold ofrece un “progreso sin precedentes” en el plegamiento de proteínas

deepmind-002

En 2016, DeepMind de Google sorprendió al mundo cuando AlphaGo logró una histórica victoria sobre el gran maestro coreano Lee Sedol. Recientemente, el equipo del Reino Unido presentó su último sistema de inteligencia artificial, AlphaFold, que encabezó la competencia de evaluación crítica de predicción de estructuras (CASP). Esta es una Olimpiada virtual de plegamiento de proteínas, cuyo objetivo es predecir la estructura 3D de una proteína en función de sus datos de secuencia genética.

“Las proteínas son esenciales para la vida. Predecir su estructura 3D es un gran desafío no resuelto en biología y podría ayudar a entender enfermedades y descubrir nuevos fármacos. ¡Me complace anunciar que hemos ganado la competencia de plegamiento de proteínas CASP13! “, anunció en un tweet Demis Hassabis, fundador y CEO de DeepMind.

La puntuación SUMZ de AlphaFold de 127.99 fue 20 puntos más alta que la del segundo equipo clasificado, logrando lo que CASP denominó “progreso sin precedentes en la capacidad de los métodos computacionales para predecir la estructura de proteínas”.

Los investigadores de DeepMind utilizaron redes neuronales profundas para aprender la correlación entre la forma de una molécula de proteína y su secuencia de aminoácidos. Las propiedades físicas de una molécula de proteína incluyen las distancias entre pares de aminoácidos y los ángulos entre los enlaces químicos que conectan esos aminoácidos. El modelo creó una puntuación que estima la precisión de una estructura de proteína propuesta, y luego utilizó descenso por gradiente, un algoritmo común de entrenamiento de redes neuronales que encuentra el mínimo de una función, para optimizar esa puntuación.

Para aquellos que no están familiarizados con el problema del plegamiento de proteínas, a menudo lo que se necesita saber es:

  • Las proteínas son los bloques de construcción de nuestro cuerpo y realizan una amplia gama de funciones esenciales. Una molécula de proteína está formada por una cadena de componentes más pequeños llamados aminoácidos, que se pliegan en la forma 3D nativa de la molécula.
  • El problema del plegamiento de proteínas implica determinar cómo la cadena de aminoácidos codifica la forma 3D de una molécula de proteína. Esto puede producir una mejor comprensión de las proteínas y permitir a los científicos cambiar su función por el bien de nuestros cuerpos, por ejemplo, en el tratamiento de enfermedades causadas por proteínas mal plegadas, como la enfermedad de Alzheimer, Parkinson, Huntington y la fibrosis quística.
  • El problema del plegamiento de proteínas es considerado como uno de los mayores desafíos bioquímicos de los últimos 50 años. Los enfoques actuales incluyen el uso de algoritmos para calcular la estructura 3D de proteínas con datos de secuencia de aminoácidos, o el uso de cristalografía de rayos X y otras técnicas para obtener una imagen de la estructura de una proteína.

Mientras que DeepMind ha estado trabajando en el plegamiento de proteínas durante dos años y ha avanzado significativamente en el desarrollo de la ingeniería de proteínas, Hassabis admitió en una entrevista que la técnica aún requiere mejoras adicionales. “No hemos resuelto el problema del plegamiento de proteínas, esto es solo un primer paso”.

> DeepMind AlphaFold Delivers “Unprecedented Progress” on Protein Folding.