AI entrenada en viejos artículos científicos hace descubrimientos que los humanos pasaron por alto

41586_2019_1335_fig4_esm

Usando solo el lenguaje en artículos científicos antigüos, un algoritmo de aprendizaje automático fue capaz de hacer descubrimientos científicos completamente nuevos. En un estudio publicado en Nature el 3 de julio, los investigadores del Laboratorio Nacional Lawrence Berkeley utilizaron un algoritmo llamado Word2Vec para analizar artículos científicos buscando conexiones que los humanos hubieran pasado por alto. Su algoritmo arrojó predicciones para posibles materiales termoeléctricos, que convierten el calor en energía y se utilizan en muchas aplicaciones de calefacción y refrigeración. Sin embargo, el algoritmo no conocía la definición de termoeléctrico. No recibió formación en ciencia de los materiales. Usando solo asociaciones de palabras, el algoritmo pudo proporcionar candidatos para futuros materiales termoeléctricos, algunos de los cuales pueden ser mejores que los que utilizamos actualmente.

Para entrenar el algoritmo, los investigadores evaluaron el lenguaje en 3.3 millones de resúmenes relacionados con la ciencia de los materiales y terminaron con un vocabulario de aproximadamente 500,000 palabras. Alimentaron los resúmenes a Word2vec, que utiliza redes neuronales artificiales para analizar las relaciones entre las palabras. El algoritmo vinculó las palabras que se encontraron juntas, creando vectores de palabras relacionadas que ayudaron a definir conceptos. En algunos casos, las palabras estaban vinculadas a conceptos termoeléctricos, pero nunca habían sido escritas como termoeléctricas en ningún resumen considerado. Esta brecha en el conocimiento es difícil de atrapar con un ojo humano, pero es fácil de detectar para un algoritmo.

Después de mostrar su capacidad para predecir materiales futuros, los investigadores llevaron su trabajo en el tiempo, virtualmente. Desecharon datos recientes y probaron el algoritmo en documentos antiguos, viendo si podía predecir descubrimientos científicos antes de que sucedieran. Una vez más, el algoritmo funcionó. En un experimento, los investigadores analizaron solo los artículos publicados antes de 2009 y pudieron predecir uno de los mejores materiales termoeléctricos modernos cuatro años antes de que se descubriera en 2012.

Esta nueva aplicación de aprendizaje automático va más allá de la ciencia de los materiales. Debido a que no está atado a un conjunto de datos específicos, podría ser aplicado fácilmente a otras disciplinas, y volver a entrenarlo en la literatura de cualquier tema que se desee.

 

AI Trained on Old Scientific Papers Makes Discoveries Humans Missed.

 

Un algoritmo genera caras de personas a partir de su voz

ganimg-002

¿Alguna vez ha construido una imagen mental de una persona que nunca has visto, basada únicamente en su voz?  Una red neuronal llamada Speech2Face fue entrenada para hacer esto usando millones de videos educativos de Internet que mostraban a más de 100,000 personas hablando.

De este conjunto de datos, Speech2Face aprendió asociaciones entre señales vocales y ciertas características físicas en un rostro humano, escribieron los investigadores en un nuevo estudio. La IA luego usó un clip de audio para modelar una cara fotorrealista que coincide con la voz. La red neuronal puede reconocer ciertos marcadores en el habla que apuntan al género, la edad y el origen étnico. Es decir, características que comparte mucha gente, pero es incapaz de saber exactamente qué aspecto tiene una persona específica en función de su voz.

Sin embargo, las interpretaciones del algoritmo estuvieron lejos de ser perfectas. Speech2Face demostró “rendimiento mixto” cuando se enfrentó a variaciones de lenguaje. Por ejemplo, cuando la IA escuchó un clip de audio de un hombre asiático que habla chino, el programa produjo una imagen de una cara asiática. Sin embargo, cuando el mismo hombre habló en inglés en un clip de audio diferente, la IA generó el rostro de un hombre occidental.

Otra preocupación sobre este conjunto de datos de video surgió cuando una persona que había aparecido en un video de YouTube se sorprendió al saber que su imagen se había incorporado al estudio. Nick Sullivan, jefe de criptografía de la compañía de seguridad de Internet Cloudflare en San Francisco, vio inesperadamente su rostro como uno de los ejemplos utilizados para entrenar a Speech2Face (y que el algoritmo había reproducido de manera aproximada). Sullivan no había aceptado aparecer en el estudio, pero se considera que los videos de YouTube en este conjunto de datos están disponibles para que los investigadores los utilicen sin adquirir permisos adicionales.

 

AI Listened to People’s Voices. Then It Generated Their Faces.

 

Quake III Arena es el último juego en el que una IA supera a los humanos

new_results_gameplay

Pocos juegos son más simples en principio que capturar la bandera. Dos equipos tienen cada uno un marcador ubicado en sus respectivas bases, y el objetivo es capturar el marcador del otro equipo y devolverlo de forma segura a su base. Sin embargo, algo que los seres humanos entienden fácilmente no siempre es captado tan rápidamente por las máquinas. Pero en un artículo publicado esta semana en la revista Science, aproximadamente un año después de la preimpresión, los investigadores de DeepMind, la filial con sede en Londres de la empresa matriz de Google Alphabet, describen un sistema capaz no solo de aprender a jugar a capturar la bandera en Id Software’s Quake III Arena, sino también de idear estrategias totalmente novedosas basadas en equipos comparables a las humanas.

Jaderberg, un científico investigador de DeepMind, explicó que la técnica clave en juego es el aprendizaje por refuerzo, que emplea recompensas para impulsar las políticas de software hacia los objetivos. Los agentes apodados ingeniosamente como For The Win (FTW) aprenden directamente de los píxeles en pantalla utilizando una red neuronal convolucional, una colección de neuronas organizadas en capas modeladas a partir de la corteza visual. Los datos obtenidos se pasan a dos redes de memoria de largo-corto plazo (LSTM) recurrentes, o redes capaces de aprender dependencias en el tiempo. Una está en una escala de tiempo rápida y la otra opera en una escala de tiempo lenta, y ambas están acoplados por un objetivo variacional, un tipo de memoria que usan conjuntamente para hacer predicciones sobre el mundo del juego y generar acciones a través de un controlador de juego simulado.

Los agentes FTW fueron entrenados en una población de 30 en total, lo que les proporcionó una gama de compañeros de equipo y oponentes con los que jugar, y se seleccionaron niveles al azar para evitar que los agentes memorizaran los mapas. Cada agente aprendió su propio tipo de recompensa, lo que les permitió generar sus propios objetivos internos (como capturar la bandera). En total, los agentes jugaron individualmente alrededor de 450,000 juegos de captura de la bandera, el equivalente a aproximadamente cuatro años de experiencia.

En un torneo que involucró a 40 jugadores humanos, en los cuales los humanos y los agentes se combinaron al azar en los juegos (tanto como oponentes como compañeros de equipo), los agentes FTW fueron más competentes que los métodos estándar de referencia. De hecho, superaron sustancialmente la tasa de victorias de los jugadores humanos, con una calificación de Elo (que corresponde a la probabilidad de ganar) de 1.600, en comparación con los 1.300 de jugadores humanos “fuertes”, y 1.050 de jugadores humanos promedio. Los agentes tuvieron tiempos de reacción rápidos, como era de esperar, lo que les dio una ligera ventaja en los experimentos iniciales. Pero incluso cuando su precisión y tiempo de reacción se redujeron a través de un retraso incorporado de un cuarto de segundo (257 milisegundos), aún superaron a sus contrapartes humanas, con jugadores humanos fuertes y jugadores intermedios ganando solo el 21% y el 12% del tiempo, respectivamente.

“Creo que una de las cosas a tener en cuenta es que estas ideas, estos dominios multiagentes, son excepcionalmente poderosos, y este artículo nos lo demuestra”, dijo Jaderberg. “Esto es lo que estamos aprendiendo cada vez mejor en los últimos años: cómo construir un problema de aprendizaje por refuerzo. El aprendizaje por refuerzo realmente brilla en nuevas situaciones”.

DeepMind’s AI can defeat human players in Quake III Arena’s Capture the Flag mode.

 

Los ataques adversarios no son bugs, son features

adevrs-002

Investigadores han encontrado una nueva ventaja defensiva contra los ataques adversarios, informaron en la Conferencia Internacional sobre Representaciones de Aprendizaje. Este trabajo no solo puede ayudar a proteger al público, también ayuda a revelar por qué la IA, notoriamente difícil de entender, es víctima de tales ataques en primer lugar.

Para identificar esta vulnerabilidad, los investigadores crearon un conjunto especial de datos de entrenamiento: imágenes que a nosotros nos parecen una cosa, pero se parecen a otra para la IA; por ejemplo una imagen de un perro que, examinada de cerca por una computadora, es identifica como la de un gato. Luego, el equipo etiquetó erróneamente las imágenes, por ejemplo, calificando a la imagen del perro como gato, y entrenó un algoritmo para aprender las etiquetas. Una vez que la IA había aprendido a ver a los perros con rasgos de gato sutiles como gatos, lo probaron pidiéndole que reconociera imágenes nuevas y no modificadas. A pesar de que la IA se había entrenado de esta manera extraña, podía identificar correctamente a los perros, gatos, etc., casi la mitad del tiempo. En esencia, había aprendido a hacer coincidir las características sutiles con las etiquetas, independientemente de las características obvias.

El experimento de entrenamiento sugiere que las IA usan dos tipos de características: macros, obvias como orejas y colas que las personas reconocen, y micro que solo podemos adivinar. Además, sugiere que los ataques adversos no solo confunden una IA con ajustes sin sentido en una imagen. En esos ajustes, la IA está viendo inteligentemente rastros de otra cosa. Una IA puede ver una señal de stop como una señal de límite de velocidad, por ejemplo, porque algo acerca de los adhesivos en realidad hace que se parezca sutilmente a una señal de límite de velocidad de una manera que los humanos son demasiado ajenos a comprender.

Cuando el equipo entrenó un algoritmo en imágenes sin las características sutiles, su software de reconocimiento de imagen fue engañado por ataques adversos solo el 50% del tiempo, informaron los investigadores en la conferencia y en un trabajo publicado online. Eso se compara con una tasa de vulnerabilidad del 95% cuando la IA es entrenada con imágenes que incluyen los patrones obvios y los sutiles. En general, estos hallazgos sugieren que las vulnerabilidades de una IA se encuentran en sus datos de entrenamiento, no en su programación, dice Dimitris Tsipras de MIT, coautor.

 

Scientists help artificial intelligence outsmart hackers.

 

Algoritmos de aprendizaje profundo identifican estructuras en células vivas

nihms-1501928-f0001

Para los biólogos celulares, la microscopía de fluorescencia es una herramienta invaluable. Puede ayudar a los científicos a diferenciar estructuras subcelulares en imágenes microscópicas impenetrables. Pero esta técnica tiene sus inconvenientes. Hay límites en el número de etiquetas fluorescentes que se pueden introducir en una célula. El ingeniero biomédico Greg Johnson, del Allen Institute for Cell Science en Seattle, quería desarrollar un método para identificar los componentes de una célula viva en imágenes tomadas con microscopía de campo claro. Esta técnica es más sencilla y económica que la microscopía fluorescente, pero tiene una gran desventaja: produce imágenes que aparecen solo en tonos de gris, lo que hace que las estructuras internas de una célula sean difíciles de descifrar. Así que los científicos decidieron crear un algoritmo que pudiera combinar los beneficios de ambos métodos al aprender cómo detectar y etiquetar estructuras celulares de la forma en que pueden hacerlo las etiquetas fluorescentes, pero a partir de imágenes de campo claro.

Para hacer esto, el equipo recurrió al aprendizaje profundo, un enfoque de inteligencia artificial (IA) donde los algoritmos aprenden a identificar patrones en conjuntos de datos. Entrenaron redes neuronales convolucionales, un enfoque de aprendizaje profundo que normalmente se usa para analizar y clasificar imágenes, para identificar similitudes entre las imágenes de microscopía de campo claro y fluorescencia de varios componentes celulares, incluida la envoltura nuclear, la membrana celular y las mitocondrias. Después de comparar muchos pares de imágenes, el algoritmo fue capaz de predecir la ubicación de las estructuras que habrían etiquetado las etiquetas fluorescentes, pero en imágenes de campo claro en 3D de células vivas. Los investigadores encontraron que la herramienta era muy precisa: sus etiquetas predichas estaban altamente correlacionadas con las etiquetas fluorescentes reales para muchos componentes celulares. Johnson señala que una gran ventaja del método de su equipo es que, contrariamente a la creencia común de que los algoritmos de aprendizaje profundo requieren miles de imágenes para aprender, esta herramienta podría entrenarse con solo docenas de ejemplos.

El equipo ahora está investigando algunas aplicaciones potenciales de la técnica. Además de poder realizar estudios de imágenes más rápidos y baratos, la herramienta podría aplicarse en patología para ayudar a identificar células enfermas o para identificar rápidamente cómo cambian las estructuras celulares en los estados enfermos. Las técnicas que aplican el aprendizaje profundo al análisis de imágenes podrían ser útiles donde se use un microscopio o un telescopio. Este último estudio es “sólo la punta del iceberg”.

 

Deep Learning Algorithms Identify Structures in Living Cells.

 

Herramientas Artificialmente Inteligentes Capturan Movimiento Animal

leap-is-accurate-and-requires-little-training-or-labeled-data-a-part-wise-accuracy

Se tarda un promedio de 17 minutos para que una pareja de moscas de la fruta pase de encontrarse a aparearse. El encuentro está marcado por muchas etapas complejas, posiblemente más complejas que el cortejo humano. Talmo Pereira, un estudiante de doctorado que estudia neurociencia en los laboratorios de Joshua Shaevitz y Mala Murthy en la Universidad de Princeton, está estudiando cómo la danza del cortejo está representada en el cerebro de las moscas. Él y sus colegas desarrollaron un método poderoso para seguir el comportamiento animal. Su herramienta, LEAP Estimates Animal Pose (LEAP), aprovecha un tipo de inteligencia artificial llamada red neuronal profunda, esencialmente una “máquina fantástica que puede aprender a hacer… cualquier operación arbitraria para la que sea entrenada”, dice Diego Aldarondo, actualmente estudiante de doctorado en la Universidad de Harvard, quien construyó la herramienta con Pereira durante sus estudios universitarios en Princeton. “Desarrollamos toda esta inteligencia artificial solo para tratar de entender el sexo entre moscas”, bromea Pereira. “O ni siquiera el sexo realmente, solo lo que conduce a ello”.

Tradicionalmente, los investigadores han recopilado datos sobre los movimientos de los animales revisando videos cuadro por cuadro y etiquetando las partes del cuerpo de interés. Es un proceso laborioso que puede llevar a los estudiantes de grado o voluntarios horas y horas. El éxito de LEAP proviene de una combinación de aportes humanos y artificiales. Después de recibir un conjunto de cuadros de video etiquetados, los utiliza para aprender cómo se colocan los puntos de acuerdo con las características de cada imagen, y luego produce las etiquetas para el siguiente conjunto de cuadros, que posteriormente un investigador revisa. A fines del año pasado, publicaron una versión de la herramienta que necesita alrededor de 100 cuadros para lograr una precisión de hasta el 95 por ciento en el seguimiento de 32 puntos en el cuerpo de una mosca. En su informe, los investigadores utilizaron LEAP para rastrear las seis piernas de una mosca, más sus alas, cuerpo y cabeza. También aplicaron su herramienta para capturar los movimientos de las extremidades de un ratón.

Estas herramientas podrían tener aplicaciones en muchos campos, desde la ecología del comportamiento hasta la investigación médica, en donde podrían ayudar a estudiar trastornos como el autismo que están asociados con movimientos estereotipados. También ayudaría a los neurocientíficos a investigar las conexiones entre el cerebro y el comportamiento.

 

Artificially Intelligent Tools Capture Animal Movement.

 

La IA de Affectiva oye tu ira en 1.2 segundos.

emodet-002

Alexa de Amazon puede detectar el habla susurrada, así es como sabe cuándo susurrar. Pero ¿qué pasa con la inteligencia artificial que es capaz de percibir la frustración? La red neuronal de Affectiva del MIT Media Lab, SoundNet, puede clasificar la ira en datos de audio en tan solo 1,2 segundos, independientemente del idioma del hablante, igual que el tiempo que los humanos tardan en percibir la ira.

Los investigadores de Affectiva lo describen en un trabajo recientemente publicado. “Un problema importante en el aprovechamiento del poder de las redes de aprendizaje profundo para el reconocimiento de las emociones es la diferencia entre la gran cantidad de datos requeridos por las redes profundas y el pequeño tamaño de los conjuntos de datos de voz etiquetados con emociones”, escribieron los coautores del artículo. “Nuestro modelo de detección de ira entrenado mejora el rendimiento y generaliza bien en una variedad de conjuntos de datos emocionales actuados, provocados y naturales. Además, nuestro sistema propuesto tiene una baja latencia, adecuada para aplicaciones en tiempo real “.

SoundNet consiste en una red neuronal convolucional, un tipo de red neuronal comúnmente aplicada para analizar imágenes visuales, entrenada sobre un conjunto de datos de video. Para lograr que reconozca la ira en el habla, el equipo primero obtuvo una gran cantidad de datos de audio generales (dos millones de videos, o un poco más de un año) con el etiquetado producido por otro modelo. Luego, lo ajustaron con un conjunto de datos más pequeño, IEMOCAP, que contiene 12 horas de datos de emoción audiovisual anotados, que incluyen video, voz y transcripciones de texto. Para probar la generalización del modelo AI, el equipo evaluó su modelo entrenado en inglés sobre los datos de la emoción del habla en chino mandarín (el Corpus del habla afectiva del mandarín, o MASC). Informan que no solo se generalizó bien a los datos del habla en inglés, sino que fue efectivo en los datos chinos, aunque con una leve degradación en el rendimiento.

Finalmente dejan como trabajo futuro el aprovechar otros grandes conjuntos de datos disponibles públicamente, y  el entrenar sistemas de inteligencia artificial para tareas relacionadas con el habla, como reconocer otros tipos de emociones y estados afectivos.

 

Affectiva’s AI hears your anger in 1.2 seconds.