Los científicos crean audífonos que pueden ser controlados mentalmente

f2.large_

Un grupo de científicos ha presentado un trabajo para la decodificación auditiva con atención selectiva independiente del hablante, aún sin acceso a fuentes limpias de voz, para la creación de un audífono que permitiría al usuario enfocarse en voces particulares, y dicen que podría transformar la capacidad de las personas con discapacidad auditiva para hacer frente a entornos ruidosos. El dispositivo imita la capacidad natural del cerebro para seleccionar y amplificar una voz en una conversación en segundo plano. Hasta ahora, incluso los audífonos más avanzados funcionan al aumentar todas las voces a la vez, lo que se puede experimentar como una cacofonía de sonido para el usuario, especialmente en entornos abarrotados. Nima Mesgarani, quien dirigió el último avance en la Universidad de Columbia en Nueva York, dijo: “El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa. Puede amplificar una voz sobre otras, aparentemente sin esfuerzo, mientras que los audífonos de hoy todavía palidecen en comparación “. Esto puede dificultar severamente la capacidad del usuario para participar en conversaciones, lo que hace que las ocasiones sociales muy concurridas sean particularmente desafiantes.

Los científicos han estado trabajando durante años para resolver este problema, conocido como el cocktail party effect. El audífono controlado por el cerebro parece haber resuelto el problema usando una combinación de inteligencia artificial y sensores diseñados para monitorear la actividad cerebral del oyente. El audífono primero usa un algoritmo para separar automáticamente las voces de varias personas. Luego compara estas pistas de audio con la actividad cerebral del oyente. El trabajo anterior del laboratorio de Mesgarani descubrió que es posible identificar a qué persona le está prestando atención el usuario, ya que su actividad cerebral coincide en mayor grado con las ondas de sonido de esa voz. El dispositivo compara la voz de cada persona con las ondas cerebrales de la persona que usa el audífono. La persona cuyo patrón de voz coincide más con las ondas cerebrales del oyente se amplifica sobre los demás, lo que les permite sintonizar sin esfuerzo con esa persona.

Para probar el dispositivo, el laboratorio reclutó pacientes con epilepsia que ya tenían electrodos implantados en su cerebro para controlar la actividad de las convulsiones. Los pacientes escucharon audios de diferentes voces simultáneamente mientras sus ondas cerebrales fueron monitoreadas a través de los electrodos implantados en su cerebro. Un algoritmo siguió la atención de los pacientes mientras escuchaban a diferentes oradores que no habían escuchado previamente. Cuando un paciente se enfoca en una voz, el sistema la amplifica automáticamente, con un breve retraso. Y cuando su atención se desplaza a una voz diferente, los niveles de volumen se modifican para reflejar ese cambio.

La versión actual del audífono, que involucra implantes directos en el cerebro, no sería adecuada para el uso comercial. Pero el equipo cree que será posible crear una versión no invasiva del dispositivo dentro de los próximos cinco años, que monitorearía la actividad cerebral usando electrodos colocados dentro del oído o debajo de la piel del cuero cabelludo. El siguiente paso será probar la tecnología en personas con discapacidad auditiva. Una pregunta es si será tan fácil combinar la actividad cerebral en personas que están parcialmente sordas con las ondas sonoras del habla. Según Jesal Vishnuram, gerente de tecnología de la organización benéfica Action on Hearing Loss, una de las razones por las que las personas consideran que los audífonos convencionales imprácticos en entornos ruidosos es que su cerebro no está acostumbrado a filtrar sonidos, así que esto podría hacerlo menos eficaz.

 

Scientists create mind-controlled hearing aid.

 

IBM comparte el código de sus proyectos en IA para combatir el cáncer

medicine-001

IBM ha lanzado a la comunidad de código abierto tres proyectos de inteligencia artificial (IA) diseñados para asumir el desafío de curar el cáncer.  Se estima que el cáncer causó 9.6 millones de muertes en 2018, con un estimado de 18 millones de casos nuevos reportados en el mismo año. Los investigadores del grupo de Biología de Sistemas Computacionales de IBM en Zurich están trabajando en enfoques de IA y aprendizaje automático (ML) para “ayudar a acelerar nuestra comprensión de los principales impulsores y mecanismos moleculares de estas enfermedades complejas”, así como métodos para mejorar nuestro conocimiento de la composición de tumores.

El primer proyecto, denominado PaccMann, que no debe confundirse con el popular juego de computadora Pac-Man, se describe como la “Predicción de la sensibilidad del compuesto anticancerígeno con redes neuronales multimodales basadas en la atención”. IBM está trabajando en el algoritmo PaccMann para analizar automáticamente los compuestos químicos y predecir cuáles son los más propensos a combatir las cepas de cáncer, lo que podría acelerar este proceso. El algoritmo explota los datos sobre la expresión génica, así como las estructuras moleculares de los compuestos químicos. IBM dice que al identificar antes los posibles compuestos anticancerígenos puede reducir los costos asociados con el desarrollo de fármacos.

El segundo proyecto se llama “Influencia de la red de interacción de las representaciones vectoR de palabras”, también conocido como INtERAcT. Esta herramienta es particularmente interesante dada su extracción automática de datos de valiosos artículos científicos relacionados con nuestra comprensión del cáncer. INtERAcT tiene como objetivo hacer que el lado académico de la investigación sea menos pesado mediante la extracción automática de información de estos documentos. En este momento, la herramienta se está probando para extraer datos relacionados con las interacciones proteína-proteína, un área de estudio que se ha marcado como una posible causa de la interrupción de los procesos biológicos en enfermedades como el cáncer.

El tercer y último proyecto es el “aprendizaje de kernel múltiple inducido por la vía” o PIMKL. Este algoritmo utiliza conjuntos de datos que describen lo que sabemos actualmente sobre interacciones moleculares para predecir la progresión del cáncer y las posibles recaídas en los pacientes. PIMKL utiliza lo que se conoce como aprendizaje de múltiples núcleos para identificar vías moleculares cruciales para clasificar a los pacientes, brindando a los profesionales de la salud la oportunidad de individualizar y adaptar los planes de tratamiento.

El código de PaccMann e INtERAcT ha sido lanzado y está disponible en los sitios web de los proyectos. PIMKL se ha implementado en IBM Cloud y también se ha publicado el código fuente. Cada proyecto es de código abierto y ahora está disponible en el dominio público. IBM espera que al hacer que el código fuente esté disponible para otros investigadores y académicos, la comunidad científica pueda maximizar su impacto potencial.

 

IBM Gives Cancer-Killing Drug AI Project To the Open Source Community.

 

Redes neuronales se han utilizado para traducir automáticamente idiomas perdidos

wordvect-001

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de inteligencia artificial de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático capaz de descifrar idiomas perdidos, y lo han demostrado en un manuscrito de la isla mediterránea de Creta. El manuscrito, Linear B, apareció después de 1400 aC, cuando la isla fue conquistada por los micénicos del continente griego.

La idea detrás de la traducción automática es comprender que las palabras están relacionadas entre sí de manera similar, independientemente del idioma involucrado. El proceso comienza al trazar estas relaciones para un lenguaje específico. Esto requiere enormes bases de datos de texto. Luego, una máquina busca en este texto para ver con qué frecuencia aparece cada palabra junto a otras. Este patrón de aparición es una firma única que define la palabra en un espacio de parámetros multidimensional. De hecho, la palabra puede considerarse como un vector dentro de este espacio. Y este vector actúa como una poderosa restricción sobre cómo puede aparecer la palabra en cualquier traducción.

Luo y sus colegas pusieron a prueba la técnica con dos idiomas perdidos, Linear B y Ugaritic. Los lingüistas saben que Linear B codifica una versión temprana del griego antiguo y que Ugaritic, que fue descubierto en 1929, es una forma temprana de hebreo. Dada la información y las restricciones impuestas por la evolución lingüística, la máquina de Luo y sus colegas puede traducir ambos idiomas con notable precisión. “Pudimos traducir correctamente el 67,3% de Linear B en sus equivalentes griegos”. “Por lo que sabemos, nuestro experimento es el primer intento de descifrar Linear B automáticamente”.

Es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca se han descifrado, como Linear A. En este documento, Linear A brilla por su ausencia. Luo y sus colegas ni siquiera lo mencionan, pero debe tener una gran importancia en su pensamiento, como lo hace para todos los lingüistas. Sin embargo, aún se necesitan importantes avances antes de que este manuscrito sea susceptible de traducción automática. Por ejemplo, nadie sabe qué idioma codifica. Los intentos de descifrarlo en griego antiguo han fracasado. Y sin el lenguaje progenitor, la nueva técnica no funciona.

 

Machine Learning Has Been Used To Automatically Translate Long-Lost Languages.

 

AI entrenada en viejos artículos científicos hace descubrimientos que los humanos pasaron por alto

41586_2019_1335_fig4_esm

Usando solo el lenguaje en artículos científicos antigüos, un algoritmo de aprendizaje automático fue capaz de hacer descubrimientos científicos completamente nuevos. En un estudio publicado en Nature el 3 de julio, los investigadores del Laboratorio Nacional Lawrence Berkeley utilizaron un algoritmo llamado Word2Vec para analizar artículos científicos buscando conexiones que los humanos hubieran pasado por alto. Su algoritmo arrojó predicciones para posibles materiales termoeléctricos, que convierten el calor en energía y se utilizan en muchas aplicaciones de calefacción y refrigeración. Sin embargo, el algoritmo no conocía la definición de termoeléctrico. No recibió formación en ciencia de los materiales. Usando solo asociaciones de palabras, el algoritmo pudo proporcionar candidatos para futuros materiales termoeléctricos, algunos de los cuales pueden ser mejores que los que utilizamos actualmente.

Para entrenar el algoritmo, los investigadores evaluaron el lenguaje en 3.3 millones de resúmenes relacionados con la ciencia de los materiales y terminaron con un vocabulario de aproximadamente 500,000 palabras. Alimentaron los resúmenes a Word2vec, que utiliza redes neuronales artificiales para analizar las relaciones entre las palabras. El algoritmo vinculó las palabras que se encontraron juntas, creando vectores de palabras relacionadas que ayudaron a definir conceptos. En algunos casos, las palabras estaban vinculadas a conceptos termoeléctricos, pero nunca habían sido escritas como termoeléctricas en ningún resumen considerado. Esta brecha en el conocimiento es difícil de atrapar con un ojo humano, pero es fácil de detectar para un algoritmo.

Después de mostrar su capacidad para predecir materiales futuros, los investigadores llevaron su trabajo en el tiempo, virtualmente. Desecharon datos recientes y probaron el algoritmo en documentos antiguos, viendo si podía predecir descubrimientos científicos antes de que sucedieran. Una vez más, el algoritmo funcionó. En un experimento, los investigadores analizaron solo los artículos publicados antes de 2009 y pudieron predecir uno de los mejores materiales termoeléctricos modernos cuatro años antes de que se descubriera en 2012.

Esta nueva aplicación de aprendizaje automático va más allá de la ciencia de los materiales. Debido a que no está atado a un conjunto de datos específicos, podría ser aplicado fácilmente a otras disciplinas, y volver a entrenarlo en la literatura de cualquier tema que se desee.

 

AI Trained on Old Scientific Papers Makes Discoveries Humans Missed.

 

El aprendizaje automático puede usar tweets para detectar fallas de seguridad críticas

textnews-002

Investigadores de la Universidad Estatal de Ohio, la compañía de seguridad FireEye y la firma de investigación Leidos publicaron un artículo que describe un nuevo sistema que lee millones de tweets para detectar menciones de vulnerabilidades de seguridad de software utilizando un algoritmo entrenado con aprendizaje automático, y luego evalúa qué tan grande es la amenaza que representa en función de cómo se describe. Descubrieron que Twitter no solo puede predecir la mayoría de las fallas de seguridad que aparecerán días más tarde en la base de datos de vulnerabilidad nacional, el registro oficial de vulnerabilidades de seguridad rastreadas por el Instituto Nacional de Estándares y Tecnología, sino que también podían usar procesamiento de lenguaje natural para predecir aproximadamente a cuál de esas vulnerabilidades se le otorgará una calificación de gravedad “alta” o “crítica” con una precisión superior al 80 por ciento.

Un prototipo del trabajo en progreso que pusieron en línea, por ejemplo, mostró tweets de la última semana sobre una nueva vulnerabilidad en MacOS conocida como “BuggyCow”, así como un ataque conocido como SPOILER que podría permitir a las páginas web explotar vulnerabilidades asentadas en la profundidad de los chips de Intel. Ninguno de los ataques, que el escáner de Twitter de los investigadores etiquetó como “probablemente severos”, se ha presentado aún en la Base de Datos Nacional de Vulnerabilidad. El prototipo, admiten, no es perfecto. Se actualiza solo una vez al día, incluye algunos duplicados y, no se detectaron algunas vulnerabilidades que luego aparecieron en el NVD. Pero los autores argumentan que el verdadero avance de la investigación consiste en clasificar con precisión la gravedad de las vulnerabilidades basadas en un análisis automatizado del lenguaje humano.

En su experimento, los investigadores comenzaron tomando un subconjunto de 6000 tweets que identificaron como que discutían vulnerabilidades de seguridad. Estos fueron etiquetados con clasificaciones de gravedad generadas por el humanos, filtrando los resultados de cualquier valor atípico que discrepara drásticamente con otros. Luego, los investigadores utilizaron esos tweets etiquetados como datos de entrenamiento para un motor de aprendizaje automático y probaron sus predicciones. Anticipándose cinco días a la inclusión de una vulnerabilidad en el registro nacional, pudieron predecir la severidad de las 100 vulnerabilidades más críticas, basándose en la misma clasificación de la NVD, con un 78% de precisión. Para las 50 principales, podrían predecir la gravedad con un 86% de precisión y 100% de precisión para las 10 vulnerabilidades más graves del NVD.

Ritter advierte que, a pesar de los resultados prometedores, su herramienta automatizada probablemente no debería ser utilizada como la única fuente de datos de vulnerabilidad, y que al menos un humano debe hacer clic en el tweet subyacente y su información vinculada para confirmar sus hallazgos.

Machine Learning Can Use Tweets to Spot Critical Security Flaws.

 

Interfaz de computadora traduce señales cerebrales directamente al habla

41598_2018_37359_fig1_html

Los neuroingenieros de Columbia han creado por primera vez un sistema que traduce el pensamiento en un discurso inteligible y reconocible. Al monitorear la actividad cerebral de alguien, la tecnología puede reconstruir las palabras que una persona escucha con una claridad sin precedentes. Este avance, que aprovecha el poder de los sintetizadores de voz y la inteligencia artificial, podría llevar a nuevas formas para que las computadoras se comuniquen directamente con el cerebro. También sienta las bases para ayudar a las personas que no pueden hablar, como aquellas que viven con esclerosis lateral amiotrófica (ELA) o que se están recuperando de un derrame cerebral, a recuperar su capacidad de comunicarse con el mundo exterior.

La investigación ha demostrado que cuando las personas hablan, patrones de actividad aparecen en su cerebro. Las señales también emergen cuando escuchamos a alguien hablar, o nos imaginamos escuchando. Registrar y decodificar estos patrones podría traducirse a un discurso verbal a voluntad. Pero lograr esta hazaña ha resultado ser un desafío. La decodificación de las señales cerebrales mediante modelos informáticos simples que analizan los espectrogramas no ha logrado producir nada que se parezca al habla inteligible. Este equipo, en cambio, recurrió a un vocoder, un algoritmo de computadora que puede sintetizar el habla luego de ser entrenado en grabaciones de personas que hablan.

Para enseñar al vocoder a interpretar la actividad cerebral, se asociaron con un neurocirujano que trata pacientes de epilepsia, algunos de los cuales deben someterse a cirugías regulares. “Le pedimos a los pacientes con epilepsia que ya se sometían a una cirugía cerebral que escucharan oraciones pronunciadas por diferentes personas, mientras medíamos los patrones de actividad cerebral. Estos patrones neuronales entrenaban al vocoder”.

Luego, los investigadores les pidieron a esos mismos pacientes que escuchen a los oradores recitar dígitos entre 0 y 9, mientras registraban las señales cerebrales que luego podrían ejecutarse a través del vocoder. El sonido producido por el vocoder en respuesta a esas señales fue analizado y limpiado por redes neuronales, un tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro biológico.

El resultado final fue una voz de sonido robótico que recitaba una secuencia de números. Para probar la precisión de la grabación, el equipo encargó a las personas que escucharan la grabación e informaran lo que escucharon. “Descubrimos que las personas podían entender y repetir los sonidos aproximadamente el 75% del tiempo, lo que está muy por encima y más allá de cualquier intento anterior”. La mejora en la inteligibilidad fue especialmente evidente al comparar las nuevas grabaciones con los intentos anteriores basados en espectrogramas. “El sensible vocoder y las poderosas redes neuronales representaban los sonidos que los pacientes habían escuchado originalmente con sorprendente precisión”.

 

Columbia Engineers Translate Brain Signals Directly into Speech.

 

 

La IA de IBM pierde el debate ante un humano

ibmdeb-001

El tema en debate era si el gobierno debería subsidiar la educación preescolar. Pero la pregunta real era si una máquina llamada IBM Debater podría superar a un líder humano de alto rango. La respuesta, el lunes por la noche, fue no.

Harish Natarajan, el gran finalista en los Campeonatos del Mundo de Debate 2016, pudo inclinar más a una audiencia de cientos de personas hacia su punto de vista que el IBM Debater impulsado por AI hacia el suyo. Los seres humanos, al menos aquellos equipados con títulos de las universidades de Oxford y Cambridge, aún pueden prevalecer en lo que respecta a las sutilezas del conocimiento, la persuasión y el argumento. No fue una victoria titular tan importante como la que vimos cuando las computadoras Deep Blue de IBM vencieron al mejor jugador de ajedrez humano en 1997 o el AlphaGo de Google derrotó a los mejores jugadores humanos del antiguo juego de Go en 2017. Pero IBM mostró que la inteligencia artificial aún puede ser útil en situaciones donde hay ambigüedad y debate, no solo una puntuación simple para juzgar quién ganó un juego. “Lo que realmente me llamó la atención es el valor potencial de IBM Debater cuando se [combina] con un ser humano”, dijo Natarajan después del debate. La IA de IBM fue capaz de explorar montañas de información y ofrecer un contexto útil para ese conocimiento, dijo.

IBM’s AI loses debate to a human, but it’s got worlds to conquer.