Pionero de la IA quiere que sus algoritmos entiendan el ‘por qué’.

inference-001

Yoshua Bengio recibió una parte del Premio Turing, el más alto galardón en informática, por sus contribuciones al desarrollo del aprendizaje profundo. Ahora dice que la disciplina no alcanzará todo su potencial, y no ofrecerá una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y pueda aprender más sobre causa y efecto. En otras palabras, cree que el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.

Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. Estos algoritmos no pueden explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.

En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un artículo que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales. El algoritmo esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.

El trabajo de Bengio sobre la causalidad podrá ser un pequeño paso para responder esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma.

An AI Pioneer Wants His Algorithms to Understand the ‘Why’.

 

Anuncios

Una IA lee las políticas de privacidad por usted

readcompr-002

Las políticas de privacidad pueden ser muy densas y confusas teniendo en cuenta que están llenas de trucos y palabras legales intencionalmente oscuras. No es extraño que casi nadie se moleste en leerlas, simplemente hemos aceptado que estamos renunciando a nuestros datos y, en parte, a nuestros derechos.

Pero gracias a esta nueva IA de lectura de políticas, las cosas no tendrán que ser así por mucho más tiempo. Guard es una aplicación basada en redes neuronales recurrentes que lee y analiza los términos de privacidad, para que usted no tenga que hacerlo. Si bien aún no puede examinar las políticas a pedido, la IA ha calificado los términos de privacidad de una serie de servicios populares como Netflix, Instagram, Twitter y Tinder.

Lo particularmente ingenioso de Guard es que no solo otorga una puntuación general, sino que también desglosa las principales amenazas incluidas en las políticas de privacidad. También enumera la cantidad total de amenazas y analiza los escándalos de privacidad anteriores en los que ha estado involucrado un servicio. La aplicación fue desarrollada por Javi Rameerez, quien creó el software como parte de su tesis sobre IA y procesamiento de lenguaje natural. Puedes leer más sobre la tecnología detrás de esto aquí.

Solo un aviso: parece que la IA no siempre capta todas las preocupaciones de privacidad, por ejemplo a Telegram le otorga una calificación de “A+”, señalando que “no tiene ninguna amenaza de privacidad”. Sin embargo, Telegram tuvo que corregir un error que almacenaba accidentalmente imágenes y sufrió una falla que hizo posible acechar a algunos usuarios.

Sin embargo, es de esperar que estas deficiencias disminuyan a medida que la IA sigue aprendiendo, y aquí es donde su aporte puede ser de ayuda. Guard está ejecutando una prueba rápida donde los humanos pueden darle instrucciones sobre qué políticas de privacidad son más fáciles de usar. Eso debería ayudar a la IA a identificar de manera más eficiente los términos de privacidad potencialmente dañinos.

 

> AI Reads Privacy Policies So You Don’t Have To — and It’s Actually Pretty Good.

Los científicos crean audífonos que pueden ser controlados mentalmente

f2.large_

Un grupo de científicos ha presentado un trabajo para la decodificación auditiva con atención selectiva independiente del hablante, aún sin acceso a fuentes limpias de voz, para la creación de un audífono que permitiría al usuario enfocarse en voces particulares, y dicen que podría transformar la capacidad de las personas con discapacidad auditiva para hacer frente a entornos ruidosos. El dispositivo imita la capacidad natural del cerebro para seleccionar y amplificar una voz en una conversación en segundo plano. Hasta ahora, incluso los audífonos más avanzados funcionan al aumentar todas las voces a la vez, lo que se puede experimentar como una cacofonía de sonido para el usuario, especialmente en entornos abarrotados. Nima Mesgarani, quien dirigió el último avance en la Universidad de Columbia en Nueva York, dijo: “El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa. Puede amplificar una voz sobre otras, aparentemente sin esfuerzo, mientras que los audífonos de hoy todavía palidecen en comparación “. Esto puede dificultar severamente la capacidad del usuario para participar en conversaciones, lo que hace que las ocasiones sociales muy concurridas sean particularmente desafiantes.

Los científicos han estado trabajando durante años para resolver este problema, conocido como el cocktail party effect. El audífono controlado por el cerebro parece haber resuelto el problema usando una combinación de inteligencia artificial y sensores diseñados para monitorear la actividad cerebral del oyente. El audífono primero usa un algoritmo para separar automáticamente las voces de varias personas. Luego compara estas pistas de audio con la actividad cerebral del oyente. El trabajo anterior del laboratorio de Mesgarani descubrió que es posible identificar a qué persona le está prestando atención el usuario, ya que su actividad cerebral coincide en mayor grado con las ondas de sonido de esa voz. El dispositivo compara la voz de cada persona con las ondas cerebrales de la persona que usa el audífono. La persona cuyo patrón de voz coincide más con las ondas cerebrales del oyente se amplifica sobre los demás, lo que les permite sintonizar sin esfuerzo con esa persona.

Para probar el dispositivo, el laboratorio reclutó pacientes con epilepsia que ya tenían electrodos implantados en su cerebro para controlar la actividad de las convulsiones. Los pacientes escucharon audios de diferentes voces simultáneamente mientras sus ondas cerebrales fueron monitoreadas a través de los electrodos implantados en su cerebro. Un algoritmo siguió la atención de los pacientes mientras escuchaban a diferentes oradores que no habían escuchado previamente. Cuando un paciente se enfoca en una voz, el sistema la amplifica automáticamente, con un breve retraso. Y cuando su atención se desplaza a una voz diferente, los niveles de volumen se modifican para reflejar ese cambio.

La versión actual del audífono, que involucra implantes directos en el cerebro, no sería adecuada para el uso comercial. Pero el equipo cree que será posible crear una versión no invasiva del dispositivo dentro de los próximos cinco años, que monitorearía la actividad cerebral usando electrodos colocados dentro del oído o debajo de la piel del cuero cabelludo. El siguiente paso será probar la tecnología en personas con discapacidad auditiva. Una pregunta es si será tan fácil combinar la actividad cerebral en personas que están parcialmente sordas con las ondas sonoras del habla. Según Jesal Vishnuram, gerente de tecnología de la organización benéfica Action on Hearing Loss, una de las razones por las que las personas consideran que los audífonos convencionales imprácticos en entornos ruidosos es que su cerebro no está acostumbrado a filtrar sonidos, así que esto podría hacerlo menos eficaz.

 

Scientists create mind-controlled hearing aid.

 

Un gran avance para la I.A.: Aprobar un examen de ciencias de octavo grado

textqa-001

Hace cuatro años, más de 700 informáticos compitieron en un concurso para desarrollar una inteligencia artificial que pudiera pasar un examen de ciencias de octavo grado. Había $ 80.000 en premios en juego. Todos fallaron. Incluso el sistema más sofisticado no pudo superar el 60 por ciento en la prueba. La IA no podía igualar las habilidades de lenguaje y lógica que se espera que los estudiantes tengan cuando ingresen a la escuela secundaria.

Pero recientemente, el Instituto Allen de Inteligencia Artificial, un laboratorio prominente en Seattle, dio a conocer un nuevo sistema que pasó la prueba con espacio de sobra. Respondió correctamente más del 90 por ciento de las preguntas en un examen de ciencias de octavo grado y más del 80 por ciento en un examen de 12° grado.

El sistema, llamado Aristo, fue construido únicamente para pruebas de opción múltiple. Tomó exámenes estándar escritos para estudiantes en Nueva York, aunque el Instituto Allen eliminó todas las preguntas que incluían imágenes y diagramas. Responder preguntas como esas habría requerido habilidades adicionales que combinan la comprensión del lenguaje y la lógica con la llamada visión por computadora.

Algunas preguntas de la prueba requirieron solo poco más que recuperación de información, pero otras requerían lógica.

Un grupo de tejidos que trabajan juntos para realizar una función específica se llama:
(1) un órgano, (2) un organismo, (3) un sistema, (4) una celda.

¿Qué cambio probablemente causaría una disminución en el número de ardillas que viven en un área?
(1) una disminución en el número de depredadores, (2) una disminución en la competencia entre las ardillas, (3) un aumento en la comida disponible, (4) un aumento en el número de incendios forestales.

El trabajo fue impulsado en gran medida por redes neuronales, sistemas matemáticos complejos que pueden aprender tareas mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de perros, por ejemplo, una red neuronal puede aprender a reconocer a un perro.  En Google, los investigadores crearon un sistema llamado Bert que revisó miles de artículos de Wikipedia y una vasta biblioteca digital de novelas románticas, ciencia ficción y otros libros autoeditados. Al analizar todo ese texto, Bert aprendió a adivinar la palabra que faltaba en una oración. Al aprender esa habilidad, Bert absorbió enormes cantidades de información sobre las formas fundamentales en que se construye el lenguaje. Y los investigadores podrían aplicar ese conocimiento a otras tareas. El Instituto Allen construyó su sistema Aristo sobre la tecnología Bert. Alimentaron a Bert con una amplia gama de preguntas y respuestas. Con el tiempo, aprendió a responder preguntas similares por su cuenta.

Ahora los investigadores han intentado construir un sistema que pueda aprobar el Examen de Ingreso de Grado, la prueba requerida para la admisión a la universidad. La sección de lenguaje era factible, dijeron, pero desarrollar las habilidades de razonamiento requeridas para la sección de matemáticas era otra cuestión. “Fue demasiado difícil”.

 

A Breakthrough for A.I. Technology: Passing an 8th-Grade Science Test.

 

IBM comparte el código de sus proyectos en IA para combatir el cáncer

medicine-001

IBM ha lanzado a la comunidad de código abierto tres proyectos de inteligencia artificial (IA) diseñados para asumir el desafío de curar el cáncer.  Se estima que el cáncer causó 9.6 millones de muertes en 2018, con un estimado de 18 millones de casos nuevos reportados en el mismo año. Los investigadores del grupo de Biología de Sistemas Computacionales de IBM en Zurich están trabajando en enfoques de IA y aprendizaje automático (ML) para “ayudar a acelerar nuestra comprensión de los principales impulsores y mecanismos moleculares de estas enfermedades complejas”, así como métodos para mejorar nuestro conocimiento de la composición de tumores.

El primer proyecto, denominado PaccMann, que no debe confundirse con el popular juego de computadora Pac-Man, se describe como la “Predicción de la sensibilidad del compuesto anticancerígeno con redes neuronales multimodales basadas en la atención”. IBM está trabajando en el algoritmo PaccMann para analizar automáticamente los compuestos químicos y predecir cuáles son los más propensos a combatir las cepas de cáncer, lo que podría acelerar este proceso. El algoritmo explota los datos sobre la expresión génica, así como las estructuras moleculares de los compuestos químicos. IBM dice que al identificar antes los posibles compuestos anticancerígenos puede reducir los costos asociados con el desarrollo de fármacos.

El segundo proyecto se llama “Influencia de la red de interacción de las representaciones vectoR de palabras”, también conocido como INtERAcT. Esta herramienta es particularmente interesante dada su extracción automática de datos de valiosos artículos científicos relacionados con nuestra comprensión del cáncer. INtERAcT tiene como objetivo hacer que el lado académico de la investigación sea menos pesado mediante la extracción automática de información de estos documentos. En este momento, la herramienta se está probando para extraer datos relacionados con las interacciones proteína-proteína, un área de estudio que se ha marcado como una posible causa de la interrupción de los procesos biológicos en enfermedades como el cáncer.

El tercer y último proyecto es el “aprendizaje de kernel múltiple inducido por la vía” o PIMKL. Este algoritmo utiliza conjuntos de datos que describen lo que sabemos actualmente sobre interacciones moleculares para predecir la progresión del cáncer y las posibles recaídas en los pacientes. PIMKL utiliza lo que se conoce como aprendizaje de múltiples núcleos para identificar vías moleculares cruciales para clasificar a los pacientes, brindando a los profesionales de la salud la oportunidad de individualizar y adaptar los planes de tratamiento.

El código de PaccMann e INtERAcT ha sido lanzado y está disponible en los sitios web de los proyectos. PIMKL se ha implementado en IBM Cloud y también se ha publicado el código fuente. Cada proyecto es de código abierto y ahora está disponible en el dominio público. IBM espera que al hacer que el código fuente esté disponible para otros investigadores y académicos, la comunidad científica pueda maximizar su impacto potencial.

 

IBM Gives Cancer-Killing Drug AI Project To the Open Source Community.

 

Intel presenta una computadora neuromórfica capaz de simular 8 millones de neuronas

neuromorphic-board

La ingeniería neuromórfica, también conocida como computación neuromórfica, describe el uso de sistemas que contienen circuitos analógicos electrónicos para imitar arquitecturas neurobiológicas presentes en el sistema nervioso.  Intel dio a conocer un sistema con el nombre “Pohoiki Beach”, una computadora de 64 chips capaz de simular 8 millones de neuronas en total.

Pohoiki Beach empaca 64 chips neuromórficos Loihi de 128 núcleos y 14 nanómetros, que se detallaron por primera vez en Octubre de 2017 en el taller Neuro Inspired Computational Elements (NICE) en Oregon. Tienen un tamaño de matriz de 60 milímetros y contienen más de 2 mil millones de transistores, 130.000 neuronas artificiales y 130 millones de sinapsis, además de tres núcleos de Lakemont para la orquestación de tareas. Excepcionalmente, Loihi cuenta con un motor de aprendizaje de microcódigo programable para el entrenamiento del chip de redes neuronales de pulso asíncrono (Spiking Neural Networks, SNN): modelos de inteligencia artificial que incorporan tiempo en su modelo operativo, de modo que los componentes del modelo no procesan datos de entrada simultáneamente. Esto se utilizará para la implementación de cálculos paralelos adaptativos, auto modificables, impulsados por eventos, y de alta precisión y eficiencia.

Las herramientas de desarrollo de Loihi comprenden la API en Python, un compilador y un conjunto de bibliotecas de tiempo de ejecución para construir y ejecutar SNN en Loihi. Esto proporciona una forma de crear un esquema de neuronas y sinapsis con configuraciones personalizadas, como el tiempo de caída, los pesos sinápticos y los umbrales de picos, y un medio para simular esos esquemas mediante la inyección de pulsos externos a través de reglas de aprendizaje personalizadas.

Según Intel, Loihi procesa información hasta 1.000 veces más rápido y 10.000 más eficientemente que los procesadores tradicionales, y puede resolver ciertos tipos de problemas de optimización con más de tres órdenes de magnitud en velocidad y eficiencia energética en comparación con las operaciones convencionales de CPU. Además, el fabricante de chips afirma que Loihi mantiene resultados de rendimiento en tiempo real y usa solo un 30% más de potencia cuando se amplía 50 veces, mientras que el hardware tradicional usa un 500% más de potencia. Y dice que el chip consume aproximadamente 100 veces menos energía que los métodos de mapeo y ubicación simultáneos utilizados por la CPU.

 

Intel’s Pohoiki Beach is a Neuromorphic Computer Capable of Simulating 8 Million Neurons.

 

Redes neuronales se han utilizado para traducir automáticamente idiomas perdidos

wordvect-001

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de inteligencia artificial de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático capaz de descifrar idiomas perdidos, y lo han demostrado en un manuscrito de la isla mediterránea de Creta. El manuscrito, Linear B, apareció después de 1400 aC, cuando la isla fue conquistada por los micénicos del continente griego.

La idea detrás de la traducción automática es comprender que las palabras están relacionadas entre sí de manera similar, independientemente del idioma involucrado. El proceso comienza al trazar estas relaciones para un lenguaje específico. Esto requiere enormes bases de datos de texto. Luego, una máquina busca en este texto para ver con qué frecuencia aparece cada palabra junto a otras. Este patrón de aparición es una firma única que define la palabra en un espacio de parámetros multidimensional. De hecho, la palabra puede considerarse como un vector dentro de este espacio. Y este vector actúa como una poderosa restricción sobre cómo puede aparecer la palabra en cualquier traducción.

Luo y sus colegas pusieron a prueba la técnica con dos idiomas perdidos, Linear B y Ugaritic. Los lingüistas saben que Linear B codifica una versión temprana del griego antiguo y que Ugaritic, que fue descubierto en 1929, es una forma temprana de hebreo. Dada la información y las restricciones impuestas por la evolución lingüística, la máquina de Luo y sus colegas puede traducir ambos idiomas con notable precisión. “Pudimos traducir correctamente el 67,3% de Linear B en sus equivalentes griegos”. “Por lo que sabemos, nuestro experimento es el primer intento de descifrar Linear B automáticamente”.

Es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca se han descifrado, como Linear A. En este documento, Linear A brilla por su ausencia. Luo y sus colegas ni siquiera lo mencionan, pero debe tener una gran importancia en su pensamiento, como lo hace para todos los lingüistas. Sin embargo, aún se necesitan importantes avances antes de que este manuscrito sea susceptible de traducción automática. Por ejemplo, nadie sabe qué idioma codifica. Los intentos de descifrarlo en griego antiguo han fracasado. Y sin el lenguaje progenitor, la nueva técnica no funciona.

 

Machine Learning Has Been Used To Automatically Translate Long-Lost Languages.