Las máquinas están aprendiendo a escribir poesía

ajvoft

Ranjit Bhatnagar, artista y programador, inventó en 2012 Pentametron, un proyecto de arte que explora la Twittersfera en busca de tuits en formato pentámetro yámbico. Primero, utilizando un diccionario de pronunciación creado en Carnegie Mellon, creó un programa para contar sílabas y reconocer mediciones. Luego, con un código separado para identificar rimas, comenzó a armar sonetos. Para el primer Mes Nacional de Generación de Novelas (NaNoGenMo), en 2013, Bhatnagar presentó “¡Tengo un cocodrilo como mascota!“, Una colección de 504 sonetos creados con Pentametron. El código de Bhatnagar requería que cada línea fuera un tweet completo, o esencialmente un pensamiento completo (o al menos lo que cuenta como un pensamiento en Twitter). También hizo todo lo posible para cumplir con las estrictas reglas de metro y rima. Así es como “¡Buenas noches! Mañana es otro día 🙂” (los títulos también están escritos por una máquina), comienza:

I pay attention to the little shit
yeah, teacher aren’t trying anymore… 🙂
Not even going to encourage it.
I never been in twitter jail before ….

Two people wanna be in my bio ?
I wanted some banana pudding to
Don’t be a menace is a classic tho
Know what’s amazing? Johnnie Walker Blue

Another day another dollar tho.
Tomorrow is another awesome day
She going hard and he’s complaining so
I never liked Sabrina anyway.

Fuck my retainer has a crack in it
This Maybelline mascara is the shit!!!

En la colección más reciente de sonetos asistidos por computadora de Bhatnagar, “Encomials“, él relaja estas limitaciones. Bhatnagar se dio cuenta de que, para que una máquina produjera un trabajo que sonara generado por el hombre, tenía que lograr un delicado equilibrio entre precisión y autenticidad. “Si cometiera demasiados errores, entonces no se vería humano, por lo que espero que sean suficientes errores”, dijo.

Los algoritmos de Bhatnagar utilizan una inteligente combinación de minería de datos y coincidencia de patrones para construir sonetos a partir de la escoria de Twitter. Esto es más poesía como collage que verdadera composición. “Apenas soy poeta, pero, como muchos, tuve experiencias tempranas en la escuela aprendiendo a escribir poesía”, reconoce. “Entonces, si los niños pueden aprender a escribir poemas desde cero, ¿qué pasa con las máquinas? Pude comenzar a componer después de leer solo un puñado de ejemplos. Mi cerebro, como el cerebro de la mayoría de los niños, no necesitaba mucho material para comenzar el proceso de mimetismo.”

Con el aprendizaje automático, las computadoras podrían finalmente hacer lo mismo. Pero incluso las técnicas de aprendizaje automático más sofisticadas que existen, las redes neuronales profundas, necesitan muchos datos para entrenarse o ser más precisos en una tarea determinada. La arquitectura de la red neuronal ha sido una bendición para tareas como la traducción de idiomas y el reconocimiento de imágenes, en gran parte debido a la disponibilidad de datos. Pero, en ausencia de datos suficientes, las máquinas no pueden comenzar a aprender en primer lugar. Es por eso que la tarea aparentemente simple de enseñarle a una máquina a componer un soneto es una hazaña de programación tan compleja; el aprendizaje profundo necesita más datos que un niño de escuela promedio.

Kevin Knight, un científico de computación de la Universidad del Sur de California, fue uno de los primeros investigadores que estudió cómo las redes neuronales profundas podrían usarse para atacar los desafíos de la traducción. La experiencia general de Knight está en el procesamiento del lenguaje natural, el área de la informática que trata con los problemas de generar y comprender el lenguaje humano. En 2015, Marjan Ghazvininejad, uno de los estudiantes de posgrado de Knight, comenzó a trabajar en Hafez, un programa utilizado para generar sonetos y otras formas poéticas que llevan el nombre del letrista persa del siglo XIV. Había dos partes en su proyecto: primero, codificar las reglas para la composición, la plantilla que encajaría cada soneto, y luego decidir qué poner en la plantilla. La primera etapa fue fácil: los programadores son buenos para elaborar reglas, y los programas son buenos para seguirlas. Además, como explicó Knight, al equipo de Ghazvininejad se le ocurrieron algunas innovaciones inteligentes, como decirle a la computadora que primero escoja la última palabra de cada línea, y luego seleccionar pares de rimas que parecían tópicamente similares. Pero, ¿de dónde vendrían las palabras en primer lugar? A pesar de que el mundo de la poesía lírica es pobre en datos (no hay suficientes sonetos disponibles en Internet), Ghazvininejad y sus colaboradores se dieron cuenta de que el mundo cercano de las letras de las canciones es rico en datos. Su equipo decidió entrenar su programa en 95 mil canciones extraídas de la base de datos Music Lyrics. Para cada poema, Hafez respondió a un tema dado, luego recopiló palabras que rimaban dentro de la base de datos y las unió utilizando sus redes neuronales en constante mejora. El entrenamiento también ayudó a crear coherencia y estilo, el más esquivo de los toques humanos. Un poema, generado a partir de la palabra “wave“, tiene una sensación siniestra y futurista:

People picking up electric chronic.
The balance like a giant tidal wave,
Never ever feeling supersonic,
Or reaching any very shallow grave.

An open space between awaiting speed,
And looking at divine velocity.
A faceless nation under constant need,
Without another curiosity.

Or maybe going through the wave equation.
An ancient engine offers no momentum,
About the power from an old vibration,
And nothing but a little bit of venom.

Surrounded by a sin Omega T,
On the other side of you and me.

La dicción aquí se siente creíblemente consistente; “velocidad”, “impulso” y “vibración” pertenecen a un registro matemático similar. “Divino”, “omega” y “poder” crean otra línea de paso tonal. Además, hay un sentido de coherencia temática, destellos de narrativa.

Hafez fue presentado a las Pruebas de Turing 2016 en las Artes Creativas en Dartmouth. Una máquina pasa la prueba de Turing si puede demostrar que es indistinguible de un humano. El desafío de Hafez era engañar a los jueces para que pensaran que sus sonetos habían sido escritos por poetas reales. Al final, ganó la competencia, pero no pasó la prueba de Turing. Hafez era mejor que las otras máquinas, pero aún distinguible de una persona. Cuando los sonetos escritos por una máquina se intercalaban entre obras escritas por humanos, no hubo un sola IA poeta que pudiera engañar a la mayoría de los jueces de la competencia.

Dado el poder de las nuevas técnicas en inteligencia artificial, ¿por qué no pensar de manera más amplia sobre los tipos de arte que uno puede hacer al usarlo? Podríamos pensar en “generado por máquina” como una especie etiqueta, o podríamos pensar en ella como una categoría de arte completamente nueva y digna.

 

The Mechanical Muse.

 

Una IA lee las políticas de privacidad por usted

readcompr-002

Las políticas de privacidad pueden ser muy densas y confusas teniendo en cuenta que están llenas de trucos y palabras legales intencionalmente oscuras. No es extraño que casi nadie se moleste en leerlas, simplemente hemos aceptado que estamos renunciando a nuestros datos y, en parte, a nuestros derechos.

Pero gracias a esta nueva IA de lectura de políticas, las cosas no tendrán que ser así por mucho más tiempo. Guard es una aplicación basada en redes neuronales recurrentes que lee y analiza los términos de privacidad, para que usted no tenga que hacerlo. Si bien aún no puede examinar las políticas a pedido, la IA ha calificado los términos de privacidad de una serie de servicios populares como Netflix, Instagram, Twitter y Tinder.

Lo particularmente ingenioso de Guard es que no solo otorga una puntuación general, sino que también desglosa las principales amenazas incluidas en las políticas de privacidad. También enumera la cantidad total de amenazas y analiza los escándalos de privacidad anteriores en los que ha estado involucrado un servicio. La aplicación fue desarrollada por Javi Rameerez, quien creó el software como parte de su tesis sobre IA y procesamiento de lenguaje natural. Puedes leer más sobre la tecnología detrás de esto aquí.

Solo un aviso: parece que la IA no siempre capta todas las preocupaciones de privacidad, por ejemplo a Telegram le otorga una calificación de “A+”, señalando que “no tiene ninguna amenaza de privacidad”. Sin embargo, Telegram tuvo que corregir un error que almacenaba accidentalmente imágenes y sufrió una falla que hizo posible acechar a algunos usuarios.

Sin embargo, es de esperar que estas deficiencias disminuyan a medida que la IA sigue aprendiendo, y aquí es donde su aporte puede ser de ayuda. Guard está ejecutando una prueba rápida donde los humanos pueden darle instrucciones sobre qué políticas de privacidad son más fáciles de usar. Eso debería ayudar a la IA a identificar de manera más eficiente los términos de privacidad potencialmente dañinos.

 

> AI Reads Privacy Policies So You Don’t Have To — and It’s Actually Pretty Good.

Un gran avance para la I.A.: Aprobar un examen de ciencias de octavo grado

textqa-001

Hace cuatro años, más de 700 informáticos compitieron en un concurso para desarrollar una inteligencia artificial que pudiera pasar un examen de ciencias de octavo grado. Había $ 80.000 en premios en juego. Todos fallaron. Incluso el sistema más sofisticado no pudo superar el 60 por ciento en la prueba. La IA no podía igualar las habilidades de lenguaje y lógica que se espera que los estudiantes tengan cuando ingresen a la escuela secundaria.

Pero recientemente, el Instituto Allen de Inteligencia Artificial, un laboratorio prominente en Seattle, dio a conocer un nuevo sistema que pasó la prueba con espacio de sobra. Respondió correctamente más del 90 por ciento de las preguntas en un examen de ciencias de octavo grado y más del 80 por ciento en un examen de 12° grado.

El sistema, llamado Aristo, fue construido únicamente para pruebas de opción múltiple. Tomó exámenes estándar escritos para estudiantes en Nueva York, aunque el Instituto Allen eliminó todas las preguntas que incluían imágenes y diagramas. Responder preguntas como esas habría requerido habilidades adicionales que combinan la comprensión del lenguaje y la lógica con la llamada visión por computadora.

Algunas preguntas de la prueba requirieron solo poco más que recuperación de información, pero otras requerían lógica.

Un grupo de tejidos que trabajan juntos para realizar una función específica se llama:
(1) un órgano, (2) un organismo, (3) un sistema, (4) una célula.

¿Qué cambio probablemente causaría una disminución en el número de ardillas que viven en un área?
(1) una disminución en el número de depredadores, (2) una disminución en la competencia entre las ardillas, (3) un aumento en la comida disponible, (4) un aumento en el número de incendios forestales.

El trabajo fue impulsado en gran medida por redes neuronales, sistemas matemáticos complejos que pueden aprender tareas mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de perros, por ejemplo, una red neuronal puede aprender a reconocer a un perro.  En Google, los investigadores crearon un sistema llamado Bert que revisó miles de artículos de Wikipedia y una vasta biblioteca digital de novelas románticas, ciencia ficción y otros libros autoeditados. Al analizar todo ese texto, Bert aprendió a adivinar la palabra que faltaba en una oración. Al aprender esa habilidad, Bert absorbió enormes cantidades de información sobre las formas fundamentales en que se construye el lenguaje. Y los investigadores podrían aplicar ese conocimiento a otras tareas. El Instituto Allen construyó su sistema Aristo sobre la tecnología Bert. Alimentaron a Bert con una amplia gama de preguntas y respuestas. Con el tiempo, aprendió a responder preguntas similares por su cuenta.

Ahora los investigadores han intentado construir un sistema que pueda aprobar el Examen de Ingreso de Grado, la prueba requerida para la admisión a la universidad. La sección de lenguaje era factible, dijeron, pero desarrollar las habilidades de razonamiento requeridas para la sección de matemáticas era otra cuestión. “Fue demasiado difícil”.

 

A Breakthrough for A.I. Technology: Passing an 8th-Grade Science Test.

 

Redes neuronales se han utilizado para traducir automáticamente idiomas perdidos

wordvect-001

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de inteligencia artificial de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático capaz de descifrar idiomas perdidos, y lo han demostrado en un manuscrito de la isla mediterránea de Creta. El manuscrito, Linear B, apareció después de 1400 aC, cuando la isla fue conquistada por los micénicos del continente griego.

La idea detrás de la traducción automática es comprender que las palabras están relacionadas entre sí de manera similar, independientemente del idioma involucrado. El proceso comienza al trazar estas relaciones para un lenguaje específico. Esto requiere enormes bases de datos de texto. Luego, una máquina busca en este texto para ver con qué frecuencia aparece cada palabra junto a otras. Este patrón de aparición es una firma única que define la palabra en un espacio de parámetros multidimensional. De hecho, la palabra puede considerarse como un vector dentro de este espacio. Y este vector actúa como una poderosa restricción sobre cómo puede aparecer la palabra en cualquier traducción.

Luo y sus colegas pusieron a prueba la técnica con dos idiomas perdidos, Linear B y Ugaritic. Los lingüistas saben que Linear B codifica una versión temprana del griego antiguo y que Ugaritic, que fue descubierto en 1929, es una forma temprana de hebreo. Dada la información y las restricciones impuestas por la evolución lingüística, la máquina de Luo y sus colegas puede traducir ambos idiomas con notable precisión. “Pudimos traducir correctamente el 67,3% de Linear B en sus equivalentes griegos”. “Por lo que sabemos, nuestro experimento es el primer intento de descifrar Linear B automáticamente”.

Es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca se han descifrado, como Linear A. En este documento, Linear A brilla por su ausencia. Luo y sus colegas ni siquiera lo mencionan, pero debe tener una gran importancia en su pensamiento, como lo hace para todos los lingüistas. Sin embargo, aún se necesitan importantes avances antes de que este manuscrito sea susceptible de traducción automática. Por ejemplo, nadie sabe qué idioma codifica. Los intentos de descifrarlo en griego antiguo han fracasado. Y sin el lenguaje progenitor, la nueva técnica no funciona.

 

Machine Learning Has Been Used To Automatically Translate Long-Lost Languages.

 

AI entrenada en viejos artículos científicos hace descubrimientos que los humanos pasaron por alto

41586_2019_1335_fig4_esm

Usando solo el lenguaje en artículos científicos antigüos, un algoritmo de aprendizaje automático fue capaz de hacer descubrimientos científicos completamente nuevos. En un estudio publicado en Nature el 3 de julio, los investigadores del Laboratorio Nacional Lawrence Berkeley utilizaron un algoritmo llamado Word2Vec para analizar artículos científicos buscando conexiones que los humanos hubieran pasado por alto. Su algoritmo arrojó predicciones para posibles materiales termoeléctricos, que convierten el calor en energía y se utilizan en muchas aplicaciones de calefacción y refrigeración. Sin embargo, el algoritmo no conocía la definición de termoeléctrico. No recibió formación en ciencia de los materiales. Usando solo asociaciones de palabras, el algoritmo pudo proporcionar candidatos para futuros materiales termoeléctricos, algunos de los cuales pueden ser mejores que los que utilizamos actualmente.

Para entrenar el algoritmo, los investigadores evaluaron el lenguaje en 3.3 millones de resúmenes relacionados con la ciencia de los materiales y terminaron con un vocabulario de aproximadamente 500,000 palabras. Alimentaron los resúmenes a Word2vec, que utiliza redes neuronales artificiales para analizar las relaciones entre las palabras. El algoritmo vinculó las palabras que se encontraron juntas, creando vectores de palabras relacionadas que ayudaron a definir conceptos. En algunos casos, las palabras estaban vinculadas a conceptos termoeléctricos, pero nunca habían sido escritas como termoeléctricas en ningún resumen considerado. Esta brecha en el conocimiento es difícil de atrapar con un ojo humano, pero es fácil de detectar para un algoritmo.

Después de mostrar su capacidad para predecir materiales futuros, los investigadores llevaron su trabajo en el tiempo, virtualmente. Desecharon datos recientes y probaron el algoritmo en documentos antiguos, viendo si podía predecir descubrimientos científicos antes de que sucedieran. Una vez más, el algoritmo funcionó. En un experimento, los investigadores analizaron solo los artículos publicados antes de 2009 y pudieron predecir uno de los mejores materiales termoeléctricos modernos cuatro años antes de que se descubriera en 2012.

Esta nueva aplicación de aprendizaje automático va más allá de la ciencia de los materiales. Debido a que no está atado a un conjunto de datos específicos, podría ser aplicado fácilmente a otras disciplinas, y volver a entrenarlo en la literatura de cualquier tema que se desee.

 

AI Trained on Old Scientific Papers Makes Discoveries Humans Missed.

 

La IA de Affectiva oye tu ira en 1.2 segundos.

emodet-002

Alexa de Amazon puede detectar el habla susurrada, así es como sabe cuándo susurrar. Pero ¿qué pasa con la inteligencia artificial que es capaz de percibir la frustración? La red neuronal de Affectiva del MIT Media Lab, SoundNet, puede clasificar la ira en datos de audio en tan solo 1,2 segundos, independientemente del idioma del hablante, igual que el tiempo que los humanos tardan en percibir la ira.

Los investigadores de Affectiva lo describen en un trabajo recientemente publicado. “Un problema importante en el aprovechamiento del poder de las redes de aprendizaje profundo para el reconocimiento de las emociones es la diferencia entre la gran cantidad de datos requeridos por las redes profundas y el pequeño tamaño de los conjuntos de datos de voz etiquetados con emociones”, escribieron los coautores del artículo. “Nuestro modelo de detección de ira entrenado mejora el rendimiento y generaliza bien en una variedad de conjuntos de datos emocionales actuados, provocados y naturales. Además, nuestro sistema propuesto tiene una baja latencia, adecuada para aplicaciones en tiempo real “.

SoundNet consiste en una red neuronal convolucional, un tipo de red neuronal comúnmente aplicada para analizar imágenes visuales, entrenada sobre un conjunto de datos de video. Para lograr que reconozca la ira en el habla, el equipo primero obtuvo una gran cantidad de datos de audio generales (dos millones de videos, o un poco más de un año) con el etiquetado producido por otro modelo. Luego, lo ajustaron con un conjunto de datos más pequeño, IEMOCAP, que contiene 12 horas de datos de emoción audiovisual anotados, que incluyen video, voz y transcripciones de texto. Para probar la generalización del modelo AI, el equipo evaluó su modelo entrenado en inglés sobre los datos de la emoción del habla en chino mandarín (el Corpus del habla afectiva del mandarín, o MASC). Informan que no solo se generalizó bien a los datos del habla en inglés, sino que fue efectivo en los datos chinos, aunque con una leve degradación en el rendimiento.

Finalmente dejan como trabajo futuro el aprovechar otros grandes conjuntos de datos disponibles públicamente, y  el entrenar sistemas de inteligencia artificial para tareas relacionadas con el habla, como reconocer otros tipos de emociones y estados afectivos.

 

Affectiva’s AI hears your anger in 1.2 seconds.

 

El aprendizaje automático puede usar tweets para detectar fallas de seguridad críticas

textnews-002

Investigadores de la Universidad Estatal de Ohio, la compañía de seguridad FireEye y la firma de investigación Leidos publicaron un artículo que describe un nuevo sistema que lee millones de tweets para detectar menciones de vulnerabilidades de seguridad de software utilizando un algoritmo entrenado con aprendizaje automático, y luego evalúa qué tan grande es la amenaza que representa en función de cómo se describe. Descubrieron que Twitter no solo puede predecir la mayoría de las fallas de seguridad que aparecerán días más tarde en la base de datos de vulnerabilidad nacional, el registro oficial de vulnerabilidades de seguridad rastreadas por el Instituto Nacional de Estándares y Tecnología, sino que también podían usar procesamiento de lenguaje natural para predecir aproximadamente a cuál de esas vulnerabilidades se le otorgará una calificación de gravedad “alta” o “crítica” con una precisión superior al 80 por ciento.

Un prototipo del trabajo en progreso que pusieron en línea, por ejemplo, mostró tweets de la última semana sobre una nueva vulnerabilidad en MacOS conocida como “BuggyCow”, así como un ataque conocido como SPOILER que podría permitir a las páginas web explotar vulnerabilidades asentadas en la profundidad de los chips de Intel. Ninguno de los ataques, que el escáner de Twitter de los investigadores etiquetó como “probablemente severos”, se ha presentado aún en la Base de Datos Nacional de Vulnerabilidad. El prototipo, admiten, no es perfecto. Se actualiza solo una vez al día, incluye algunos duplicados y, no se detectaron algunas vulnerabilidades que luego aparecieron en el NVD. Pero los autores argumentan que el verdadero avance de la investigación consiste en clasificar con precisión la gravedad de las vulnerabilidades basadas en un análisis automatizado del lenguaje humano.

En su experimento, los investigadores comenzaron tomando un subconjunto de 6000 tweets que identificaron como que discutían vulnerabilidades de seguridad. Estos fueron etiquetados con clasificaciones de gravedad generadas por el humanos, filtrando los resultados de cualquier valor atípico que discrepara drásticamente con otros. Luego, los investigadores utilizaron esos tweets etiquetados como datos de entrenamiento para un motor de aprendizaje automático y probaron sus predicciones. Anticipándose cinco días a la inclusión de una vulnerabilidad en el registro nacional, pudieron predecir la severidad de las 100 vulnerabilidades más críticas, basándose en la misma clasificación de la NVD, con un 78% de precisión. Para las 50 principales, podrían predecir la gravedad con un 86% de precisión y 100% de precisión para las 10 vulnerabilidades más graves del NVD.

Ritter advierte que, a pesar de los resultados prometedores, su herramienta automatizada probablemente no debería ser utilizada como la única fuente de datos de vulnerabilidad, y que al menos un humano debe hacer clic en el tweet subyacente y su información vinculada para confirmar sus hallazgos.

Machine Learning Can Use Tweets to Spot Critical Security Flaws.

 

Interfaz de computadora traduce señales cerebrales directamente al habla

41598_2018_37359_fig1_html

Los neuroingenieros de Columbia han creado por primera vez un sistema que traduce el pensamiento en un discurso inteligible y reconocible. Al monitorear la actividad cerebral de alguien, la tecnología puede reconstruir las palabras que una persona escucha con una claridad sin precedentes. Este avance, que aprovecha el poder de los sintetizadores de voz y la inteligencia artificial, podría llevar a nuevas formas para que las computadoras se comuniquen directamente con el cerebro. También sienta las bases para ayudar a las personas que no pueden hablar, como aquellas que viven con esclerosis lateral amiotrófica (ELA) o que se están recuperando de un derrame cerebral, a recuperar su capacidad de comunicarse con el mundo exterior.

La investigación ha demostrado que cuando las personas hablan, patrones de actividad aparecen en su cerebro. Las señales también emergen cuando escuchamos a alguien hablar, o nos imaginamos escuchando. Registrar y decodificar estos patrones podría traducirse a un discurso verbal a voluntad. Pero lograr esta hazaña ha resultado ser un desafío. La decodificación de las señales cerebrales mediante modelos informáticos simples que analizan los espectrogramas no ha logrado producir nada que se parezca al habla inteligible. Este equipo, en cambio, recurrió a un vocoder, un algoritmo de computadora que puede sintetizar el habla luego de ser entrenado en grabaciones de personas que hablan.

Para enseñar al vocoder a interpretar la actividad cerebral, se asociaron con un neurocirujano que trata pacientes de epilepsia, algunos de los cuales deben someterse a cirugías regulares. “Le pedimos a los pacientes con epilepsia que ya se sometían a una cirugía cerebral que escucharan oraciones pronunciadas por diferentes personas, mientras medíamos los patrones de actividad cerebral. Estos patrones neuronales entrenaban al vocoder”.

Luego, los investigadores les pidieron a esos mismos pacientes que escuchen a los oradores recitar dígitos entre 0 y 9, mientras registraban las señales cerebrales que luego podrían ejecutarse a través del vocoder. El sonido producido por el vocoder en respuesta a esas señales fue analizado y limpiado por redes neuronales, un tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro biológico.

El resultado final fue una voz de sonido robótico que recitaba una secuencia de números. Para probar la precisión de la grabación, el equipo encargó a las personas que escucharan la grabación e informaran lo que escucharon. “Descubrimos que las personas podían entender y repetir los sonidos aproximadamente el 75% del tiempo, lo que está muy por encima y más allá de cualquier intento anterior”. La mejora en la inteligibilidad fue especialmente evidente al comparar las nuevas grabaciones con los intentos anteriores basados en espectrogramas. “El sensible vocoder y las poderosas redes neuronales representaban los sonidos que los pacientes habían escuchado originalmente con sorprendente precisión”.

 

Columbia Engineers Translate Brain Signals Directly into Speech.

 

 

La IA de IBM pierde el debate ante un humano

ibmdeb-001

El tema en debate era si el gobierno debería subsidiar la educación preescolar. Pero la pregunta real era si una máquina llamada IBM Debater podría superar a un líder humano de alto rango. La respuesta, el lunes por la noche, fue no.

Harish Natarajan, el gran finalista en los Campeonatos del Mundo de Debate 2016, pudo inclinar más a una audiencia de cientos de personas hacia su punto de vista que el IBM Debater impulsado por AI hacia el suyo. Los seres humanos, al menos aquellos equipados con títulos de las universidades de Oxford y Cambridge, aún pueden prevalecer en lo que respecta a las sutilezas del conocimiento, la persuasión y el argumento. No fue una victoria titular tan importante como la que vimos cuando las computadoras Deep Blue de IBM vencieron al mejor jugador de ajedrez humano en 1997 o el AlphaGo de Google derrotó a los mejores jugadores humanos del antiguo juego de Go en 2017. Pero IBM mostró que la inteligencia artificial aún puede ser útil en situaciones donde hay ambigüedad y debate, no solo una puntuación simple para juzgar quién ganó un juego. “Lo que realmente me llamó la atención es el valor potencial de IBM Debater cuando se [combina] con un ser humano”, dijo Natarajan después del debate. La IA de IBM fue capaz de explorar montañas de información y ofrecer un contexto útil para ese conocimiento, dijo.

IBM’s AI loses debate to a human, but it’s got worlds to conquer.

 

Agencia de noticias china agrega un reportero artificial a su equipo de transmisión

La agencia estatal china de noticias Xinhua reveló las últimas incorporaciones a su equipo de reporteros: dos inteligencias artificiales. Los dos reporteros, uno que habla en inglés y otro en chino, usan la apariencia de reporteros humanos de Xinhua, pero sus voces, expresiones faciales y movimientos de la boca se sintetizan y animan utilizando técnicas de aprendizaje profundo. “Los presentadores de AI se han convertido oficialmente en miembros del equipo de informes de la Agencia de Noticias Xinhua”, dijo la agencia. “Trabajarán con otros para brindarle información de noticias confiable, oportuna y precisa tanto en chino como en inglés”.

South China Morning Post informa que los reporteros virtuales están disponibles a través de las aplicaciones en inglés y chino de Xinhua, su página web de TV y su cuenta pública de WeChat. La tecnología detrás de estos es proporcionada por la empresa de motores de búsqueda Sogou.

Xinhua dice que sus reporteros artificiales pueden entregar las noticias con el “mismo efecto” que los reporteros humanos. Pero viendo el video se puede apreciar que esto no es exactamente cierto. Es bastante claro que se está viendo a un reportero virtual ya que los movimientos de la boca y las expresiones faciales no son muy parecidos a los humanos, y la voz puede parecer un poco robótica.  Pero a diferencia de los reporteros humanos, los virtuales de Xinhua pueden trabajar las 24 horas del día, y la agencia de noticias dice que, por lo tanto, permiten mejorar la eficiencia de la producción y reducir los costos.

> Chinese News Agency Adds AI Anchors To Its Broadcast Team.