La gente está usando redes neuronales para crear falsos videos porno de celebridades

fakeapp-001Muchas de las piezas de tecnología de consumo más sorprendentes que tenemos hoy en día son gracias a los avances en las redes neuronales y el aprendizaje automático. Ya contamos con una impresionante capacidad de reconocimiento de objetos en fotos y síntesis de voz, y en algunos años los autos se podrán conducir solos. El aprendizaje automático se ha vuelto tan avanzado que un puñado de desarrolladores ha creado una herramienta llamada FakeApp que puede crear videos convincentes de “intercambio de caras”. Y por supuesto, lo están usando para hacer porno.

FakeApp se basa en un trabajo realizado utilizando aprendizaje profundo por un usuario de Reddit conocido como Deepfakes. La herramienta está disponible para descargar pero la configuración no es trivial (requiere descargar y configurar CUDA de Nvidia para ejecutar código de TensorFlow). El video a modificar también debe dividirse en cuadros individuales, y se necesita de una cantidad significativa de fotos para entrenar a FakeApp con la cara que se quiera insertar.

El resultado final es un video con la cara original reemplazada por una nueva. La calidad del intercambio de rostros varía en función de cómo se entrenó la red neuronal: algunos son poco más que borrones en forma de cara, pero otros son extremadamente (preocupantemente) convincentes.  Pero el poder real y el peligro potencial de esta tecnología no es el porno. ¿Qué pasa si una versión futura de esta técnica es tan poderosa que se vuelve indistinguible de las imágenes reales? Todos los intercambios de caras de FakeApp tienen al menos una pequeña distorsión o parpadeo, pero este es solo un programa desarrollado por algunas personas en Reddit. Con más recursos, las redes neuronales podrían ser capaces de algunas cosas terribles.

 

> People Are Using a Neural Network App to Create Fake Celebrity Porn.

Un nuevo modelo supera a los humanos en lectura y comprensión

readcompr-001

Alibaba ha desarrollado un modelo de inteligencia artificial que obtuvo mejor puntaje que los humanos en una prueba de comprensión y lectura de la Universidad de Stanford.

El grupo puso a prueba su modelo de red neuronal profunda la semana pasada, pidiéndole a la IA que brinde respuestas exactas a más de 100.000 preguntas que comprenden una prueba cuyo resultado se considera uno de los mejores indicadores de comprensión de lectura actualmente. Basado en más de 500 artículos de Wikipedia, el conjunto de preguntas de Stanford está diseñado para determinar si los modelos de aprendizaje automático pueden procesar grandes cantidades de información antes de proporcionar respuestas precisas a las consultas.

El modelo desarrollado por el Instituto de Ciencia de las Tecnologías de Datos de Alibaba obtuvo un puntaje de 82.44, superando los 82.304 logrados por humanos rivales.  La compañia dijo que es la primera vez que una máquina supera a una persona real en tal competencia. Microsoft logró una hazaña similar, anotando 82.650 en la misma prueba, pero esos resultados se finalizaron un día después de Alibaba.

“Eso significa que las preguntas objetivas tales como ‘qué causa la lluvia’ ahora pueden ser respondidas con gran precisión por las máquinas”, dijo Luo Si, científico en jefe para el procesamiento del lenguaje natural en el instituto Alibaba, en un comunicado. “La tecnología subyacente se puede aplicar gradualmente a numerosas aplicaciones, como servicio al cliente, tutoriales en museos y respuestas en línea a consultas médicas de pacientes, disminuyendo la necesidad de aportes humanos de una manera sin precedentes”.

 

> Alibaba’s AI Outguns Humans in Reading Test.

Hinton revela un nuevo giro en las redes neuronales. Las redes encapsuladas.

capsule-001

Hinton es un pionero en el campo de las redes neuronales artificiales pero ahora menosprecia la tecnología que ayudó a traer al mundo. “Creo que la forma en que estamos haciendo la visión por computadora es simplemente incorrecta”, dice. “Funciona mejor que cualquier otra cosa en la actualidad, pero eso no significa que esté bien”. En su lugar ha develado otra idea “antigua” que podría transformar la forma en que las computadoras ven y remodelar la inteligencia artificial.

Recientemente Hinton publicó dos trabajos [1,2] de investigación que según él prueban una idea sobre la que ha estado reflexionando durante casi 40 años. “Intuitivamente durante mucho tiempo tenía sentido para mí, simplemente no funcionaba bien”, dice Hinton. “Finalmente tenemos algo que funciona”.

El nuevo enfoque conocido como redes encapsuladas, es un giro en las redes neuronales destinado a hacer que las máquinas puedan comprender mejor el mundo a través de imágenes o videos. En uno de los trabajos publicados alcanzaron igual precisión que las mejores técnicas conocidas hasta ahora en una prueba estándar para reconocer dígitos escritos a mano. En el segundo, las nuevas redes casi redujeron a la mitad la mejor tasa de error anterior en una prueba para reconocer juguetes como camiones y automóviles desde diferentes ángulos. Hinton ha estado trabajando en su nueva técnica con sus colegas Sara Sabour y Nicholas Frosst en la oficina de Google en Toronto.

Las redes encapsuladas tienen como objetivo remediar una debilidad de los sistemas actuales de aprendizaje automático que limita su efectividad. El software de reconocimiento de imágenes actualmente en uso por Google y otros necesita una gran cantidad de fotos de ejemplo para aprender a reconocer objetos de forma confiable en todo tipo de situaciones. Esto se debe a que el software no es muy bueno para generalizar lo que aprende a nuevos escenarios, por ejemplo, entender que un objeto es el mismo cuando se lo ve desde un nuevo punto de vista. Enseñar a una computadora a reconocer un gato desde muchos ángulos, por ejemplo, podría requerir miles de fotos que cubran una variedad de perspectivas. Los niños humanos no necesitan una capacitación tan explícita y extensa para aprender a reconocer una mascota doméstica.

La idea de Hinton para reducir el abismo entre los mejores sistemas de inteligencia artificial y los niños pequeños ordinarios es incluir un poco más de conocimiento del mundo en la construcción del sistema de visión por computadora. Las cápsulas, pequeños grupos de neuronas virtuales rudimentarias, están diseñadas para rastrear diferentes partes de un objeto, como la nariz y las orejas de un gato, y sus posiciones relativas en el espacio. Una red de muchas cápsulas puede usar esa conciencia para comprender cuándo una nueva escena es, de hecho, una visión diferente de algo que ha visto antes.

Hinton formó su intuición de que los sistemas de visión necesitan un sentido de geometría tan intrínseco en 1979, cuando intentaba descubrir cómo los humanos usan las imágenes mentales, pero recién presentó un diseño preliminar para las redes encapsuladas en 2011. De alguna manera, las redes encapsuladas son una desviación de una tendencia reciente en la investigación de IA. Una interpretación del éxito reciente de las redes neuronales es que los investigadores deben codificar el menor conocimiento posible en un modelo y en su lugar hacer que aprenda las cosas por sí mismo desde cero. Gary Marcus, un profesor de psicología en NYU, dice que el último trabajo de Hinton representa una bienvenida bocanada de aire fresco. Marcus argumenta que los investigadores de IA deberían estar haciendo más para imitar cómo el cerebro tiene una maquinaria incorporada innata para aprender habilidades cruciales como la visión y el lenguaje. “Es demasiado pronto para decir hasta dónde llegará esta arquitectura en particular, pero es genial ver a Hinton salir de la rutina en la que el campo parece haberse obsesionado”, dice Marcus.

 

> Google’s AI Wizard Unveils a New Twist on Neural Networks.

La inteligencia artificial de Google construyó su propia IA que supera a todas las fabricadas por humanos

¿Deberíamos estar preocupados?

En mayo de 2017, los investigadores de Google Brain anunciaron la creación de AutoML, una inteligencia artificial (IA) que es capaz de generar sus propias IA.

Más recientemente, decidieron presentar AutoML con su mayor desafío hasta la fecha, y la IA que puede construir AI creó un ‘niño’ que superó a todos sus contrapartes hechas por el hombre.

Los investigadores de Google automatizaron el diseño de modelos de aprendizaje automático utilizando un enfoque llamado aprendizaje reforzado. AutoML actúa como una red neuronal controladora que desarrolla una red infantil de inteligencia artificial para una tarea específica.

Para esta IA infantil en particular, que los investigadores llamaron NASNet, la tarea consistía en reconocer objetos (personas, automóviles, semáforos, bolsos, mochilas, etc.) en un video en tiempo real.

AutoML evaluaría el rendimiento de NASNet y usaría esa información para mejorar su IA infantil, repitiendo el proceso miles de veces.

Cuando se probaron en la clasificación de imágenes ImageNet y los conjuntos de datos de detección de objetos COCO, que los investigadores de Google llaman “dos de los conjuntos de datos académicos a gran escala más respetados en visión artificial”, NASNet superó a todos los demás sistemas de visión por computadora.

Según los investigadores, NASNet tenía un 82,7 por ciento de precisión en la predicción de imágenes en el conjunto de validación de ImageNet. Esto es un 1,2 por ciento mejor que cualquier resultado publicado previamente, y el sistema también es un 4 por ciento más eficiente, con un promedio de Precisión media (mAP) del 43.1 por ciento.

Además, una versión menos computacionalmente exigente de NASNet superó a los mejores modelos de tamaño similar para plataformas móviles en un 3,1 por ciento.

 

Una vista del futuro

El aprendizaje automático es lo que le da a muchos sistemas de inteligencia artificial la capacidad de realizar tareas específicas. Aunque el concepto detrás de esto es bastante simple, un algoritmo aprende al ser alimentado con una tonelada de datos, el proceso requiere una enorme cantidad de tiempo y esfuerzo.

Al automatizar el proceso de creación de sistemas de inteligencia artificial precisos y eficientes, una IA que puede construir IA se lleva la peor parte de ese trabajo. En última instancia, eso significa que AutoML podría abrir el campo del aprendizaje automático y la inteligencia artificial a los no expertos.

En cuanto a NASNet específicamente, los algoritmos de visión por computadora precisos y eficientes son muy buscados debido a la cantidad de aplicaciones potenciales. Podrían utilizarse para crear sofisticados robots con inteligencia artificial o para ayudar a las personas con discapacidad visual a recuperar la vista, como sugirió un investigador.

También podrían ayudar a los diseñadores a mejorar las tecnologías de los vehículos autónomos. Cuanto más rápido un vehículo autónomo puede reconocer objetos en su camino, más rápido puede reaccionar ante ellos, aumentando así la seguridad de dichos vehículos.

Los investigadores de Google reconocen que NASNet podría resultar útil para una amplia gama de aplicaciones y tiene una fuente abierta de AI para la inferencia en la clasificación de imágenes y la detección de objetos.

“Esperamos que la comunidad más grande de aprendizaje automático pueda basarse en estos modelos para abordar multitud de problemas de visión artificial que aún no hemos imaginado”, escribieron en su publicación de blog.

A pesar de que las aplicaciones para NASNet y AutoML son abundantes, la creación de una IA que pueda construir inteligencia artificial plantea algunas preocupaciones. Por ejemplo, ¿qué impide que los padres transmitan sesgos no deseados a su hijo?

¿Qué pasa si AutoML crea sistemas tan rápido que la sociedad no puede mantener el ritmo? No es muy difícil ver cómo NASNet podría emplearse en sistemas de vigilancia automatizados en un futuro próximo, tal vez antes de que se establezcan regulaciones para controlar dichos sistemas.

Afortunadamente, los líderes mundiales están trabajando rápido para garantizar que tales sistemas no conduzcan a ningún tipo de futuro distópico.

Amazon, Facebook, Apple y muchos otros son miembros de la Alianza en AI para beneficiar a las personas y la sociedad, una organización centrada en el desarrollo responsable de la inteligencia artificial.

El Instituto de Ingenieros Eléctricos y Electrónicos (IEE) ha propuesto estándares éticos para AI, y DeepMind, una compañía de investigación propiedad de la empresa matriz de Google, Alphabet, anunció recientemente la creación de un grupo centrado en las implicaciones morales y éticas de la IA.

Varios gobiernos también están trabajando en reglamentaciones para prevenir el uso de IA con fines peligrosos, como armas autónomas, y mientras los humanos mantengan el control de la dirección general del desarrollo de IA, los beneficios de tener una IA capaz de construir AI superarán ampliamente cualquier posible trampa.

 

> Google’s AI Built Its Own AI That Outperforms Any Made by Humans.

Este álbum de black metal fue creado por una inteligencia artificial.

“Coditany of Timeness” es un álbum de black metal lo-fi convincente, con interludios atmosféricos, guitarra tremolo, ritmos explosivos frenéticos y voces chillonas. Pero el disco, que puedes escuchar en Bandcamp, no fue creado por músicos.

En cambio, fue generado por dos tecnólogos musicales que utilizan un software de aprendizaje profundo que ingiere un álbum musical, lo procesa y escupe una imitación de su estilo.

Para crear Coditany, el software rompió “Diotima”, un álbum de 2011 de una banda de black metal de Nueva York llamado Krallice, en pequeños segmentos de audio. Luego alimentaban cada segmento a través de una red neuronal -un tipo de inteligencia artificial modelada libremente en un cerebro biológico- y le pedían que adivinara cuál sería la forma de onda de la siguiente muestra individual de audio. Si la conjetura era correcta, la red fortalecería los caminos de la red neuronal que condujeron a la respuesta correcta, similar a la forma en que las conexiones eléctricas entre las neuronas de nuestro cerebro se fortalecen a medida que aprendemos nuevas habilidades.

Al principio, la red acaba de producir lavados de ruido texturizado. “Al principio de su formación, los tipos de sonidos que produce son muy ruidosos, grotescos y de textura”, dijo CJ Carr, uno de los creadores del algoritmo. Pero a medida que transcurrieron las conjeturas, hasta cinco millones en el transcurso de tres días, la red comenzó a parecerse mucho a Krallice. “A medida que mejora su entrenamiento, comienzas a escuchar cada vez más elementos de la música original en la que se entrenó”.

Como alguien que solía escuchar lo-fi black metal, encontré Coditany of Timeness no solo convincente – parece una verdadera banda humana – pero incluso potencialmente agradable. La red neuronal logró capturar la inclinación del género por intros largos rotos por tambores frenéticos y voces distorsionadas. La versión del software de Krallice, que sus creadores llenaron con títulos de canciones y carátulas del álbum que también se generaron algorítmicamente, podría no obtener una excelente reseña en Pitchfork, pero es sorprendentemente efectiva para capturar la estética. Si no supiera que fue generado por un algoritmo, no estoy seguro de que pueda notar la diferencia.

Coditany of Timeness es parte de un proyecto paralelo de Carr, un nuevo CTO, y Zack Zukowski, un productor de música. Ambos se conocieron en la Northeastern University durante un programa en Berklee College, una prominente escuela de música en Boston, y rápidamente se unieron por un interés compartido en la composición programática y el aprendizaje automático. La mayoría de los sistemas de composición algorítmica, como Emmy, una IA desarrollada en la Universidad de California, Santa Cruz, que produjo música clásica tan convincente que alarmó a los músicos, tienden a producir notas que deben sintetizarse en audio. Carr y Zukowski estaban interesados en construir un sistema que pudiera producir formas de onda reales, un sonido en bruto que puede variar desde una guitarra eléctrica que grita hasta la percusión e incluso voces quejumbrosas.

“Mientras nos dispusimos a lograr una recreación realista de los datos originales, nos deleitó el mérito estético de sus imperfecciones”, dice el documento Dadabots, que el dúo presentará la próxima semana en la conferencia de Sistemas de procesamiento de información neuronal en Long. Playa, California. “Los vocalistas a solas se convierten en un exuberante coro de voces fantasmales, las bandas de rock se vuelven crujientes en el cubismo-jazz, y los cruces de múltiples grabaciones se convierten en una quimera de sonido surrealista”.

Coditany of Timeness fue el primero de tres álbumes programáticos que Dadabots ha lanzado utilizando esta técnica, y podría decirse que fue el más exitoso. Un álbum de rock matemático que entrenaron en pistas de la banda de metalcore de Nueva Jersey Dillinger Escape Plan pasa por ritmos espasmódicos y cambios bruscos de tono, pero un disco llamado “Deep the Beatles!”, Que entrenaron en el álbum de compilación Fab Four “1”. es una especie de imitación vaga y mal formada de The Beatles que lucha con la estructura de la canción. Planean lanzar un nuevo álbum todas las semanas en el Dadabots Bandcamp. Carr aún no está seguro de lo que traerá la próxima semana, pero dijo que podría ser entrenado por otro acto de metal como Converge o Meshuggah, o incluso el artista de jazz experimental John Zorn. .

Carr y Zukowski han creado previamente una serie de proyectos experimentales que combinan la música y el aprendizaje automático bajo el nombre Dadabots, incluyendo una serie de bots Soundcloud que descargan pistas automáticamente, las mezclan y cargan las nuevas versiones, como Autochiptune, que rehice canciones automáticamente. al estilo de un Gameboy retro.

Todo es parte de lo que Carr ve como la “revolución del aprendizaje profundo en el arte” ya que la inteligencia artificial brinda nuevos espacios para la creatividad. El proyecto plantea la vertiginosa posibilidad de que el aprendizaje profundo, con su inclinación por extraños saltos intuitivos, pueda llegar a servir no solo como una herramienta para los artistas humanos, sino incluso como un colaborador o, potencialmente, un competidor.

 

> This frostbitten black metal album was created by an artificial intelligence.

La inteligencia artificial se vuelve bilingüe, sin diccionario

La traducción automática del lenguaje ha recorrido un largo camino gracias a las redes neuronales, algoritmos informáticos que se inspiran en el cerebro humano. Pero la capacitación de tales redes requiere una enorme cantidad de datos: millones de traducciones oraciones por frases para demostrar cómo lo haría un ser humano. Ahora, dos nuevos documentos muestran que las redes neuronales pueden aprender a traducir sin textos paralelos, un avance sorprendente que podría hacer que los documentos en muchos idiomas sean más accesibles.

“Imagina que le das a una persona muchos libros chinos y muchos libros en árabe, ninguno de ellos se superpone, y la persona tiene que aprender a traducir el chino al árabe. Eso parece imposible, ¿no? “, Dice el primer autor de un estudio, Mikel Artetxe, científico informático de la Universidad del País Vasco (UPV) en San Sebastián, España. “Pero demostramos que una computadora puede hacer eso”.

La mayoría de los aprendizajes automáticos -en los que las redes neuronales y otros algoritmos informáticos aprenden de la experiencia- son “supervisados”. Una computadora adivina, recibe la respuesta correcta y ajusta su proceso en consecuencia. Eso funciona bien cuando se enseña a una computadora a traducir, por ejemplo, inglés y francés, porque existen muchos documentos en ambos idiomas. No funciona tan bien para idiomas raros o populares sin muchos textos paralelos.

Los dos nuevos documentos, que han sido enviados el año próximo a la Conferencia Internacional sobre Representaciones de Aprendizaje, pero que no han sido revisados ​​por pares, se centran en otro método: el aprendizaje automático no supervisado. Para empezar, cada uno construye diccionarios bilingües sin la ayuda de un maestro humano diciéndoles cuando sus suposiciones son correctas. Eso es posible porque los idiomas tienen una gran similitud en la forma en que las palabras se agrupan entre sí. Las palabras para mesa y silla, por ejemplo, se usan con frecuencia juntas en todos los idiomas. Entonces, si una computadora traza estas co-ocurrencias como un atlas gigante con palabras para ciudades, los mapas de diferentes idiomas se parecerán entre sí, solo que con diferentes nombres. Una computadora puede entonces encontrar la mejor manera de superponer un atlas en otro. Voilà! Tienes un diccionario bilingüe

Los nuevos documentos, que usan métodos notablemente similares, también se pueden traducir al nivel de la oración. Ambos usan dos estrategias de entrenamiento, llamadas traducción inversa y eliminación de ruido. En la traducción inversa, una oración en un idioma se traduce aproximadamente en el otro y luego se traduce al idioma original. Si la oración traducida de regreso no es idéntica a la original, las redes neuronales se ajustan para que la próxima vez estén más cerca. Denoising es similar a la traducción inversa, pero en lugar de pasar de un idioma a otro y viceversa, agrega ruido a una oración (reorganizando o eliminando palabras) e intenta traducirlo nuevamente al original. Juntos, estos métodos enseñan a las redes la estructura más profunda del lenguaje.

Hay pequeñas diferencias entre las técnicas. El sistema UPV se traduce con mayor frecuencia durante el entrenamiento. El otro sistema, creado por el científico informático de Facebook Guillaume Lample, con sede en París, y sus colaboradores, agrega un paso adicional durante la traducción. Ambos sistemas codifican una oración de un idioma en una representación más abstracta antes de decodificarla en el otro idioma, pero el sistema de Facebook verifica que el “lenguaje” intermedio es verdaderamente abstracto. Tanto Artetxe como Lample dicen que podrían mejorar sus resultados aplicando técnicas del documento del otro.

En los únicos resultados directamente comparables entre los dos artículos -traduciendo texto inglés y francés del mismo conjunto de aproximadamente 30 millones de oraciones- ambos lograron un puntaje de evaluación bilingüe (utilizado para medir la precisión de las traducciones) de aproximadamente 15 en ambas direcciones . Eso no es tan alto como Google Translate, un método supervisado que califica a unos 40, o humanos, que pueden obtener más de 50 puntos, pero es mejor que la traducción palabra por palabra. Los autores dicen que los sistemas podrían mejorarse fácilmente al hacerse semisupervisados, añadiendo unas pocas miles de oraciones paralelas a su entrenamiento.

Además de traducir entre idiomas sin muchos textos paralelos, tanto Artetxe como Lample dicen que sus sistemas podrían ayudar con emparejamientos comunes como el inglés y el francés si los textos paralelos son todos del mismo tipo, como informes periodísticos, pero desea traducir a un nuevo dominio , como la jerga callejera o la jerga médica. Pero, “Esto es en la infancia”, advierte el coautor de Artetxe, Eneko Agirre. “Acabamos de abrir una nueva avenida de investigación, por lo que no sabemos a dónde se dirige”.

“Es sorprendente que la computadora pueda aprender a traducir incluso sin supervisión humana”, dice Di He, un científico informático de Microsoft en Beijing, cuyo trabajo influyó en ambos documentos. Artetxe dice que el hecho de que su método y el de Lample, cargados en arXiv en un día el uno del otro, sean tan similares es sorprendente. “Pero al mismo tiempo, es genial”. Significa que el enfoque está realmente en la dirección correcta “.

 

> Artificial intelligence goes bilingual—without a dictionary.

El pionero de la inteligencia artificial dice que necesitamos volver a empezar

En 1986, Geoffrey Hinton fue coautor de un artículo que, tres décadas después, es fundamental para la explosión de la inteligencia artificial. Pero Hinton dice que se debe prescindir de su método innovador, y se encontró un nuevo camino hacia la IA.

Hablando con Axios en el marco de una conferencia de IA en Toronto el miércoles, Hinton, profesor emérito de la Universidad de Toronto e investigador de Google, dijo que ahora es “profundamente sospechoso” de la propagación hacia atrás, el método de caballo de batalla que subyace a la mayoría de los avances que estamos viendo en el campo de la IA hoy en día, incluida la capacidad de ordenar fotos y hablar con Siri. “Mi punto de vista es tirarlo todo y comenzar de nuevo”, dijo.
Sigue leyendo 158 palabras

La conclusión: otros científicos en la conferencia dijeron que la propagación retrospectiva todavía tiene un papel central en el futuro de AI. Pero Hinton dijo que, para impulsar materialmente por delante, probablemente se tengan que inventar métodos completamente nuevos. “Max Planck dijo: ‘La ciencia progresa un funeral a la vez’. El futuro depende de algún estudiante graduado que sospeche profundamente de todo lo que he dicho “.

Cómo funciona: en la propagación hacia atrás, las etiquetas o “pesos” se utilizan para representar una foto o voz dentro de una capa neuronal similar al cerebro. Los pesos se ajustan y se reajustan, capa por capa, hasta que la red puede realizar una función inteligente con el menor número posible de errores.

Pero Hinton sugirió que, para llegar a donde las redes neuronales pueden llegar a ser inteligentes por sí mismas, lo que se conoce como “aprendizaje no supervisado”, “sospecho que eso significa deshacerse de la propagación de la espalda”.

“No creo que sea así como funciona el cerebro”, dijo. “Claramente, no necesitamos todos los datos etiquetados”.

 

> Artificial intelligence pioneer says we need to start over.