Un nuevo software de mejora de fotos transforma fácilmente imágenes de baja resolución en alta resolución

Tenemos la suerte de estar viviendo en un momento en que la tecnología evoluciona más rápido que nunca. Y ahora, los clichés del drama criminal de ciencia ficción se están convirtiendo en realidad. Let’s Enhance es un nuevo software de mejora de fotos en línea que le permite convertir imágenes de baja resolución a alta resolución nítida.

Fundado por Alex Savsunenko y Vladislav Pranskevičius, un Ph.D. y un antiguo CTO-Let’s Enhance está diseñado para ser súper fácil de usar. El sitio web lo invita a arrastrar y soltar su imagen y luego se pone a trabajar de forma instantánea en la transformación mágica. El secreto del software radica en su uso de sistemas de computación de redes neuronales inspirados en las redes neuronales biológicas de cerebros humanos y animales. Let’s Enhance utiliza redes neuronales que se adaptan a diferentes tipos de imágenes, como paisajes o retratos, para mejorar las imágenes de baja resolución en cuatro veces.

Además de usar redes neuronales específicas de la imagen, el programa incorpora tres capas diferentes para componer la imagen final. La primera capa, el filtro Anti-JPEG, elimina los artefactos JPEG, como la pérdida de bordes, la claridad y el tono. La segunda capa, llamada filtro de perforación, realiza la ampliación conservando los detalles originales y manteniendo los bordes. Utilizando la tecnología AI, la tercera y última capa, llamada filtro Magic, intenta identificar el sujeto de la imagen (a partir de imágenes de bases de datos pasadas) y rellena nuevos detalles que no estaban allí antes. Los resultados son sorprendentemente precisos, e incluso se espera que el software mejore con el uso continuado.

Puedes probar Let’s Enhance gratis a través de su sitio web.

 

> New Photo Enhancing Software Easily Transforms Low-Resolution Images into High-Resolution.

Muchos científicos junior necesitan echar un vistazo duro a sus perspectivas de trabajo

Los trabajos permanentes en la academia son escasos, y alguien tiene que avisarles a los estudiantes de doctorado.

Para su tesis doctoral de 2012, el sociólogo Chris Platts entrevistó y entrevistó a más de 300 jóvenes futbolistas de edades comprendidas entre 17 y 18 años en academias de clubes del Reino Unido que esperaban seguir una carrera en el juego. Le dijo al periódico The Guardian este mes que solo cuatro de ellos han ganado un contrato profesional. Esa es una tasa de abandono del 99%.

Para nuestra sección de Carreras de esta semana, Nature encuestó a más de 5.700 científicos de carreras tempranas en todo el mundo que están trabajando en doctorados. Tres cuartos de ellos, nos dijeron, piensan que es probable que sigan una carrera académica cuando se gradúen, al igual que Platts, ahora profesor titular de desarrollo deportivo y gestión de negocios deportivos en Sheffield Hallam University, Reino Unido. ¿Cuántos tendrán éxito?

Las estadísticas dicen que estos jóvenes investigadores tendrán una mejor oportunidad de seguir el trabajo que eligieron que los jóvenes futbolistas. Pero no por mucho. Las cifras globales son difíciles de obtener, pero solo tres o cuatro de cada cien estudiantes de doctorado en el Reino Unido obtendrán un puesto permanente de personal en una universidad. Es solo un poco mejor en los Estados Unidos.

En pocas palabras, la mayoría de los estudiantes de doctorado necesitan hacer planes para una vida fuera de la ciencia académica. Y más universidades y supervisores de doctorado deben dejar esto en claro.

Eso puede sonar como una actitud alarmista y negativa para el International Weekly Journal of Science. Pero ha sido evidente durante años que la ciencia internacional está capacitando a muchos más estudiantes de doctorado de los que el sistema académico puede apoyar. La mayoría de los jóvenes científicos entusiastas y talentosos que respondieron a nuestra encuesta probablemente nunca tendrán un pie en la puerta. De aquellos que lo hacen, es probable que un número considerable pase de un contrato a corto plazo a un contrato a corto plazo hasta que se desilusionen y miren a otro lado.

Como Nature ha dicho antes, es bueno para los estudiantes de doctorado y postdoctorado seguir carreras fuera del ámbito académico. Muchos encontrarán desafíos y recompensas similares en la industria. Y sin duda es beneficioso para la ciencia y la sociedad en general que un número considerable de científicos bien educados y bien capacitados se extienda a otros sectores, y lleven consigo un saludable escepticismo y respeto por la evidencia. Ciertamente, es mejor para los jóvenes científicos tener una visión realista al principio de su carrera, cuando todavía tienen tiempo para ajustar sus ambiciones. Entonces, ¿por qué la gente en la ciencia todavía ve esta realidad como un secreto sucio?

Nuestra encuesta, por ejemplo, muestra que un tercio de los encuestados no tienen conversaciones útiles sobre carreras con sus supervisores de doctorado. Y los trabajos no académicos son poco importantes en la agenda cuando se debaten las opciones futuras. Casi un tercio de los estudiantes no estuvo de acuerdo o muy en desacuerdo con la afirmación de que su supervisor tiene consejos útiles para carreras no académicas. Eso es casi lo mismo que se informó en la encuesta de doctorado anterior de Nature, en 2015. Si supervisa a un estudiante de doctorado o conoce a alguien que lo hace, por favor ayude a reducir ese número para el momento en que se termine la próxima encuesta, en 2019. Los supervisores están ocupados pero a menudo son la cara de la universidad y el sistema académico para los estudiantes, por lo que es el lugar más obvio para buscar orientación. Por lo menos, deberían estar dispuestos a señalar a los estudiantes hacia el servicio de carreras universitarias, que también debería centrarse más en las opciones fuera de la academia. No son solo los estudiantes de pregrado los que se benefician de una variedad de posibilidades. De hecho, es posible que los postgraduados necesiten más atención y asesoramiento porque muchas personas, incluidos ellos mismos, creen que ahora están en el camino hacia una cátedra.

Otro punto importante que vale la pena hacer de la encuesta de 2017 es sobre la salud mental. Más de una cuarta parte de los estudiantes que respondieron mencionaron la salud mental como un área de preocupación, y el 45% de ellos dijeron que habían buscado ayuda para la ansiedad o la depresión causada por su doctorado. Un tercio de ellos recibió ayuda útil de su institución (lo que por supuesto significa que dos tercios no lo hicieron). Aún así, solo el 5% dijo que no había ayuda disponible allí o en otro lugar, lo cual, dada la dificultad general de acceder al apoyo de salud mental en muchos países, sugiere que los jóvenes en el sistema educativo están mejor atendidos que muchos fuera de él.

Si las perspectivas de los científicos jóvenes en la academia son mixtas, entonces, afortunadamente para la ciencia, la mayoría no parece dejar que se desanime. De hecho, es sorprendente observar que casi ocho de cada diez de los jóvenes científicos encuestados dijeron que estaban satisfechos con su decisión de comenzar un doctorado. Eso refleja bien las excelentes oportunidades, instalaciones y supervisión que muchos reciben. Al igual que los futbolistas, algunos tendrán éxito, y encontrarán una carrera en la ciencia académica tan emocionante, gratificante y satisfactoria como esperan. Pero alguien tiene que decirle al resto lo que sucede a continuación.

 

> Many junior scientists need to take a hard look at their job prospects.

Los gigantes de la tecnología están pagando enormes sueldos por falta de talento en IA

Casi todas las grandes compañías de tecnología tienen un proyecto de inteligencia artificial, y están dispuestos a pagar millones de dólares a los expertos para que lo hagan.

Las nuevas empresas de Silicon Valley siempre han tenido una ventaja de reclutamiento sobre los gigantes de la industria: arriéstenos y le daremos una participación en la propiedad que podría hacerlo rico si la empresa tiene éxito.

Ahora la carrera de la industria de la tecnología para abrazar la inteligencia artificial puede hacer que esa ventaja sea irrelevante, al menos para los pocos posibles empleados que saben mucho sobre A.I.

Las compañías más grandes de tecnología están haciendo grandes apuestas en inteligencia artificial, contando con cosas que van desde teléfonos inteligentes de exploración de rostros y dispositivos de mesa de café conversacionales hasta servicios de salud computarizados y vehículos autónomos. Mientras persiguen este futuro, están repartiendo salarios que son sorprendentes, incluso en una industria que nunca ha tenido miedo de prodigar una fortuna a sus mejores talentos.

Típico A.I. especialistas, incluidos los doctores recién salidos de la escuela y las personas con menos educación y pocos años de experiencia, pueden recibir un pago de $ 300,000 a $ 500,000 al año o más en sueldos y acciones de la compañía, según nueve personas que trabajan para la tecnología principal empresas o han entretenido ofertas de trabajo de ellos. Todos ellos solicitaron el anonimato porque no querían dañar sus perspectivas profesionales.
Continúa leyendo la historia principal
Cobertura relacionada

En el futuro, Warehouse Robots aprenderá por su cuenta SEPT. 10, 2017
Enseñanza de A.I. Sistemas para comportarse AUG. 13, 2017
Cómo A.A. Está creando Building Blocks para remodelar la música y Art AUG. 14, 2017

Nombres bien conocidos en el A.I. campo han recibido una compensación en sueldo y acciones en acciones de una compañía que totalizan millones de uno o dos dígitos en un período de cuatro o cinco años. Y en algún momento renuevan o negocian un nuevo contrato, como un atleta profesional.

En el extremo superior hay ejecutivos con experiencia en la gestión de A.I. proyectos. En una presentación judicial este año, Google reveló que uno de los líderes de su división de automóviles autónomos, Anthony Levandowski, un empleado veterano que comenzó con Google en 2007, se llevó a casa más de $ 120 millones en incentivos antes de unirse a Uber el año pasado a través del adquisición de una start-up que había cofundado y que atrajo a las dos compañías a una batalla judicial por la propiedad intelectual.

Los sueldos se disparan tan rápido que algunos bromean que la industria de la tecnología necesita un tope salarial al estilo de la Liga Nacional de Fútbol Americano en A.I. especialistas. “Eso facilitaría las cosas”, dijo Christopher Fernández, uno de los gerentes de contratación de Microsoft. “Mucho más fácil.”

Hay algunos catalizadores para los enormes salarios. La industria automotriz está compitiendo con Silicon Valley por los mismos expertos que pueden ayudar a construir autos sin conductor. Compañías de tecnología gigantes como Facebook y Google también tienen mucho dinero para lanzar y problemas que ellos piensan A.I. puede ayudar a resolver, como crear asistentes digitales para teléfonos inteligentes y dispositivos para el hogar y detectar contenido ofensivo.

Por encima de todo, hay una escasez de talento, y las grandes compañías están tratando de obtener todo lo que pueden. Resolviendo A.A. duro problemas no es como construir la aplicación de teléfono inteligente sabor del mes. En todo el mundo, menos de 10.000 personas tienen las habilidades necesarias para abordar la investigación de inteligencia artificial seria, según Element AI, un laboratorio independiente en Montreal.

“Lo que estamos viendo no es necesariamente bueno para la sociedad, pero es un comportamiento racional de estas compañías”, dijo Andrew Moore, decano de ciencias de la computación de la Universidad Carnegie Mellon, que trabajó anteriormente en Google. “Están ansiosos por asegurarse de que tengan esta pequeña cohorte de personas” que pueden trabajar en esta tecnología.

Costos en A.A. laboratorio llamado DeepMind, adquirido por Google por un informe de $ 650 millones en 2014, cuando empleaba a unas 50 personas, ilustrar el problema. El año pasado, de acuerdo con las cuentas financieras anuales publicadas recientemente en Gran Bretaña, los “costos de personal” del laboratorio, que se expandieron a 400 empleados, totalizaron $ 138 millones. Eso resulta en $ 345,000 por empleado.

“Es difícil competir con eso, especialmente si usted es una de las compañías más pequeñas”, dijo Jessica Cataneo, reclutadora ejecutiva en la firma de reclutamiento de tecnología CyberCoders.

La vanguardia de la investigación de inteligencia artificial se basa en un conjunto de técnicas matemáticas llamadas redes neuronales profundas. Estas redes son algoritmos matemáticos que pueden aprender tareas por sí mismos mediante el análisis de datos. Al buscar patrones en millones de fotos de perros, por ejemplo, una red neuronal puede aprender a reconocer a un perro. Esta idea matemática se remonta a la década de 1950, pero se mantuvo al margen de la academia y la industria hasta hace unos cinco años.

Para 2013, Google, Facebook y algunas otras compañías comenzaron a reclutar a los relativamente pocos investigadores especializados en estas técnicas. Las redes neuronales ahora ayudan a reconocer las caras en las fotos publicadas en Facebook, identifican los comandos que se pronuncian en los asistentes digitales de la sala de estar, como Amazon Echo, y traducen al instante idiomas extranjeros en el servicio telefónico de Skype de Microsoft.

Utilizando las mismas técnicas matemáticas, los investigadores están mejorando autos sin conductor y desarrollando servicios hospitalarios que pueden identificar enfermedades y enfermedades en escaneos médicos, asistentes digitales que no solo reconocen las palabras habladas sino que las entienden, los sistemas automáticos de compra de acciones y los robots que recogen objetos que nunca han visto antes.

Con tan pocos A.I. especialistas disponibles, las grandes compañías tecnológicas también están contratando a los mejores y más brillantes académicos. En el proceso, están limitando el número de profesores que pueden enseñar la tecnología.

Uber contrató a 40 personas de la revolucionaria empresa A.I de Carnegie Mellon. programa en 2015 para trabajar en su proyecto de automóvil autónomo. En los últimos años, cuatro de los mejores A.A. los investigadores en la academia se han ido o retirado de sus cátedras en la Universidad de Stanford. En la Universidad de Washington, seis de los 20 profesores de inteligencia artificial están de licencia o licencia parcial y trabajan para empresas externas.

“Hay un sonido gigante de succión de los académicos yendo a la industria”, dijo Oren Etzioni, que está de licencia desde su posición como profesor en la Universidad de Washington para supervisar el Instituto Allen para Inteligencia Artificial sin fines de lucro.

Algunos profesores están encontrando una forma de compromiso. Luke Zettlemoyer de la Universidad de Washington rechazó un puesto en un laboratorio de Seattle administrado por Google que, según dijo, le habría pagado más de tres veces su salario actual (alrededor de $ 180,000, según registros públicos). En cambio, eligió un puesto en el Instituto Allen que le permitió continuar enseñando.

“Hay muchos profesores que hacen esto, dividiendo su tiempo en varios porcentajes entre la industria y la academia”, dijo Zettlemoyer. “Los salarios son mucho más altos en la industria, las personas solo hacen esto porque realmente les importa ser académicos”.

Para traer nuevos A.I. los ingenieros, compañías como Google y Facebook están impartiendo clases que apuntan a enseñar “aprendizaje profundo” y técnicas relacionadas a los empleados existentes. Y organizaciones sin fines de lucro como Fast.ai y empresas como Deeplearning.ai, fundada por un ex profesor de Stanford que ayudó a crear el laboratorio de Google Brain, ofrecen cursos en línea.

Los conceptos básicos de aprendizaje profundo no son difíciles de entender, y requieren poco más que matemáticas de nivel secundario. Pero la experiencia real requiere matemática más significativa y un talento intuitivo que algunos llaman “un arte oscuro”. Se necesitan conocimientos específicos para campos como automóviles autodirigidos, robótica y cuidado de la salud.

Para mantener el ritmo, las empresas más pequeñas buscan talento en lugares inusuales. Algunos están contratando físicos y astrónomos que tienen las habilidades matemáticas necesarias. Otras empresas nuevas de Estados Unidos buscan trabajadores en Asia, Europa del Este y otros lugares donde los salarios son más bajos.

“No puedo competir con Google, y no quiero”, dijo Chris Nicholson, director ejecutivo y cofundador de Skymind, una nueva empresa en San Francisco que contrató ingenieros en ocho países. “Entonces ofrezco salarios muy atractivos en países que subestiman el talento de la ingeniería”.

Pero los gigantes de la industria están haciendo lo mismo. Google, Facebook, Microsoft y otros abrieron A.I. laboratorios en Toronto y Montreal, donde se realiza gran parte de esta investigación fuera de los Estados Unidos. Google también está contratando en China, donde Microsoft siempre tuvo una fuerte presencia.

No es sorprendente que muchos piensen que la escasez de talento no se aliviará durante años.

“Por supuesto, la demanda supera a la oferta. Y las cosas no mejoran en el corto plazo “, dijo Yoshua Bengio, profesor de la Universidad de Montreal y prominente A.A. investigador, dijo. “Lleva muchos años entrenar un doctorado.”

 

> Tech Giants Are Paying Huge Salaries for Scarce A.I. Talent.

El pionero de la inteligencia artificial dice que necesitamos volver a empezar

En 1986, Geoffrey Hinton fue coautor de un artículo que, tres décadas después, es fundamental para la explosión de la inteligencia artificial. Pero Hinton dice que se debe prescindir de su método innovador, y se encontró un nuevo camino hacia la IA.

Hablando con Axios en el marco de una conferencia de IA en Toronto el miércoles, Hinton, profesor emérito de la Universidad de Toronto e investigador de Google, dijo que ahora es “profundamente sospechoso” de la propagación hacia atrás, el método de caballo de batalla que subyace a la mayoría de los avances que estamos viendo en el campo de la IA hoy en día, incluida la capacidad de ordenar fotos y hablar con Siri. “Mi punto de vista es tirarlo todo y comenzar de nuevo”, dijo.
Sigue leyendo 158 palabras

La conclusión: otros científicos en la conferencia dijeron que la propagación retrospectiva todavía tiene un papel central en el futuro de AI. Pero Hinton dijo que, para impulsar materialmente por delante, probablemente se tengan que inventar métodos completamente nuevos. “Max Planck dijo: ‘La ciencia progresa un funeral a la vez’. El futuro depende de algún estudiante graduado que sospeche profundamente de todo lo que he dicho “.

Cómo funciona: en la propagación hacia atrás, las etiquetas o “pesos” se utilizan para representar una foto o voz dentro de una capa neuronal similar al cerebro. Los pesos se ajustan y se reajustan, capa por capa, hasta que la red puede realizar una función inteligente con el menor número posible de errores.

Pero Hinton sugirió que, para llegar a donde las redes neuronales pueden llegar a ser inteligentes por sí mismas, lo que se conoce como “aprendizaje no supervisado”, “sospecho que eso significa deshacerse de la propagación de la espalda”.

“No creo que sea así como funciona el cerebro”, dijo. “Claramente, no necesitamos todos los datos etiquetados”.

 

> Artificial intelligence pioneer says we need to start over.

Cómo navegar la próxima super tormenta de IA

Muchos estudios de aprendizaje automático en realidad no muestran nada significativo, pero propagan el miedo, la incertidumbre y la duda.

Esto es lo que necesita saber sobre cualquier estudio de aprendizaje de máquinas de todas las maneras, genial y extraño que se haya publicado alguna vez: cualquier cosa que pueda representarse de algún modo mediante patrones dentro de los datos, cualquier cosa capaz de resúmenes que exista en el mundo objetivo, desde las reseñas de restaurantes en línea hasta la geopolítica, se pueden “predecir” mediante modelos de aprendizaje automático con suficientes datos históricos.

En el corazón de casi todos los artículos de noticias espumosos que comienzan con las palabras “AI sabe …” hay algún documento de aprendizaje automático que explota esta realización básica. AI sabe si tienes cáncer de piel. AI supera a los médicos en la predicción de ataques cardíacos. AI predice crimen futuro. AI sabe cuántas calorías hay en esa cookie. No hay magia real detrás de estos hallazgos. Los hallazgos en sí mismos a menudo se toman como profundos simplemente por tener conceptos geniales como el aprendizaje profundo y la inteligencia artificial y las redes neuronales conectadas a ellos, más que porque ofrecen una gran percepción o utilidad, que la mayoría de las veces no lo son.

Tomemos, por ejemplo, un estudio publicado recientemente en el sitio web de Open Science Framework, un repositorio de artículos que han sido revisados ​​y aprobados por revistas, pero que aún no aparecieron impresos, con el título “Las redes neuronales profundas son más precisas que los humanos para detectar orientación de las imágenes faciales. “La traducción espumosa del artículo de noticias de esto es,” AI sabe si eres gay “, lo que suena como un avance en la capacidad de la computadora, pero de hecho es absolutamente banal. El aprendizaje automático que hace un buen trabajo al distinguir a las personas homosexuales de las imágenes de caras es un hallazgo trivial que tiene poco o ningún significado inherente.

Para entender por qué este hallazgo aparentemente ampuloso es en realidad aburrido, debemos analizar la llamada “caja negra” que rodea los procesos de aprendizaje automático. ¿De qué manera este estudio en particular trata de derivar la homosexualidad de las imágenes de los rostros? Casi de la misma manera que la mayoría de los algoritmos de aprendizaje automático hacen otras tareas de reconocimiento visual. Esta hazaña, donde el modelo de computadora hace una suposición basada en lo que sabe de buscar patrones en ejemplos anteriores, se menciona en el aprendizaje automático como predicción; le das de comer a un modelo 35,000 imágenes de perros, etiquetados como perros, luego le das una nueva imagen sin etiqueta, y el modelo “predecirá” si se trata de una foto de un perro.

Por supuesto, la máquina primero debe traducir las imágenes a datos. Por lo tanto, el libro de estrategias básico es tomar varios ejemplos de algún fenómeno que se detectará, reducirlos a datos y luego entrenar un modelo estadístico. Las caras se reducen a datos al igual que cualquier otro tipo de imagen reduce a datos. Eso es exactamente lo que es una imagen digital: una representación de datos. Un archivo de imagen es una gran matriz de números grandes y grandes matrices de números son la moneda del aprendizaje automático.

En general, para entrenar un modelo de aprendizaje automático -lo que eventualmente tiene la tarea de hacer predicciones a partir de observaciones que no se habían visto anteriormente- tomamos estas matrices gigantes y les agregamos nuestras propias etiquetas. Esto es trabajo manual, en general. Para formar a un modelo que pueda predecir la homosexualidad, comenzamos con un montón de imágenes y luego les agregamos las etiquetas “gay” / “no gay”. Estas etiquetas representan nuestra verdad fundamental o verdad definida por el ser humano, lo que sabemos que es verdad (o lo que decimos que es verdad; los críticos del documento señalan con acierto que las imágenes “gay” en el conjunto de datos de entrenamiento y los datos de prueba set no eran representativos de personas homosexuales) sobre los datos que ya tenemos.

Los investigadores detrás del documento actual obtuvieron las imágenes utilizadas para entrenar su modelo de aprendizaje automático de un sitio web estadounidense de citas sin nombre donde los miembros anunciaron su orientación sexual al especificar el sexo de los socios que estaban buscando. Terminaron con 130,741 imágenes de 36,630 hombres y 170,360 imágenes de 38,593 mujeres entre las edades de 18 y 40. Los miembros homosexuales y heterosexuales fueron representados por igual en los conjuntos de imágenes. Esta colección de imágenes formó la base de lo que los científicos de IA llaman datos de entrenamiento: los datos de los que aprende la computadora.

Luego, los investigadores emplearon a los trabajadores de Amazon Mechanical Turk para verificar las cosas básicas sobre el conjunto de datos faciales, asegurando que las caras fueran todas blancas, adultas y del mismo sexo que el propietario presencial informara sobre su perfil de citas. (El estudio no informa que los trabajadores de AMT recibieron capacitación específica sobre los géneros más exigentes). Finalmente, todas las imágenes se alimentaron en una herramienta de detección de caras común y gratuita llamada VGG-Face, que se basa en un modelo de aprendizaje profundo desarrollado en la Universidad de Oxford. VGG-Face luego tomó las imágenes faciales y las tradujo a una lista de 4.096 puntajes correspondientes a las características faciales que considera importantes, es decir, las características con las que tiene mayor éxito al diferenciar las imágenes según el tipo de gay dado. / etiquetas no gay.

Lo que concluyeron los investigadores es un conjunto de datos en el que cada elemento constaba de 4.096 variables independientes (rasgos faciales extraídos, como la forma de la nariz y el estilo de aseo personal) y una variable dependiente (orientación sexual). Pudieron sacrificar la lista de variables independientes hasta 500 utilizando una técnica estándar llamada descomposición de valores singulares, una técnica matemática que extrae variables menos importantes o menos impactantes de una matriz (también se usa en la compresión de imágenes). Este conjunto de datos reducido se utilizó luego para entrenar un modelo de aprendizaje automático.

Quiero hacer una pausa aquí para enfatizar cuán poco mágica es la fase de entrenamiento de un algoritmo de aprendizaje automático porque está infinitamente enmarcada en negro al informar acerca de estudios de aprendizaje automático de moda como este. Cuando digo variables independientes y dependientes, lo que estoy implicando es que cada observación, como una cara representada por una lista de características observadas, en uno de estos conjuntos de datos de aprendizaje automático es realmente una ecuación. Es una declaración de verdad. Imaginemos que tengo solo cinco variables independientes en mi conjunto de datos, lo que significa cinco características faciales. Digamos que son cobertura de vello facial (x1), color de ojos (x2), forma de la nariz (x3), estilo de cabello (x4) y hoyuelos / no hoyuelos (x5). Cada observación de cara entonces toma la forma de una ecuación como esta:

x1a + x2b + x3c + x4d + x5e = y

X1 y x2, etc. son variables independientes y corresponden a observaciones reales. Los a’s y b’s yc en esta ecuación son coeficientes. Representan la importancia relativa de cada una de estas cosas para determinar y, que solo puede tomar uno de dos valores: 1 (homosexual) o 0 (no homosexual). Y es la variable dependiente. Depende de los valores de las x observaciones y luego de la importancia relativa de esas observaciones.

Una vez que calcule los valores de sus variables independientes, puede comenzar a calcular los coeficientes.

2a + .78b + 10c + -1d + .2e = 1

Que se vería así como se representa en una matriz matemática, que es simplemente una grilla de valores numéricos, o una lista de listas.

2 .78 10 -1 .2 1

La idea es que tengas decenas de miles de filas de datos que se parecen a eso, y de alguna manera quieres obtener valores para a, b, c, etc. que resuelvan cada una de estas decenas de miles de ecuaciones tan de cerca como sea posible. posible. En otras palabras, estamos minimizando el error en muchas ecuaciones diferentes que comparten variables.

Eventualmente, tenemos valores para todas las variables independientes que pueden ser conectadas a cada fila mientras se aproxima mejor al valor de la variable dependiente. Esto es lo mismo que resolver una suma matemática. Una suma en matemáticas puede ser simplemente agregar algunos números, pero más típicamente queremos decir que es una combinación de ecuaciones. De cualquier manera, no es muy esotérico.

Una vez que tenga los valores de las a’s y las b’s yc, los coeficientes o la importancia relativa de cada característica, puede salir y encontrar algunos datos nuevos que describan las observaciones que su modelo de aprendizaje automático no haya visto antes y que hasta ahora no estén etiquetados. Un modelo de aprendizaje automático básicamente se parece a la primera ecuación anterior, excepto que ahora tenemos algunos buenos valores para los coeficientes. Puede verse así:

x1 (10) + x2 (3) + x3 (.5) + x4 (1) + x5 (2) = y

Simplemente tomamos algunos valores x nuevos, que corresponden a las características de las nuevas observaciones, y obtenemos un valor para y. ¡Ese valor es la predicción! Por lo general, usted evaluará la potencia de su modelo probándolo en algún segmento reservado de los datos etiquetados.

Esa es toda la idea. Esta es la caja negra. Las redes neuronales añaden algunos giros fríos y complejidad, pero el principio siempre es minimizar el error predictivo. Y a eso me refiero cuando puedo decir que puedes hacer esto para cualquier cosa.

¿El simple hecho de que sea simple lo hace menos poderoso o significativo? Si, mas o menos. Significa que, hasta cierto punto, ya sabemos lo que sucederá en un estudio como este. Mientras permitamos que haya probablemente una característica facial (solo se necesita una) que ocurra con mayor frecuencia en los puntos de datos etiquetados como homosexuales, debemos permitir que esa característica se pueda usar para hacer predicciones basadas, al menos, con cierta precisión. Eso no significa que todo sea siempre predecible, pero significa que si somos astutos en la selección de características, generalmente podemos lograr crear un modelo que prediga algo.

Lo que rara vez se ve en un estudio como este es un modelo fallido. Sucede cuando las matemáticas simplemente no funcionan, de modo que es posible producir valores para los coeficientes (a’s y b’s) dadas las observaciones (las x). Cuando esto sucede, es realmente fácil entrar y modificar las cosas hasta que podamos obtener algunos coeficientes simplemente añadiendo y eliminando diferentes características. Como, bueno, tal vez si simplemente ignoramos la forma de la nariz o tal vez ignoramos el vello facial. (Las investigaciones en el estudio gaydar ignoraron deliberadamente a las personas que no eran blancas, lo que aumenta automáticamente la precisión del modelo. Esto es bastante típico de los estudios de aprendizaje automático, la breve explicación es que las personas de color no están representadas adecuadamente en el La explicación de por qué es eso tomaría otro artículo.) Si ignorar selectivamente las variables no funciona, puede ser una cuestión de agregar más datos, lo que tiene el efecto de hacer que cada observación sea menos significativa cuando viene a entrenar el modelo.

Para ver qué características tenían el mayor impacto predictivo, los investigadores probaron su modelo en imágenes donde alguna parte de la cara había sido bloqueada. Básicamente, les acaba de decir que, de hecho, los rasgos faciales eran los que más impacto causaban en lugar de cualquier basura que estuviera en el fondo de la imagen. Al aislar algunas características faciales específicas y usar solo esas características como datos de entrenamiento, pudieron suponer que la forma de la mandíbula tenía un impacto particularmente grande en el poder predictivo del algoritmo. (En otra parte del estudio, un análisis mostró que los hombres homosexuales tendían a tener frentes más grandes y mandíbulas más estrechas que otros hombres, lo que los investigadores interpretaron como más femenino o “atípico de género” porque sobresalían de los promedios compuestos de sexo masculino Debemos tener en cuenta que no está claro qué parte de la predicción del modelo se basó en la estructura facial versus el estilo, el maquillaje y la postura: el rostro “gay” masculino compuesto creado por el modelo casi parece inclinado hacia la cámara , sugiriendo que el modelo puede haber estado tomando un cierto estilo de selfie en lugar de un rasgo fijo.)

El estudio (gay-radar) fue criticado por su metodología y por la retórica paternalista de los investigadores; ahora está bajo revisión ética. Pero hay una lección para cualquier persona interesada en el estado del arte de la inteligencia artificial. Este estudio, como muchos otros que hemos visto y es probable que veamos en el futuro, no necesitaba un componente de aprendizaje automático. Una vez que se encontraron algunas diferencias generales entre las caras homosexuales / no homosexuales en los datos, la hipótesis de la conclusión de aprendizaje automático (que es posible que un programa informático identifique caras homosexuales) se volvió trivial. Finalmente, los investigadores lograron una tasa de éxito del 81 por ciento en el uso de su modelo para clasificar caras masculinas etiquetadas por homosexuales en emparejamientos uno a uno entre rostros etiquetados gay y rostros de etiqueta recta. Es decir, al clasificador se le mostraron dos imágenes mientras se sabía que una de las dos imágenes definitivamente estaba etiquetada como gay. Esto es como decir que el modelo tenía una precisión del 81 por ciento, pero el modelo tiene una poderosa ventaja ya que sabe que una de las dos caras debe estar etiquetada como gay.

Si aún no he dicho nada sobre el modelo de aprendizaje automático que hace mejores predicciones que los humanos, es porque no tiene sentido. Al igual que, obviamente, la computadora va a hacer un mejor trabajo porque está solucionando un problema matemático y la gente está resolviendo un problema de personas.

Espera más de esto. Mucho más. Hay muchas más cosas para predecir, y tantas intuiciones baratas para validar. En el fondo, todavía hay muchos estadísticos e informáticos que avanzan en el campo del aprendizaje automático y resuelven problemas reales: diagnosticar condiciones médicas, pronósticos epidemiológicos, detectar fraudes con tarjetas de crédito, descifrar el habla y el texto escrito a mano, predecir la demanda de uso compartido de bicicletas y cuando la publicidad se desvanezca, todavía estarán allí.

 

> How to navigate the coming A.I. hypestorm.

DeepMind y Blizzard abren StarCraft II como entorno de investigación de IA

La misión científica de DeepMind es superar los límites de la inteligencia artificial desarrollando sistemas que puedan aprender a resolver problemas complejos. Para ello, diseñamos agentes y probamos su capacidad en una amplia gama de entornos, desde DeepMind Lab especialmente diseñado hasta juegos establecidos, como Atari y Go.

Probar a nuestros agentes en juegos que no están específicamente diseñados para la investigación de IA, y donde los humanos juegan bien, es crucial para el rendimiento del agente de referencia. Es por eso que, junto con nuestro socio Blizzard Entertainment, nos complace anunciar el lanzamiento de SC2LE, un conjunto de herramientas que esperamos aceleren la investigación en IA en el juego de estrategia en tiempo real StarCraft II. La versión de SC2LE incluye:

  • Una API de Aprendizaje automático desarrollada por Blizzard que da gancho a los investigadores y desarrolladores en el juego. Esto incluye el lanzamiento de herramientas para Linux por primera vez.
  • Un conjunto de datos de repeticiones anónimas del juego, que aumentará de 65 mil a más de medio millón en las próximas semanas.
  • Una versión de código abierto del conjunto de herramientas de DeepMind, PySC2, para permitir a los investigadores utilizar fácilmente la API de capa característica de Blizzard con sus agentes.
  • Una serie de minijuegos RL simples para permitir a los investigadores probar el rendimiento de los agentes en tareas específicas.
  • Un documento conjunto que delinea el entorno e informa los resultados básicos iniciales de los minijuegos, el aprendizaje supervisado de las repeticiones y el juego completo de escalera 1 contra 1 contra la IA incorporada.

StarCraft y StarCraft II se encuentran entre los juegos más grandes y exitosos de todos los tiempos, con jugadores que compiten en torneos por más de 20 años. El juego original también ya es utilizado por los investigadores de AI y ML, que compiten anualmente en la competencia de bot de AIIDE. Parte de la longevidad de StarCraft se debe a la rica jugabilidad multicapa, que también la convierte en un entorno ideal para la investigación de IA.

Por ejemplo, si bien el objetivo del juego es vencer al oponente, el jugador también debe llevar a cabo y equilibrar una serie de subobjetivos, como la recolección de recursos o la construcción de estructuras. Además, un juego puede tardar de unos minutos a una hora en completarse, lo que significa que las acciones tomadas al principio del juego pueden no dar resultado durante mucho tiempo. Finalmente, el mapa solo se observa parcialmente, lo que significa que los agentes deben usar una combinación de memoria y planificación para tener éxito.

El juego también tiene otras cualidades que atraen a los investigadores, como la gran cantidad de jugadores ávidos que compiten en línea todos los días. Esto asegura que hay una gran cantidad de datos de reproducción para aprender, así como una gran cantidad de oponentes extremadamente talentosos para los agentes de inteligencia artificial.

Incluso el espacio de acción de StarCraft presenta un desafío con una selección de más de 300 acciones básicas que se pueden tomar. Contraste esto con los juegos de Atari, que solo tienen alrededor de 10 (por ejemplo, arriba, abajo, izquierda, derecha, etc.). Además de esto, las acciones en StarCraft son jerárquicas, se pueden modificar y aumentar, y muchas de ellas requieren un punto en la pantalla. Incluso suponiendo un tamaño de pantalla pequeño de 84×84 hay aproximadamente 100 millones de acciones posibles disponibles.

Esta versión significa que los investigadores ahora pueden abordar algunos de estos desafíos utilizando las propias herramientas de Blizzard para construir sus propias tareas y modelos.

Nuestro envoltorio de entorno PySC2 ayuda al ofrecer una interfaz flexible y fácil de usar para que los agentes de RL jueguen el juego. En este lanzamiento inicial, dividimos el juego en “capas de características”, donde los elementos del juego, como el tipo de unidad, la salud y la visibilidad del mapa, están aislados entre sí, al tiempo que conservamos los elementos visuales y espaciales principales del juego.

El lanzamiento también contiene una serie de ‘minijuegos’, una técnica establecida para dividir el juego en trozos manejables que se pueden usar para probar agentes en tareas específicas, como mover la cámara, recolectar fragmentos de minerales o seleccionar unidades. Esperamos que los investigadores puedan probar sus técnicas con estos y proponer nuevos minijuegos para que otros investigadores compitan y evalúen.

Nuestras investigaciones iniciales muestran que nuestros agentes funcionan bien en estos minijuegos. Pero cuando se trata del juego completo, incluso los agentes de línea de base fuertes, como A3C, no pueden ganar un solo juego incluso contra la inteligencia artificial más fácil incorporada. Por ejemplo, el siguiente video muestra un agente de capacitación en una etapa temprana (izquierda) que no logra mantener a sus trabajadores mineros, una tarea que a los humanos les parece trivial. Después del entrenamiento (derecha), los agentes realizan acciones más significativas, pero si quieren ser competitivos, necesitaremos más avances en RL profundo y áreas relacionadas.

Una técnica que sabemos que permite a nuestros agentes aprender políticas más fuertes es la imitación del aprendizaje. Este tipo de entrenamiento pronto será mucho más fácil gracias a Blizzard, que se ha comprometido con las versiones en curso de cientos de miles de repeticiones anonimizadas recopiladas de la escalera StarCraft II. Esto no solo permitirá que los investigadores capaciten a los agentes supervisados para jugar el juego, sino que también abre otras áreas de investigación interesantes, como la predicción de secuencias y la memoria a largo plazo.

Nuestra esperanza es que el lanzamiento de estas nuevas herramientas se base en el trabajo que la comunidad de AI ya ha realizado en StarCraft, fomentando más investigaciones de DeepRL y facilitando que los investigadores se centren en las fronteras de nuestro campo.

Esperamos ver lo que la comunidad descubre.

 

Ref: DeepMind and Blizzard open StarCraft II as an AI research environment.

Cómo salvamos la cara: los investigadores rompen el código de reconocimiento facial del cerebro

Un equipo de Caltech ha descifrado la forma en que identificamos rostros, recreando lo que el cerebro ve a partir de su actividad eléctrica.

Nuestros cerebros han evolucionado para reconocer y recordar rostros. Cuando somos bebés, una de las primeras cosas que aprendemos es mirar las caras de quienes nos rodean, responder al contacto visual e imitar las expresiones faciales. Como adultos, esto se traduce en una capacidad para reconocer rostros humanos mejor y más rápido que otros estímulos visuales. Podemos identificar al instante la cara de un amigo entre docenas en un restaurante abarrotado o en una calle de la ciudad. Y podemos ver si están emocionados o enojados, felices o tristes, de un solo vistazo.

La facilidad de reconocer caras enmascara su complejidad cognitiva subyacente. Las caras tienen ojos, narices y bocas en el mismo lugar relativo, sin embargo, podemos identificarlas con precisión desde diferentes ángulos, con poca luz e incluso mientras nos movemos. Los estudios de imagen cerebral han revelado que hemos desarrollado varias regiones pequeñas del tamaño de los arándanos en el lóbulo temporal, el área debajo del templo, que se especializan en responder a las caras. Los neurocientíficos llaman a estas regiones “parches faciales”. Pero ni los datos de los escáneres cerebrales -imágenes de resonancia magnética funcional- ni los estudios clínicos de pacientes con electrodos implantados han explicado exactamente cómo funcionan las células en estos parches faciales.

Ahora, usando una combinación de imágenes cerebrales y grabación de una sola neurona en macacos, la bióloga Doris Tsao y sus colegas de Caltech finalmente han descifrado el código neuronal para el reconocimiento facial. Los investigadores encontraron que la velocidad de disparo de cada celda facial corresponde a características faciales separadas a lo largo de un eje. Al igual que un conjunto de diales, las células se ajustan a bits de información, que luego pueden canalizar juntos en diferentes combinaciones para crear una imagen de cada cara posible. “Esto fue alucinante”, dice Tsao. “Los valores de cada esfera son tan predecibles que podemos recrear la cara que ve un mono, simplemente rastreando la actividad eléctrica de sus células faciales”.

Estudios previos habían insinuado la especificidad de estas áreas cerebrales para detectar rostros. A principios de la década de 2000, como postdoctorado en la Escuela de Medicina de Harvard, Tsao y su electrofisiólogo colaborador Winrich Freiwald obtuvieron grabaciones intracraneales de monos mientras veían una presentación de varios objetos y rostros humanos. Cada vez que una imagen de una cara aparecía en la pantalla, las neuronas en el parche de la cara media crepitaban con actividad eléctrica. La respuesta a otros objetos, como imágenes de verduras, radios o incluso otras partes del cuerpo, estuvo en gran parte ausente.

Experimentos adicionales indicaron que las neuronas en estas regiones también podrían distinguir entre caras individuales, e incluso entre dibujos de caras de dibujos animados. En sujetos humanos en el hipocampo, el neurocientífico Rodrigo Quian Quiroga descubrió que las imágenes de la actriz Jennifer Aniston provocaban una respuesta en una sola neurona. Y las imágenes de Halle Berry, miembros de The Beatles o personajes de Los Simpson activaron neuronas separadas. La teoría predominante entre los investigadores fue que cada neurona en los parches de la cara era sensible a algunas personas en particular, dice Quiroga, quien ahora se encuentra en la Universidad de Leicester en el Reino Unido y no está involucrado con el trabajo. Pero el estudio reciente de Tsao sugiere que los científicos pueden haberse equivocado. “Ella ha demostrado que las neuronas en los parches faciales no codifican para nada a personas en particular, solo codifican ciertas características”, dice. “Eso cambia por completo nuestra comprensión de cómo reconocemos los rostros”.

Para descifrar cómo las células individuales ayudaron a reconocer caras, Tsao y su postdoc Steven Le Chang dibujaron puntos alrededor de un conjunto de rostros y calcularon variaciones en 50 características diferentes. Luego utilizaron esta información para crear 2.000 imágenes diferentes de rostros que variaban en forma y apariencia, incluida la redondez de la cara, la distancia entre los ojos, el tono de la piel y la textura. A continuación, los investigadores mostraron estas imágenes a los monos mientras registraban la actividad eléctrica de las neuronas individuales en tres parches separados.

Todo lo que importaba para cada neurona era un eje de característica única. Incluso cuando se ven caras diferentes, una neurona que era sensible al ancho de la línea del cabello, por ejemplo, respondería a las variaciones en esa característica. Pero si las caras tenían la misma línea del cabello y narices de diferentes tamaños, la neurona de la línea del cabello se mantendría en silencio, dice Chang. Los hallazgos explicaron un tema largamente disputado en la teoría anterior de por qué las neuronas individuales parecían reconocer a personas completamente diferentes.

Además, las neuronas en diferentes parches faciales procesaban información complementaria. Células en un parche de cara: el parche anterior medial procesa información sobre la apariencia de las caras, como las distancias entre las características faciales, como los ojos o la línea del cabello. Las células de otros parches (las áreas del fondo medio y medio del fondo de ojo) manejaban información sobre las formas, como los contornos de los ojos o los labios. Al igual que los trabajadores en una fábrica, los diversos parches faciales hicieron trabajos distintos, cooperando, comunicándose y apoyándose mutuamente para proporcionar una imagen completa de la identidad facial.

Una vez que Chang y Tsao supieron cómo se produjo la división del trabajo entre los “trabajadores de la fábrica”, pudieron predecir las respuestas de las neuronas a una cara completamente nueva. Los dos desarrollaron un modelo para el cual los ejes de las funciones fueron codificados por varias neuronas. Luego mostraron a los monos una nueva foto de un rostro humano. Usando su modelo de cómo responderían varias neuronas, los investigadores pudieron recrear la cara que estaba viendo un mono. “Las recreaciones fueron increíblemente precisas”, dice Tsao. De hecho, eran casi indistinguibles de las fotos reales que se muestran a los monos.

Aún más sorprendente fue el hecho de que solo necesitaban lecturas de un pequeño conjunto de neuronas para que el algoritmo recree con precisión las caras que los monos estaban viendo, dice Tsao. Grabaciones de solo 205 células (106 células en un parche y 99 células en otro) fueron suficientes. “Realmente habla de lo compacto y eficiente que es este código neuronal basado en características”, dice ella. También puede explicar por qué los primates son tan buenos para el reconocimiento facial y cómo podemos identificar a miles de millones de personas diferentes sin necesitar un número igual de células faciales.

Los hallazgos, publicados el 1 de junio en Cell, proporcionan a los científicos un modelo integral y sistemático de cómo se perciben los rostros en el cerebro. El modelo también abre vías interesantes para futuras investigaciones, dice Adrian Nestor, un neurocientífico que estudia parches faciales en sujetos humanos en la Universidad de Toronto y que tampoco participó en la investigación. Comprender el código facial en el cerebro podría ayudar a los científicos a estudiar cómo las células faciales se incorporan en otra información de identificación, como el género, la raza, las señales emocionales y los nombres de rostros familiares, dice. Incluso puede proporcionar un marco para decodificar cómo se procesan otras formas no faciales en el cerebro. “En última instancia, este rompecabezas no se trata solo de caras”, dice Nestor. “La esperanza es que este código neuronal se extienda al reconocimiento de objetos como un todo”.

Ref: How We Save Face–Researchers Crack the Brain’s Facial-Recognition Code.