Noticias de la semana - 28

Nvidia desarrolla una IA para eliminar el ruido en las fotos.


Nvidia, la Universidad de Aalto y el Instituto de Tecnología de Massachusetts han desarrollado una tecnología que capaz de "aprender" a retocar imágenes y eliminar el ruido y los artefactos sin apenas perder calidad.



Actualmente, la mayoría de programas de edición de fotos, tanto móvil como de escritorio son capaces de reducir el ruido y los artefactos de las imágenes, aunque siempre lleva aparejada una pérdida de definición porque lo que hacen estos programas es rellenar los "huecos" con colores similares a los que están alrededor del ruido. Para solucionar este embrollo, Nvidia, en colaboración con la Universidad de Aalto y el Instituto de Tecnología de Massachusetts (MIT) ha desarrollado una tecnología de análisis y recomposición de imágenes que capaz de eliminar el ruido de una foto con la menor pérdida de definición posible.

Y no solo eso, es capaz de dilucidar los elementos que pertenece a la foto y los que no, desechando todo lo que vale para recomponer la imagen a su estado original. Por ejemplo, en una fotografía de un paisaje llena de textos encima es capaz, como por arte de magia, de mostrar solo el paisaje. Y es solo una pequeña muestra de lo que es capaz.

Hasta ahora, el proceso para "enseñar" a las IA el post procesamiento de imágenes se basaba principalmente en el entrenamiento por pares: dos imágenes iguales, una original sin artefactos ni ruido y otra ensuciada originalmente, pero esta nueva IA ha sido entrenada usando solo fotos corruptas, sin una contraparte original de la que tener referencias.

"Es posible aprender a restaurar imágenes sin siquiera observar las [originales] limpias y con un rendimiento que a veces excede el entrenamiento con ejemplos limpios", - Paper de los investigadores de Nvidia, MIT y Aalto.

Lógicamente, el equipo que han usado para ello no está al alcance de todo el mundo: GPUs NVIDIA Tesla P100 con el framework de deep learning TensorFlow acelerado por el sistema cuDNN también de Nvidia, con el que han analizado más de 50.000 imágenes para entrenar a la IA. La investigación y toda la documentación está disponible en la web de los investigadores.



DeepMind creó una prueba para medir la capacidad de una IA para razonar


INTELIGENCIA GENERAL.  AI se ha vuelto bastante bueno para completar tareas específicas, pero aún queda un largo camino por delante de tener  inteligencia general , el tipo de inteligencia que permitiría que la IA navegue por el mundo de la misma manera que lo hacen los humanos o incluso los animales.

Uno de los elementos clave de la inteligencia general es el razonamiento abstracto: la capacidad de pensar más allá del "aquí y ahora" para ver patrones y relaciones más matizados y participar en pensamientos complejos. El miércoles, los investigadores de DeepMind, una filial de Google centrada en la inteligencia artificial, publicaron un documento que detalla su intento de medir las capacidades de razonamiento abstracto de varias IA, y para hacerlo, buscaron las mismas pruebas que usamos para medir las nuestras.

Coeficiente de inteligencia humano En los humanos, medimos el razonamiento abstracto usando pruebas visuales de CI bastante simples. Una prueba popular, llamada Matrices progresivas de Raven, presenta varias filas de imágenes en la última fila faltando su imagen final. Depende del examinado elegir la imagen que debe venir a continuación según el patrón de las filas completadas.

La prueba no le dice directamente al examinado qué buscar en las imágenes, tal vez la progresión tiene que ver con la cantidad de objetos dentro de cada imagen, su color o su ubicación. Depende de ellos darse cuenta de eso por sí mismos usando su habilidad para razonar abstractamente.

Para aplicar esta prueba a las IA, los investigadores de DeepMind crearon un programa que podía generar problemas únicos de matriz. Luego, entrenaron varios sistemas de IA para resolver estos problemas de matriz.

Finalmente, probaron los sistemas. En algunos casos, usaron problemas de prueba con los mismos factores abstractos que el conjunto de entrenamiento  , como  entrenar y evaluar a la IA en problemas que requirieron considerar la cantidad de formas en cada imagen. En otros casos, usaron problemas de prueba incorporando diferentes factores abstractos que aquellos en el conjunto de entrenamiento. Por ejemplo, podrían entrenar a la IA en problemas que requieran que considere la cantidad de formas en cada imagen, pero luego probarla en aquellas que requieran que considere las posiciones de las formas para encontrar la respuesta correcta.

MEJOR SUERTE LA PRÓXIMA VEZ.  Los resultados de la prueba no fueron geniales. Cuando los problemas de entrenamiento y los problemas de prueba se centraron en los mismos factores abstractos, a los sistemas les fue bien, respondiendo correctamente los problemas el 75 por ciento de las veces. Sin embargo, las IA funcionaron muy mal si el conjunto de prueba difería del conjunto de entrenamiento, incluso cuando la varianza era menor (por ejemplo, entrenamiento en matrices que presentaban objetos de color oscuro y pruebas en matrices que presentaban objetos de color claro).

En última instancia, la prueba de IQ del equipo muestra que incluso algunas de las IA más avanzadas de la actualidad no pueden resolver problemas que no les hemos enseñado a resolver. Eso significa que probablemente aún estamos muy lejos de la IA general. Pero al menos ahora tenemos una manera directa de monitorear nuestro progreso.



Facebook quiere que la Inteligencia Artificial sea tu próxima guía de viajes


FAIR, el laboratorio de investigación de inteligencia artificial de Facebook, está desarrollando un sistema para enseñar a la IA a guía a turistas virtuales por al ciudad de New York.

De vez en cuando el laboratorio de ideas de Facebook se saca de la manga algún uso genial para mejorar nuestras idas y venidas cotidianas. Ahora, FAIR, su laboratorio de investigación de inteligencia artificial (IA) está probando si puede enseñar a las inteligencias artificiales actuales para sean capaces de guiar a los turistas virtuales por un recurrido turístico completo por la ciudad de Nueva York.


Talk the Walk es como se llama esta proyecto, que básicamente se trata de un sistema que agrupa diversos conjuntos de datos de la ciudad para diseñar en rutas turísticas. En este sentido, se compone de varios mapas de los barrios de la ciudad de Nueva York, fotos de 360 ​​grados de las zonas que contienen esos mapas y varios sets de diálogos de humanos reales guiándose unos a otros. Con ello, Facebook está enseñando a la IA a que sea capaz de aprenderse esos datos y pueda guiar a humanos a través de esas zonas sin intervención humana.

Aunque pueda parecer insuficiente, puesto que una IA podría acceder a todos los conjuntos de datos disponibles en red para analizar visitas turísticas ya planificadas y aprender sobre ellas, lo cierto es que el proyecto de Facebook se basa en el aprendizaje de pequeños grupos de datos llamado "aprendizaje de lenguaje fundamentado": la única forma en que podemos enseñar a entender a las AI la forma en la que humanos nos comunicamos (sin artificios) es hacer que aprendan como nosotros.

Al final la idea de Facebook es que si la IA es capaz de generar suficientes datos y aprender de un espacio reducido como New York, el sistema de aprendizaje se pueda usar en cualquier parte del mundo. Ahora mismo la gran ciudad es el patio de juegos de esta IA, y si todo va como se espera, dentro de poco podrá convertirse en una guía de viajes desatendida que te muestre la ciudad tal y como tu quieres verla.



Fuente:




Entradas populares de este blog

Noticias de la semana - 36

Noticias de la semana - 52