Noticias de la semana - 22

Algoritmo detecta imágenes falsas antes que se vuelvan virales


Un amigo te envía una imagen polémica, la observas y sientes la necesidad de compartirla con alguien más. Luego, tus amigos y los amigos de tus amigos hacen lo mismo. Esta es la forma en que una imagen se vuelve viral en internet. Lamentablemente, no todas estas fotos altamente compartidas son reales. Algunas resultan ser adulteradas, trucadas o photoshopeadas. Este tipo de imágenes en donde se combinan fragmentos de contenido visual de una manera tendenciosa y engañosa abunda en línea. Ahora, un algoritmo experimental podría ayudar a acabar con esta farsa incluso antes de que se propague. Más detalles en ArXiv.org.

La Universidad de California, Berkeley y la Universidad Carnegie Mellon se han unido para desarrollar un algoritmo que puede detectar inconsistencias en una imagen adulterada. Este sistema ha sido entrenado con más de 400.000 fotos de Flickr. El equipo se valió de la información que proporcionaban los metadatos o datos EXIF. Aquí se puede encontrar detalles de la configuración de la cámara, el objetivo, el flash, etc.

El método no es tan complicado. Una imagen está determinada por una tecnología o proceso en particular. Los efectos que estos procesos tienen deben presentarse consistentemente a través de toda la imagen. Cuando esto no sucede, se habla de una imagen adulterada. En otras palabras, si aprendes qué pinceles producen qué pinceladas, puedes decir si un retrato ha sido pintado con más de un pincel.

Para Neal Krawetz, informático teórico, la idea es genial, pero no queda convencido de su utilidad dentro de las redes sociales. La razón es que la mayoría de sitios en redes sociales comprimen las imágenes, algo que podría afectar al algoritmo y hacerlo menos preciso.

Las máquinas con aprendizaje automático pueden realizar tareas que le tomaría demasiado tiempo a un ser humano. En astronomía, hace unos días se anunció que podrá predecir la habitabilidad de exoplanetas y a buscar discos protoplanetarios. Incluso en videojuegos, se logró encontrar un truco de Atari que ningún humano había encontrado jamás.



Inteligencia artificial convierte canción de Rihanna en una sinfonía de Mozart


Investigadores de Facebook Research han desarrollado un método para convertir registros de música en grabaciones con otros instrumentos, estilos y géneros. El método se basa en el aprendizaje automático y permite entrenar una red neuronal sin comparar registros con otros estilos, instrumentos o géneros. 

Los desarrolladores demostraron las posibilidades del método en diferentes estilos musicales y artistas, por ejemplo, convirtiendo la sinfonía de Mozart en una grabación de un pianista tocando la música de Beethoven. El trabajo ha sido publicado en arXiv.org.

El aprendizaje automático se utiliza en muchas áreas y es una de las aplicaciones más impresionantes. Sin embargo se había usado poco en el campo de las grabaciones de audio. A pesar de que hay formas de sintetizar grabaciones de voz de alta calidad y convertir el habla de una persona en el habla de otra persona, la tecnología para convertir la música en registros de otros estilos aún está poco desarrollada.


Uno de los pasos más importantes lo dio WaveNet en el año 2016. El sistema está diseñado para sintetizar sonidos realistas y dio un gran impulso a este campo. De hecho, este último estudio bajo la dirección de Yaniv Taigman (Facebook), ha utilizado la tecnología de WaveNet.

La base de todo es el algoritmo NSynth, el cual consiste en un único codificador que traduce el audio original en su representación de alto nivel, y un conjunto de decodificadores para traducir esta representación en una grabación de audio de un cierto estilo. El codificador está diseñado de tal manera que no tiene en cuenta las propiedades específicas de un estilo o autor en particular y extrae del registro solo los elementos básicos. 


De Rihanna a Mozart, de Metallica a Beethoven

Una de las ventajas de este enfoque es que la red neuronal puede manejar correctamente los estilos musicales que no escuchó durante el entrenamiento. Para asegurarse de que el codificador no memoriza la música, es decir, codifica sus propiedades semánticas, durante el entrenamiento, los investigadores distorsionaron ligeramente los datos de entrada, cambiando el tono de la música de forma aleatoria.

Los autores del trabajo han entrenado la red neuronal en música de Mozart, Haydn, Bach y Beethoven. Después del entrenamiento, realizaron varios experimentos para probar el funcionamiento de la red neuronal. En uno de ellos invitaron a tres pianistas con experiencia, que convertirían 60 segmentos de cinco segundos de registros musicales en música de piano. Un tercio eran discos de las obras de Bach para instrumentos de teclado, otro tercio de las sinfonías de Mozart, y el último tercio eran canciones de swing jazz, riffs de guitarra y música instrumental china. Lo mismo hizo la red neuronal. 

Como resultado, la red neuronal recibió puntajes más bajos por la calidad de la traducción, pero aún así se manejó bastante bien, especialmente al hacer discos del último grupo en música de piano.

Los autores mostraron muchos ejemplos de la operación de una red neuronal. Incluyendo la conversión de canciones de Metallica, Elvis Presley y Rihanna en música clásica. Los ejemplos se pueden apreciar en el siguiente video:


Además, los investigadores pidieron voluntarios, así como tres músicos para distinguir el trabajo de la red neuronal de los registros originales. Para hacer esto, se les dieron aleatoriamente seis registros, de los cuales solo uno era real. Las pruebas han demostrado que en la mayoría de los casos las personas no pueden distinguir los registros creados por la red neuronal de los reales.

Hasta el momento Google era la empresa que más estaba dedicando sus esfuerzos en mejorar este tipo de algoritmos. Durante su última conferencia I/O, el buscador presentó Google Duplex, una impresionante función de voz basada en inteligencia artificial que permite hacer llamadas y hablar con otra persona sin que esta sepa que está hablando con una máquina.



El nuevo software de reconocimiento facial rastrea y protege a los primates en peligro


La tecnología de reconocimiento facial no tiene que ser espeluznante o distópica . Realmente podemos usarlo para siempre.

Un ejemplo: los investigadores de la Universidad Estatal de Michigan (MSU) desarrollaron un programa de software de reconocimiento facial que podría ayudar a salvar las vidas de los primates en peligro de extinción. Publicaron su investigación a través de arXiv .

El seguimiento es una parte esencial de los esfuerzos de conservación de la vida silvestre . Tradicionalmente, los conservacionistas capturan y etiquetan animales con dispositivos de rastreo para vigilarlos. Este enfoque puede ser costoso: los dispositivos varían en precio de $ 400 a $ 4,000, según los investigadores de MSU . Dicen que también puede dañar a los animales, causando estrés, lesiones físicas o incluso la muerte.

El software del equipo MSU, al que llaman PrimNet, evita estos inconvenientes del seguimiento tradicional.



Para crear PrimNet, los investigadores comenzaron a generar un conjunto de datos de imágenes para tres especies de primates: monos dorados, lémures y chimpancés, y tomaron miles de fotos de los animales en la naturaleza. Luego, usaron este conjunto de datos para entrenar una red neuronal para reconocer a los animales individuales.

Los investigadores construyeron una aplicación correspondiente, PrimID, para hacer que su sistema PrimNet sea fácil de usar. Los investigadores de la vida silvestre o los conservacionistas simplemente toman una foto de un animal y la colocan en la aplicación. Luego, el sistema produce una coincidencia, que el equipo de la MSU afirma es 90 por ciento precisa o, si no puede encontrar una coincidencia exacta, reduce el campo a cinco posibles candidatos.

El equipo de MSU ya está mirando hacia el futuro de PrimNet. "En el futuro, planeamos ampliar nuestros conjuntos de datos de primates, desarrollar un detector facial de primates y compartir nuestros esfuerzos a través de sitios web de código abierto", dijo en un comunicado de prensa Anil Jain, autor principal del estudio.

Con más del 60 por ciento de primates en peligro de extinción al borde de la extinción, no tenemos tiempo que perder si queremos salvar a estos animales. No solo PrimNet podría ayudar a prevenir pérdidas futuras, sino que también lo hace con la ventaja adicional de no ser invasivo. Nada escalofriante o distópico al respecto.



Desarrollan sistema basado en IA que puede reconocerte por tu forma de caminar


Bajo la premisa de que la forma de caminar de cada persona es única, los científicos y expertos en informática de la Universidad de Manchester, en el Reino Unido, han desarrollado un novedoso sistema basado en Inteligencia Artificial (IA), que serviría como método alternativo a los lectores de retina y huellas dactilares en los puntos de control de seguridad en aeropuertos o terminales.

Este nuevo sistema lleva por nombre SfootBD, y según los investigadores, es casi 380 veces más preciso que los métodos anteriormente descritos, siendo una de sus principales características que no necesita que la persona camine descalza para funcionar con precisión.

Se trata de un método menos invasivo que los actuales métodos de verificación biométrica del comportamiento, sin embargo, el hecho de que sea un sistema pasivo permitiría a personas inescrupulosas utilizarlo de manera encubierta. Al describir el funcionamiento de la tecnología, Omar Costilla Reyes, autor principal del estudio e informático de la Universidad de Manchester, aseguró:

Cada humano tiene aproximadamente 24 diferentes factores y movimientos al caminar, lo que resulta en que cada persona individual tenga un patrón único y singular para caminar.

Para crear este sistema, los expertos utilizaron una base de datos que contenía 20,000 formas de caminar de al menos 120,000 personas, lo que representa la base de datos más amplia que existe con respecto a la forma de caminar. Luego, la medición de cada paso se realizó mediante almohadillas de presión dispuestas en el suelo y una cámara de alta definición.

Posteriormente, la red neuronal recopiló los datos, analizó la distribución del peso, la velocidad de la marcha y las medidas tridimensionales de cada forma de caminar. Costilla Reyes reveló que sus intentos previos para crear este sistema se basaron en la lectura de la forma de caminar de las personas descalzas, y después usó una técnica de imágenes tridimensionales que comparó la forma de caminar de las personas con el metraje de un circuito cerrado de televisión.

Para probar el sistema SfootBD, el equipo de investigadores monitoreó a un grupo de participantes en tres ubicaciones distintas: un punto de control de seguridad de un aeropuerto, un lugar de trabajo y en los hogares de las personas. Asimismo, el sistema fue sometido a personas que fingieron formas de caminar distintas a la usual, lo que fue reconocido automáticamente por la tecnología.

Lo más impresionante con respecto a los resultados, es que la precisión de la IA fue del 100 por ciento al identificar personas, con una tasa de error de apenas 0.7 por ciento. Estos resultados demuestran que la tecnología puede ser precisa en el mundo real, sin embargo, los investigadores consideran que aún deben mejorarla para ello.







Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52