Noticias de la semana - 50

Estos Deepfakes de cuerpo completo son como nada que hayamos visto


Las simulaciones siguen siendo claramente falsas, pero hay mejores versiones en camino.

Deepfakes de cuerpo completo están aquí.

Los Deepfakes son videos manipulados y engañosos que  utilizan tecnología de aprendizaje profundo para producir videos sofisticados y sofisticados. Normalmente, esto implicaba unir la cara de alguien a un video existente, a menudo haciendo que parezca que una celebridad o una figura pública hizo algo que nunca sucedió.

Ahora existen las herramientas para hacer lo mismo con todo el cuerpo de alguien, como un titiritero digital. Eso es gracias a una nueva técnica de la Universidad de Heidelberg que se publicó recientemente  en Github  y se presentó en la Conferencia Europea de septiembre sobre Visión por Computadora , un paso adelante para los errores profundos que se ha escapado del análisis general, pero que podría llevar a la próxima generación de material modificado.

La tecnología aún no es perfecta, pero es una vista previa preocupante de lo que podría venir. Sin duda impresionó a Károly Zsolnai-Fehér, el narrador del canal de YouTube Two Minute Papers, quien describió con entusiasmo el trabajo en un  video sobre la investigación .

"De esta manera, podemos aparentar que estamos jugando tenis, béisbol o, finalmente, poder realizar 100 dominadas", bromeó. "Bueno, al menos en Instagram".



Digamos que quieres crear un video falso de ti mismo aplastando un juego de tenis. Con las iteraciones pasadas de la tecnología deepfake, estarías limitado a los movimientos exactos que ocurren en un video existente de un profesional de tenis. El deepfake resultante mostraría el cuerpo del jugador de tenis realizando los movimientos, pero su rostro se reemplazaría con el tuyo. En ese sentido, el profesional de tenis estaría "manejando" el video con  tu cara editada para el viaje.

Pero este nuevo algoritmo no está limitado por esa restricción. Puede aprender cómo se ve usted examinando las imágenes existentes de usted, y luego ubicarlo en un conjunto del tenis profesional. Incluso podría colocarlo en un entorno virtual simulado y hacer que divague, moviendo sus brazos y piernas como una marioneta.

Aún más impresionante, el nuevo sistema no necesita ver su tema desde todos los ángulos para modelar su apariencia. Digamos que quieres un video de ti mismo girando para dar un golpe de revés, pero nunca te enfrentaste a la cámara en las imágenes que pasaste al sistema de inteligencia artificial. Este nuevo sistema puede adivinar cómo se ve desde ese ángulo en función de la comprensión contextual propia del sistema de cómo se ve un cuerpo humano: hasta los detalles, señala Zsolnai-Fehér, como un cinturón que se extiende alrededor de la cintura de una persona.

Para Y Piensa

Los investigadores detrás de este proyecto están entusiasmados con la forma en que la tecnología podría revolucionar los videojuegos o las películas animadas, aunque también podría usarse para la manipulación política u otros propósitos nefarios.

"En términos generales, cualquier mejora de la comunidad de investigación en el tema de la síntesis de imágenes conlleva el riesgo inherente de ser mal utilizada", dijo a Futurism Björn Ommer, un investigador de visión artificial en Heidelberg que trabajó en el nuevo algoritmo.

Afortunadamente, las simulaciones de este nuevo algoritmo siguen siendo entrecortadas: las patas de un sujeto se harán más gruesas y estrechas a medida que caminan en un círculo, y la incapacidad de corregir sombras o diferencias en la iluminación entre los datos de muestra y las simulaciones generadas crea un estilo de falla en la matriz auras alrededor del tema del deepfake.

Ommer sugiere que estas fallas podrían servir como indicadores para los algoritmos de detección de fallas profundas.

“Discriminar falsificaciones de imágenes reales es una tarea más fácil que generar estas imágenes. Después de todo, la competencia entre generación y discriminación es cómo se sintetizan las imágenes ”, dijo Ommer al Futurismo. "Por lo tanto, parece probable que los modelos para detectar falsificaciones sintetizadas puedan mantenerse al día".

Pero eso supone que cualquier algoritmo de detección de fallas profundas está entrenado en las mismas técnicas utilizadas para generar el video engañoso en primer lugar. Y ahora que esta tecnología está disponible, es seguro asumir que alguien más está resolviendo todos estos errores.



TAYLOR SWIFT ESTÁ UTILIZANDO TECNOLOGÍA DE RECONOCIMIENTO FACIAL AHORA


Mientras los fanáticos observaban a Taylor Swift, no sabían que estaban siendo observados.

De acuerdo con una historia recientemente publicada en Rolling Stone , la estrella del pop usó la tecnología de reconocimiento facial en un concierto de California para buscar en la multitud a cualquiera de sus acosadores conocidos, sin el conocimiento de los asistentes.

Y está lejos de ser el único ejemplo de la creciente ubicuidad de la tecnología en la vida estadounidense.

Quédate Quédate Quédate

El 18 de mayo, los fanáticos acudieron al concierto de Swift en el estadio Rose Bowl en Pasadena, California. De camino a sus asientos, muchos se detuvieron en un quiosco que mostraba fragmentos del artista ensayando.

Mientras esos fanáticos miraban las pantallas, una cámara de reconocimiento facial dentro de la pantalla les tomó las fotos. Luego, transmitió las fotos a un "puesto de mando" en Nashville, Tennessee, donde el equipo de Swift podía ver si alguna de las caras coincidía con la de sus cientos de acosadores conocidos, dijo el experto en seguridad Mike Downing a Rolling Stone.

Downing estuvo en el concierto como invitado de la compañía anónima detrás de la tecnología de reconocimiento facial, que vio demostrada en el lugar. Como le dijo a Rolling Stone , "Todos los que pasaban se detenían y lo miraban, y el software comenzaba a funcionar".

Todo Ha Cambiado

La historia de Rolling Stone deja muchas preguntas sin respuesta. ¿Identificó la tecnología de reconocimiento facial a algún acosador Swift? ¿Qué pasó con las fotos de los fans después del show? ¿El equipo de la estrella del pop tenía la obligación moral de que los asistentes supieran que estaban siendo filmados?

Sin embargo, lo que sí sabemos es que la tecnología de reconocimiento facial se está convirtiendo en una parte cada vez más común de la vida cotidiana, y no solo en los estados de vigilancia como  China . Actualmente está en uso en aeropuertos  y  estaciones de policía de los EE. UU. , Y pronto podría estar en las escuelas de la nación .

En la mayoría de estos casos, la idea es que la tecnología de reconocimiento facial puede ayudar a las personas a mantenerse seguras, al igual que la intención detrás del sistema de reconocimiento facial en el concierto de Swift. Pero en este momento, la tecnología simplemente no es lo suficientemente precisa como para justificar el tipo de uso generalizado que está obteniendo actualmente.



Mire estas caras increíblemente realistas generadas por una red neuronal


Ninguna de estas personas es real.

Oficialmente ya no podemos confiar en nada de lo que vemos en internet. Desde falsificaciones profundas de cuerpo entero hasta doblaje de traducción basado en IA , la tecnología está empezando a distorsionar la realidad, todo con la ayuda del aprendizaje automático.

Ejemplo: los investigadores de NVIDIA han aprovechado el poder de una red de confrontación generativa (GAN), una clase de red neuronal, para generar algunas  caras extremadamente realistas . Los resultados son más impresionantes que cualquier cosa que hayamos visto antes. Eche un vistazo a continuación, teniendo en cuenta que ninguna de estas caras es real.


Un GAN puede generar iterativamente imágenes basadas en fotos genuinas de las que aprende. Luego evalúa las nuevas imágenes contra las originales. En este caso, los investigadores enseñaron a un GAN una serie de "estilos": caras modeladas a partir de sujetos que eran viejos, jóvenes, con gafas o tenían peinados diferentes.

Los resultados son espectaculares. Incluso pequeños detalles aparentemente aleatorios como pecas, poros de la piel o rastrojos se distribuyen de manera convincente en las imágenes que generó el proyecto.

La red incluso tomó una grieta en la generación de imágenes falsas de gatos. No resultaron tan bien.


No es la primera vez que se utiliza una GAN para generar imágenes de personas. El año pasado, el mismo grupo de investigadores de NVIDIA creó un generador de imágenes basado en redes neuronales . Pero los resultados fueron mucho menos impresionantes: las caras parecen distorsionadas y antinaturales. Los resultados son también de una resolución mucho menor.

Las redes neuronales se están volviendo increíblemente buenas para fingir rostros humanos. ¿Podremos distinguirlos en el futuro? A este ritmo, podrían volverse indistinguibles de la realidad.




Fuente:


Entradas populares de este blog

Noticias de la semana - 39

Noticias de la semana - 05

Noticias de la semana - 09