Noticias de la semana - 06

La policía china usa “gafas inteligentes” para identificar criminales
  


Cada vez son más los dispositivos que nos asombran y es que cada día parece que tenemos más cerca las fantasías futuristas que antes nos adentraban a un mundo de ciencia ficción y que eran tan solo parte de un libreto. Desde hace tiempo la tecnología avanza a pasos agigantados, permitiéndonos palpar lo que antes solo era un sueño.

Ya nos ha llegado la noticia de que Dubai quiere que en el 2030 el 25% de su policía sean robots, algo muy futurista y al mejor estilo de Hollywood, sin embargo, no es el único país que quiere incluir la tecnología en su seguridad. China recientemente ha dotado a su policía con unas gafas de reconocimiento facial para reconocer criminales.
  


Se trata de unas gafas equipadas con pequeños dispositivos de reconocimiento facial –una tecnología, que en estos tiempos es muy común escucharla, tal es el caso de los modelos de gama alta, Samsung Galaxy S9, que ya la implementan para el desbloqueo de sus equipos. Estas gafas ya están siendo usadas por la policía china en estaciones de trenes y aeropuertos, con el objetivo de identificar a individuos que estén tratando de huir de la justicia o usando pasaportes falsos.

Si bien es una excelente noticia y una innovación, algunos usuarios manifestaron su molestia, pues aseguran que estas pudieran invadir su privacidad a futuro.



Estas gafas han arrojado resultados sorprendentes, ya que han permitido detener a 7 persona vinculadas con casos criminales y a 26 individuos usando pasaportes falsos. Su fabricante afirma que su sistema sería capaz de reconocer individuos de una base de datos de 10.000 personas en apenas 100 mili-segundos y que al día de hoy no están disponibles para el público en general.



China desarrolla submarinos con IA para todo tipo de amenazas

China trabaja con Inteligencia Artificial
China trabaja en el desarrollo de submarinos nucleares potenciados por Inteligencia Artificial (IA) que darían mayor poder a los militares de su fuerza armada en labores de combate.


Una de las tecnologías más interesantes y prometedoras tiene un nuevo en los últimos años.

Todo tipo de aplicaciones informáticas para móviles y ordenadores están siendo creadas actualmente con el fin de mejorar aspectos básicos de nuestra cotidianidad.

Estados Unidos, Rusia, Japón y China son solo algunos de ellos, y las armas que han desarrollado en los últimos tiempos han despertado la voz de expertos en tecnología e incluso sus mismos líderes

De hecho, la Organización de las Naciones Unidas creó un centro de monitoreo de IA y robótica en La Haya, con el objetivo de estudiar las consecuencias de esta tecnología. Ahora, se ha podido conocer que

La información se pudo conocer a través de un científico involucrado con el desarrollo de este proyecto, quien bajo evidente anonimato reveló al diario local South China Morning Post (SCMP) que el país pretende equipar los sistemas informáticos de sus submarinos con IA, con el fin de contribuir con las operaciones submarinas y reducir la carga de trabajo de los tripulantes.

El científico afirma que durante un combate, la ansiedad puede hacer que los humanos tomen decisiones incorrectas, sin embargo,

Una IA entrenada correctamente puede ejecutar una mejor estrategia, en cambio un combate y la ansiedad de los humanos puede llegar a tomar decisiones incorrectas, afirma científico.

Sistema avanzado capaz de detectar amenazas
Este sistema tendría una mejor condición de las variantes condiciones bajo el mar y detectar amenazas potenciales mucho mejor y con más tiempo que los humanos. Además, el sistema sugerirá a los comandantes de estos submarinos las ventajas y desventajas de diversas acciones.

Por ejemplo, en 2017 vimos al presidente de Rusia afirmar que quien lidere el desarrollo de la IA tendrá el control del mundo, mientras que el millonario propietario de SpaceX y Tesla Motors, Elon Musk, se mostró preocupado y fatalista al decir que esta tecnología pudiese acabar con la humanidad, específicamente por el desarrollo de robots asesinos.



Pornhub prohíbe los vídeos simulados con famosas mediante IA porque "no son consensuales"


Pornhub acaba de unirse a Reddit y el servicio de almacenamiento de imágenes Gfycat en su lucha contra los conocidos como Deepfakes. El portal de vídeos porno ha anunciado que eliminará los vídeos en los que aparecen caras de famosas superpuestas mediante algoritmos sobre los cuerpos de actrices porno.

Según informa Motherboard, Pornhub ha llegado a la conclusión de que generar estos falsos vídeos a partir de las facciones de otra persona es claramente sexo no consensual. La plataforma ha comparado los deepfake con el revenge porn y ha anunciado que eliminará cualquier vídeo de ese tipo en la plataforma.

No toleramos ningún tipo de contenido no consensual en nuestra página y eliminamos ese tipo de vídeos tan pronto somos conscientes de su existencia. El contenido no consensual viola nuestras condiciones de servicio, y eso incluye el revenge porn, los deepfakes o cualquier otro contenido subido sobre una persona sin el consentimiento y conocimiento explícitos de esa persona. Estamos eliminando todos los deepfakes subidos por usuarios.

Una rápida búsqueda permite comprobar que aún hay muchos de esos vídeos aún circulando en Pornhub y son tan fáciles de encontrar como buscar “deepfake”. Aparentemente, Pornhub está esperando a que sean los propios usuarios los que denuncien el contenido como inapropiado. Es una manera de operar un poco paradójica teniendo en cuenta que los usuarios llegan a la plataforma precisamente buscando ese tipo de contenidos.

Lo mismo ocurre con Reddit. Pese a que las condiciones de servicio del popular portal prohiben de forma expresa cualquier contenido sexual o con desnudos subido sin el permiso de la persona que aparece en él, el subreddit de deepfakes (que es muy explícito) sigue en línea y activo. Tan solo parece que se han eliminado algunos vídeos. Gfycat ha explicado que sigue trabajando activamente en eliminar deepfakes.

Además de ser inquietantes, no consensuales y una forma de acoso contra las personas que salen en ellos, prácticamente todos los deepfakes violan además las leyes de copyright. Generalmente usan miles de imágenes extraidas de los motores de búsqueda sin comprobar si esas imágenes tienen o no autor. Aunque puede resultar complicado demostrar el uso de una imagen concreta, Reddit elimina cualquier contenido sobre el que se presente una reclamación de copyright.

El mayor problema de los deepfakes, como apuntan en Wired, es que técnicamente no se pueden considerar una invasión de la privacidad porque, a diferencia de las fotos robadas, se trata de un material falso, un montaje. A priori, los deepfakes están protegidos en Estados por la Primera Enmienda, aunque es posible que puedan ser llevador ante un tribunal como difamación.

Lo más probable es que los autores de deepfakes simplemente se muden a otras plataformas. Eliminar completamente este contenido de Internet va a ser muy complicado. De momento, ya se ven algunos usuarios del subreddit de deepfakes trasladar sus vídeos a Erome, Senvid y otros servicios con políticas más laxas.

No todos los deepfakes son porno. Las técnicas usadas para crearlos se han aplicado para otros propósitos más humorísticos, como poner la cara de Nicholas Cage en todo tipo de películas.



Fuente:




Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52