Noticias de la semana - 06
La policía china usa “gafas inteligentes” para identificar
criminales
Cada vez son más los dispositivos que nos asombran y es que
cada día parece que tenemos más cerca las fantasías futuristas que antes nos
adentraban a un mundo de ciencia ficción y que eran tan solo parte de un
libreto. Desde hace tiempo la tecnología avanza a pasos agigantados,
permitiéndonos palpar lo que antes solo era un sueño.
Ya nos ha llegado la noticia de que Dubai quiere que en el
2030 el 25% de su policía sean robots, algo muy futurista y al mejor estilo de
Hollywood, sin embargo, no es el único país que quiere incluir la tecnología en
su seguridad. China recientemente ha dotado a su policía con unas gafas de
reconocimiento facial para reconocer criminales.
Se trata de unas gafas equipadas con pequeños dispositivos
de reconocimiento facial –una tecnología, que en estos tiempos es muy común
escucharla, tal es el caso de los modelos de gama alta, Samsung Galaxy S9, que
ya la implementan para el desbloqueo de sus equipos. Estas gafas ya están
siendo usadas por la policía china en estaciones de trenes y aeropuertos, con
el objetivo de identificar a individuos que estén tratando de huir de la
justicia o usando pasaportes falsos.
Si bien es una excelente noticia y una innovación, algunos
usuarios manifestaron su molestia, pues aseguran que estas pudieran invadir su
privacidad a futuro.
Estas gafas han arrojado resultados sorprendentes, ya que
han permitido detener a 7 persona vinculadas con casos criminales y a 26
individuos usando pasaportes falsos. Su fabricante afirma que su sistema sería
capaz de reconocer individuos de una base de datos de 10.000 personas en apenas
100 mili-segundos y que al día de hoy no están disponibles para el público en
general.
China desarrolla submarinos con IA para todo tipo de
amenazas
China trabaja con Inteligencia Artificial
China trabaja en el desarrollo de submarinos nucleares
potenciados por Inteligencia Artificial (IA) que darían mayor poder a los
militares de su fuerza armada en labores de combate.
Una de las tecnologías más interesantes y prometedoras tiene
un nuevo en los últimos años.
Todo tipo de aplicaciones informáticas para móviles y
ordenadores están siendo creadas actualmente con el fin de mejorar aspectos
básicos de nuestra cotidianidad.
Estados Unidos, Rusia, Japón y China son solo algunos de
ellos, y las armas que han desarrollado en los últimos tiempos han despertado
la voz de expertos en tecnología e incluso sus mismos líderes
De hecho, la Organización de las Naciones Unidas creó un
centro de monitoreo de IA y robótica en La Haya, con el objetivo de estudiar
las consecuencias de esta tecnología. Ahora, se ha podido conocer que
La información se pudo conocer a través de un científico
involucrado con el desarrollo de este proyecto, quien bajo evidente anonimato
reveló al diario local South China Morning Post (SCMP) que el país pretende
equipar los sistemas informáticos de sus submarinos con IA, con el fin de
contribuir con las operaciones submarinas y reducir la carga de trabajo de los
tripulantes.
El científico afirma que durante un combate, la ansiedad
puede hacer que los humanos tomen decisiones incorrectas, sin embargo,
Una IA entrenada correctamente puede ejecutar una mejor
estrategia, en cambio un combate y la ansiedad de los humanos puede llegar a
tomar decisiones incorrectas, afirma científico.
Sistema avanzado capaz de detectar amenazas
Este sistema tendría una mejor condición de las variantes
condiciones bajo el mar y detectar amenazas potenciales mucho mejor y con más
tiempo que los humanos. Además, el sistema sugerirá a los comandantes de estos
submarinos las ventajas y desventajas de diversas acciones.
Por ejemplo, en 2017 vimos al presidente de Rusia afirmar
que quien lidere el desarrollo de la IA tendrá el control del mundo, mientras
que el millonario propietario de SpaceX y Tesla Motors, Elon Musk, se mostró
preocupado y fatalista al decir que esta tecnología pudiese acabar con la
humanidad, específicamente por el desarrollo de robots asesinos.
Pornhub prohíbe los vídeos simulados con famosas mediante IA
porque "no son consensuales"
Pornhub acaba de unirse a Reddit y el servicio de
almacenamiento de imágenes Gfycat en su lucha contra los conocidos como
Deepfakes. El portal de vídeos porno ha anunciado que eliminará los vídeos en
los que aparecen caras de famosas superpuestas mediante algoritmos sobre los
cuerpos de actrices porno.
Según informa Motherboard, Pornhub ha llegado a la
conclusión de que generar estos falsos vídeos a partir de las facciones de otra
persona es claramente sexo no consensual. La plataforma ha comparado los
deepfake con el revenge porn y ha anunciado que eliminará cualquier vídeo de
ese tipo en la plataforma.
No toleramos ningún tipo de contenido no consensual en
nuestra página y eliminamos ese tipo de vídeos tan pronto somos conscientes de
su existencia. El contenido no consensual viola nuestras condiciones de
servicio, y eso incluye el revenge porn, los deepfakes o cualquier otro
contenido subido sobre una persona sin el consentimiento y conocimiento
explícitos de esa persona. Estamos eliminando todos los deepfakes subidos por
usuarios.
Una rápida búsqueda permite comprobar que aún hay muchos de
esos vídeos aún circulando en Pornhub y son tan fáciles de encontrar como
buscar “deepfake”. Aparentemente, Pornhub está esperando a que sean los propios
usuarios los que denuncien el contenido como inapropiado. Es una manera de
operar un poco paradójica teniendo en cuenta que los usuarios llegan a la
plataforma precisamente buscando ese tipo de contenidos.
Lo mismo ocurre con Reddit. Pese a que las condiciones de
servicio del popular portal prohiben de forma expresa cualquier contenido
sexual o con desnudos subido sin el permiso de la persona que aparece en él, el
subreddit de deepfakes (que es muy explícito) sigue en línea y activo. Tan solo
parece que se han eliminado algunos vídeos. Gfycat ha explicado que sigue
trabajando activamente en eliminar deepfakes.
Además de ser inquietantes, no consensuales y una forma de
acoso contra las personas que salen en ellos, prácticamente todos los deepfakes
violan además las leyes de copyright. Generalmente usan miles de imágenes
extraidas de los motores de búsqueda sin comprobar si esas imágenes tienen o no
autor. Aunque puede resultar complicado demostrar el uso de una imagen
concreta, Reddit elimina cualquier contenido sobre el que se presente una
reclamación de copyright.
El mayor problema de los deepfakes, como apuntan en Wired,
es que técnicamente no se pueden considerar una invasión de la privacidad
porque, a diferencia de las fotos robadas, se trata de un material falso, un
montaje. A priori, los deepfakes están protegidos en Estados por la Primera
Enmienda, aunque es posible que puedan ser llevador ante un tribunal como
difamación.
Lo más probable es que los autores de deepfakes simplemente
se muden a otras plataformas. Eliminar completamente este contenido de Internet
va a ser muy complicado. De momento, ya se ven algunos usuarios del subreddit
de deepfakes trasladar sus vídeos a Erome, Senvid y otros servicios con
políticas más laxas.
No todos los deepfakes son porno. Las técnicas usadas para
crearlos se han aplicado para otros propósitos más humorísticos, como poner la
cara de Nicholas Cage en todo tipo de películas.
Fuente: