Noticias de la semana - 09


Facebook quiere usar IA para eliminar vídeos ilegales

Facebook afirmó que la tecnología de Inteligencia Artificial ya está ayudando a identificar el contenido potencialmente peligroso con mayor precisión.


Facebook ha declarado a un tribunal indio que está trabajando para utilizar inteligencia artificial con el fin de bloquear instantáneamente vídeos que contienen contenido ilegal como pornografía infantil o violaciones, conforme las tecnológicas mundiales luchan por limpiar sus servicios de material violento y ofensivo.

La tecnología de IA ya está ayudando a identificar el contenido potencialmente peligroso con mayor precisión, puntualizó la mayor red social del mundo en una presentación ante el tribunal de la India, y espera "que se continúe avanzando".

Facebook respondía así a una solicitud del Tribunal Supremo enviada a una serie de empresas, entre ellas Facebook, Google de Alphabet, Microsoft y Yahoo para que frenen la difusión de vídeos violentos de agresión sexual por internet.

El tribunal abrió el caso en 2015 después de que la activista Sunitha Krishnan -cuya campaña ShameTherapist recibió cerca de 200 vídeos de violaciones de víctimas- solicitase al tribunal que intervenga y haga que las empresas eviten que ese contenido se viralice en servicios de mensajes como WhatsApp de Facebook y otros.

Cientos de vídeos que incluyen escenas gráficas de asalto circulan en la actualidad a través de aplicaciones de mensajes y redes sociales en la India, algunas de los cuales se pueden comprar por tan solo 30 rupias, o menos de 50 centavos de dólar.

"Facebook reconoce que una forma de ayudar a preservar la seguridad de las personas es desarrollar tecnología de inteligencia artificial que le permita identificar de forma más rápida y precisa el contenido nocivo y la actividad peligrosa en su servicio", dijo el gigante de la tecnología con sede en California, en la presentación.

Identificar el contenido violento y ofensivo, desde vídeos extremistas hasta el abuso sexual infantil, preocupa cada vez más a las principales compañías de tecnología del mundo las cuales, algunos argumentan, deberían ser los principales guardianes de internet.

Las compañías han sido objeto de críticas por detractores y gobiernos, que quieren que asuman la responsabilidad por el contenido en sus plataformas.

Compañías como Google, que también ha sido criticada por permitir que se suban vídeos horribles en YouTube, están usando tecnología y moderadores humanos para identificar y controlar el comportamiento desagradable y el acoso en internet.

Las empresas de tecnología ahora utilizan el aprendizaje de máquina, un aspecto de la inteligencia artificial, para identificar la desnudez, la violencia e incluso a usuarios cuyos mensajes y vídeos sugieren tendencias suicidas.

Pero ninguno ha erradicado el problema por completo.

"Facebook continúa investigando y colaborando con otros en esta área, pero no tiene avances materiales que informar en estos momentos sobre el uso de la tecnología de inteligencia artificial para identificar la explotación infantil o las imágenes de violaciones individuales o en grupo", dijo en su presentación.




China Equivalente de Google puede clonar voces después de segundos de escuchar



El equipo de investigación de AI de Baidu ha desarrollado una red nueral que puede imitar una voz con una muestra de menos de un minuto. El software también puede cambiar la voz en otros géneros y acentos.

AI MIMICRY

El Google de China, Baidu, acaba de lanzar un libro blanco que muestra su último desarrollo en inteligencia artificial (AI): un programa que puede clonar voces después de analizar incluso un clip de segundos, utilizando una red neuronal. El software no solo puede imitar una voz de entrada, sino que también puede cambiar para reflejar otro género o incluso un acento diferente.

Puede escuchar algunos de los ejemplos generados aquí , alojados en GitHub.

Las versiones anteriores de esta tecnología han permitido la clonación de voz después de que los sistemas analizaran muestras de voz más largas. En 2017, el equipo de investigación de Baidu Deep Voice presentó una tecnología que podía clonar voces  con 30 minutos de material de capacitación . Adobe tiene un programa llamado VoCo que podría imitar una voz con solo 20 minutos de audio. Una startup canadiense, llamada Lyrebird , puede clonar una voz con solo un minuto de audio. La innovación de Baidu ha reducido aún más ese tiempo en meros segundos.

Si bien al principio esto puede parecer una actualización de la tecnología que se hizo popular en los años 90, con la ayuda de "Home Alone 2" y la franquicia "Scream", en realidad hay algunas aplicaciones nobles para esta tecnología. Por ejemplo: imagínese que le leen a su hijo en la voz cuando está lejos, o que se cree una voz duplicada para una persona que ha perdido la capacidad de hablar. Esta tecnología también podría usarse para crear asistentes digitales personalizados y servicios de traducción de voz más naturales.

Sin embargo, como ocurre con muchas tecnologías, la clonación de voz también conlleva el riesgo de ser abusada. New Scientist informa que el programa fue capaz de producir una voz que engañó al software de reconocimiento de voz con una precisión superior al 95 por ciento en las pruebas. Los humanos incluso calificaron la voz clonada con una puntuación de 3.16 de 4. Esto podría abrir la posibilidad de fraude asistido por la IA .


Existen programas que pueden usar IA para reemplazar o alterar, e incluso generar desde cero , las caras de las personas en los videos. En este momento, esto se usa principalmente en Internet para traer risas al insertar Nicolas Cage en la serie "El señor de los anillos". Pero junto con la tecnología que puede clonar voces, pronto podríamos ser bombardeados con más "noticias falsas" de políticos que realizan acciones inusuales o que dicen cosas que no harían.

Ya es muy fácil engañar a muchas personas usando solo la palabra escrita o Photoshop; podría haber incluso más problemas si estas tecnologías se colocaran en las manos equivocadas.



Las cámaras de AI están aquí.

Aquí hay tres maneras en que podríamos usarlos.


¿Confiarías en que tu cámara tomara fotos para ti? Se acerca una nueva ola de cámaras alimentadas por IA que deciden qué momentos sería mejor capturar.
El futuro ha llegado: las cámaras están ganando inteligencia artificial (AI). Las cámaras ya pueden conectarse a wi-fi, y han sido una parte integral de nuestros dispositivos inteligentes durante años, pero no han tenido "mentes" propias. Incluso las cámaras que operan como parte de sistemas de vigilancia a gran escala hasta ahora han permanecido sin su propia funcionalidad de IA. Eso es, hasta ahora.

Justo esta semana, Google lanzó su primera cámara con motor AI , Google Clips. La cámara se acopla a lo que quieras y utiliza el aprendizaje automático para fotografiar automáticamente lo que "piensa" es interesante. A menudo fotografiando humanos y mascotas, la cámara responde a la iluminación, expresiones faciales y otros rasgos comunes de buenas fotos. Cuando detecta que algo memorable está sucediendo, la cámara toma una fotografía de ráfaga de 15 segundos, asegurando que el momento se capture por completo.

Inicialmente, esto podría parecer la caída de la fotografía tal como la conocemos, y tal vez incluso una inclinación hacia la vigilancia distópica. Pero exploremos las diferentes formas en que las cámaras con inteligencia artificial podrían ser útiles.

1. Recuerdos familiares únicos

Farhad Manjoo del New York Times probó Google Clips en un viaje familiar a Disneyland, y su experiencia ejemplifica cómo las cámaras de IA podrían cambiar la manera en que capturamos los recuerdos. Normalmente, cuando tomamos una foto en un evento importante o en un viaje, posamos o pedimos a nuestros seres queridos que miren hacia la cámara y sonrían. En concepto, es bastante desagradable pensar en que la cámara se haga cargo de ese proceso, identificando momentos dulces y memorables para nosotros. Pero Manjoo dijo que los cientos de videos cortos que la cámara tomó de las vacaciones fueron algo especial: "Estéticamente", escribió, "estas imágenes no son obras maestras". Emocionalmente, están en un plano superior ".

Al capturar imágenes y videos que se sienten realmente orgánicos y sinceros, es mejor representar el momento y los recuerdos que se están creando. También podría aliviar la ansiedad de los padres que no quieren perder u olvidar los momentos importantes y preciosos en la vida de su familia.


2. Seguridad

Google Clips no es la única cámara impulsada por inteligencia artificial que crea olas. En 2017, Lighthouse AI presentó la cámara de seguridad Lighthouse , que combina AI, un video de 24 horas, y hasta un mes de almacenamiento para obtener material de archivo para mantener su hogar a salvo. El dueño de una casa puede pedirle a la IA de la cámara que haga ping cuando vea una cara desconocida, o que les avise si alguien entra a la casa a una hora extraña.

A medida que las cámaras de IA se vuelven cada vez más populares, este tipo de cámara de vigilancia podría convertirse en un lugar común no solo en los hogares, sino también en los espacios públicos, los minoristas, los edificios gubernamentales y más. Esto podría mejorar enormemente la vigilancia y la seguridad, especialmente dado que la cámara de Lighthouse AI cuenta con una resolución de 1080p, asegurando que lo capturado sea claro.

Pero una gran seguridad de video también implica un riesgo de espionaje. ¿Podrían estas cámaras de seguridad de IA entrenarse para buscar tipos específicos de personas , lo que agravaría los prejuicios existentes? ¿Es fácil piratear el video de 24 horas tomado con estas cámaras de seguridad, o piratear la IA y cambiar su directiva?

En términos de espionaje, también podría ser muy fácil para un miembro de una familia usar la tecnología de IA de Lighthouse para espiar a otra persona en la casa, ya sea para ver si los niños tienen amigos, si un cónyuge hace trampa o si sus adolescentes se escabullen por la noche. Por su parte, Google Clips aborda parcialmente las preocupaciones de espionaje al no grabar audio, pero el problema podría existir.


3. Prevención del abuso

Lighthouse, Google Clips y futuras cámaras con alimentación de AI también podrían ser herramientas poderosas contra el abuso. Mientras que los humanos tienen que configurar las cámaras, podría ser fácil olvidar que se están ejecutando. Las víctimas podrían incluso pedir que las repeticiones futuras de las cámaras de IA transmitan video si el abusador comienza a actuar de manera agresiva.

Alexa de Amazon ya ha trabajado de esta manera, llamando al  911 en respuesta a escuchar un ataque físico violento . Las grabaciones de Amazon Echo también se han usado como evidencia en un caso de asesinato.

Hasta el momento, no hay un plan para utilizar estos dispositivos de forma explícita para este propósito, pero con el tiempo podrían demostrar ser herramientas poderosas contra los abusadores.

Nuestro futuro AI

Caminamos con dispositivos inteligentes todo el día, todos los días, tomando fotos, publicando sobre lo que estamos haciendo y, en general, informando al resto del mundo de todo lo que sucede con nosotros. Si bien puede parecer espeluznante tener una cámara que lo fotografíe cuando lo considere oportuno, muchos de nosotros ya publicamos nuestra información en el mundo a diario. Sin embargo, eso no significa que no deba haber unas pocas líneas dibujadas en la arena.

Dado que la inteligencia artificial puede presentar algunos desafíos únicos para la humanidad  (por decir lo menos), lo mejor es anticiparse a los peligros de privacidad y seguridad antes de que se generalicen. De hecho, es posible que los beneficios de las cámaras de IA se puedan maximizar mediante una regulación que mantenga sus cerebros artificiales bajo control.







Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52