Noticias de la semana - 09
Facebook quiere usar IA para eliminar vídeos ilegales
Facebook afirmó que la tecnología de Inteligencia Artificial
ya está ayudando a identificar el contenido potencialmente peligroso con mayor
precisión.
Facebook ha declarado a un tribunal indio que está
trabajando para utilizar inteligencia artificial con el fin de bloquear
instantáneamente vídeos que contienen contenido ilegal como pornografía
infantil o violaciones, conforme las tecnológicas mundiales luchan por limpiar
sus servicios de material violento y ofensivo.
La tecnología de IA ya está ayudando a identificar el
contenido potencialmente peligroso con mayor precisión, puntualizó la mayor red
social del mundo en una presentación ante el tribunal de la India, y espera
"que se continúe avanzando".
Facebook respondía así a una solicitud del Tribunal Supremo
enviada a una serie de empresas, entre ellas Facebook, Google de Alphabet, Microsoft
y Yahoo para que frenen la difusión de vídeos violentos de agresión sexual por
internet.
El tribunal abrió el caso en 2015 después de que la
activista Sunitha Krishnan -cuya campaña ShameTherapist recibió cerca de 200
vídeos de violaciones de víctimas- solicitase al tribunal que intervenga y haga
que las empresas eviten que ese contenido se viralice en servicios de mensajes
como WhatsApp de Facebook y otros.
Cientos de vídeos que incluyen escenas gráficas de asalto
circulan en la actualidad a través de aplicaciones de mensajes y redes sociales
en la India, algunas de los cuales se pueden comprar por tan solo 30 rupias, o
menos de 50 centavos de dólar.
"Facebook reconoce que una forma de ayudar a preservar
la seguridad de las personas es desarrollar tecnología de inteligencia
artificial que le permita identificar de forma más rápida y precisa el
contenido nocivo y la actividad peligrosa en su servicio", dijo el gigante
de la tecnología con sede en California, en la presentación.
Identificar el contenido violento y ofensivo, desde vídeos
extremistas hasta el abuso sexual infantil, preocupa cada vez más a las
principales compañías de tecnología del mundo las cuales, algunos argumentan,
deberían ser los principales guardianes de internet.
Las compañías han sido objeto de críticas por detractores y
gobiernos, que quieren que asuman la responsabilidad por el contenido en sus
plataformas.
Compañías como Google, que también ha sido criticada por
permitir que se suban vídeos horribles en YouTube, están usando tecnología y
moderadores humanos para identificar y controlar el comportamiento desagradable
y el acoso en internet.
Las empresas de tecnología ahora utilizan el aprendizaje de
máquina, un aspecto de la inteligencia artificial, para identificar la
desnudez, la violencia e incluso a usuarios cuyos mensajes y vídeos sugieren
tendencias suicidas.
Pero ninguno ha erradicado el problema por completo.
"Facebook continúa investigando y colaborando con otros
en esta área, pero no tiene avances materiales que informar en estos momentos
sobre el uso de la tecnología de inteligencia artificial para identificar la
explotación infantil o las imágenes de violaciones individuales o en
grupo", dijo en su presentación.
China Equivalente de Google puede clonar voces después de
segundos de escuchar
El equipo de investigación de AI de Baidu ha desarrollado
una red nueral que puede imitar una voz con una muestra de menos de un minuto.
El software también puede cambiar la voz en otros géneros y acentos.
AI MIMICRY
El Google de China, Baidu, acaba de lanzar un libro blanco
que muestra su último desarrollo en inteligencia artificial (AI): un programa
que puede clonar voces después de analizar incluso un clip de segundos,
utilizando una red neuronal. El software no solo puede imitar una voz de
entrada, sino que también puede cambiar para reflejar otro género o incluso un
acento diferente.
Puede escuchar algunos de los ejemplos generados aquí ,
alojados en GitHub.
Las versiones anteriores de esta tecnología han permitido la
clonación de voz después de que los sistemas analizaran muestras de voz más
largas. En 2017, el equipo de investigación de Baidu Deep Voice presentó una
tecnología que podía clonar voces con 30
minutos de material de capacitación . Adobe tiene un programa llamado VoCo que
podría imitar una voz con solo 20 minutos de audio. Una startup canadiense,
llamada Lyrebird , puede clonar una voz con solo un minuto de audio. La
innovación de Baidu ha reducido aún más ese tiempo en meros segundos.
Si bien al principio esto puede parecer una actualización de
la tecnología que se hizo popular en los años 90, con la ayuda de "Home
Alone 2" y la franquicia "Scream", en realidad hay algunas
aplicaciones nobles para esta tecnología. Por ejemplo: imagínese que le leen a
su hijo en la voz cuando está lejos, o que se cree una voz duplicada para una
persona que ha perdido la capacidad de hablar. Esta tecnología también podría
usarse para crear asistentes digitales personalizados y servicios de traducción
de voz más naturales.
Sin embargo, como ocurre con muchas tecnologías, la
clonación de voz también conlleva el riesgo de ser abusada. New Scientist
informa que el programa fue capaz de producir una voz que engañó al software de
reconocimiento de voz con una precisión superior al 95 por ciento en las
pruebas. Los humanos incluso calificaron la voz clonada con una puntuación de
3.16 de 4. Esto podría abrir la posibilidad de fraude asistido por la IA .
Existen programas que pueden usar IA para reemplazar o
alterar, e incluso generar desde cero , las caras de las personas en los
videos. En este momento, esto se usa principalmente en Internet para traer
risas al insertar Nicolas Cage en la serie "El señor de los anillos".
Pero junto con la tecnología que puede clonar voces, pronto podríamos ser
bombardeados con más "noticias falsas" de políticos que realizan
acciones inusuales o que dicen cosas que no harían.
Ya es muy fácil engañar a muchas personas usando solo la
palabra escrita o Photoshop; podría haber incluso más problemas si estas
tecnologías se colocaran en las manos equivocadas.
Las cámaras de AI están aquí.
Aquí hay tres maneras en que
podríamos usarlos.
¿Confiarías en que tu cámara tomara fotos para ti? Se acerca
una nueva ola de cámaras alimentadas por IA que deciden qué momentos sería
mejor capturar.
El futuro ha llegado: las cámaras están ganando inteligencia
artificial (AI). Las cámaras ya pueden conectarse a wi-fi, y han sido una parte
integral de nuestros dispositivos inteligentes durante años, pero no han tenido
"mentes" propias. Incluso las cámaras que operan como parte de
sistemas de vigilancia a gran escala hasta ahora han permanecido sin su propia
funcionalidad de IA. Eso es, hasta ahora.
Justo esta semana, Google lanzó su primera cámara con motor
AI , Google Clips. La cámara se acopla a lo que quieras y utiliza el
aprendizaje automático para fotografiar automáticamente lo que
"piensa" es interesante. A menudo fotografiando humanos y mascotas,
la cámara responde a la iluminación, expresiones faciales y otros rasgos
comunes de buenas fotos. Cuando detecta que algo memorable está sucediendo, la
cámara toma una fotografía de ráfaga de 15 segundos, asegurando que el momento
se capture por completo.
Inicialmente, esto podría parecer la caída de la fotografía
tal como la conocemos, y tal vez incluso una inclinación hacia la vigilancia
distópica. Pero exploremos las diferentes formas en que las cámaras con
inteligencia artificial podrían ser útiles.
1. Recuerdos familiares únicos
Farhad Manjoo del New York Times probó Google Clips en un
viaje familiar a Disneyland, y su experiencia ejemplifica cómo las cámaras de
IA podrían cambiar la manera en que capturamos los recuerdos. Normalmente,
cuando tomamos una foto en un evento importante o en un viaje, posamos o
pedimos a nuestros seres queridos que miren hacia la cámara y sonrían. En
concepto, es bastante desagradable pensar en que la cámara se haga cargo de ese
proceso, identificando momentos dulces y memorables para nosotros. Pero Manjoo
dijo que los cientos de videos cortos que la cámara tomó de las vacaciones
fueron algo especial: "Estéticamente", escribió, "estas imágenes
no son obras maestras". Emocionalmente, están en un plano superior ".
Al capturar imágenes y videos que se sienten realmente
orgánicos y sinceros, es mejor representar el momento y los recuerdos que se
están creando. También podría aliviar la ansiedad de los padres que no quieren
perder u olvidar los momentos importantes y preciosos en la vida de su familia.
2. Seguridad
Google Clips no es la única cámara impulsada por inteligencia
artificial que crea olas. En 2017, Lighthouse AI presentó la cámara de
seguridad Lighthouse , que combina AI, un video de 24 horas, y hasta un mes de
almacenamiento para obtener material de archivo para mantener su hogar a salvo.
El dueño de una casa puede pedirle a la IA de la cámara que haga ping cuando
vea una cara desconocida, o que les avise si alguien entra a la casa a una hora
extraña.
A medida que las cámaras de IA se vuelven cada vez más
populares, este tipo de cámara de vigilancia podría convertirse en un lugar
común no solo en los hogares, sino también en los espacios públicos, los
minoristas, los edificios gubernamentales y más. Esto podría mejorar
enormemente la vigilancia y la seguridad, especialmente dado que la cámara de
Lighthouse AI cuenta con una resolución de 1080p, asegurando que lo capturado
sea claro.
Pero una gran seguridad de video también implica un riesgo
de espionaje. ¿Podrían estas cámaras de seguridad de IA entrenarse para buscar
tipos específicos de personas , lo que agravaría los prejuicios existentes? ¿Es
fácil piratear el video de 24 horas tomado con estas cámaras de seguridad, o
piratear la IA y cambiar su directiva?
En términos de espionaje, también podría ser muy fácil para
un miembro de una familia usar la tecnología de IA de Lighthouse para espiar a
otra persona en la casa, ya sea para ver si los niños tienen amigos, si un
cónyuge hace trampa o si sus adolescentes se escabullen por la noche. Por su
parte, Google Clips aborda parcialmente las preocupaciones de espionaje al no
grabar audio, pero el problema podría existir.
3. Prevención del abuso
Lighthouse, Google Clips y futuras cámaras con alimentación
de AI también podrían ser herramientas poderosas contra el abuso. Mientras que
los humanos tienen que configurar las cámaras, podría ser fácil olvidar que se
están ejecutando. Las víctimas podrían incluso pedir que las repeticiones
futuras de las cámaras de IA transmitan video si el abusador comienza a actuar
de manera agresiva.
Alexa de Amazon ya ha trabajado de esta manera, llamando
al 911 en respuesta a escuchar un ataque
físico violento . Las grabaciones de Amazon Echo también se han usado como
evidencia en un caso de asesinato.
Hasta el momento, no hay un plan para utilizar estos
dispositivos de forma explícita para este propósito, pero con el tiempo podrían
demostrar ser herramientas poderosas contra los abusadores.
Nuestro futuro AI
Caminamos con dispositivos inteligentes todo el día, todos
los días, tomando fotos, publicando sobre lo que estamos haciendo y, en
general, informando al resto del mundo de todo lo que sucede con nosotros. Si
bien puede parecer espeluznante tener una cámara que lo fotografíe cuando lo
considere oportuno, muchos de nosotros ya publicamos nuestra información en el
mundo a diario. Sin embargo, eso no significa que no deba haber unas pocas
líneas dibujadas en la arena.
Dado que la inteligencia artificial puede presentar algunos
desafíos únicos para la humanidad (por
decir lo menos), lo mejor es anticiparse a los peligros de privacidad y
seguridad antes de que se generalicen. De hecho, es posible que los beneficios
de las cámaras de IA se puedan maximizar mediante una regulación que mantenga
sus cerebros artificiales bajo control.