Noticias de la semana - 23

Este filtro hace que sus fotos sean indescifrables para el software de reconocimiento facial


Una cantidad sorprendente de personas, desde plataformas de redes sociales hasta sistemas de vigilancia policial , están muy interesados ​​en cómo te ves. Eso significa que las empresas pueden aprender mucho sobre usted  ,  su apariencia, edad, origen étnico y más  ,  cada vez que aparece su cara. Si bien esto generalmente es por el bien de los anuncios dirigidos, también puede poner a las personas en riesgo de violaciones a la privacidad o robo de identidad.

Para ayudar a las personas a conservar (lo que queda de) su privacidad, han surgido herramientas destinadas a destruir el reconocimiento facial AI. Los productos del mundo real como " Face Off Hats " (que es un sombrero físico con un patrón trippy) y  las máscaras impresas en 3D  engañan al software de escaneo facial al presentar ilusiones ópticas a las cámaras que encontramos durante nuestra vida cotidiana.

Pero esas tácticas son arrojar las cámaras. ¿Qué sucede si una foto tuya de alguna manera está en línea?

Pronto, puede haber un filtro para evitar que la IA descubra tu rostro esas fotos que se escabullen.

Los ingenieros de la Universidad de Toronto han construido un filtro que altera ligeramente las fotos de las caras de las personas para evitar que el software de reconocimiento facial se dé cuenta de lo que está mirando. El filtro controlado por AI busca características faciales específicas y cambia ciertos píxeles. La gente apenas puede ver la diferencia, pero cualquier IA que escanee la imagen ni siquiera puede decir que está mirando una cara.


Para construir su filtro, el equipo enfrentó a dos redes neuronales entre sí. El primer sistema de IA tenía la tarea de identificar las características faciales de un conjunto de varios cientos de fotos, y el segundo algoritmo era responsable de alterar las fotos hasta el punto de que ya no parecían rostros al primero. Los dos sistemas de inteligencia artificial iban y venían, mejorando gradualmente en sus tareas, hasta que los investigadores determinaron que el filtro probablemente era lo suficientemente efectivo como para funcionar en software comercial de reconocimiento facial.

En una prueba, el filtro redujo la precisión del software de detección de rostros para detectar correctamente casi todos los rostros que se mostraban, solo para poder reconocer uno en 200. Reconocimiento facial AI también repentinamente no pudo reconocer la emoción o el origen étnico de la persona en la foto, que por alguna razón las compañías de tecnología sintieron que era importante poder hacer.

Probablemente este no sea el tipo de filtro que aparecerá en Instagram, especialmente porque Facebook, la compañía matriz de Instagram, está  almacenando sus selfies íntimos y personales para asegurarse de que nadie más los cargue. Pero los ingenieros que desarrollaron este filtro esperan lanzarlo a través de una aplicación en el futuro cercano.



Pronto se podrá usar inteligencia artificial para detectar pedófilos encubiertos por organizaciones


Spotlight, la película ganadora del Oscar en el 2015, se inspiró en la investigación que realizaron los periodistas del diario Boston Globe, con el fin de desenmascarar a unos sacerdotes pedófilos que habían sido protegidos por la misma iglesia. Ahora, un grupo de desarrolladores han creado una inteligencia artificial que podría realizar el mismo trabajo de investigación.

Tanto en la película, como en la vida real, los periodistas del Boston Globe buscaron patrones y pistas en los registros públicos. Los sacerdotes que habían sido involucrados en los casos de abusos de menores a menudo eran cambiados continuamente de sede o pedían muchas licencias por enfermedad.  

Valiéndose de esa estrategia, Zero Abuse Project, una organización sin fines de lucro que tiene como objetivo ayudar a las instituciones a prevenir el abuso de menores, ha desarrollado una herramienta que usa IA para buscar patrones similares en miles de documentos de grandes organizaciones.   

Una experiencia personal
"Soy un sobreviviente de abuso sexual por parte de un maestro, que fue seguido por un montón de encubrimiento", dijo Joelle Casteix de Zero Abuse Project, en la Cumbre Global de IA para el Bien en Ginebra, Suiza, la semana pasada. "Esta es la primera vez que hay una forma proactiva de detener el ciclo", agregó.

La nueva iniciativa, llamada Proyecto G, puede estudiar documentos digitales o convertir el papel en archivos legibles por una computadora para que la IA los explore. Dependiendo de la organización, los documentos pueden incluir aquellos que detallan dónde se encuentran las diferentes personas y sus roles a lo largo del tiempo, y recortes de noticias en los que se mencionan. A medida que el sistema aprende cómo es una trayectoria profesional normal a partir de décadas de documentos, los valores atípicos comienzan a sobresalir. Muchas personas toman carreras inusuales, pero las personas cuyos patrones parecen coincidir con los de un abusador ocupan el primer lugar de la lista de sospechosos.

La herramienta también brinda a las personas un puntaje de asociación, destacando aquellas que pueden estar involucradas en cualquier encubrimiento. "Puedes sacar al depredador, pero si no sabes los patrones del encubrimiento, el patrón vuelve a ocurrir", dice Casteix.

El software aún está en desarrollo, pero el equipo ya ha incluido documentos sobre los abusadores ya conocidos de niños y ha visto que la IA les asigna las calificaciones más altas. También ha recogido a algunas personas que el equipo cree que son abusadores, basándose en su trabajo fuera del desarrollo de la IA, pero que aún no han sido expuestos públicamente. El equipo espera que las grandes organizaciones quieran usar la herramienta para ayudar a erradicar el abuso.

Posibles errores
Debido a que una herramienta como esta podría llevar a que personas inocentes sean acusadas de abuso infantil, Casteix quiere evitarlo haciendo que solo se use para aumentar el trabajo existente del Proyecto Zero Abuse. "Es una estrategia entre muchas. Tiene que ir junto con la capacitación, la transparencia y el trabajo con la aplicación de la ley", dice ella.

A esa duda se ha sumado Lorraine Radford en la Universidad de Central Lancashire, Reino Unido, quien no sabe qué tan bien funcionará el Proyecto G. "Los delincuentes son personas muy manipuladoras. No solo manipulan a la víctima, sino que también manipulan a las personas que los rodean", dice a New Scientist. Esto significa que el abuso puede continuar durante años sin ser detectado.

Sin embargo, el proyecto puede detectar algunos tipos de delincuentes que dejan patrones más claros de comportamiento sospechoso, concede Radford. "De cualquier forma que pueda ayudar sería fantástico", finaliza.

El abuso de menores es un mal que muchos están intentando erradicar. A comienzos del año pasado se supo que la estrella de Hollywood Ashton Kutcher había ido al congreso norteamericano para tocar el tema de la pedofilia en internet. Más recientemente, Perú aprobó una controvertida ley para castrar químicamente a los pederastas. 



PARA 2020, 80% DE LAS INTERACCIONES PASARÁN POR UN FILTRO DE IA


De acuerdo a una estimación de Social Media Week, para 2020 estaremos interactuando más con sistemas de inteligencia artificial que con humanos

¿Cómo la tecnología puede acercarnos en vez de dividirnos?, este es el análisis que realizará Social Media Week, un evento global que se realiza desde hace 9 años en 24 ciudades, con la finalidad de abrir un diálogo entre expertos sobre temas de conectividad, social media y tecnología.

De acuerdo a Paula Cutuli, fundadora de Social Media Week, el tema fue elegido por tres señales que alertaron a los organizadores a escala mundial "existen tres tendencias que llamaron la atención: el hiperindividualismo, la división social que generan las plataformas y la interacción cada vez más cercana entre inteligencia artificial (IA) y humanos" indica la ejecutiva.

En números, el comité que elige la temática que año con año sucederá en SMW identificó que 50% de los adolescentes admiten ser adictos a sus smartphones, cifra sustentada por el National Center for Biotechnology Information, quienes publicaron una investigación liderada por James Roberts sobre este tema.

Además, los organizadores del SMW ubicaron que cada vez es más relevante la división social que se hace en redes sociales por ideologías o creencias. "Dada la naturaleza algorítmica de los filtros con efecto burbuja vemos que cada vez hay menos diálogo entre usuarios de redes sociales, lo que deja en la mesa de trabajo a las empresas y organismos que utilizan esta herramienta con la tarea de evitar esta radicalización de la red y mantener lo que en un inicio era la digitalización del mundo: acercarnos" argumenta Cutuli.

La tercera señal que identificaron fue un pronóstico de que un 80% de las interacciones que tendrán los humanos para 2020 tendrán como mediador a un sistema de inteligencia artificial. "Esto por el incremento en el uso de chatbots, robots, la automatización de empleos y la tendencia por tener menos interacción humana y preferir la interacción con IA por parte de las generaciones millennials y Z" comenta la fundadora del evento.

Además de conferencias que girarán en torno a estos tres ejes temáticos, habrá keynotes, workshops y charlas donde se hablara del contenido que será tendencia en redes sociales y algunas pláticas, como la de Daniel Granatta donde se hablará de cómo el feminismo puede cambiar el futuro de los algoritmos.

"La elección de ponentes y speakers lleva primero un análisis sobre quiénes pueden ser los personajes idóneos para abordar el tema del año y se busca a los voceros que pueden inspirar y explicar sobre este tema", afirma Cutuli.

Los organizadores del evento esperan que cada día asistan entre 500 a 800 personas, quienes podrán disfrutar de tres conferencias y Social Media Experiences dentro de las instalaciones del Auditorio Blackberry.

Las conferencias

Entre los speakers más esperados estarán el CEO de Virgin Mobile Steve Logue, el director de Social Media Americas de Netflix, Gabriel Rodríguez Nava y Per Hakarson, fundador de Makerminds.

Uno de los foros que más expectativas ha generado en este año es Verificado 2018, donde Grupo Expansión tendrá una participación activa en la mesa de diálogo. Además, habrá pláticas organizadas por otros medios y periodistas que se enfocarán en saber qué es lo que pasa con el contenido digital y la ética profesional que deberá enfocarse en los próximos años en las redacciones.

Otra de las conferencias que llama la atención sobre una de las tendencias es la situación de la inteligencia artificial en México, su desarrollo y cómo está impactando a las comunidades, una charla organizada por Tec Review, también parte de Grupo Expansión.

"Sin perder el objetivo de mostrarle a los especialistas en marketing cómo es posible interactuar en plataformas de social media, la planeación de estas charlas busca inspirar a la comunidad que está en contacto con este tipo de tecnologías a que se logren hacer proyectos más incluyentes y que se revise lo que se ha hecho para tener un entorno social más saludable" finaliza Cutuli.

Esta cuarta edición de Social Media Week México se celebrará del 11 al 13 de junio.



Google cancela su colaboración con el Pentágono en el proyecto de IA para fines militares


La tecnológica cortará de raíz la polémica que está derivando en una auténtica crisis de imagen.

El Proyecto Maven, el asunto que involucraba al Pentágono y a Google (además de otras empresas tecnológicas) en el desarrollo de un sistema basado en la inteligencia artificial aplicada a los drones, tendrá que continuar a partir de 2019 sin la compañía de Mountain View. Así se lo ha comunicado Diane Greene, responsable de Google Cloud, a sus empleados en una reunión este viernes.

Aunque la decisión no ha sido compartida de manera oficial por la compañía, diversas fuentes han revelado a Gizmodo que Google no tiene intenciones de continuar con el contrato que tiene actualmente con el Departamento de Defensa de Estados Unidos, el cual expira el próximo año. Una información que llega justo después de conocer que la tecnológica californiana estaba pensando en cómo poner fin a la enorme polémica que se ha formado en los últimos meses alrededor de esta relación.

Inteligencia artificial para vigilar ciudades enteras
Google, que se encuentra desarrollando actualmente un código ético en lo relativo a la inteligencia artificial y su aplicación en diferentes campos, ha estado en el foco de las miradas de miles de sus empleados desde hace meses, cuando protestaron contra su implicación en proyectos que podrían derivar en tecnologías para uso militar que escaparían del control de la compañía. Esto llevó, posteriormente, a la dimisión de varios de ellos.

No se conoce demasiado del Proyecto Maven, pero sí que utilizaría la tecnología de inteligencia artificial y aprendizaje automático aplicada a los drones como método de identificación y vigilancia. Eventualmente, este sistema podría proporcionar la posibilidad de vigilar ciudades enteras o identificar a sujetos particulares con máxima exactitud. Aunque Google ya ha manifestado que entre sus objetivos nunca ha figurado ninguno bélico, precisamente lo que temían sus empleados era que en un futuro pudiera utilizarse esta tecnología en el terreno militar con drones armados o en escenarios de guerra.

La empresa, no obstante, conocía los peligros que su implicación podía tener de cara al exterior, advirtiendo los responsables del proyecto a los empleados que evitasen cualquier mención al respecto en un entorno que no fuera el de la compañía. Sea como fuere, Google abandonará en los próximos meses un proyecto que podría haber supuesto a la compañía unos ingresos de 250 millones de dólares en los próximos años.







Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52