Noticias de la semana - 37

Rosetta: la IA de Facebook para detectar lenguaje ofensivo en memes


Rosetta, como se ha bautizado al sistema, es capaz de interpretar varios lenguajes y enfocar su atención en ciertas zonas de la imagen.

Facebook continúa realizando ciertos movimientos para mejorar su imagen después de todos los escándalos relacionados con la privacidad de la información. La red social comandada por Mark Zuckerberg también se ha mostrado preocupada por temas referentes al lenguaje ofensivo y discursos de odio que se presentan en la plataforma diariamente. Por ello han invertido esfuerzos en crear una inteligencia artificial capaz de leer e interpretar el texto de las imágenes, concretamente en los memes.

Aquellas personas que utilizan ese tipo de lenguaje saben muy bien que los memes son un medio bastante efectivo para atraer la atención de las personas. Lo anterior se estaba volviendo un verdadero problema para Facebook, ya que resultaba imposible estar verificando todas las imágenes que se comparten diariamente para detectar contenido escrito que vaya en contra de las políticas de la compañía. La inteligencia artificial permitirá ser más eficientes en este proceso sin requerir la intervención constante de humanos.

Rosetta puede analizar las billones de imágenes que se suben diariamente a la red social

Rosetta, como han bautizado a la IA, es un sistema de machine learning que puede extraer el texto de billones de imágenes y vídeos diariamente para detectar el lenguaje inapropiado. La diferencia de lenguas no será un problema para la inteligencia artificial, puesto que puede leer sin contratiempos varios idiomas.

¿Cómo trabaja Rosetta?

Primeramente, Rosetta ya sabe en qué zonas de las imágenes se puede agregar el texto para solo enfocarse en analizar esta región. Lo anterior ha sido posible gracias a una versión mejorada de la tecnología de reconocimiento óptico de caracteres (ORC). En el caso de los memes, el texto suele aparecer en la parte superior e inferior de la imagen, así que la inteligencia artificial se dirigirá directamente a estos sectores para extraer cualquier texto encontrado.

La inteligencia artificial puede interpretar varios idiomas
Posteriormente, el sistema utilizará una red neuronal para transcribir y analizar el texto hasta lograr un veredicto. Como ya se mencionó anteriormente, Rosetta no se detiene cuando se encuentra con un idioma distinto al inglés, incluso tiene la capacidad de interpretar el árabe y el hindi.

En estos momentos Facebook ya está utilizando Rosetta para analizar las imágenes que se suben a la red social. No es la única plataforma beneficiada, Instagram también está usando la inteligencia artificial con el mismo fin, detectar el lenguaje inapropiado. Por supuesto, Rosetta sigue teniendo un margen de mejora, pero los de Menlo Park mencionan que continúan trabajando para aumentar las capacidades de su sistema, incluyendo la incorporación de más idiomas.



Europa quiere una prohibición global de los robots asesinos militares, pero no todos están de acuerdo


VISIÓN DEL TERMINATOR

Imagine: robots asesinos militares que podrían atacar sin aprobación humana. Europa piensa que es algo que el mundo está mejor sin él. Ayer, el Parlamento Europeo aprobó  una resolución  que exige la prohibición internacional de robots asesinos.

"Sé que esto podría parecer un debate sobre un futuro lejano o sobre ciencia ficción", dijo Federica Mogherini, jefa de política exterior y de seguridad de la UE, durante las deliberaciones a principios de esta semana, según informa Reuters  . "No es."

TODO ASESINO
Pero Estados Unidos y Rusia ya han dicho que se oponen a tal prohibición. Ambas superpotencias han señalado que definir un robot asesino es sorprendentemente difícil.

¿Y qué hay de las armas controladas a distancia que ya están extendidas? El Cuerpo de Marines de los EE. UU. Ya ha probado un bot con una ametralladora calibre .50, y la guerra de drones ha sido un elemento clave de la Guerra contra el Terror de los EE. UU.

Amandeep Gill, presidente de un grupo de las Naciones Unidas que lidera las discusiones internacionales sobre letales armas autónomas, admitió el mes pasado que "el jurado todavía está deliberando " sobre si los sistemas de armas existentes -como la artillería que dispara automáticamente misiles y cohetes entrantes- cuentan como asesinos robots. Si lo hacen, significa que algunos países ya están en violación de la prohibición propuesta por Europa.

MILITARES ASESINOS ROBOTS

Los miembros del Parlamento esperan que la resolución conduzca a la prohibición de un robot asesino internacional durante las negociaciones de este noviembre, informó la BBC . Pero durante las deliberaciones sobre el mismo tema en Ginebra en agosto, según ese informe, las potencias mundiales, incluidos Israel, Rusia, Corea del Sur y Estados Unidos, dijeron que se oponían a tal prohibición.

"En lugar de tratar de estigmatizar o prohibir esas tecnologías emergentes en el área de los sistemas letales autónomos de armas, los Estados deberían alentar esa innovación que promueva los objetivos y propósitos de la Convención", escribieron los representantes de Estados Unidos en un memorando ante las Naciones Unidas en marzo.

Las prohibiciones de este tipo han funcionado en el pasado; por ejemplo, la ONU prohibió exitosamente el uso de minas terrestres a nivel mundial en 1997 . Eso podría reforzar a los defensores si los países miembros de la ONU no ponen en marcha la moratoria en noviembre.



Si no se controla, la inteligencia artificial puede ser prejuiciada por sí sola


Si la inteligencia artificial fuera a gobernar el mundo, no sería tan malo: podría tomar decisiones objetivamente sobre el tipo de cosas que los  humanos tienden a arruinar . Pero si vamos a entregarle las riendas a AI, tiene que ser justo. Y hasta ahora, no lo es. AI entrenó en conjuntos de datos que fueron anotados o comisariados por personas que tienden a aprender los mismos sesgos racistas, sexistas o fanáticos de esas personas.

Lentamente, los programadores parecen estar corrigiendo estos sesgos. Pero incluso si tenemos éxito en mantener nuestro propio prejuicio fuera de nuestro código, parece que AI ahora es capaz de desarrollarlo todo por sí mismo.

Una nueva investigación publicada el miércoles en Scientific Reports muestra cómo una red de agentes de IA desarrolló de forma autónoma no solo una preferencia en el grupo por otros agentes que eran similares a ellos, sino también un  sesgo activo contra aquellos que eran diferentes . De hecho, los científicos concluyeron que se necesita muy poca habilidad cognitiva para desarrollar estos sesgos, lo que significa que podría aparecer en el código por todas partes.

Los agentes de AI se establecieron para que pudieran donar dinero virtual a otros agentes, con el objetivo de obtener tanto como sea posible a cambio. Básicamente, tenían que elegir cuánto compartir y con qué otros agentes compartir. Los investigadores detrás del experimento vieron surgir dos tendencias: los agentes de IA tenían más probabilidades de donar a otros que habían sido etiquetados con rasgos similares  (denotados por un valor numérico arbitrario)  y el prejuicio activo contra los que eran diferentes. Los agentes de AI parecían haber aprendido que una donación para el resultado dentro del grupo sería en mayor reciprocidad, y que donar a otros les ocasionaría una pérdida activa.

Esta es una forma de prejuicio más abstracta que la que vemos en el mundo real, donde los algoritmos se utilizan específicamente para atacar y oprimir a las personas de raza negra . Los agentes de IA no desarrollaron un desdén específico por un grupo minoritario específico, como lo han hecho algunas personas. En cambio, es un prejuicio contra un "otro" vago, contra cualquier cosa diferente de ellos mismos. Y, sí, es una forma de prejuicio que se limita a esta simulación en particular.

Pero la investigación tiene grandes implicaciones para las aplicaciones del mundo real. Si no se controla, algoritmos como este podrían llevar a un mayor racismo y sexismo institucionalizado -quizá, en algún escenario lejano, incluso sesgo antihumano en conjunto- a pesar de nuestros mejores esfuerzos para prevenirlo.

Hay formas de reparar esto, según el periódico. Por ejemplo, los investigadores descubrieron que podían reducir los niveles de prejuicio forzando a los agentes de IA a participar en lo que llamaron aprendizaje global, o interactuando con los diferentes agentes de IA fuera de su propia burbuja. Y cuando las poblaciones de los agentes AI tenían más rasgos en general, los niveles de prejuicio también disminuyeron, simplemente porque había más diversidad incorporada. Los investigadores establecieron un paralelismo para exponer a las personas con prejuicios a otras perspectivas en la vida real.

Del papel:

Estos factores reflejan abstractamente el pluralismo de una sociedad, siendo influenciados por cuestiones más allá del individuo, como la política social, el gobierno, el conflicto histórico, la cultura, la religión y los medios de comunicación.

En términos más generales, esto significa que no podemos dejar a la IA en sus propios dispositivos y asumir que todo saldrá bien. En su próximo libro, "Hola mundo: ser humano en la era de los algoritmos", un extracto del cual fue publicado en The Wall Street Journal , la matemática Hannah Fry nos insta a ser más críticos, más escépticos con los algoritmos que dan forma a nuestras vidas. Y como muestra este estudio, no es un mal consejo.

No importa cuánto nos gustaría creer que los sistemas de inteligencia artificial son máquinas objetivas e imparciales, tenemos que aceptar que siempre puede haber fallas en el sistema. Por ahora, eso significa que debemos vigilar estos algoritmos y tener cuidado con nosotros mismos.



Fuente:




Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52