Noticias de la semana - 14

Los expertos en IA quieren boicotear el 'Terminator' asesino desarrollado en Corea del Sur



No todo es de color de rosa en el mundo de la inteligencia artificial. Desde hace tiempo hay quien está trabajando en armas autónomas y 'robots asesinos' que sustituyan a los soldados en conflictos armados, algo que siempre ha planteado un rechazo total por parte de la ONU.

Los expertos en inteligencia artificial llevan tiempo alertando de estos peligros, y ahora vuelven a la carga y están tratando de boicotear un proyecto desarrollado por el Instituto Avanzado de Ciencia y Tecnología de Corea del Sur (KAIST) y que tiene como objetivo crear un robot asesino.

El no a los robots asesinos es rotundo por parte de los académicos

Las visiones distópicas que hemos recibido de algunos expertos y de personalidades de la ciencia y la tecnología como Bill Gates, Elon Musk o el difunto Stephen Hawking no son las únicas que dominan el sector, desde luego. Investigadores de la Universidad de Stanford ya indicaron que no era necesario que cundiera el pánico: según sus estimaciones, en el futuro la IA no será aprovechada para robots asesinos.


Aún así los expertos siguen alertando de los peligros de la aplicación de estos sistemas a este tipo de escenarios. Más de 50 académicos han firmado una carta dirigida al KAIST y a su socio, el fabricante de sistemas de defensa Hanwha Systems. En esa carta estos académicos explicaban el problema:

Hay un montón de cosas fantásticas que se pueden hacer con la inteligencia artificial que salvan vidas, incluyendo las destinadas a un contexto militar, pero declarar abiertamente que el objetivo del proyecto es desarrollar armas autónomas y tener un socio como este dispara grandes temores. Esta es una universidad muy respetada asociándose con un aliado con una ética muy dudosa que continúa violando normativas internacionales.


Esta protesta, como indican en The Guardian, se produce justo antes de una conferencia que la ONU ha organizado sobre armas autónomas. La empresa Hanwha Systems ha sido duramente criticada desde hace tiempo por fabricar municiones prohibidas en 120 países que firmaron un tratado internacional al respecto. Ni Estados Unidos, ni Rusia, ni China firmaron ese tratado.


Los responsables del KAIST han indicado que les entristece ese boicot y tratan de aclarar las dudas. Su presidente, Sung-Chul Shin, explicaba que "me gustaría reafirmar que KAIST no tiene intención alguna de iniciar el desarrollo de sistemas de armamento autónomos letales ni de robots asesinos. [...] KAIST no llevará a cabo actividades de investigación contrarias a la dignidad humana, y eso incluye armas autónomas que no tengan control humano".



Un nuevo "periodista" de AI está reescribiendo las noticias para eliminar el sesgo


¿Quieres que te entreguen tus noticias con la fría indiferencia de un robot literal? Es posible que desee marcar el sitio recientemente lanzado Knowhere News . Knowhere es una startup que combina tecnologías de aprendizaje automático y periodistas humanos para ofrecer datos sobre noticias populares.

Así es como funciona. En primer lugar, la inteligencia artificial (AI) del sitio elige una historia basada en lo que es popular en Internet en este momento. Una vez que selecciona un tema, busca más de mil fuentes de noticias para reunir detalles. Sitios de tendencia izquierdista, sitios de inclinación derecha: la IA los mira a todos.

Luego, la IA escribe su propia versión "imparcial" de la historia en función de lo que encuentra (a veces en tan solo 60 segundos). Esta toma en las noticias contiene los hechos más básicos, con la AI tratando de eliminar cualquier posible sesgo. La IA también toma en cuenta la "confiabilidad" de cada fuente, algo que los cofundadores de Knowhere determinaron de manera preventiva. Esto garantiza que un sitio con una reputación estelar para la precisión no quede eclipsado por uno que juegue un poco rápido y sin complicaciones con los hechos.

Para algunas de las historias más políticas, la IA produce dos versiones adicionales etiquetadas como "Izquierda" y "Derecha". Esos sesgos casi exactamente como esperarías de sus titulares:

Imparcial : "Estados Unidos debe agregar la pregunta de ciudadanía al censo de 2020"
Izquierda : "California demanda a la administración de Trump sobre la cuestión de ciudadanía del censo"
Derecha : "Los liberales se oponen a la inclusión de la cuestión de la ciudadanía en el censo de 2020"
Algunas historias polémicas pero no necesariamente políticas reciben giros "Positivos" y "Negativos":

Imparcial : "Facebook escanea cosas que envías por mensajero, admite Mark Zuckerberg"
Positivo : "Facebook revela que escanea Messenger para contenido inapropiado"
Negativo : "Facebook admite espiar a Messenger, 'escanear' imágenes privadas y enlaces"
Incluso las imágenes utilizadas con las historias reflejan ocasionalmente el sesgo del contenido. La historia de Facebook "Positiva" presenta al CEO Mark Zuckerberg sonriendo , mientras que el "Negativo" lo tiene a él como si su perro acabara de morir .

La IA de Knowhere tampoco deja a los periodistas sin trabajo.

El editor en jefe y cofundador Nathaniel Barling le dijo a Motherboard  que un par de editores humanos revisan cada historia. Esto garantiza que sientas que estás leyendo algo escrito por un periodista real y no un chatbot de Twitter. Esas ediciones luego son retroalimentadas a la IA, ayudándola a mejorar con el tiempo. El propio Barling aprueba cada historia antes de que se publique. "El dinero se detiene conmigo", le dijo a Motherboard .

Este elemento humano podría ser el principal defecto de la tecnología. Como hemos visto con otras IA, tienden a asumir los prejuicios de sus creadores , por lo que Barling y sus editores deberán ser tan imparciales como sea humanamente posible, literalmente, para garantizar que la IA conserve su imparcialidad.

Knowhere acaba de recaudar $ 1.8 millones en fondos iniciales, por lo que claramente los inversionistas piensan que tiene el potencial de cambiar la forma en que recibimos nuestras noticias. Pero, ¿será capaz de llegar a suficientes personas, y las personas adecuadas, para  realmente importar ?

La imparcialidad es el punto de venta de Knowhere, así que si crees que suena como un sitio que deseas visitar, probablemente seas alguien que ya valora la imparcialidad en las noticias. Increíble. Tú no eres el problema.

El problema es que algunas personas están perfectamente felices de existir en una  cámara de eco donde reciben noticias de una fuente que refleja lo que están pensando. Y si eres una de esas fuentes de noticias, no quieres alienar a tu audiencia, ¿verdad? Entonces sigues alimentando a los mismos lectores cómodos las mismas historias parciales.

Esto no sería tan importante si el status quo de los medios no causara estragos en nuestra sociedad ,  nuestra democracia  y nuestro planeta .


Entonces, historias imparciales escritas por AI. ¿Con buena pinta? Por supuesto. Pero la sociedad cambia? Probablemente necesitemos algo más que un algoritmo inteligente para eso.



Fuente:



Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52