Noticias de la semana - 14
Los expertos en IA quieren boicotear el 'Terminator' asesino
desarrollado en Corea del Sur
No todo es de color de rosa en el mundo de la inteligencia
artificial. Desde hace tiempo hay quien está trabajando en armas autónomas y
'robots asesinos' que sustituyan a los soldados en conflictos armados, algo que
siempre ha planteado un rechazo total por parte de la ONU.
Los expertos en inteligencia artificial llevan tiempo
alertando de estos peligros, y ahora vuelven a la carga y están tratando de
boicotear un proyecto desarrollado por el Instituto Avanzado de Ciencia y
Tecnología de Corea del Sur (KAIST) y que tiene como objetivo crear un robot
asesino.
El no a los robots asesinos es rotundo por parte de los
académicos
Las visiones distópicas que hemos recibido de algunos
expertos y de personalidades de la ciencia y la tecnología como Bill Gates,
Elon Musk o el difunto Stephen Hawking no son las únicas que dominan el sector,
desde luego. Investigadores de la Universidad de Stanford ya indicaron que no
era necesario que cundiera el pánico: según sus estimaciones, en el futuro la
IA no será aprovechada para robots asesinos.
Aún así los expertos siguen alertando de los peligros de la
aplicación de estos sistemas a este tipo de escenarios. Más de 50 académicos
han firmado una carta dirigida al KAIST y a su socio, el fabricante de sistemas
de defensa Hanwha Systems. En esa carta estos académicos explicaban el
problema:
Hay un montón de cosas fantásticas que se pueden hacer con
la inteligencia artificial que salvan vidas, incluyendo las destinadas a un
contexto militar, pero declarar abiertamente que el objetivo del proyecto es desarrollar
armas autónomas y tener un socio como este dispara grandes temores. Esta es una
universidad muy respetada asociándose con un aliado con una ética muy dudosa
que continúa violando normativas internacionales.
Esta protesta, como indican en The Guardian, se produce
justo antes de una conferencia que la ONU ha organizado sobre armas autónomas.
La empresa Hanwha Systems ha sido duramente criticada desde hace tiempo por
fabricar municiones prohibidas en 120 países que firmaron un tratado
internacional al respecto. Ni Estados Unidos, ni Rusia, ni China firmaron ese
tratado.
Los responsables del KAIST han indicado que les entristece
ese boicot y tratan de aclarar las dudas. Su presidente, Sung-Chul Shin,
explicaba que "me gustaría reafirmar que KAIST no tiene intención alguna
de iniciar el desarrollo de sistemas de armamento autónomos letales ni de
robots asesinos. [...] KAIST no llevará a cabo actividades de investigación
contrarias a la dignidad humana, y eso incluye armas autónomas que no tengan
control humano".
Un nuevo "periodista" de AI está reescribiendo las
noticias para eliminar el sesgo
¿Quieres que te entreguen tus noticias con la fría
indiferencia de un robot literal? Es posible que desee marcar el sitio
recientemente lanzado Knowhere News . Knowhere es una startup que combina
tecnologías de aprendizaje automático y periodistas humanos para ofrecer datos
sobre noticias populares.
Así es como funciona. En primer lugar, la inteligencia
artificial (AI) del sitio elige una historia basada en lo que es popular en
Internet en este momento. Una vez que selecciona un tema, busca más de mil
fuentes de noticias para reunir detalles. Sitios de tendencia izquierdista,
sitios de inclinación derecha: la IA los mira a todos.
Luego, la IA escribe su propia versión "imparcial"
de la historia en función de lo que encuentra (a veces en tan solo 60
segundos). Esta toma en las noticias contiene los hechos más básicos, con la AI
tratando de eliminar cualquier posible sesgo. La IA también toma en cuenta la "confiabilidad"
de cada fuente, algo que los cofundadores de Knowhere determinaron de manera
preventiva. Esto garantiza que un sitio con una reputación estelar para la
precisión no quede eclipsado por uno que juegue un poco rápido y sin
complicaciones con los hechos.
Para algunas de las historias más políticas, la IA produce
dos versiones adicionales etiquetadas como "Izquierda" y
"Derecha". Esos sesgos casi exactamente como esperarías de sus
titulares:
Imparcial : "Estados Unidos debe agregar la pregunta de
ciudadanía al censo de 2020"
Izquierda : "California demanda a la administración de
Trump sobre la cuestión de ciudadanía del censo"
Derecha : "Los liberales se oponen a la inclusión de la
cuestión de la ciudadanía en el censo de 2020"
Algunas historias polémicas pero no necesariamente políticas
reciben giros "Positivos" y "Negativos":
Imparcial : "Facebook escanea cosas que envías por
mensajero, admite Mark Zuckerberg"
Positivo : "Facebook revela que escanea Messenger para
contenido inapropiado"
Negativo : "Facebook admite espiar a Messenger,
'escanear' imágenes privadas y enlaces"
Incluso las imágenes utilizadas con las historias reflejan
ocasionalmente el sesgo del contenido. La historia de Facebook
"Positiva" presenta al CEO Mark Zuckerberg sonriendo , mientras que
el "Negativo" lo tiene a él como si su perro acabara de morir .
La IA de Knowhere tampoco deja a los periodistas sin
trabajo.
El editor en jefe y cofundador Nathaniel Barling le dijo a
Motherboard que un par de editores
humanos revisan cada historia. Esto garantiza que sientas que estás leyendo
algo escrito por un periodista real y no un chatbot de Twitter. Esas ediciones
luego son retroalimentadas a la IA, ayudándola a mejorar con el tiempo. El
propio Barling aprueba cada historia antes de que se publique. "El dinero
se detiene conmigo", le dijo a Motherboard .
Este elemento humano podría ser el principal defecto de la
tecnología. Como hemos visto con otras IA, tienden a asumir los prejuicios de
sus creadores , por lo que Barling y sus editores deberán ser tan imparciales
como sea humanamente posible, literalmente, para garantizar que la IA conserve
su imparcialidad.
Knowhere acaba de recaudar $ 1.8 millones en fondos
iniciales, por lo que claramente los inversionistas piensan que tiene el
potencial de cambiar la forma en que recibimos nuestras noticias. Pero, ¿será
capaz de llegar a suficientes personas, y las personas adecuadas, para realmente importar ?
La imparcialidad es el punto de venta de Knowhere, así que
si crees que suena como un sitio que deseas visitar, probablemente seas alguien
que ya valora la imparcialidad en las noticias. Increíble. Tú no eres el
problema.
El problema es que algunas personas están perfectamente
felices de existir en una cámara de eco
donde reciben noticias de una fuente que refleja lo que están pensando. Y si
eres una de esas fuentes de noticias, no quieres alienar a tu audiencia, ¿verdad?
Entonces sigues alimentando a los mismos lectores cómodos las mismas historias
parciales.
Esto no sería tan importante si el status quo de los medios
no causara estragos en nuestra sociedad ,
nuestra democracia y nuestro
planeta .
Entonces, historias imparciales escritas por AI. ¿Con buena
pinta? Por supuesto. Pero la sociedad cambia? Probablemente necesitemos algo
más que un algoritmo inteligente para eso.
Fuente: