Noticias de la semana - 41

Amazon "despide" a Inteligencia Artificial por sexista


La Inteligencia Artificial para reclutar empleados resultó ser muy humana.

Existe demasiado camino por recorrer en el desarrollo de una Inteligencia Artificial (IA), que pueda ser considerada como 100% confiable. Ya que cuando no está intentando matarte resulta que es muy sexista.

Esto es con lo que se acaban de topar los chicos de Amazon, según reporta la agencia noticiosa Reuters (vía BBC). Sucede que en 2014 la compañía y un grupo de sus ingenieros desarrollaron una herramienta autónoma de reclutamiento de empleados.


Dicha herramienta, desarrollada sobre el núcleo de una Inteligencia Artificial; estaba diseñada para seleccionar a los mejores candidatos al instante. Ya que sería capaz de procesar cientos de currículos en segundos para elegir a los cinco “mejores”. Pero hubo un problema: la IA resultó ser muy sexista.

Algunos de los ingenieros que trabajaron en el proyecto han hablado de forma anónima con Reuters. Comparten que el error radicó en que la plataforma se entrenó a partir de los currículos de una década completa de aspirantes. Pero la gran mayoría eran hombres.

De  modo que para el 2015 la Inteligencia Artificial había convertido la palabra “mujer” y todas sus variantes en un elemento para descartar candidatas.

Se intentó reentrenar la plataforma para volverla más neutral pero no funcionó. Así que Amazon decidió “despedir” a su propia IA.

Aunque sí hubo un tiempo donde se utilizó para reclutar a trabajadores en posiciones de distintos niveles.


Actualmente en la compañía existe un 60% de hombres y 40% de mujeres empleadas.



Un Test de Turing mínimo en el que una sola palabra basta para distinguir humanos y máquinas


Unos investigadores han hecho algo ingenioso: reducir el Test de Turing a una prueba de una sola palabra, por lo que la prueba se reduce a: ¿Cómo convencerías a un juez de que eres humano y no una máquina con una sola palabra? El estudio completo puede leerse en A Minimal Turing Test (ScienceDirect).

El Test de Turing Mínimo es un paradigma experimental para el estudio de las percepciones y metapercepciones de diferentes grupos sociales o tipos de agentes, en el que los participantes deben utilizar una sola palabra para convencer a un juez de su identidad. Los participantes actúan como concursantes (o jueces) y luego los datos se cruzan en un espacio vectorial semántico para ver cómo se comparan los enfrentamientos por parejas. Esto nos permite identificar la estructura semántica en las palabras que la gente propone y obtener medidas cuantitativas de la importancia que se le da a los diferentes atributos.

En las pruebas unos 1.000 humanos probaron a intentar convencer a los jueces con unas 400 palabras distintas; las más comunes fueron amor (14%), compasión (3,5%), humano (3,2%) y por favor (2,7%). Pero también había otras como familia, pene, plátano Estas palabras se clasificaron luego por grupos: sentimientos, objetos, pensamientos…


Pero la prueba no terminaba ahí. A otros 2.000 jueces se les presentaron emparejamientos de pares de las palabras más populares de diferentes categorías (por ejemplo plátano vs. piedad) para ver cuál consideraban más humana. Cada enfrentamiento resultaba más o menos «competido», lo cual puede verse en el gráfico que muestra qué-palabra-gana-a-cuál (un poco a lo «piedra, papel, tijera»). La tabla muestra qué porcentaje de veces la palabra de la fila gana a la de la columna; por ejemplo empatía convence a los jueces frente a plátano en el 43% de los casos.

La palabra triunfadora, capaz de ganar a todas las demás resultó ser…

caca

Naturalmente, la propia existencia del estudio modifica ahora lo que sabemos sobre estas percepciones, de modo que para aunque durante un tiempo para un robot supusiera una ventaja tener esta lista de palabras y saber que caca es caballo ganador, probablemente su «valor» para ganar en el juego iría bajando con el tiempo. Así que caca parece la mejor palabra para demostrar nuestra humanidad… sólo por el momento.




EXPERTO: PARA ENTENDER UN ALGORITMO, TRÁTALO COMO UN ANIMAL



Estamos entrando en una era en la que la forma en que el software interactúa con el mundo es tan oculta y compleja que los investigadores necesitan comenzar a estudiar los algoritmos de la misma forma en que estudiamos a los animales.

Eso es de acuerdo con el tecnólogo del MIT Iyad Rahwan en una  entrevista convincente con  New Scientist . Los algoritmos son entidades sofisticadas, argumenta Rahwan, y solo podremos entenderlas si observamos cómo se comportan en el contexto de su entorno.

“Tenemos un nuevo tipo de agente en el mundo. No es un animal o un ser humano, es una máquina ”, dijo Rahwan a New Scientist . “Hoy en día, solo los informáticos exploran los comportamientos de los algoritmos. Mi equipo está estudiando el comportamiento de las máquinas como lo haríamos con un humano, animal o corporación  : en la naturaleza ".


Maquinas Morales

El problema, dijo Rahwan a la revista, es que puedes ver las historias que aparecen en tu feed de noticias de Facebook, pero no puedes acceder al algoritmo que las eligió. Puede viajar en un automóvil autónomo, pero no puede revisar el código que le indicó qué tan agresivamente cambiar de carril.

Hasta la fecha, el trabajo más conocido de Rahwan ha sido crear IA que exploran cuestiones éticas, como un algoritmo que decide qué peatón debe matar un automóvil autónomo y una IA "psicópata" que ve "violencia y horror" en cada imagen que evalúa.

Pero la  entrevista de New Scientist  parece estar provocando algo nuevo: evaluar el comportamiento de las IA existentes en el mundo real, como los naturalistas en un hábitat animal. Si el equipo de Rahwan puede hacer incursiones en ese frente, podría darnos una nueva perspectiva sobre cómo los algoritmos afectan a las personas y la sociedad.





Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52