Noticias de la semana - 30

Líderes que se comprometieron a no construir máquinas asesinas autónomas están ignorando el verdadero problema.


La semana pasada, muchos de los principales jugadores en el mundo de la inteligencia artificial firmaron un compromiso de nunca construir o respaldar sistemas de inteligencia artificial que pudieran ejecutar un arma autónoma. Los firmantes incluyeron: cofundadores de Google DeepMind, el fundador de OpenAI, Elon Musk, y una gran cantidad de destacados investigadores de inteligencia artificial y líderes de la industria.

La promesa , presentada por el investigador del Instituto de Futuro de Vida Max Tegmark, sostiene que cualquier sistema que pueda apuntar y matar a personas sin supervisión humana es intrínsecamente inmoral y condena cualquier futura carrera de armamentos de IA que pueda ocurrir. Al firmar la promesa, estos peces gordos de la IA se unen a los gobiernos de 26 naciones, incluidas China, Pakistán y el Estado de Palestina, que también condenaron y prohibieron las armas letales autónomas.

Entonces, si desea construir un avión no tripulado de combate que no necesite supervisión humana antes de matarlo, tendrá que hacerlo en otro lugar que no sean estas naciones y con socios que no sean los que firmaron el acuerdo.

Sí, prohibir los robots asesinos es un buen paso para nuestro futuro colectivo  : los  niños en naciones devastadas por la guerra con drones ya han comenzado a temer al cielo  , pero  hay un agujero bastante evidente en lo que hace realmente esta promesa .

A saber: hay formas más sutiles e insidiosas de aprovechar a AI contra los enemigos de una nación que atar una ametralladora al brazo de un robot, estilo Terminator.

La promesa ignora por completo el hecho de que la ciberseguridad significa más que protegerse de un ejército de robots asesinos . Como Mariarosaria Taddeo del Oxford Internet Institute le dijo a Business Insider , la IA podría ser utilizada en conflictos internacionales de maneras más sutiles pero impactantes. Los algoritmos de inteligencia artificial podrían ser efectivos para hackear o secuestrar redes que son cruciales para la seguridad nacional.

Ya, como lo mencionó Taddeo, el Servicio Nacional de Salud del Reino Unido fue tomado como rehén por el virus WannaCry vinculado con Corea del Norte y un ataque cibernético ruso tomó el control de las redes eléctricas europeas y norteamericanas . Con sofisticados algoritmos autónomos a la cabeza, estos ataques cibernéticos podrían volverse más frecuentes y devastadores. Y, sin embargo, debido a que estas armas autónomas no van "pew pew pew", la reciente promesa de AI no menciona (ni les pertenece) en absoluto.

Por supuesto, eso no hace que la promesa tenga sentido. Ni por asomo. Pero tan importantes como las personas y compañías de alto perfil que aceptaron no fabricar máquinas de matar autónomas son los nombres que faltan en el acuerdo. Quizás lo más notable es el Departamento de Defensa de los EE. UU., Que recientemente estableció su Centro Conjunto de Inteligencia Artificial (JAIC) con el propósito expreso de salir adelante para cualquier próxima carrera de armamentos de IA.

El vicesecretario de Defensa, Patrick M. Shanahan, dirigió al Oficial Jefe de Información del Departamento de Defensa para poner en pie el Centro Conjunto de Inteligencia Artificial (JAIC) para permitir que los equipos del DOD entreguen rápidamente nuevas capacidades habilitadas para AI y experimenten con eficacia nuevos conceptos operativos en apoyo de "Misiones militares y funciones comerciales del Departamento de Defensa", dijo Heather Babb, portavoz del Departamento de Defensa, a Futurism.

"Mucha gente habla sobre el tratamiento de AI; queremos ser la amenaza ", escribió el subsecretario de Defensa, Patrick Shanahan, en un correo electrónico reciente a los empleados del Departamento de Defensa, un vocero del Departamento de Defensa confirmado al futurismo.

La JAIC considera que la inteligencia artificial es una herramienta crucial para el futuro de la guerra. Dada la postura firme de los EE. UU. Sobre la guerra algorítmica, no está claro si una promesa bien intencionada e incompleta puede posiblemente mantenerse.



Dile adiós a los errores ortográficos con la nueva IA de Google


Google Docs ahora es más potente que nunca gracias a la inteligencia artificial de Google.

Google Docs no es la primera cosa que nos viene a la mente a la hora de realizar algún trabajo o ensayo. Sin embargo, los de Mountain View parecen querer cambiar esto con su nuevo corrector gramatical inteligente.

Impulsada por la inteligencia artificial, esta nueva característica será capaz de corregir errores gramaticales que pasarían desapercibidos en cualquier otro programa de ofimática, como el uso inadecuado de comas, tiempos incorrectos y otros descuidos de los que podamos ser víctimas a la hora de redactar un texto.

El vicepresidente de Google para la gestión de productos de G Suite, David Thacker, dijo en una conferencia de prensa antes del anuncio, según recoge TechCrunch:

Adoptamos un enfoque altamente efectivo para la corrección gramatical basada en la traducción automática. Por ejemplo, en la traducción de idiomas, tomas un idioma como el francés y lo traduces al inglés. Nuestro enfoque de la gramática es similar. Tomamos un inglés inapropiado y usamos nuestra tecnología para corregirlo o traducirlo al inglés correcto. Lo bueno de esto es que las traducciones de idiomas son una tecnología que tenemos una larga historia de buenos resultados.

Sin embargo, ya que Google está ofreciendo esta herramienta únicamente a las empresas y negocios, no todos los usuarios podrán usarla de momento. Por otro lado, aún queda también por confirmar los idiomas en los que podremos emplear esta característica.

Esta herramienta con inteligencia artificial es similar a lo que podemos ver en la extensión Grammarly para Google Chrome. Aunque si quieres toda la funcionalidad de la extensión, tendrás que desembolsar una suma mensual. No obstante, ahora es la propia Google la que lo lleva a cabo.

Hasta ahora, no se tiene conocimiento de cómo funciona este tipo de inteligencia artificial, pero sabemos que a los de Mountain View se le dan bien las palabras. Hace unos años Google afirmaba que el lenguaje usado en su tecnología de traducción estaba alcanzando ya niveles humanos, por lo que probablemente la herramienta de corrección estaría basada en eso.



El "Espejo biométrico" te juzga como lo enseñamos: con parcialidad


PRIMERAS IMPRESIONES. Cuando vemos a alguien por primera vez, hacemos juicios internos  sobre ellos. No podemos evitarlo, solo estamos enjuiciando de esa manera. Después de mirar a la persona por unos pocos segundos, podemos observar su género, raza y edad o decidir si creemos que son atractivos, confiables o amables.

Después de llegar a conocer a la persona, podríamos descubrir que nuestra percepción inicial de ellos era incorrecta. No es gran cosa, ¿verdad?

Bueno, es un gran problema cuando consideras cómo nuestras suposiciones podrían dar forma a cómo la inteligencia artificial (IA) del futuro toma decisiones cada vez más importantes.

En un esfuerzo por ilustrar este problema al público, los investigadores de la Universidad de Melbourne crearon Biometric Mirror .

PERCEPCIÓN PÚBLICA. Biometric Mirror es una IA que analiza la cara de una persona y luego muestra 14 características sobre ella, incluida su edad, raza y nivel de atractivo percibido.

Para enseñarle al sistema a hacer esto, los investigadores de Melbourne comenzaron pidiendo voluntarios humanos que juzgaran miles de fotos por las mismas características. Esto se convirtió en el conjunto de datos Espejo biométrico al que se hace referencia cuando se analizan caras nuevas. Debido a que la información proporcionada por estos voluntarios fue subjetiva, también lo fue la producción de Mirror biométrico. Si la mayoría de los encuestados humanos pensaran que las personas con barba parecían menos confiables, eso influiría en cómo el espejo biométrico juzgaba a las personas con barba.


LA ÉTICA DE AI.  Para usar Biometric Mirror, una persona solo tiene que pararse frente al sistema por unos segundos. Escanea rápidamente su rostro y luego enumera sus características percibidas en una pantalla. Luego, la IA le pide a la persona que piense cómo se sentirían si compartiera esa información con otros. ¿Cómo se sentirían si no consiguieran un trabajo porque la IA los calificó de tener un bajo nivel de confiabilidad? ¿O si los funcionarios encargados de hacer cumplir la ley decidieron apuntarles porque tienen un alto puntaje por agresión?

"Nuestro estudio tiene como objetivo provocar preguntas desafiantes sobre los límites de la IA. Muestra a los usuarios lo fácil que es implementar AI que discrimina de forma no ética o problemática, lo que podría tener consecuencias sociales ", dijo el investigador principal Niels Wouters en un comunicado de prensa . "Al fomentar el debate sobre la privacidad y la vigilancia masiva, esperamos contribuir a una mejor comprensión de la ética detrás de la IA".

ELIMINANDO EL SESGO. Un sistema tan sesgado como Biometric Mirror podría tener importantes consecuencias a medida que la IA se usa más y toma decisiones cada vez más importantes. Y esta no es solo una posibilidad futura, tampoco; ya estamos viendo ejemplos aparecer en los sistemas de hoy. Si bien los investigadores trabajan para encontrar formas de garantizar que los sistemas futuros no contengan esos mismos defectos, es importante que el público considere el impacto potencial de la IA sesgada en la sociedad. Biometric Mirror podría ayudarlos a hacer justamente eso.



Fuente:




Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52