Noticias de la semana - 34

Esta IA te puede arrestar si viajas a Estados Unidos


Si tu nombre aparece en la lista de los más buscados, esta IA no te dejará pisar los Estados Unidos.

La Inteligencia artificial ha revolucionado el mundo tal y como lo conocemos. No solamente se ha integrado en los móviles, también en otros dispositivos como ordenadores, electrodomésticos y hastas coches. No cabe duda de que por fin las máquinas servirán más y mejor a los humanos, incluidos en los asuntos de seguridad. Es cierto que hay que pulir mucho estos sistemas, pero existe ya una IA capaz de arrestarte si viajas a Estados Unidos.

La IA que te arresta en aduanas
No cabe duda de que las fuerzas de la ley y orden se verán muy beneficiadas con el uso de la inteligencia artificial. Es verdad que en el campo de la medicina se logran verdaderas maravillas detectando un cáncer con rapidez, pero en el sector de la seguridad también tendrá un papel importante.

Es posible que los primeros intentos a gran escala de introducir el reconocimiento facial no hayan funcionado bien, pero eso no es motivo para seguir probando hasta que todo funciona perfectamente. Y esto es lo que ha pasado con la nueva IA en los aeropuertos estadounidenses. Este nuevo sistema utiliza una cámara web para ver a la persona que intenta entrar en el país mientras que un escáner toma una imagen de su documento de identificación. Si los parámetros que toma coinciden (tamaño de la boca, amplitud de la frente, distancia ojos-labios…) todo en orden, puedes pasar.

¿Qué ocurre en caso contrario? el dispositivo dará un resultado negativo, como es lógico, y buscará en la base datos si se trata de una persona peligrosa. En este caso, el policía de turno podrá arrestar de forma inmediata al sospechoso.

Ya hay un detenido


Parece todo un adelanto el que una IA sea capaz de reconocer un terrorista en un aeropuerto. Esta labor se hacía ‘a ojo’ por los oficiales al cargo, pero la ayuda de una máquina también hace su trabajo más sencillo, rápido y eficiente. Lo mejor de todo es que el sistema funciona de verdad. Bien es verdad que el sistema reconoce solo a una persona, algo que hace más preciso su veredicto, como ha pasado con un falsificador. El detenido contaba con un pasaporte francés falso y venía de Sao Paulo (Brasil), y la IA fue capaz de ‘cazarlo’ con una verificación rápida.



Para construir confianza en la inteligencia artificial, IBM quiere que los desarrolladores demuestren que sus algoritmos son justos


Confiamos en algoritmos de inteligencia artificial con muchas tareas realmente importantes. Pero nos traicionan todo el tiempo. El sesgo algorítmico puede  conducir a una vigilancia excesiva en áreas predominantemente negras; los filtros automáticos en los activistas de la bandera de las redes sociales mientras permiten que los grupos de odio sigan publicando sin marcar.

A medida que los problemas causados ​​por el sesgo algorítmico han salido a la superficie, los expertos han propuesto todo tipo de soluciones sobre cómo hacer que la inteligencia artificial sea más justa y transparente para que funcione para todos.

Estos van desde someter a los desarrolladores de IA a auditorías de terceros, en las que un experto evaluaría su código y los datos fuente para asegurarse de que el sistema resultante no perpetúe  los prejuicios y prejuicios de la sociedad , para desarrollar pruebas que aseguren que un algoritmo de IA no tratar a las personas de manera diferente en función de la raza, el género o la clase socioeconómica.

Ahora los científicos de IBM tienen una nueva protección que dicen que hará que la inteligencia artificial sea más segura, transparente, justa y efectiva. Proponen que, justo antes de que los desarrolladores comiencen a vender un algoritmo, publiquen  una Declaración de conformidad del proveedor (SDoC). Como informe o manual del usuario, la SDoC mostraría qué tan bien el algoritmo se desempeñó en pruebas estandarizadas de desempeño, equidad y factores de riesgo, y medidas de seguridad. Y deberían ponerlo a disposición de cualquiera que esté interesado.

En un trabajo de investigación publicado el miércoles , los científicos de IBM argumentan que este tipo de transparencia podría ayudar a construir la confianza pública y asegurar a los posibles clientes que un algoritmo en particular hará lo que se supone sin atormentar a nadie sobre la base de datos de capacitación sesgados. Si un algoritmo en particular  parece ser capaz de arruinar a alguien, el cliente (e incluso los ciudadanos interesados) sería idealmente capaz de decir a partir de los resultados de la prueba y optar por no ponerlo en uso.

En su documento, los científicos de IBM recurren a los ejemplos que brindan los SDoC en otras industrias, que rara vez son requeridos por la ley pero que se recomiendan para evitar que los clientes potenciales se dirijan a competidores más transparentes. Por ejemplo, los consumidores pueden confiar en los frenos de un automóvil, las capacidades del piloto automático de un avión, la resistencia de un puente, ya que estas cosas se prueban exhaustivamente en base a métricas estándar y bien conocidas. Y, sin embargo, no existe una prueba equivalente para garantizar que las herramientas de inteligencia artificial funcionen como se reivindica.

Los investigadores proponen que un SDoC de IA responda a preguntas como: "¿Se revisaron los datos sesgados del conjunto de datos y el modelo?" Y "¿Se verificó la solidez del servicio contra los ataques adversos?" En general, las preguntas evaluarían un algoritmo en función de su rendimiento que verificando sus componentes o su código como podría hacerlo un auditor. Aquí hay algunos más que podría incluir un SDoC AI, como escriben los investigadores en el documento:

¿El conjunto de datos utilizado para entrenar el servicio tiene una hoja de datos o una declaración de datos?

¿Se revisaron los conjuntos de datos y el modelo para detectar sesgos? En caso afirmativo, describa las políticas de sesgo que se verificaron, los métodos de verificación de sesgo y los resultados.

¿Se realizó alguna mitigación de sesgo en el conjunto de datos? Si es así, describa el método de mitigación.

¿Los resultados del algoritmo son explicables / interpretables? En caso afirmativo, explique cómo se logra la explantabilidad (por ejemplo, modelo directamente explicable, explicabilidad local, explicaciones a través de ejemplos).

¿Qué tipo de gobierno se emplea para rastrear el flujo de trabajo global de datos para el servicio de inteligencia artificial?

Pedirle a los desarrolladores que publiquen SDoC no resolverá todos los problemas que presenta nuestra creciente dependencia de AI. Sabemos cómo los frenos detienen un automóvil que circula a gran velocidad, pero algunos de los algoritmos más complejos que existen (como los que emplean técnicas de aprendizaje profundo) pueden ser inescrutables . Además, si un informe de transparencia basado en pruebas estandarizadas va a tener un impacto, todos deberían seguir el juego.

Claro, los desarrolladores estarían motivados para comenzar a liberar SDoC si sus competidores lo están haciendo. Pero el sistema solo funcionará si los clientes, los gobiernos y las compañías que usan IA muestran que realmente les importa lo que dicen estos informes. ¿ Le va a importar a un departamento de policía como el LAPD, que usó algoritmos policiales descaradamente racistas en el pasado, los detalles de un SDoC para encontrar un sistema mejor? La verdad es que aún no lo sabemos.

Es poco probable que estos informes fuercen a cualquiera a emplear más algoritmos éticos, o incluso a desarrollarlos. Pero si combina estos informes con otras herramientas como auditorías de terceros, el público puede exigir algoritmos que traten a todos de manera justa.



Una IA ayudará a encontrar tratamiento en pacientes con trastornos mentales


La complejidad del cerebro humano es aún inabarcable por la ciencia, pero la Inteligencia Artificial (IA) puede ayudar a descifrarla, según un reciente estudio del Instituto de Investigación de la Salud Lawson (Canadá), la Mind Research Network (EE.UU.) y el Centro Brainnetome (China). Los investigadores han diseñado un algoritmo de aprendizaje automático capaz de simplificar el diagnóstico de trastornos mentales.

La IA analiza escáneres cerebrales y detecta diferencias sutiles en los trastornos del estado de ánimo, realizando con facilidad los complicados cálculos que llevan a cabo los psiquiatras para diagnosticar afecciones como el trastorno bipolar y el trastorno depresivo mayor (TDM). El algoritmo, descrito en la revista Acta Psychiatrica Scandinavica, podría ayudar a los médicos a prescribir y predecir la respuesta de un paciente a un medicamento dado, disminuyendo el período de ensayo y error tortuoso antes de que un paciente pueda obtener la ayuda que necesita.

Los investigadores utilizaron escáneres cerebrales de 78 pacientes adultos jóvenes en el Centro de Ciencias de la Salud London, en Ontario (Canadá), de los que 66 ya habían sido diagnosticados y tratados por trastorno depresivo mayor o tipo bipolar. El grupo de control estaba formado por 33 participantes sin antecedentes de enfermedad mental. Bajo una resonancia magnética funcional, los cerebros que muestran las dolencias tienen una apariencia diferente entre ellos y en comparación con el grupo sin antecedentes de enfermedad mental. Introdujeron los datos en la IA, para que diagnosticara a los pacientes y los resultados fueron prometedores: lo hizo correctamente el 92,4% de las veces.

Los investigadores probarán cómo se ejecuta la IA en diferentes tipos de máquinas de MRI, y también quieren desarrollar un protocolo que pueda ayudar a los médicos humanos a realizar análisis similares al algoritmo, buscando las mismas distinciones que el ordenador. La técnica aún necesita muchos más datos de estudios adicionales, así como también alguna forma de certificar las instalaciones de imágenes para hacer los escaneos correctamente. 

Otro reciente software de automatización tiene como objetivo reducir el tiempo de desarrollo de planes de radioterapia, mapas individualizados que ayudan a los médicos a determinar dónde extirpar los tumores, a meras horas. El algoritmo usa inteligencia artificial (IA) para extraer datos históricos de radioterapia, una información que se aplica a un motor de optimización para desarrollar planes de tratamiento. Los investigadores, que publicaron recientemente sus hallazgos en Medical Physics, aplicaron esta inteligencia artificial (IA) en su estudio de 217 pacientes con cáncer de garganta, que también recibieron tratamientos desarrollados con métodos convencionales. Las terapias generadas por la IA lograron resultados comparables a los tratamientos planificados convencionalmente por los pacientes, pero con la ventaja de realizarlos en solo 20 minutos. 



Fuente:




Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 52

Noticias de la semana - 39