Noticias de la semana - 40

Bruselas desarrollará una serie de normas éticas para la inteligencia artificial


La Comisión Europea comienza mañana el camino hacia una regulación de los derechos y deberes éticos de los robots. El debate sobre la necesidad de dotar a las máquinas inteligentes de unas normas morales lleva mucho tiempo circulando en la industria tecnológica, muchas compañías han elaborado ya sus propias normas, pero ahora son las instituciones públicas europeas las que se ponen manos a la obra con esta delicada tarea. 

Un grupo de 52 expertos realizará mañana la primera reunión de muchas para analizar con minuciosidad las miles de posibilidades y situaciones en las que puede resultar peligrosa esta tecnología y elaborar unos límites claros, pero sin coartar la libertad de innovación que tantos beneficios auguran para el futuro social e industria; por eso decimos que es una delicada tarea. 

La conducción autónoma es la rama de la inteligencia artificial que más a copado titulares últimamente, debido al desarrollo por parte de grandes compañías de coches autónomas, pero sobre todo por los fallos y accidentes provocados por esta tecnología. Hace unos meses nos planteabamos la pregunta de "Si un coche autónomo mata a alguien, ¿quién va a la cárcel?". Pero no solo los coches pueden suponer ese riesgo, los mismo pasa con los sistemas inteligentes que están empezando a desarrollar las aerolíneas para ayudar a los pilotos durante los vuelos y que pronto podría sustituirles. 

Además de el transporte automático, Bruselas deberá incluir otra innumerable variedad de sistemas inteligentes que ahora mismo se usan desde el ámbito más industrial hasta el más doméstico. Máquinas autónomas en almacenes de fábricas, soldados-robots que ya han participado en misiones de guerra, los asistentes virtuales de Google o Apple que tantos usuarios están usando en sus casas y móviles, y un largo etc. 

Somos conscientes de muchos de estos dispositivos, pero tal vez no tengamos tan claro que estamos tratando con otros muchos programas basados en el aprendizaje automáticos como los usados por las entidades financieras para determinar que clientes pueden acceder a un crédito y cuáles no. 

Ante este último caso, por ejemplo, ya se ha establecido una normativa dentro de la nueva ley de protección de datos europea, el GDPR, que determina que toda persona que sea rechazada en un proceso de selección realizado por una máquina, tiene derecho a conocer los criterios que se han empleado para tomar esa decisión. 

Esto se ha denominado derecho de explicación y protege a las personas en caso de que se le niegue la entrada a un país o un crédito entro otros muchos casos de forma injusta, y al mismo tiempo detectar sesgos racistas o sexistas en los algoritmos. 

La principal pregunta que se plantea ahora es, ¿en quién debe recaer la responsabilidad y el poder de decidir qué es moral y qué no? No todo el mundo tiene el mismo concepto de ético o moral, y mucho menos la diversidad de políticos que pueblan nuestras instituciones actualmente. 

En Estados Unidos las empresas tecnológicas también han solicitado al Gobierno una regulación clara sobre este tema, pero teniendo en cuenta el carácter internacional que está alcanzando la tecnología, son muchas las voces expertas que apelan a la necesidad de que estas leyes y normas se redacten a nivel global para que realmente tengan utilidad y las empresas no deban estar adaptándose a cientos de normativas distintas.  




ESTA IA ANALIZADORA DEL CEREBRO PODRÍA MATAR TU SUEÑO DE SER UN ATLETA PROFESIONAL


En el episodio piloto de "Futurama", el personaje Philip J. Fry se despierta en el año 2999 después de un sueño de milenios en un tanque criogénico. Poco después, un dispositivo computarizado llamado "probulator" evalúa las habilidades del antiguo repartidor de pizzas para asignarle un nuevo trabajo: repartidor.

Ahora, la vida imita al arte: los investigadores han creado una máquina que escanea el cerebro de una persona para determinar su aptitud en ciertas tareas. Y si bien no produce resultados tan definitivos como "repartidor", no es difícil ver el sistema como un trampolín en el camino hacia un dispositivo que podría hacerlo.

No Pienses
En un estudio publicado el miércoles en la revista Science Advances , los investigadores describieron cómo utilizaron un sistema de aprendizaje automático para analizar la actividad cerebral de 30 cirujanos que llevaban gorras de electroencefalografía (EEG) mientras realizaban cirugías simuladas.

Encontraron que los niveles de actividad en la corteza motora, que es responsable de los movimientos diestros, eran más altos en los cirujanos más expertos. Mientras tanto, los cirujanos menos expertos mostraron una mayor actividad en la corteza prefrontal, un área responsable de la planificación compleja.

El hallazgo aparente: los cirujanos más verdes tuvieron que "pensar" más sobre lo que estaban haciendo, mientras que los cirujanos más experimentados simplemente lo hicieron.

Asesino De Sueños
Los investigadores dijeron a The Wall Street Journal que esperan su sistema mejorará la forma en que entrenamos a los cirujanos y no limitan lo que los cirujanos pueden hacer, pero no es difícil imaginar cómo se podría hacer esto último - para los cirujanos, los atletas , pilotos , o cualquier profesión.

Eventualmente, es fácil imaginar una sociedad como "Futurama", donde una computadora decide su trabajo según lo que hace bien, incluso si le apasiona otra cosa.

Y no estamos seguros de si eso es simplemente lógico o distópico como el infierno.



GOOGLE UTILIZÓ SU INTELIGENCIA ARTIFICIAL MÁS SOFISTICADA HASTA LA FECHA PARA CREAR IMÁGENES DE HAMBURGUESAS


La inteligencia artificial y la inteligencia humana no son lo mismo, sin duda. Pero parece que tenemos algo en común: pasamos nuestro tiempo fantaseando con la cena.

En un trabajo de investigación publicado el viernes en el servidor de preimpresión arXiv, un equipo de investigadores de AI de Google DeepMind se unió a un científico de Heriot-Watt University para desarrollar lo que ellos llaman la Red de Adversación Generativa más grande y avanzada de la historia. Y para demostrar que funciona mejor que cualquier otro, crearon imágenes fotorrealistas de paisajes, (muy) buenos perros y otros animales y, por supuesto, algunas hamburguesas calientes y jugosas.

Que Es La Carne
Las redes adversas generativas son uno de los tipos de algoritmos de inteligencia artificial más sofisticados que existen. En resumen, una red crea algo, en este caso una imagen, de la manera más realista posible. Mientras tanto, otra red compara su trabajo con ejemplos del trato real. Este avance y avance hace que las dos redes mejoren gradualmente hasta el punto en que el último sistema es realmente bueno para detectar imágenes generadas por AI, pero el otro aún puede engañarlo.

Los GAN se utilizan generalmente para crear medios, ya sea un nuevo nivel de un videojuego o modelos en 3D. Y a pesar de que su capacidad para engañarnos y ellos mismos presentan un poco de una espada de doble filo, su capacidad para distinguir el rendimiento algorítmico de la salida humana se puede usar para encontrar y combatir engaños profundos engañosos.

Este proceso es lo que permitió que la GAN de cocina de hamburguesas de DeepMind pasara de crear, como informó Quartz , una mancha rara y carnosa en 2016 a lo que realmente parece una losa apetitosa (aunque recocida) de burg.

PROTEINA ALTERNATIVA
Algunos argumentan que debemos alejarnos de la carne roja, pero la inteligencia artificial todavía no está lista para unirse a nosotros. Mientras que el algoritmo de generación de hamburguesas está en gran forma, otros no están ahí. Por ejemplo, los giros y vueltas de los tubos de latón que conforman un cuerno francés desconcertaron a la red. La imagen de la mariposa está un poco apagada, y cualquier intento de renderizar una foto de un ser humano resulta en un monstruo blob horrible.



Fuente:

Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52