Noticias de la semana - 24

GOOGLE PROPONE LOS 7 MANDAMIENTOS DE LA INTELIGENCIA ARTIFICIAL


La tecnológica dio a conocer siete principios bajo los cuales promete regir el uso y desarrollo de la inteligencia artificial.

Su asistente de voz o la forma en la que Google Fotos categoriza las imágenes dependiendo de lo que aparece en ellas, es ya parte de la oferta cotidiana de la firma; sin embargo, a través de un documento de tres cuartillas entregado a Expansión, la compañía confirmó que su apuesta por el futuro radica en esta tecnología y que es necesario poner estándares para su uso adecuado a través de siete principios.

“Anunciamos que estos siete principios guiarán nuestro trabajo hacia adelante. Estos no son conceptos teóricos; son estándares concretos que gobernarán de forma activa nuestra investigación y desarrollo de producto e impactarán en nuestras decisiones de negocio”, estableció la firma en un documento.

Si bien Google no es la única tecnológica que hoy en día utiliza y apuesta por la inteligencia artificial, sí es la primera en advertir reglas de operación sobre una tendencia específica.

A la par de los principios, Google aseguró que no usará AI para el desarrollo de aplicaciones que puedan causar algún tipo de daño como, por ejemplo, el desarrollo de armas de algún tipo o tecnologías capaces de reunir información para realizar espionaje, que contravengan reglas internacionales o violen los derechos humanos.

En los párrafos del documento, Google expuso que AI es su apuesta para el largo plazo y “la base correcta para la compañía y el futuro desarrollo de la inteligencia artificial” aunque esto implique ceder a otras decisiones a corto plazo.

“Hemos hecho clara nuestra intención para tomar una perspectiva a largo plazo, aunque esto signifique hacer cambios a corto plazo”, citó el texto.

Aunque en el documento, la compañía con base en Mountain View, se pone a la cabeza de los esfuerzos en el desarrollo de esta tecnología advierte que continuará colaborando y compartiendo sus aprendizajes con el ecosistema tecnológico.

La presentación de estos principios viene después de que recientemente, empleados de Google, solicitaron a la empresa parar el desarrollo de soluciones y tecnologías de machine learning e inteligencia artificial en conjunto con operadores del ejército de Estados Unidos como DARPA.

Estos son los siete principios de la inteligencia artificial, según Google

Por el bien social

Tomarán en cuenta el impacto social y económico de cualquier desarrollo y procederán a implementar nuevas tecnologías en sitios o ambientes en donde el riesgo sea menor que el beneficio.

“Continuaremos respetando a la sociedad, las culturas y las normas legales en todos los países en los que operamos. Seguiremos evaluando a conciencia cuándo hacer disponibles nuestros desarrollos en términos no comerciales”

Evitar reforzar o crear sesgos injustos

Buscarán evitar que la tecnología refuerce o cree sesgos de opinión o que refleje juicios que puedan causar algún impacto negativo en la sociedad, particularmente relacionado a características de raza, etnia, género, nacionalidad, estrato social, orientación sexual, habilidades o inclinaciones políticas y religiosas.

Construir y probar para la seguridad

En términos de seguridad, la firma se comprometió a desarrollar AI en línea con principios que pongan por encima la seguridad de los usuarios, y aclaró que en casos en los que sea apropiado se harán pruebas de los desarrollos en ambientes controlados.

Rendir cuentas

En este sentido, Google advirtió su compromiso para hacer desarrollos que se nutran de dirección humana y control.

“Diseñaremos sistemas de AI que puedan proveer oportunidades para la retroalimentación y para explicaciones relevantes”, dijo.

Incorporar principios de privacidad desde el diseño

La firma dijo que sus desarrollos estarán abiertos para el escrutinio y exhortó a trabajar bajo arquitecturas de privacidad y que provean a los interesados de controles de transparencia y control sobre el uso de datos.

“Tomaremos el desarrollo de AI con responsabilidad y compartiremos los conocimientos de AI al publicar material académico, buenas prácticas e investigación que ayuden a más personas a desarrollar aplicaciones útiles de AI”, citó.

Alcanzar la excelencia científica 
La firma consideró el impacto que esta tecnología puede tener en distintos entornos de la ciencia, por lo que se comprometió a siempre aspirar a desarrollos de excelencia.

"Las herramientas de IA tienen el potencial de abrir nuevos horizontes científicos y ampliar el conocimiento de dominios como la biología, química, medicina y ciencias ambientales. Aspiramos a los más altos estándares de la excelencia científica mientras trabajamos en le desarrollo de IA", expuso el documento.

Desarrollar para el buen uso

La firma advirtió que limitará el desarrollo de la tecnología para aplicaciones que puedan causar algún tipo de daño y evaluarán este riesgo en cuatro factores: Propósito para el desarrollo, el origen de la tecnología que se busca desarrollar y su originalidad, su posibilidad de escalabilidad y qué tanto hace sentido que Google se involucre en el desarrollo de dicha aplicación.



Un nuevo algoritmo de IA puede rastrear tus movimientos a través de una pared


Durante décadas, prestigiosos científicos han estado buscando una manera de ver a través de las paredes. Y, en los últimos años, han tenido éxito: crearon tecnología que usa WiFi para detectar a las personas a través de las paredes. Solo que la señal que devuelve es muy escasa. Ahora, los investigadores del MIT han desarrollado un  nuevo algoritmo de aprendizaje automático  que no solo detecta los movimientos de las personas, sino que también modela lo que realmente están haciendo.

Afortunadamente para las personas que valoran la modesta privacidad que brindan las paredes, la nueva tecnología simplemente recrea una figura de palo desnuda que coincide con la postura y los movimientos de la persona.

Cuando decimos que algo puede "ver" a través de las paredes, en realidad no nos referimos a la visión per se. El sistema de inteligencia artificial, denominado RF-Pose, hace rebotar señales de Wii a través de las paredes y de las personas que se encuentran al otro lado de ellas, y analiza los patrones a medida que regresan. A partir de estas manchas de señales reflejadas, la tecnología puede reconstruir una figura de palo 2D. Es como ver un murciélago por ecolocación, excepto que la "imagen" que se representa en su cabeza es un dibujo infantil.

La figura del palo, por supuesto, no tiene cara. Entonces, si el sistema nunca te ha visto antes, no sabrá quién eres. Pero después de que 100 participantes entrenaron el sistema, pudo identificar correctamente qué investigadores fueron el 83 por ciento de las veces, según "su estilo de movimiento", escribieron los investigadores.


Los científicos que están detrás de esta nueva tecnología esperan que mejore la atención para las personas con enfermedades neurodegenerativas como el Alzheimer o el Parkinson y para los ancianos en las instalaciones de vida asistida.

Si las personas acuerdan permitir que la tecnología como este nuevo escáner de penetración en la pared los controle, podría ayudar a los científicos a comprender mejor cómo ciertas afecciones neurológicas afectan la postura y la forma de andar a lo largo del tiempo. Si la tecnología continúa mejorando, incluso podría utilizarse para detectar los temblores de una persona a distancia para ayudar a los médicos a controlar qué tan bien está funcionando cierto tratamiento.

RF-Pose también puede mejorar la tecnología de los videojuegos y la seguridad policial: los oficiales pueden decir si alguien del otro lado de la pared sostiene un arma en lugar de simplemente saber que hay alguien allí, pero los investigadores le dijeron a Motherboard que esperan enfocar su esfuerzos en aplicaciones médicas.

Y en un giro refrescante de las noticias habituales que escuchamos sobre la tecnología de vigilancia potencialmente espeluznante, los investigadores detrás de RF-Pose ya han tomado medidas para proteger a los que podrían ser monitoreados. Han trabajado para anonimizar y encriptar todos los datos; también lo han diseñado para que las personas que serían supervisadas por él puedan encender o apagar el dispositivo con un movimiento particular, el equivalente físico de encender Alexa diciendo "OK, Google". Algunos incluso pueden preferir haz que RF-Pose los vigile a través de un trabajador de vida asistida.

Si bien eso no garantiza necesariamente que se respetará la privacidad de las personas y algunas personas con enfermedades neurodegenerativas más avanzadas pueden no ser capaces de comprender completamente las implicaciones de la tecnología, es bueno ver que los ingenieros están pensando en las personas que podrían ser objeto de abuso. sus inventos, y para ver que la investigación científica puede progresar con esas protecciones en su lugar.



AI ahora puede manipular los movimientos de las personas en videos falsos


Ya hay videos falsos en Internet, manipulados para que parezca que las personas dijeron cosas (o aparecieron en el porno ) que nunca lo hicieron. Y ahora están a punto de mejorar, gracias a algunas herramientas nuevas que funcionan con inteligencia artificial.

En lugar de simplemente mover los labios y la cara de un video fuente, un sistema de inteligencia artificial puede crear videos fotorrealistas en los que las personas pueden balancearse, girar la cabeza, pestañear y emocionarse. Básicamente, todo lo que un actor hace y dice en un video de entrada será traducido al video siendo alterado.


Según la  investigación , que se presentará en la conferencia de cinematografía VR SIGGRAPH en agosto, el equipo realizó una serie de pruebas para comparar su nuevo algoritmo con los medios existentes para manipular videos e imágenes realistas, muchos de los cuales han sido desarrollados al menos parcialmente por Facebook y Google . Su sistema superó a todos los demás, y los participantes en un experimento tuvieron problemas para determinar si los videos resultantes eran reales o no.

Los investigadores, que recibieron fondos de Google, esperan que su trabajo se utilice para mejorar la tecnología de realidad virtual. Y debido a que el sistema de inteligencia artificial solo necesita capacitarse en unos pocos minutos para que funcione el video original, el equipo considera que sus nuevas herramientas ayudarán a que el software de edición de video de alta gama sea más accesible.

Los investigadores también saben que su trabajo podría preocupar a algunas personas.

"Soy consciente de las implicaciones éticas de esos proyectos de recreación", dijo el investigador Justus Thies a The Register . "Esa es también una razón por la que publicamos nuestros resultados. Creo que es importante que las personas conozcan las posibilidades de las técnicas de manipulación ".

Pero, ¿en qué punto nos cansamos de que la gente "concientice" al desarrollar más el problema? En el documento en sí, solo hay una oración dedicada a preocupaciones éticas: los investigadores sugieren que alguien debería buscar mejores tecnologías de marca de agua u otras formas de detectar videos falsos.

No ellos, sin embargo. Están demasiado ocupados facilitando más que nunca la creación de videos manipulados perfectos.



Este dron ha aprendido a detectar las violencia en las calles


Investigadores del Reino Unido e India han desarrollado un sistema basado en drones, que puede detectar acciones violentas entre personas. El multicóptero transfiere en tiempo real los datos de la cámara a un servidor de la nube en la que el algoritmo de aprendizaje automático detecta posturas de las personas, típicas de actos de violencia, informan los desarrolladores en un artículo que será presentado en la conferencia CVPR de 2018.

A pesar de que los algoritmos de visión por computadora están bien desarrollados, por regla general, utilizan una fuente de datos bastante inconveniente durante el análisis: cámaras de videovigilancia fijadas estáticamente. Un grupo de investigadores del Reino Unido y la India decidieron utilizar un dron. Vale la pena señalar que los autores ya presentaron un sistema similar en 2014, pero tenía mucha menos precisión, y el reconocimiento no se llevaba a cabo en tiempo real. Los desarrolladores eligieron Parrot AR, equipado con una cámara, que graba videos con una resolución de 720p y una frecuencia de 30 fotogramas por segundo. Dado que el análisis de dicho flujo de video en tiempo real no se puede llevar a cabo en la computadora a bordo, los datos se envían a través de Internet a un servidor en la nube con mucha más potencia de procesamiento.


El algoritmo, que utiliza el método del vector de apoyo, analiza la posición de las partes del cuerpo y las compara con las posiciones correspondientes al comportamiento violento.


Para que la red neuronal aprenda a determinar la posición de las partes del cuerpo y comprenda que se produce violencia, los investigadores crearon un conjunto de datos compuesto por 2.000 imágenes tomadas de drones. Las imágenes muestran a varias personas, la mitad de las cuales están involucradas en actos violentos: golpean o sofocan a otra persona o le apuntan con una pistola o un cuchillo. Cada persona en la imagen está marcada con un modelo de esqueleto y la acción realizada por él está anotada.

Los investigadores dividieron el conjunto de datos en partes: el 60% de los videos se usaron para el entrenamiento y el 20% para las pruebas. Como resultado, la precisión promedio del reconocimiento de violencia resultó ser comparable con los análogos terrestres: 88.8%. Además, esto supera con creces la precisión obtenida en el trabajo previo de los autores, en el que, además, el reconocimiento de imágenes no se realizó en tiempo real.



Fuente:





Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52