Noticias de la semana - 45

Cómo Facebook señala contenido terrorista con aprendizaje automático


Di No Al Terrorismo

Durante años, el contenido que promueve el terrorismo ha  prosperado en plataformas de redes sociales como Facebook y Twitter.

Pelear es una batalla cuesta arriba que ha obligado a las empresas de tecnología a  abrir salas de guerra  y  contratar nuevos especialistas . Una solución en la que empresas como Facebook apuestan ahora: el aprendizaje automático. En una publicación reciente del blog , el gigante social detalló la forma en que utiliza la tecnología para identificar contenido que "puede indicar el apoyo para ISIS o al-Qaeda".

Bot Moderadores
Facebook diseñó un algoritmo que asigna a cada publicación una puntuación basada en la probabilidad de que viole las políticas de contraterrorismo de la compañía . Si ese puntaje cruza un cierto umbral, la publicación se eliminará inmediatamente sin moderación humana.

La publicación del blog es escasa en detalles específicos sobre cómo funciona realmente el sistema de puntuación del algoritmo. Eso no es del todo sorprendente: es un juego de altas apuestas de whack-a-mole, y es probable que Facebook no revele todos sus secretos al mundo.

Verdad Poco Atractiva
Facebook admite rápidamente que no existe un sistema perfecto, o al menos no lo ha encontrado todavía. Afortunadamente, en abril actualizó su  proceso de apelación , en caso de que los algoritmos marquen falsos positivos.

Es un paso en la dirección correcta: sabemos que ni la moderación humana ni los algoritmos de aprendizaje automático  serán suficientes para eliminar todo el contenido de terrorismo de las redes sociales.



Esta AI china es capaz de narrar noticias sin parar, y amenaza con dejar sin trabajo a los presentadores de TV


La agencia oficial estatal china Xinhua acaba de lanzar sus presentadores de televisión robóticos, combinando las imágenes y voces de conductores de noticieros reales con inteligencia artificial (IA).

El primer presentador bot hizo su debut en la quinta World Internet Conference, en la provincia Zhejiang. El conductor, basado en tecnología de inteligencia artificial de última gama, tiene una imagen masculina con una voz, expresiones faciales y acciones de una persona real. 

Este aprende, a través del machine learning, de presentaciones en vivo de sí mismo y puede leer textos tan naturalmente como un conductor de noticiero profesional.

Este presentador fue desarrollado en equipo por la agencia oficial china y la compañía de IA Sogou, basada en Beijing, que investiga y desarrolla AI.

De acuerdo al medio estatal, el presentador ya se hizo miembro de su equipo de reporteros y podrá trabajar 24 horas por día, transmitiendo desde su sitio oficial y varias plataformas sociales incluyendo aplicaciones como WeChat, reduciendo los costes de producción y mejorando la eficiencia. 

El presentador artificial, de acuerdo a medios chinos, es capaz de sintetizar el discurso de apariencia realista, movimientos de labios y expresiones faciales. 

“Los presentadores de IA trabajarán junto a otros presentadores para traer noticias con autoridad, puntuales y precisas, tanto en chino como en inglés”, refirió Xinhua. 


¿El reemplazo de los presentadores de carne y hueso?
Los presentadores en todo el mundo son elementos importantes en las cadenas de noticias. En EEUU, por ejemplo, el presentador Anderson Cooper de CNN gana 100 millones de dólares al año, mientras que Diana Sawyer de ABC y Sean Hannity de Fox News ganan 80 millones cada uno. 

Los presentadores en China ganan mucho menos al trabajar para televisoras estatales, aunque reciben dinero extra por publicidad o publicaciones de dinero. 

No obstante, podrían volverse una alternativa “incansable” con evidentes ventajas sobre los de carne y hueso. El medio gubernamental ha calificado el logro como un “hito” en el campo de la inteligencia artificial.



Robots aprenden lenguaje corporal viendo charlas TED


Durante muchos años, las famosas charlas TED sirvieron para que especialistas puedan informar sobre sus campos de una manera entretenida. Ahora, un grupo de investigadores coreanos están usando cientos de horas de video para entrenar robots en el uso de gestos y lenguaje corporal. La investigación ha sido publicada en el sitio de pre-impresión Arxiv.

Youngwoo Yoon, del Instituto de Investigación de Electrónica y Telecomunicaciones de Daejeon, Corea, y su equipo utilizó 52 horas de charlas TED tomadas de 1295 videos en YouTube para entrenar un sistema de aprendizaje automático. La intención era hacer coincidir los gestos de las manos con diferentes palabras y frases para luego probar el software en un robot humanoide.

Hasta ahora, los robots humanoides que existen en el mercado mueven sus manos y gesticulan cuando hablan pero, pero estas acciones suelen ser difíciles de codificar por los humanos. Además, los movimientos que pueden tener estos robots suelen ser limitados, lo que hace que sus gestos pronto se sientan repetitivos.


Robot ve, robot hace

Para evitar esto, los investigadores dejan que su software aprenda sus propios gestos observando a las personas hablar. Para cada fotograma de los videos, extrajeron la postura del orador, incluida la posición de la cabeza, el cuello y los hombros, así como los brazos, y mapearon esto sobre lo que el orador estaba diciendo en ese momento.

El sistema resultante fue capaz de generar gestos y relacionarlos con palabras y frases para cualquier tipo de discurso, incluyendo un brazo levantado para sugerir sostener algo, abrir los brazos para sugerir inclusividad y señalar gestos para "tú" y "yo". Para probar el sistema, los investigadores reclutaron a 46 trabajadores de internet del sitio web de crowdsourcing de Amazon, Mechanical Turk, de entre 23 y 70 años y angloparlantes nativos.

Los participantes aseguraron que los gestos aprendidos eran más parecidos a los humanos, más amigables y más compatibles con las palabras que las producidas por los enfoques existentes. Aunque todavía falta para que los gestos de los robots sean totalmente convincentes. En el futuro, el equipo planea personalizar los movimientos de las manos para que los robots no utilicen todos los mismos gestos.

El lenguaje corporal es un campo que ya ha estado siendo explorado por los investigadores en el pasado. En mayo de este año, un grupo de investigadores australianos presentó una inteligencia artificial que podía predecir la personalidad de una persona con solamente ver sus ojos. 



Fuente:



Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52