Noticias de la semana - 21

¡Adiós al tráfico! IBM planea eliminarlo con ayuda de la inteligencia artificial


Si has visitado alguna vez una cuidad relativamente grande en Latinoamérica probablemente hayas sufrido ese mal común que aqueja a toda la región: el tráfico. Ahora, para eliminar este problema de raíz, la gigante tecnológica IBM planea usar la inteligencia artificial.

¿Cómo planea hacerlo?
Según esta patente, IBM está desarrollando un sistema de control de semáforos bastante superior al actual basado en temporizadores, los cuales no parecen funcionar tan bien. En la nueva propuesta de la gigante tecnológica, los semáforos observarán el tráfico y aprenderán de él para tomar la mejor decisión con el fin de evitar una congestión.

Para lograrlo, harán uso de un sistema de cámaras que enviarán imágenes en tiempo real de la situación del tráfico a una computadora. Esta última calculará el flujo de autos para cada una de las rutas que forman parte de la intersección analizada. De esta manera, la computadora determinará si debe producirse un cambio en el estado de la señal del semáforo o no.

Si un humano puede, una IA también
Steve Hobson, uno de los responsables del proyecto de IBM, explicó que la realidad actual demuestra que al mejorar la congestión vehicular, los policías de tránsito están por encima de los actuales sistemas de semáforos. “Un humano puede absorber gran cantidad de información que sugeriría ajustes en la secuencia y/o el tiempo de la señal (de tránsito)”, declaró para TheNextWeb.

Para Hobson, tratar de crear un protocolo o un programa no inteligente sería poco práctico debido a las características únicas de cada cruce o intersección. Cada uno de estos arroja demasiada información que sería demasiado para un programa, “pero el hecho de que este tipo de información sea "fácil" de asimilar y usar por un humano sugiere que la IA tiene el potencial de ayudar”.

La inteligencia artificial está calando en lugares a donde muchos de nosotros difícilmente llegaríamos. En astronomía, hace unos días se anunció que podrá predecir la habitabilidad de exoplanetas y a buscar discos protoplanetarios. Incluso en videojuegos, logró encontrar un truco de Atari que ningún humano había encontrado jamás.



Si DARPA quiere detener Deepfakes, deberían hablar con Facebook y Google


Todos hemos visto ese video en el que los algoritmos basados ​​en inteligencia artificial hacen que parezca que Barack Obama está dando un discurso al sintetizar su voz y movimientos faciales en un video creíble. Es espeluznante y estimulante. Y aparentemente también provocó algunas ideas dentro de las filas de la organización de investigación del Departamento de Defensa (DARPA) también.

En el transcurso del verano, DARPA financiará un concurso donde los participantes competirán para crear las fotos, videos y grabaciones de audio más falsas y creíbles generadas por AI, conocidas colectivamente como "Deepfakes", según lo informado por MIT Technology Review . Los concursantes también intentarán desarrollar nuevas herramientas avanzadas para detectar estos deepfakes, que se están volviendo más sofisticados a medida que las personas mejoran en el desarrollo de algoritmos de inteligencia artificial hechos específicamente para engañarnos.

En particular, DARPA está preocupado por las redes adversarias generativas, un tipo de algoritmo sofisticado que enfrenta a dos redes neuronales entre sí para finalmente desarrollar la capacidad de crear algo indistinguible de los creados por las personas. En este caso, se hizo que un líder mundial dijera algo en un video generado por la IA en lugar de decir algo en un discurso.

Es fácil ver por qué está preocupado el Departamento de Defensa. En este momento, el presidente de Estados Unidos se jacta del arsenal nuclear de la nación sobre las redes sociales, mientras que EE. UU. Y Corea avanzan lentamente hacia conversaciones de desarme. Lo que definitivamente no ayudaría a nadie en este momento sería tener un video creíble y falso del presidente Trump o del líder supremo Kim Jong Un diciendo que planean lanzar misiles para que sean virales.

Pero no son solo los bromistas de Internet o los enemigos maliciosos del estado quienes están haciendo estos videos. Un análisis rápido a través de las bibliotecas de Facebook y la investigación de IA publicada de Google muestra que ambas compañías invirtieron en aprender a desarrollar algoritmos que pueden procesar , analizar y alterar fotos y videos de personas. Si DARPA quiere cortar de raíz esta amenaza digital potencial, tal vez deberían investigar qué están haciendo los gigantes tecnológicos.

Algunos proyectos de investigación son relativamente benignos, pero podrían usarse para suavizar los fallos de un video alterado o falso, como los proyectos de Google AI diseñados para reducir el ruido de los videos y hacerlos más realistas . Algunos son, bueno, más espeluznantes, como el algoritmo de Inteligencia Artificial de Google que crea una foto neutral frontal de una persona al analizar otras imágenes de ellos.

El problema es que los investigadores de IA a menudo toman un "¿podemos?" En lugar de un enfoque "¿deberíamos?" Para hacer las cosas más geniales posibles. Esto es particularmente relevante para un proyecto de investigación de Facebook que encontró una manera de animar las fotos de perfil de sus usuarios. Los investigadores detrás del proyecto dijeron que no consideraron ningún problema ético o potencial mal uso de su trabajo mientras lo estaban construyendo, solo querían crear un producto lo más sofisticado posible.

El problema para DARPA es que solucionar este problema requiere un cambio de actitud hacia la forma en que se desarrolla la tecnología, y también puede requerir una vigilancia más estrecha sobre las compañías de tecnología con amplios recursos y equipos de investigación capacitados a su disposición. Hasta entonces, es probable que sigamos viendo mejores y mejores fractales generados por AI creados solo para ver si podrían serlo.



La IA para hacer llamadas de Google tiene algo de competencia de Microsoft


Microsoft podría ser simplemente los hipsters del mundo de chatbot de IA: estaban incursionando en chatbots de creación de llamadas mucho antes de que Google los hiciera geniales.

A principios de este mes, Google causó sensación cuando el CEO Sundar Pichai hizo una demostración de  Duplex , una nueva función del Asistente de Google que puede realizar llamadas de voz rutinarias en nombre del usuario. Ayer, el CEO de Microsoft, Satya Nadella, hizo una demostración de un chatbot social llamado Xiaoice (pronunciado "Shao-ice") en un evento de IA en Londres.

Resulta que, Xiaoice ha estado teniendo conversaciones verbales bidireccionales con usuarios en China desde agosto. De hecho, el robot ya se dirigió a 600,000 personas, según una publicación de Harry Shum , vicepresidenta ejecutiva de Inteligencia Artificial e Investigación de Google. El hecho de que Xiaoice (que Microsoft se refiere al uso de pronombres femeninos) ya está implementado es solo una de varias diferencias entre ella y el Duplex de Google.

Si bien este último puede llamar a terceros, como un restaurante o salón, Xiaoice solo puede llamar al usuario de Microsoft. En lugar de hacer una reserva o concertar una cita, se encuentra a caballo entre la asistente personal y la madre preocupada en la demostración de Microsoft, preguntando al usuario sobre su nivel de estrés, ofreciendo una llamada de atención y sugiriendo que duerman un poco. es medianoche, después de todo.


Asegurarse de que los usuarios obtengan las ocho horas recomendadas no es la única habilidad de Xiaoice, tampoco; también puede contar una o dos historias para ayudar a los más pequeños a dormirse por la noche. Según la publicación de Shum, Microsoft lanzará una nueva función gratuita el 1 de junio que le permite a Xiaoice crear historias personalizadas de 10 minutos de duración en solo 20 segundos después de escuchar las opiniones de los padres y sus hijos.

En su publicación de blog, Shum también tomó una excavación no tan sutil en la demostración de Google Duplex. Durante esas llamadas, Duplex nunca se identificó como no humano, una omisión que dejó a algunos con mal sabor de boca .

"Los experimentos de Google parecen haber sido diseñados para engañar", dijo Thomas King, investigador del Laboratorio de Ética Digital del Oxford Internet Institute,  a  TechCrunch  en referencia a la demostración. "[E] ven si no tienen la intención de engañar, puede decir que han sido negligentes al no asegurarse de que no engañe".

Ese nunca ha sido el caso con Xiaoice, según Shum: "[M] lo más importante, nos aseguramos de que la gente fuera  informada de  que no era una persona real".

Dado que el bot solo puede llamar a su usuario (y no a un tercero desprevenido), ese bit de información probablemente no necesite decirlo. Pero, una vez más, ¿qué hay más inconformista que tirarle un poco de sombra a cualquiera que esté a un paso o detrás de ti?



Algoritmo detecta imágenes falsas antes que se vuelvan virales


Un amigo te envía una imagen polémica, la observas y sientes la necesidad de compartirla con alguien más. Luego, tus amigos y los amigos de tus amigos hacen lo mismo. Esta es la forma en que una imagen se vuelve viral en internet. Lamentablemente, no todas estas fotos altamente compartidas son reales. Algunas resultan ser adulteradas, trucadas o photoshopeadas. Este tipo de imágenes en donde se combinan fragmentos de contenido visual de una manera tendenciosa y engañosa abunda en línea. Ahora, un algoritmo experimental podría ayudar a acabar con esta farsa incluso antes de que se propague. Más detalles en ArXiv.org.

La Universidad de California, Berkeley y la Universidad Carnegie Mellon se han unido para desarrollar un algoritmo que puede detectar inconsistencias en una imagen adulterada. Este sistema ha sido entrenado con más de 400.000 fotos de Flickr. El equipo se valió de la información que proporcionaban los metadatos o datos EXIF. Aquí se puede encontrar detalles de la configuración de la cámara, el objetivo, el flash, etc.

El método no es tan complicado. Una imagen está determinada por una tecnología o proceso en particular. Los efectos que estos procesos tienen deben presentarse consistentemente a través de toda la imagen. Cuando esto no sucede, se habla de una imagen adulterada. En otras palabras, si aprendes qué pinceles producen qué pinceladas, puedes decir si un retrato ha sido pintado con más de un pincel.

Para Neal Krawetz, informático teórico, la idea es genial, pero no queda convencido de su utilidad dentro de las redes sociales. La razón es que la mayoría de sitios en redes sociales comprimen las imágenes, algo que podría afectar al algoritmo y hacerlo menos preciso.

Las máquinas con aprendizaje automático pueden realizar tareas que le tomaría demasiado tiempo a un ser humano. En astronomía, hace unos días se anunció que podrá predecir la habitabilidad de exoplanetas y a buscar discos protoplanetarios. Incluso en videojuegos, se logró encontrar un truco de Atari que ningún humano había encontrado jamás.







Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52