Noticias de la semana - 21
¡Adiós al tráfico! IBM planea eliminarlo con ayuda de la
inteligencia artificial
Si has visitado alguna vez una cuidad relativamente grande
en Latinoamérica probablemente hayas sufrido ese mal común que aqueja a toda la
región: el tráfico. Ahora, para eliminar este problema de raíz, la gigante
tecnológica IBM planea usar la inteligencia artificial.
¿Cómo planea hacerlo?
Según esta patente, IBM está desarrollando un sistema de
control de semáforos bastante superior al actual basado en temporizadores, los
cuales no parecen funcionar tan bien. En la nueva propuesta de la gigante
tecnológica, los semáforos observarán el tráfico y aprenderán de él para tomar
la mejor decisión con el fin de evitar una congestión.
Para lograrlo, harán uso de un sistema de cámaras que
enviarán imágenes en tiempo real de la situación del tráfico a una computadora.
Esta última calculará el flujo de autos para cada una de las rutas que forman
parte de la intersección analizada. De esta manera, la computadora determinará
si debe producirse un cambio en el estado de la señal del semáforo o no.
Si un humano puede, una IA también
Steve Hobson, uno de los responsables del proyecto de IBM,
explicó que la realidad actual demuestra que al mejorar la congestión
vehicular, los policías de tránsito están por encima de los actuales sistemas
de semáforos. “Un humano puede absorber gran cantidad de información que
sugeriría ajustes en la secuencia y/o el tiempo de la señal (de tránsito)”,
declaró para TheNextWeb.
Para Hobson, tratar de crear un protocolo o un programa no
inteligente sería poco práctico debido a las características únicas de cada
cruce o intersección. Cada uno de estos arroja demasiada información que sería
demasiado para un programa, “pero el hecho de que este tipo de información sea
"fácil" de asimilar y usar por un humano sugiere que la IA tiene el
potencial de ayudar”.
La inteligencia artificial está calando en lugares a donde
muchos de nosotros difícilmente llegaríamos. En astronomía, hace unos días se
anunció que podrá predecir la habitabilidad de exoplanetas y a buscar discos
protoplanetarios. Incluso en videojuegos, logró encontrar un truco de Atari que
ningún humano había encontrado jamás.
Si DARPA quiere detener Deepfakes, deberían hablar con
Facebook y Google
Todos hemos visto ese video en el que los algoritmos basados
en inteligencia artificial hacen que parezca que Barack Obama está dando un
discurso al sintetizar su voz y movimientos faciales en un video creíble. Es
espeluznante y estimulante. Y aparentemente también provocó algunas ideas
dentro de las filas de la organización de investigación del Departamento de
Defensa (DARPA) también.
En el transcurso del verano, DARPA financiará un concurso
donde los participantes competirán para crear las fotos, videos y grabaciones
de audio más falsas y creíbles generadas por AI, conocidas colectivamente como
"Deepfakes", según lo informado por MIT Technology Review . Los
concursantes también intentarán desarrollar nuevas herramientas avanzadas para
detectar estos deepfakes, que se están volviendo más sofisticados a medida que
las personas mejoran en el desarrollo de algoritmos de inteligencia artificial
hechos específicamente para engañarnos.
En particular, DARPA está preocupado por las redes
adversarias generativas, un tipo de algoritmo sofisticado que enfrenta a dos
redes neuronales entre sí para finalmente desarrollar la capacidad de crear
algo indistinguible de los creados por las personas. En este caso, se hizo que
un líder mundial dijera algo en un video generado por la IA en lugar de decir
algo en un discurso.
Es fácil ver por qué está preocupado el Departamento de
Defensa. En este momento, el presidente de Estados Unidos se jacta del arsenal
nuclear de la nación sobre las redes sociales, mientras que EE. UU. Y Corea
avanzan lentamente hacia conversaciones de desarme. Lo que definitivamente no
ayudaría a nadie en este momento sería tener un video creíble y falso del
presidente Trump o del líder supremo Kim Jong Un diciendo que planean lanzar
misiles para que sean virales.
Pero no son solo los bromistas de Internet o los enemigos
maliciosos del estado quienes están haciendo estos videos. Un análisis rápido a
través de las bibliotecas de Facebook y la investigación de IA publicada de
Google muestra que ambas compañías invirtieron en aprender a desarrollar
algoritmos que pueden procesar , analizar y alterar fotos y videos de personas.
Si DARPA quiere cortar de raíz esta amenaza digital potencial, tal vez deberían
investigar qué están haciendo los gigantes tecnológicos.
Algunos proyectos de investigación son relativamente
benignos, pero podrían usarse para suavizar los fallos de un video alterado o
falso, como los proyectos de Google AI diseñados para reducir el ruido de los
videos y hacerlos más realistas . Algunos son, bueno, más espeluznantes, como
el algoritmo de Inteligencia Artificial de Google que crea una foto neutral
frontal de una persona al analizar otras imágenes de ellos.
El problema es que los investigadores de IA a menudo toman
un "¿podemos?" En lugar de un enfoque "¿deberíamos?" Para
hacer las cosas más geniales posibles. Esto es particularmente relevante para
un proyecto de investigación de Facebook que encontró una manera de animar las
fotos de perfil de sus usuarios. Los investigadores detrás del proyecto dijeron
que no consideraron ningún problema ético o potencial mal uso de su trabajo
mientras lo estaban construyendo, solo querían crear un producto lo más
sofisticado posible.
El problema para DARPA es que solucionar este problema
requiere un cambio de actitud hacia la forma en que se desarrolla la
tecnología, y también puede requerir una vigilancia más estrecha sobre las
compañías de tecnología con amplios recursos y equipos de investigación
capacitados a su disposición. Hasta entonces, es probable que sigamos viendo
mejores y mejores fractales generados por AI creados solo para ver si podrían
serlo.
La IA para hacer llamadas de Google tiene algo de
competencia de Microsoft
Microsoft podría ser simplemente los hipsters del mundo de
chatbot de IA: estaban incursionando en chatbots de creación de llamadas mucho
antes de que Google los hiciera geniales.
A principios de este mes, Google causó sensación cuando el
CEO Sundar Pichai hizo una demostración de
Duplex , una nueva función del Asistente de Google que puede realizar
llamadas de voz rutinarias en nombre del usuario. Ayer, el CEO de Microsoft,
Satya Nadella, hizo una demostración de un chatbot social llamado Xiaoice
(pronunciado "Shao-ice") en un evento de IA en Londres.
Resulta que, Xiaoice ha estado teniendo conversaciones
verbales bidireccionales con usuarios en China desde agosto. De hecho, el robot
ya se dirigió a 600,000 personas, según una publicación de Harry Shum ,
vicepresidenta ejecutiva de Inteligencia Artificial e Investigación de Google.
El hecho de que Xiaoice (que Microsoft se refiere al uso de pronombres
femeninos) ya está implementado es solo una de varias diferencias entre ella y
el Duplex de Google.
Si bien este último puede llamar a terceros, como un restaurante
o salón, Xiaoice solo puede llamar al usuario de Microsoft. En lugar de hacer
una reserva o concertar una cita, se encuentra a caballo entre la asistente
personal y la madre preocupada en la demostración de Microsoft, preguntando al
usuario sobre su nivel de estrés, ofreciendo una llamada de atención y
sugiriendo que duerman un poco. es medianoche, después de todo.
Asegurarse de que los usuarios obtengan las ocho horas
recomendadas no es la única habilidad de Xiaoice, tampoco; también puede contar
una o dos historias para ayudar a los más pequeños a dormirse por la noche.
Según la publicación de Shum, Microsoft lanzará una nueva función gratuita el 1
de junio que le permite a Xiaoice crear historias personalizadas de 10 minutos
de duración en solo 20 segundos después de escuchar las opiniones de los padres
y sus hijos.
En su publicación de blog, Shum también tomó una excavación
no tan sutil en la demostración de Google Duplex. Durante esas llamadas, Duplex
nunca se identificó como no humano, una omisión que dejó a algunos con mal
sabor de boca .
"Los experimentos de Google parecen haber sido
diseñados para engañar", dijo Thomas King, investigador del Laboratorio de
Ética Digital del Oxford Internet Institute,
a TechCrunch en referencia a la demostración. "[E]
ven si no tienen la intención de engañar, puede decir que han sido negligentes
al no asegurarse de que no engañe".
Ese nunca ha sido el caso con Xiaoice, según Shum: "[M]
lo más importante, nos aseguramos de que la gente fuera informada de
que no era una persona real".
Dado que el bot solo puede llamar a su usuario (y no a un
tercero desprevenido), ese bit de información probablemente no necesite
decirlo. Pero, una vez más, ¿qué hay más inconformista que tirarle un poco de
sombra a cualquiera que esté a un paso o detrás de ti?
Algoritmo detecta imágenes falsas antes que se vuelvan
virales
Un amigo te envía una imagen polémica, la observas y sientes
la necesidad de compartirla con alguien más. Luego, tus amigos y los amigos de
tus amigos hacen lo mismo. Esta es la forma en que una imagen se vuelve viral
en internet. Lamentablemente, no todas estas fotos altamente compartidas son
reales. Algunas resultan ser adulteradas, trucadas o photoshopeadas. Este tipo
de imágenes en donde se combinan fragmentos de contenido visual de una manera
tendenciosa y engañosa abunda en línea. Ahora, un algoritmo experimental podría
ayudar a acabar con esta farsa incluso antes de que se propague. Más detalles
en ArXiv.org.
La Universidad de California, Berkeley y la Universidad
Carnegie Mellon se han unido para desarrollar un algoritmo que puede detectar
inconsistencias en una imagen adulterada. Este sistema ha sido entrenado con
más de 400.000 fotos de Flickr. El equipo se valió de la información que
proporcionaban los metadatos o datos EXIF. Aquí se puede encontrar detalles de
la configuración de la cámara, el objetivo, el flash, etc.
El método no es tan complicado. Una imagen está determinada
por una tecnología o proceso en particular. Los efectos que estos procesos
tienen deben presentarse consistentemente a través de toda la imagen. Cuando
esto no sucede, se habla de una imagen adulterada. En otras palabras, si
aprendes qué pinceles producen qué pinceladas, puedes decir si un retrato ha
sido pintado con más de un pincel.
Para Neal Krawetz, informático teórico, la idea es genial,
pero no queda convencido de su utilidad dentro de las redes sociales. La razón
es que la mayoría de sitios en redes sociales comprimen las imágenes, algo que
podría afectar al algoritmo y hacerlo menos preciso.
Las máquinas con aprendizaje automático pueden realizar
tareas que le tomaría demasiado tiempo a un ser humano. En astronomía, hace
unos días se anunció que podrá predecir la habitabilidad de exoplanetas y a
buscar discos protoplanetarios. Incluso en videojuegos, se logró encontrar un
truco de Atari que ningún humano había encontrado jamás.