Noticias de la semana - 03
La IA de Google confunde fotos de gorilas con personas y la
compañía prohíbe los gorilas para que no la acusen de racismo
En 2015, Google recibió una lluvia de críticas después de
que uno de sus algoritmos de reconocimiento de imagen confundiera fotos de
gorilas y chimpancés con seres humanos. La compañía prometió solucionar el
error. Dos años después, ya sabemos cómo lo ha hecho. Ha prohibido las fotos de
gorilas.
Esa es la conclusión a la que llegaron en la revista Wired
después de poner a prueba el algoritmo supuestamente reprogamado para evitar
errores. Efectivamente, la IA es perfectamente capaz de etiquetar animales como
los babuinos, los osos panda, o los gibones, pero cuando se le ofrece una foto
de un gorila o de un chimpancé, no ofrece ningún resultado.
La propia compañía reconoció que había eliminado esos
conceptos del algoritmo para evitar problemas, y añadió que desgraciadamente
las IA aún están lejos de ser perfectas y cometen ese tipo de errores.
Eliminar el concepto de gorila de la IA en lugar de enseñarle
a reconocer ese animal correctamente no parece una solución muy equilibrada. De
hecho, algunas aplicaciones como Google Lens se resienten de ese problema.
Google Assistant, que emplea otros mecanismos de búsqueda funciona bien en ese
sentido.
Blinkfire y un enorme reto para la inteligencia artificial:
medir bien por primera vez cuánto se ve el patrocinador de un equipo de fútbol
Para contar la historia de Blinkfire Analytics hay que
remontarse más de una década atrás en el tiempo hasta 2004. Aquel año se
presentaba en sociedad FeedBurner. Dick Costolo, Steve Olechowski, Eric Lunt y
Matt Shobe lanzaban un servicio que facilitaba la gestión de feeds RSS en un
momento en el que comenzaban a despuntar. Era una herramienta ideal para
blogueros y medios de comunicación porque más allá de facilitar su manejo,
ofrecía analíticas para conocer el impacto de las lecturas que no llegaban a
las webs y un sistema de monetización.
Fue en un momento de expansión previo a la compra por parte
de Google, que se produciría años más tarde, cuando Juan Luis Hortelano se unió
colaborando durante un tiempo en su crecimiento. "Trabajé con ellos
ayudándoles a avanzar en España, a conseguir medios... y bueno, conocí a Steve
Olechowski y Dick Costolo". Un buen día llegó el buscador, realizó la
adquisición y gran parte de los responsables de FeedBurner se marcharon a
Mountain View, incluidos Olechowski y Costolo, quien años más tarde llegaría a
Twitter.
Hortelano y Olechowski, sin embargo, continuaron manteniendo
el contacto unidos por aficiones en común como el mundo de los deportes en
general y del fútbol en particular. "Los dos somos muy futboleros y en él
especialmente es más extraño, porque es americano, pero aún así le gusta
mucho", nos cuenta. Por eso y por sus respectivas deformaciones
profesionales, si así pudiésemos llamar al ánimo emprendedor, no dejaban de
pensar en la posibilidad de hacer algo juntos alrededor del deporte.
La identificación de una necesidad y el uso de la tecnología
para satisfacerla
Fijándose en el crecimiento de las redes sociales en los
últimos años, en la importancia de las prácticas deportivas masivas en ellas,
el impacto de los clubes, de los deportistas individuales y en la pobreza de
las estadísticas o números que estas plataformas suelen proporcionar,
"Facebook, Twitter y otras redes sociales no les daban a estos clubes
deportivos los números que ellos necesitaban", se les ocurrió dar forma a
un proyecto que hoy en día lleva por nombre Blinkfire Analytics.
Empezamos a contactar con gente, con equipos que conocíamos,
con la Liga de Fútbol Profesional, con otras ligas... Vimos que había interés,
pero tampoco estábamos ofreciendo nada diferente a lo que se pudiese hacer con
mayor o menor parecido en otras herramientas. Pero hablando con los clubes nos
dimos cuenta que existía la necesidad de medir el impacto económico de los
patrocinios.
Algo que, en algunos equipos, era trabajo de dos o tres personas
viendo vídeos cronómetro en mano. Contaban el tiempo de exposición de los
patrocinadores en ruedas de prensa, declaraciones y otras situaciones.
Objetivo: ocupar el hueco descuidado por las analíticas de
las redes sociales midiendo el impacto económico de los patrocinios.
"En redes sociales algunos también lo hacían a
mano", nos dice Hortelano mientras lo entrevistamos en las oficinas de la
compañía en Valencia, en uno de los barrios más nuevos de la ciudad del Turia.
Miraban cuántas publicaciones habían hecho los jugadores, el
equipo, cuándo se veía el logo de una marca y cuándo el de otra. Y con hojas de
cálculo iban midiendo eso, aunque a veces sin tener una idea clara de cómo
valorar.
El objetivo fue, a partir de entonces, enfocar la empresa
hacia esa necesidad buscando automatizar todo el proceso mediante tecnología.
Sustituir a las personas por técnicas capaces de analizar las imágenes y vídeos
que suben a las redes sociales los clubes, los jugadores e incluso los fans,
midiendo el impacto que se genera con cada patrocinio que aparece en camisetas,
cartelería y otros soportes. La inteligencia artificial y la visión
computacional eran la respuesta.
Qué hay de verdadera inteligencia artificial y cómo funciona
Entendida la base del negocio, sus objetivos y los medios
mediante los cuales los consigue, en una época en la que toda empresa emergente
habla de inteligencias computacionales, nos preguntamos qué tienen de
desarrollo real, a día de hoy, que se pueda considerar «inteligencia
artificial»
La inteligencia artificial, efectivamente, se está
sobrevendiendo. Nosotros empezamos con la parte de 'computer vision', una parte
de la inteligencia artificial en la que se simula el ojo humano. Pero luego, en
toda la parte de reconocimiento de logos, de imágenes, sí que aplicamos
algoritmos de inteligencia artificial, de reconocimiento de patrones, para
tratar de simular esa visión humana y que el propio sistema aprenda. Es una
parte muy importante y ahí tenemos un par de patentes: una para que el
algoritmo sea lo más rápido posible y otra para que sea más fiable.
Cuando empezamos, que partimos de algoritmos de código
libre, vimos que había logos que se detectaban muy bien, marcas que se detectan
muy claramente como Adidas, un ejemplo claro en el que se detecta fácilmente el
90 % de las veces. Pero Nike, por ejemplo, es todo lo contrario, quedándose en
un 40 o 50 %. Entonces, en toda la parte de detección, empezamos a trabajar en
entrenamiento previo de los algoritmos y en el 'machine learning'. En ese punto
estamos ahora, perfeccionando y haciendo que nuestros sistemas sean más
autónomos y que cada vez haya que alimentarlos menos porque aprendan mejor
solos.
Porque no es lo mismo un logo blanco sobre negro que el
mismo logo sobre otro color. O esa misma marca en una camiseta, un photocall o
una pantalla publicitaria de un estadio. Ante tanta casuística los algoritmos
necesitan aprender con ejemplos. Con el suficiente rodaje, ellos mismos podrían
encargarse de enseñarse conforme se enfrentan a nuevas situaciones y ese es el
fin que persiguen en Blinkfire mientras el negocio se encuentra a pleno
rendimiento contando con un centenar de grandes clientes.
El aprendizaje profundo y automático asegura un
perfeccionamiento continúo de las tecnologías de detección.
¿Pero cómo funciona exactamente?, nos preguntamos.
"¿Cómo se justifica o se identifica el 'aparece en una foto' al 'alguien
se ha fijado y ha impactado realmente en el usuario'?", le preguntamos a
Hortelano, quien ejerce de jefe de operaciones mientras su socio, Steve
Olechowski, ostenta el cargo de CEO desde la sede que tienen en Chicago.
Para imágenes nos hemos basado en estudios, en la
experiencia previa en Google y en otros proyectos, simulando el ojo humano en
nuestro algoritmo, tomando únicamente como buena una visualización clara de un
patrocinio. Cuando el logo se ve grande, claro y completo. Porque no hay
término medio, o se ve o no se ve, por lo que debe ser una visualización
indudable. Y aunque un mismo logo se vea varias veces bien, solamente se cuenta
una vez.
En cuanto a vídeo, el impacto depende del tiempo que
aparezca la marca y de en qué posición lo haga. Porque no vale lo mismo que
aparezca en el primer cuarto que en el último, ni que aparezca en los dos
cuartos intermedios del vídeo. Y también importa el tamaño. En este caso el
algoritmo es un poco más complejo y en función de todas estas variables otorga
un valor.
A la simulación de la visión humana que ofrece esta
tecnología, con los consecuentes descartes por una mala visualización, se suma
que en Blinkfire aseguran ser conservadores con los datos que dan y en
consonancia han construido el método de sus mediciones.
"Si una marca no se ve suficientemente bien o si el
logo, por ejemplo, se ve un poco doblado en la ropa, aunque una persona lo
pudiese identificar conociéndolo, nuestro algoritmo lo descarta". ¿La
razón? Cuando dan cifras se trata de números completamente fiables, nos
comentan. Si dicen que una marca ha impactado 1.000 veces, seguramente haya
impactado más, pero de ese millar ellos están completamente seguros.
Y todo en tiempo real.
Es en este punto en el que entra en juego la valoración
puramente económica y en cuanto a ella se ciñen al mercado.
Nosotros medimos el valor de todos estos impactos en coste
por engagement, sacándolo directamente de los precios de mercado. Les ofrecemos
a los clubs un precio base, pero ellos lo pueden ajustar dependiendo de sus
circunstancias o demandas. Al final se paga de acuerdo a la oferta y la
demanda, pero tratamos de dar una guía y un precio con una media de lo que a
una marca le costaría entrar ahí.
El impacto de las mediciones en el día a día
Ofrecer a las marcas y a los clubes deportivos una serie de
métricas sobre impactos que no se contaban o no se valoraban de una manera
adecuada han motivado cambios importantes, de calado, a la hora de difundir
contenido propio y en las facturaciones publicitarias.
Al ver en tiempo real qué contenidos generan mayor o menor
impacto, a los departamentos de comunicación, de redes sociales, de marketing,
etcétera, les es útil nuestra información.
Estamos viendo un cambio en determinados ámbitos como pueden
ser la generación de contenidos, la creación de esos contenidos... Hay clubs
como el Valencia CF —que lo está haciendo muy bien— que han enseñado al
fotógrafo a elegir fotos que en lugar de mostrar un logo medio partido, lo
muestren completamente y bien alineado. En fotos sociales especialmente se ve
esto.
Pero no solamente. A Juan Luis Hortelano le viene a la
cabeza, entre otros impactos positivos de su trabajo con equipos, el
descubrimiento que hicieron en el estadio de béisbol Citi Field de Nueva York.
Nos ha pasado otro caso llamativo con otro cliente, los New
York Mets, que habían vendido por 250.000 dólares al año a Budweiser el espacio
publicitario que tienen sobre el marcador. Se dieron cuenta que como mucha
gente se hacía selfis con el marcador de fondo y le estaban dando un gran
impacto a la marca en redes sociales por valor de 400.000 dólares.
Finalmente la cerveza no quiso pagar por ello, pero el
espacio se lo vendieron a otro patrocinador, Citi, y posiblemente cobrando
mucho más. Y la situación la advirtieron gracia a que medimos estos impactos en
redes, que hasta el momento no los habían tenido en cuenta. Esto demuestra la
dimensión que tienen las redes sociales en el sector publicitario.
Los ejemplos continúan. Con el Atlético de Madrid, por
ejemplo, advirtieron que su algoritmo no contabilizaba en las fotos frontales
de los jugadores el logo del patrocinador que aparece en la manga de la
camiseta. Por eso, una vez advertido el problema, esta clase de fotografías
oficiales se comenzaron a hacer con una posición corporal ligeramente ladeada,
para que la marca se apreciase completamente.
Los clubes deportivos han cambiado tanto la forma de
compartir ciertos contenidos como de generarlos
La medición de los impactos digitales también ha tenido
incidencia en las instantáneas más aparentemente desinhibidas de una plantilla
deportiva. Tras lograr ganar una final importante, es muy común una foto de los
jugadores en los vestuarios, en toallas y sin camisetas. Por tanto, sin ninguna
marca a la vista.
"Ahora algunos clubes tienen a una persona pendiente,
en las puertas de los vestuarios, con dos o tres camisetas para que algunos de
los integrantes del equipo se las pongan y esa foto genere impactos de las
marcas que los patrocinan", nos cuenta Hortelano. Porque suele ser la foto
que más impacto tiene en todo un año, con un valor de millones de euros en el
caso de los clubes más importantes.
Se han creado una serie de activos, solo digitales, que se
pueden comercializar. Es ejemplo la típica foto que se sube a los perfiles
oficiales de un equipo en Facebook o Instagram en el cumpleaños de un jugador.
Es un material positivo que la gente comparte muchísimo, como otras
felicitaciones que puedan hacer como cuando tienen un hijo o como la alineación
inicial de un partido.
Son contenidos que, además, los clubes tienen antes que
nadie, teniendo el control sobre ellos, y cada vez más hay marcas que
patrocinan estos espacios concretamente. Se han conseguido comercializar como
un espacio por sí mismo por millones de euros globalmente, extras a los
patrocinios habituales, cuando hace unos años no se vendían.
Han cerrado una ronda de inversión de 1,6 millones de
dólares
La compañía que reparte su equipo entre la sede de España y
la de Estados Unidos, porque repartidos entre ambos países decidieron estar
desde el principio, lleva meses en un estado financiero rentable y cuenta con
importantes clientes principalmente en el mundo deportivo. Quince miembros del
equipo se encuentran en Valencia y trece en Chicago, estando igualmente
distribuido el equipo de desarrollo.
Empezamos con la idea de vender en ambos lados. En Estados
Unidos porque es el mercado más avanzado, aunque curiosamente no es el mercado
más grande, porque a nivel deportivo el fútbol tiene mucho más impacto que
cualquier deporte americano como su fútbol, la NBA o la NFL. Y en España porque
tenemos la Liga, con la cual empezamos a trabajar muy pronto y es uno de
nuestros principales clientes. Además, a través de ella hemos conseguido
trabajar también con los 42 equipos de primera y segunda división, todos los
equipos son clientes.
Por otro lado, en Estados Unidos estamos trabajando con
equipos de la NBA, como los Cleveland Cavaliers, los Golden State Warriors, los
Chicago Bulls, los Washington Wizards; también equipos de fútbol americano, de
hockey... tenemos de muchos deportes, varios equipos. Y además estamos
queriendo crecer en el mercado europeo, en países como Alemania. De hecho, ya
trabajamos con equipos del contienente como la Juventus y con varios equipos de
la Premier League.
A los deportes más tradicionales se suman además nuevos
mercados que han comenzado a abrir, sobre todo en el mundo de los deportes
electrónicos. "De una forma natural nos hemos encaminado a los eSports;
también porque muchos equipos deportivos tienen equipos de eSports",
afirma Hortelano. Las nuevas generaciones no están donde estaban las viejas y
eso también se nota en el mundo de la publicidad.
"Y luego, al trabajar con marcas, nos han pedido
empezar a controlar otro tipo de eventos deportivos y no deportivos como
festivales de música, donde hay muchas marcas activas, festivales de cine,
torneos de golf, maratones...". A la larga lista también habría que sumar
el mundo de la alta costura en el que se están introduciendo trabajando a
través de semanas de la moda de grandes ciudades europeas. Mientras haya
marcas, material audiovisual y exposición en redes, existe un mercado para
ellos.
Apoyando la progresión de este servicio de medición y
analítica de patrocinios en tiempo real, en septiembre se anunció el cierre de
una ronda de financiación de 1,6 millones de dólares estadounidenses con
inversores tan destacados como Dick Costolo, el que fuese CEO de Twitter y
cofundador de FeedBurner con Olechowski.
Yo creo que él vio, por una parte, que era un mercado
importante, un mercado que mueve muchísimo dinero y con un potencial importante,
y por otro, una empresa con un buen equipo, una facturación, unos clientes...
Ha confiado en el global, en este complemento de las redes sociales, ese algo
que las redes sociales no pueden dar porque evidentemente no pueden dedicarse a
asuntos tan específicos.
Costolo se suma a otros inversores como Plug and Play,
aceleradora de la que fue fundador el propio Hortelano, Carlos Domingo, Foundry
Group o la sociedad de capital riesgo Vitamina K.
¿Una red neuronal que lee la mente?
La idea parece sencilla: entrénese una red neuronal para
reconocer lo que uno está viendo a partir de la actividad cerebral. ¿Será esto
posible?
Aparentemente el poder reconocer lo que un sujeto ve a
partir de monitorear su actividad cerebral no es una cuestión de ciencia
ficción, sino una realidad científica. Sin embargo, hay que decir que esto no
se hace a través de leer un electro-encefalograma o bien tomando los impulsos
eléctricos del cráneo y suponer lo que está pensando dicho sujeto. De hecho,
parece ser que los electro-encefalogramas son bastante imprecisos como para
formarse una opinión de lo que ocurre en el cerebro de una persona.
El estudio de los investigadores de la Universidad de Kyoto,
usa los datos de un tomógrafo que indica la actividad particular de cada región
en el cerebro. Específicamente la actividad de la corteza visual se alimenta a
la red neuronal, la cual es entonces entrenada para producir como salida lo que
realmente la persona estudiada está observando.
Y aunque suena casi de ciencia ficción, el asunto es que
funciona. Y no, no se logra una reproducción exacta de la imagen, pero sí una
lo suficientemente cercana para ver la conexión. Pero quizás lo más importante
es que la red trabaja sobre la generación de formas que no fueron parte del
conjunto de entrenamiento, el cual solamente consiste en imágenes naturales.
Esto parece ser un fuerte indicativo que la red neuronal aprendió la estructura
de la corteza visual de forma que copia las relaciones entre las señales de
entrada y la activación de varias áreas.
Añadiendo otra red neuronal para limitar la salida de la
primera red, se llega a mejores resultados, los cuales se acercan más a las
imágenes originalmente usadas para el entrenamiento. Sorprende que esto
funcione tan bien y da la impresión que hay mucho margen para mejorar.
Los investigadores piensan que su enfoque es novedoso porque
permite reconstruir el contenido perceptual y mental de la actividad cerebral
humana, combinando las características visuales de las múltiples capas de una
red neuronal profunda. “Hemos reconstruido con éxito la visión de imágenes
naturales. La reconstrucción de formas artificiales también fue exitosa aunque
incluso los modelos de reconstrucción usados solamente tuvieron acceso a
imágenes naturales”, indicaron.
El mismo método se aplicó a las imágenes para revelar una
reconstrucción del contenido mental, de forma rudimentaria. Nuestro enfoque
podría dar una ventana única a nuestro mundo interno traduciendo la actividad
cerebral en imágenes que tuviesen una jerarquía y características visuales
específicas.
Y sí, podría usarse como una interfaz muy sofisticada para
una computadora, pero bien podría ser usada para leer las mentes de los
sujetos, como se ha visto desde hace mucho en los cuentos de ciencia ficción.
Pero más allá de eso, es claro que la tomografía cerebral nos da mucha más
información de la que podríamos haber esperado antes.
Microsoft crea una IA dibujante y se perfila para artista
Microsoft ha revelado hoy su nueva Inteligencia Artificial
que se especializa en dibujar y ya se perfila a ser un artista. Esta IA es
capaz de crear imágenes a partir de la descripción de un objeto. Pero no solo
eso, sino que es capaz de agregar detalles a la imagen final que no estaban en
la descripción, por lo que Microsoft afirma que “tiene algo de imaginación
propia”.
Lo interesante es que esta IA crea sus propias imágenes por
sí sola. “Si tu vas a Bing y buscas un ave, obtienes la imagen de un ave. Pero
aquí, estas imágenes son creadas por la computadora, pixel por pixel, desde
cero” explicó Xiaodong He, el gerente de investigación del laboratorio del
Centro Tecnológico de Aprendizaje Profundo de Microsoft en Redmond, Washington.
“Estas aves puede que no existan en el mundo real – tan solo son un aspecto de
como nuestra computadora imagina a las aves”.
Esta tecnología, la cual los investigadores llaman
simplemente “bot dibujante” puede generar imágenes de los que sea, desde
escenas pastorales como el ganado pastando en las montañas, hasta autobuses
flotantes.
Para que este bot logre esto, Microsoft lo entrenó con datos
de imágenes emparejadas con un título, lo cual le permitió entender como
emparejar palabras a imágenes. Aprendió a dibujar un ave, cuando el título dice
“ave” y aprendió como es que debería lucir la imagen de un ave. Por este motivo
los investigadores creen que “una máquina puede aprender”.
La tecnología detrás de esta IA consiste en dos modelos de
aprendizaje. La primera para generar imágenes desde descripciones de texto, y
la otra que usa descripciones textuales para juzgar la autenticidad de las
imágenes generadas. La primera tratará de hacer pasar como genuinas imágenes
falsas, pero la última no se dejará ser engañada. Combinadas, trabajan para
crear imágenes de mayor calidad.
Otro punto interesante es que a comparación de otros bots,
este se beneficia entra más específico y detallado sea el texto que se le de, a
comparación otras. Por lo que el siguiente paso de los investigadores será
optimizarlo para tecnología texto a imagen y se use como asistente para
artistas y diseñadores de interiores.
Pero para eso aún hay falta, pues la IA aún tiene sus fallas
como aves con picos de otro color del descrito o como bodegones de frutas con
plátanos mutantes.
Fuente:
https://es.gizmodo.com/la-ia-de-google-confunde-fotos-de-gorilas-con-personas-1822029936
https://www.xataka.com/empresas-y-economia/blinkfire-y-un-enorme-reto-para-la-inteligencia-artificial-medir-bien-por-primera-vez-cuanto-se-ve-el-patrocinador-de-un-equipo-de-futbol
https://www.unocero.com/noticias/ciencia/una-red-neuronal-que-lee-la-mente/
http://www.masgamers.com/microsoft-ia-dibujante-artista