Noticias de la Semana - 02
Humanos vs IA: dilema a futuro en las empresas
Afectaciones al
trabajo y el modelo de negocio dentro de 3-5 años
El concepto de la Inteligencia Artificial (IA) no es algo
nuevo, pues múltiples compañías a lo largo del mundo han comenzado a aplicar
estos sistemas en la estructura de sus negocios, ya sea para cambiar
radicalmente su forma de operar o para realizar pequeñas pero significativas
mejoras a su rendimiento productivo. Sin embargo, su uso no se encuentra por
completo libre de sus dilemas y controversias, las cuales deberán ser resueltas
en el transcurso de los próximos años para conseguir una implementación
efectiva y contundente.
¿Porqué esta tecnología se ha convertido en un tópico tan
popular en los últimos meses? En primera instancia, el mero poder de
procesamiento computacional ha alcanzado un punto en donde ya no solo es fácil
de adquirir, sino también ha hecho a entender a los tomadores de decisiones su
verdadera propuesta de valor: potenciar las habilidades de los seres humanos.
"Una de nuestras áreas de oportunidad es tomar a la gente y hacerlas
aprender más, lograr más y convertirlas en algo más con estos [sistemas]
basados en IA", comenta Rajat Mishra, Vicepresidente de Servicios
Internacionales de Estrategia e Innovación en Cisco.
A pesar de estas declaraciones, para muchas empresas es
todavía una cuestión sin resolver el decidir en qué parte del espectro
humano-máquina ubicarse: ¿Delegar todas las actividades a personas y no confiar
en programas de computadora? ¿Sustituir todos los trabajos con robots? Para
Chad Steelberg, CEO de Veritone, este dilema ya ha sido resuelto por la
evidencia empírica. "No hemos visto a una sola pérdida de contrato como
resultado de [la implementación de IA]. Lo que realmente ha pasado es el
extremo opuesto: la gente ha comenzado a contratar más talento pues han
conseguido mayores niveles de rendimiento [...] en comparación a los
experimentados por los no-adoptadores".
“Otra gran preocupación en el horizonte de la IA es el
desarrollo de superIAs y la llegada del evento conocido como "la singularidad”
Existen aún más razones por las cuales no se debería jamás
temer un futuro en donde las personas puedan llegar a perder su trabajo a causa
de las máquinas inteligentes. De acuerdo con Robert High, Vicepresidente y CTO
de IBM Watson, no se ha visto un desplazamiento de trabajos humanos por
programas de computadora, sino "una sustitución de tareas. [...] Algunas
actividades las cuales solía realizar el operador ahora son hechas por la IA,
pero [...] hay un número cada vez superior de misiones, más interesantes y
complejas, las cuales se asignan a los individuos. [...] Al final, se deja [al
trabajador] más satisfecho sobre el trabajo que hizo a lo largo del día [...]
pues no se les dejaron todas estas tareas mundanas y tediosas las cuales no les
gusta hacer".
Sin embargo, el proceso de adopción de estos nuevos procesos
de computación cognitiva podría no ser inmediato y de hecho es probable que
lleve entre 3 y 5 años para ver a los representantes más tradicionales de las
diferentes industrias aplicar estos esquemas. "A principios de [la década
de] 2020, se comenzarán a ver grandes cambios en los procesos de negocio dentro
de áreas como call centers, servicios a cliente, manufactura, logística de
operaciones", afirma Ron Bodkin, Director Técnico en IA Aplicada de
Google. Esta reestructuración silenciosa de los mayores actores de los
principales mercados marcaría un punto de inflexión importante en la forma en
la cual se perciben a las compañías y su forma regular de operar.
Estas no son las únicas temáticas de preocupación con
respecto al tema. Los cuatro expertos concuerdan en cómo los próximos años
lentamente comenzarán a ver temas como la singularidad y la creación de una
superIA (un programa computacional cognitivo consciente de sí mismo) volverse
temas de conversación recurrentes. Ésto debido a que, si llegara a concretarse
este tipo de tecnología, sería un elemento tan disruptivo el cual podría
"convertirse en la última invención del ser humano. Y no habrá una segunda
oportunidad para hacerlo bien".
El terrorismo se sofistica: un enjambre de drones caseros
ataca base militar rusa
En lo que parece una versión de bajo presupuesto de la serie
Black Mirror, una base militar rusa estacionada en Siria ha sido atacada por un
enjambre de drones caseros. Así lo ha comunicado el Ministerio de Defensa de
Rusia y lo ha reportado The Guardian. Este es el primer asalto coordinado de
este tipo en una acción militar.
Según el Ministerio de Defensa ruso, las fuerzas apostadas
en la base aérea Khmeimim y las instalaciones navales de Tartus "evitaron
con éxito un ataque terrorista con la aplicación masiva de vehículos aéreos no
tripulados (UAV)" el viernes pasado por la noche.
"Al caer la noche, las fuerzas de defensa aérea de
Rusia detectaron 13 blancos aéreos no identificados de tamaño pequeño a una
distancia considerable que se acercaba a las bases militares rusas", dijo
el ministerio en un comunicado. "Diez drones de asalto se acercaban a la
base aérea Khmeimim, y otros tres: el punto CSS en Tartus".
Seis de los drones de la fuerza de asalto fueron
interceptados por las unidades rusas de guerra electrónica, tres de ellas
fueron obligadas a aterrizar fuera de la base y las otras tres explotaron al
contacto con el suelo. Otros siete drones fueron eliminados por misiles
antiaéreos Pantsir-S. Por fortuna, no se reportaron ni bajas ni daños
materiales
Aunque las fotografías de los drones caseros utilizados en
el ataque muestran aviones mal hechos, el análisis de los rusos revela que
estaban armados con explosivos y fueron lanzados desde un sitio a más de 50
kilómetros de sus objetivos, navegando por la ruta vía GPS y sensores de
control de altitud.
Los oficiales rusos aseguran que un examen técnico indicó
que estos drones tendrían un alcance efectivo de ataque de unos 100 kilómetros,
una distancia bastante impresionante para ser un vehículo casero. Esta
característica indica que pronto podrían verse drones-bomba y atacar objetivos que
antes se creían seguros. "(Los militares rusos) pensaron que la base era
segura, pero ahora parece que es vulnerable", dijo Maxim Suchkov, del
Consejo de Asuntos Internacionales de Rusia, al Washington Post.
Tecnología bastante avanzada
Se desconoce quién lanzó el ataque ya que nadie se lo ha
atribuido hasta el momento. Pero los rusos han insinuado que la tecnología
utilizada era demasiado avanzada para los militantes locales, visto como una
sugerencia de que podría haber sido suministrada por las fuerzas
estadounidenses en las cercanías, algo que el Pentágono aclara es
"absolutamente falso".
Aunque todavía hay detalles que se desconocen o faltan
esclarecer, todo parece sugerir que estamos por entrar en una etapa en cómo se
libran las guerras. O lo que es peor, en una forma de hacer terrorismo.
"Quién sabe cuán precisos son realmente algunos de
estos detalles, pero si el número de drones lanzados en la instalación es
correcto, parecería ser el primer asalto autónomo, a gran escala, coordinado,
de aviones no tripulados en una instalación fija", informa Tyler Rogoway
en The Drive. "Parece que la era de los enjambres de drones ha llegado, y
esa es una realidad aterradora de comprender".
Aunque esta es la primera vez que se usan drones en enjambre
para atacar un objetivo militar, esta no es la primera vez que los aviones no
tripulados se usan para hacer daño. Hace aproximadamente un año, el grupo
terrorista Daesh, utilizó drones para atacar la población civil en Iraq.
"La aplicación de la IA se roba la atención en la
CES"
"A diferencia de otros años en los que los
protagonistas son presentaciones de nuevos aparatos, en esta ocasión la
prioridad es el uso cotidiano de las tecnologías."
Imagen
Por más de 50 años, la Feria de Electrónica de Consumo (CES,
por su sigla en inglés) ha sido el escenario donde los productos tecnológicos
más importantes hacen su aparición. Esta ocasión la estrella del show no es una
nueva televisión o tecnología de la que no hayamos escuchado, sino los usos
prácticos de la inteligencia artificial (IA), el internet de las cosas (IoT) y
el 5G.
LG presentó la actualización de su plataforma ThinQ que
permite utilizar el aprendizaje y comunicar entre sí todos sus
electrodomésticos o pantallas, utilizando IA de otros socios, así como la
propia de la firma llamada DeepThinQ.
Al mismo tiempo, formalizó el lanzamiento de su marca de
robot CLOi, cuyo objetivo es convertirse en el centro de control y todos los
demás gadgets del hogar, pero no solo eso sino también que sea un integrante
más de la familia que aprenda de cada miembro y permita una interacción más
“humana” con la tecnología.
Por su lado, Samsung se enfocó a “la inteligencia de las
cosas” —la combinación de la IA y el IoT— que intentará conectar todos sus
productos al mismo tiempo y que también aprendan del usuario.
Hyunsuk Kim, presidente y jefe de la División de Electrónica
de Consumo de la firma y de Samsung Research, aseguró en este CES 2018 que la
empresa acelerará la adopción de la IoT para que todos los dispositivos
conectados a Samsung sean inteligentes para 2020.
Mientras tanto, durante su conferencia, Sony decidió no
hablar tanto de lanzamiento de nuevos productos sino de cómo mediante sus
divisiones está presente en las tendencias tecnológicas más importantes, como
vehículos autónomos, drones, robots y, obviamente, la actualización y
optimización de tecnologías como OLED, que gracias a sus propios procesadores
han mejorado la calidad y han creado sus estándares en su línea Bravia.
Por su parte, Qualcomm se enfocó en cómo está implementando,
junto con otros actores de la industria, la llamada red 5G que no está pensada
solamente en hacer más rápida y eficiente la velocidad del internet móvil,
justamente para lograr que estos dispositivos se conectan de manera
inalámbrica, con una gran calidad y sin retraso en la comunicación.
Y es que cualquier coche autónomo o ciudad que pretende
llenar de sensores sus calles para lograr comunicar los semáforos con servicios
de emergencia y otros vehículos necesitan de una red de este tipo, pero no
depende solo de las compañías de tecnología que se implemente, sino de
gobiernos y empresas de telefonía celular que logran crear infraestructura
necesaria y los marcos legales para que sea una realidad en varios países.
Intel también aprovechó el espacio en el centro de
convenciones de Las Vegas, para mostrar las capacidades y bondades que da la
tecnología 5G, y lograr transmisiones en vivo en realidad virtual, vehículos
autónomos seguros interconectividad, entre dispositivos.
Este año el CES fue un encuentro donde estas tecnologías, un
poco intangibles, ya no son solo un proyecto sino una realidad que poco a poco
están vendiéndose y que llegan a las casas del consumidor final, pero aún falta
mucho ya que los primeros gadgets con estas capacidades siguen siendo de un
costo elevado, pero en el mundo la tenencia siempre es que los costos bajen muy
rápido, así que el pronóstico es que para el próximo año estos conceptos del
IoT y la IA, en conjunto, sean parte de la vida diaria de millones de personas
alrededor del mundo.
OBJETOS INSERVIBLES
A pesar de que el CES es el show de tecnología más
importante en el mundo, la inclemencia de una pequeña lluvia hizo que este
encuentro de geeks se quedara literalmente desconectado por una hora y media.
Al medio día de ayer, el pabellón principal del centro de
convenciones de Las Vegas sufrió un apagón que dejó booths o stands de las
marcas más importantes de tecnología del mundo sin energía eléctrica.
Así los gadgets más novedosos, la realidad virtual y
aumentada, los vehículos autónomos, las grandes televisiones 4k y 8k, se
apagaron y se convirtieron en objetos inservibles, ya que uno de los
generadores de centro de convenciones sufrió una avería luego del aguacero que
cayó el martes en la ciudad de Las Vegas, tras más de 100 días sin una gota de
lluvia.
Los asistentes al CES fueron desalojados del pabellón
principal y no se permitió la entrada al lugar por más de una hora.
De esta manera quedó demostrado que aunque se tenga la mejor
tecnología un simple bajón del switch puede acabar con ella.
CES 2018: Misty I, el robot que programa robots
La compañía Misty Robotics presentó el robot Misty I para
desarrolladores. Está equipado con un módulo computacional, un chasis de orugas
para moverse y varios sensores. Los desarrolladores pueden programarlo para sus
necesidades y también ampliar sus capacidades con sensores o tarjetas
adicionales, informa IEEE Spectrum.
No siempre los programadores que desarrollan software para
robots tienen las mismas habilidades avanzadas de ingeniería para crear una
plataforma de hardware. Para que los programadores se concentren en los
componentes del programa, algunas compañías producen robots listos para usar
con software de código abierto específicamente destinados a proyectos de
investigación.
Los ingenieros de Misty Robotics también han creado un robot
para estos fines, pero además de la apariencia y el tamaño, cuenta con
características importantes que lo diferencian de otros desarrollos similares:
los usuarios no solo pueden programarlo para sus propias necesidades, sino
también ampliar sus capacidades a nivel de hardware. Para ello tiene puertos
USB y otros puertos a través de los cuales se pueden conectar nuevos sensores o
tarjetas de microcontroladores, por ejemplo, Arduino. El robot tiene una altura
de 37 centímetros y está montado en una plataforma de orugas para moverse.
El robot está equipado con dos procesadores Qualcomm
Snapdragon, pero el fabricante no revela qué chips se utilizan. También tiene
una cámara instalada para reconocer rostros y objetos, una cámara de
profundidad aparte para crear un mapa del espacio que lo rodea, tres sensores
de distancia, tres micrófonos, un altavoz, un LED RGB y una pantalla en la que
se pueden mostrar emociones.
El usuario puede programar al robot en un entorno especial
de programación visual basado en Blockly o mediante JavaScript. La versión
Misty I está diseñada para desarrolladores y por ahora es producida manualmente
por los ingenieros de la compañía. Costará 1.499 dólares estadounidenses y las
entregas comenzarán en febrero. Antes de fin de año, la compañía planea
comenzar la producción masiva de la versión Misty II.
Otras compañías también producen hardware listo para
programadores. Por ejemplo, Google lanzó AIY Vision Kit, un set de
autoensamblaje para aficionados a la fotografía y la inteligencia artificial,
que permite armar un dispositivo digital capaz de registrar y reconocer objetos
sobre la base del conocimiento adquirido por redes neurales. El kit incluye una
cámara y un chip especial, que permite procesar las imágenes directamente en el
dispositivo sin la necesidad de conectarlo a una computadora externa o servicio
en la nube.
Fuente