Noticias de la Semana - 02


Humanos vs IA: dilema a futuro en las empresas

Afectaciones al trabajo y el modelo de negocio dentro de 3-5 años


El concepto de la Inteligencia Artificial (IA) no es algo nuevo, pues múltiples compañías a lo largo del mundo han comenzado a aplicar estos sistemas en la estructura de sus negocios, ya sea para cambiar radicalmente su forma de operar o para realizar pequeñas pero significativas mejoras a su rendimiento productivo. Sin embargo, su uso no se encuentra por completo libre de sus dilemas y controversias, las cuales deberán ser resueltas en el transcurso de los próximos años para conseguir una implementación efectiva y contundente.

¿Porqué esta tecnología se ha convertido en un tópico tan popular en los últimos meses? En primera instancia, el mero poder de procesamiento computacional ha alcanzado un punto en donde ya no solo es fácil de adquirir, sino también ha hecho a entender a los tomadores de decisiones su verdadera propuesta de valor: potenciar las habilidades de los seres humanos. "Una de nuestras áreas de oportunidad es tomar a la gente y hacerlas aprender más, lograr más y convertirlas en algo más con estos [sistemas] basados en IA", comenta Rajat Mishra, Vicepresidente de Servicios Internacionales de Estrategia e Innovación en Cisco.

A pesar de estas declaraciones, para muchas empresas es todavía una cuestión sin resolver el decidir en qué parte del espectro humano-máquina ubicarse: ¿Delegar todas las actividades a personas y no confiar en programas de computadora? ¿Sustituir todos los trabajos con robots? Para Chad Steelberg, CEO de Veritone, este dilema ya ha sido resuelto por la evidencia empírica. "No hemos visto a una sola pérdida de contrato como resultado de [la implementación de IA]. Lo que realmente ha pasado es el extremo opuesto: la gente ha comenzado a contratar más talento pues han conseguido mayores niveles de rendimiento [...] en comparación a los experimentados por los no-adoptadores".

“Otra gran preocupación en el horizonte de la IA es el desarrollo de superIAs y la llegada del evento conocido como "la singularidad”

Existen aún más razones por las cuales no se debería jamás temer un futuro en donde las personas puedan llegar a perder su trabajo a causa de las máquinas inteligentes. De acuerdo con Robert High, Vicepresidente y CTO de IBM Watson, no se ha visto un desplazamiento de trabajos humanos por programas de computadora, sino "una sustitución de tareas. [...] Algunas actividades las cuales solía realizar el operador ahora son hechas por la IA, pero [...] hay un número cada vez superior de misiones, más interesantes y complejas, las cuales se asignan a los individuos. [...] Al final, se deja [al trabajador] más satisfecho sobre el trabajo que hizo a lo largo del día [...] pues no se les dejaron todas estas tareas mundanas y tediosas las cuales no les gusta hacer".

Sin embargo, el proceso de adopción de estos nuevos procesos de computación cognitiva podría no ser inmediato y de hecho es probable que lleve entre 3 y 5 años para ver a los representantes más tradicionales de las diferentes industrias aplicar estos esquemas. "A principios de [la década de] 2020, se comenzarán a ver grandes cambios en los procesos de negocio dentro de áreas como call centers, servicios a cliente, manufactura, logística de operaciones", afirma Ron Bodkin, Director Técnico en IA Aplicada de Google. Esta reestructuración silenciosa de los mayores actores de los principales mercados marcaría un punto de inflexión importante en la forma en la cual se perciben a las compañías y su forma regular de operar.

Estas no son las únicas temáticas de preocupación con respecto al tema. Los cuatro expertos concuerdan en cómo los próximos años lentamente comenzarán a ver temas como la singularidad y la creación de una superIA (un programa computacional cognitivo consciente de sí mismo) volverse temas de conversación recurrentes. Ésto debido a que, si llegara a concretarse este tipo de tecnología, sería un elemento tan disruptivo el cual podría "convertirse en la última invención del ser humano. Y no habrá una segunda oportunidad para hacerlo bien".


El terrorismo se sofistica: un enjambre de drones caseros ataca base militar rusa


En lo que parece una versión de bajo presupuesto de la serie Black Mirror, una base militar rusa estacionada en Siria ha sido atacada por un enjambre de drones caseros. Así lo ha comunicado el Ministerio de Defensa de Rusia y lo ha reportado The Guardian. Este es el primer asalto coordinado de este tipo en una acción militar.

Según el Ministerio de Defensa ruso, las fuerzas apostadas en la base aérea Khmeimim y las instalaciones navales de Tartus "evitaron con éxito un ataque terrorista con la aplicación masiva de vehículos aéreos no tripulados (UAV)" el viernes pasado por la noche.

"Al caer la noche, las fuerzas de defensa aérea de Rusia detectaron 13 blancos aéreos no identificados de tamaño pequeño a una distancia considerable que se acercaba a las bases militares rusas", dijo el ministerio en un comunicado. "Diez drones de asalto se acercaban a la base aérea Khmeimim, y otros tres: el punto CSS en Tartus".

Seis de los drones de la fuerza de asalto fueron interceptados por las unidades rusas de guerra electrónica, tres de ellas fueron obligadas a aterrizar fuera de la base y las otras tres explotaron al contacto con el suelo. Otros siete drones fueron eliminados por misiles antiaéreos Pantsir-S. Por fortuna, no se reportaron ni bajas ni daños materiales


Aunque las fotografías de los drones caseros utilizados en el ataque muestran aviones mal hechos, el análisis de los rusos revela que estaban armados con explosivos y fueron lanzados desde un sitio a más de 50 kilómetros de sus objetivos, navegando por la ruta vía GPS y sensores de control de altitud.

Los oficiales rusos aseguran que un examen técnico indicó que estos drones tendrían un alcance efectivo de ataque de unos 100 kilómetros, una distancia bastante impresionante para ser un vehículo casero. Esta característica indica que pronto podrían verse drones-bomba y atacar objetivos que antes se creían seguros. "(Los militares rusos) pensaron que la base era segura, pero ahora parece que es vulnerable", dijo Maxim Suchkov, del Consejo de Asuntos Internacionales de Rusia, al Washington Post.

Tecnología bastante avanzada
Se desconoce quién lanzó el ataque ya que nadie se lo ha atribuido hasta el momento. Pero los rusos han insinuado que la tecnología utilizada era demasiado avanzada para los militantes locales, visto como una sugerencia de que podría haber sido suministrada por las fuerzas estadounidenses en las cercanías, algo que el Pentágono aclara es "absolutamente falso".

Aunque todavía hay detalles que se desconocen o faltan esclarecer, todo parece sugerir que estamos por entrar en una etapa en cómo se libran las guerras. O lo que es peor, en una forma de hacer terrorismo.


"Quién sabe cuán precisos son realmente algunos de estos detalles, pero si el número de drones lanzados en la instalación es correcto, parecería ser el primer asalto autónomo, a gran escala, coordinado, de aviones no tripulados en una instalación fija", informa Tyler Rogoway en The Drive. "Parece que la era de los enjambres de drones ha llegado, y esa es una realidad aterradora de comprender".

Aunque esta es la primera vez que se usan drones en enjambre para atacar un objetivo militar, esta no es la primera vez que los aviones no tripulados se usan para hacer daño. Hace aproximadamente un año, el grupo terrorista Daesh, utilizó drones para atacar la población civil en Iraq.


"La aplicación de la IA se roba la atención en la CES"

"A diferencia de otros años en los que los protagonistas son presentaciones de nuevos aparatos, en esta ocasión la prioridad es el uso cotidiano de las tecnologías."
Imagen


Por más de 50 años, la Feria de Electrónica de Consumo (CES, por su sigla en inglés) ha sido el escenario donde los productos tecnológicos más importantes hacen su aparición. Esta ocasión la estrella del show no es una nueva televisión o tecnología de la que no hayamos escuchado, sino los usos prácticos de la inteligencia artificial (IA), el internet de las cosas (IoT) y el 5G.

LG presentó la actualización de su plataforma ThinQ que permite utilizar el aprendizaje y comunicar entre sí todos sus electrodomésticos o pantallas, utilizando IA de otros socios, así como la propia de la firma llamada DeepThinQ.

Al mismo tiempo, formalizó el lanzamiento de su marca de robot CLOi, cuyo objetivo es convertirse en el centro de control y todos los demás gadgets del hogar, pero no solo eso sino también que sea un integrante más de la familia que aprenda de cada miembro y permita una interacción más “humana” con la tecnología.

Por su lado, Samsung se enfocó a “la inteligencia de las cosas” —la combinación de la IA y el IoT— que intentará conectar todos sus productos al mismo tiempo y que también aprendan del usuario.

Hyunsuk Kim, presidente y jefe de la División de Electrónica de Consumo de la firma y de Samsung Research, aseguró en este CES 2018 que la empresa acelerará la adopción de la IoT para que todos los dispositivos conectados a Samsung sean inteligentes para 2020.

Mientras tanto, durante su conferencia, Sony decidió no hablar tanto de lanzamiento de nuevos productos sino de cómo mediante sus divisiones está presente en las tendencias tecnológicas más importantes, como vehículos autónomos, drones, robots y, obviamente, la actualización y optimización de tecnologías como OLED, que gracias a sus propios procesadores han mejorado la calidad y han creado sus estándares en su línea Bravia.

Por su parte, Qualcomm se enfocó en cómo está implementando, junto con otros actores de la industria, la llamada red 5G que no está pensada solamente en hacer más rápida y eficiente la velocidad del internet móvil, justamente para lograr que estos dispositivos se conectan de manera inalámbrica, con una gran calidad y sin retraso en la comunicación.

Y es que cualquier coche autónomo o ciudad que pretende llenar de sensores sus calles para lograr comunicar los semáforos con servicios de emergencia y otros vehículos necesitan de una red de este tipo, pero no depende solo de las compañías de tecnología que se implemente, sino de gobiernos y empresas de telefonía celular que logran crear infraestructura necesaria y los marcos legales para que sea una realidad en varios países.

Intel también aprovechó el espacio en el centro de convenciones de Las Vegas, para mostrar las capacidades y bondades que da la tecnología 5G, y lograr transmisiones en vivo en realidad virtual, vehículos autónomos seguros interconectividad, entre dispositivos.

Este año el CES fue un encuentro donde estas tecnologías, un poco intangibles, ya no son solo un proyecto sino una realidad que poco a poco están vendiéndose y que llegan a las casas del consumidor final, pero aún falta mucho ya que los primeros gadgets con estas capacidades siguen siendo de un costo elevado, pero en el mundo la tenencia siempre es que los costos bajen muy rápido, así que el pronóstico es que para el próximo año estos conceptos del IoT y la IA, en conjunto, sean parte de la vida diaria de millones de personas alrededor del mundo.

OBJETOS INSERVIBLES

A pesar de que el CES es el show de tecnología más importante en el mundo, la inclemencia de una pequeña lluvia hizo que este encuentro de geeks se quedara literalmente desconectado por una hora y media.

Al medio día de ayer, el pabellón principal del centro de convenciones de Las Vegas sufrió un apagón que dejó booths o stands de las marcas más importantes de tecnología del mundo sin energía eléctrica.

Así los gadgets más novedosos, la realidad virtual y aumentada, los vehículos autónomos, las grandes televisiones 4k y 8k, se apagaron y se convirtieron en objetos inservibles, ya que uno de los generadores de centro de convenciones sufrió una avería luego del aguacero que cayó el martes en la ciudad de Las Vegas, tras más de 100 días sin una gota de lluvia.

Los asistentes al CES fueron desalojados del pabellón principal y no se permitió la entrada al lugar por más de una hora.

De esta manera quedó demostrado que aunque se tenga la mejor tecnología un simple bajón del switch puede acabar con ella.


CES 2018: Misty I, el robot que programa robots


La compañía Misty Robotics presentó el robot Misty I para desarrolladores. Está equipado con un módulo computacional, un chasis de orugas para moverse y varios sensores. Los desarrolladores pueden programarlo para sus necesidades y también ampliar sus capacidades con sensores o tarjetas adicionales, informa IEEE Spectrum.

No siempre los programadores que desarrollan software para robots tienen las mismas habilidades avanzadas de ingeniería para crear una plataforma de hardware. Para que los programadores se concentren en los componentes del programa, algunas compañías producen robots listos para usar con software de código abierto específicamente destinados a proyectos de investigación.

Los ingenieros de Misty Robotics también han creado un robot para estos fines, pero además de la apariencia y el tamaño, cuenta con características importantes que lo diferencian de otros desarrollos similares: los usuarios no solo pueden programarlo para sus propias necesidades, sino también ampliar sus capacidades a nivel de hardware. Para ello tiene puertos USB y otros puertos a través de los cuales se pueden conectar nuevos sensores o tarjetas de microcontroladores, por ejemplo, Arduino. El robot tiene una altura de 37 centímetros y está montado en una plataforma de orugas para moverse.


El robot está equipado con dos procesadores Qualcomm Snapdragon, pero el fabricante no revela qué chips se utilizan. También tiene una cámara instalada para reconocer rostros y objetos, una cámara de profundidad aparte para crear un mapa del espacio que lo rodea, tres sensores de distancia, tres micrófonos, un altavoz, un LED RGB y una pantalla en la que se pueden mostrar emociones.

El usuario puede programar al robot en un entorno especial de programación visual basado en Blockly o mediante JavaScript. La versión Misty I está diseñada para desarrolladores y por ahora es producida manualmente por los ingenieros de la compañía. Costará 1.499 dólares estadounidenses y las entregas comenzarán en febrero. Antes de fin de año, la compañía planea comenzar la producción masiva de la versión Misty II.

Otras compañías también producen hardware listo para programadores. Por ejemplo, Google lanzó AIY Vision Kit, un set de autoensamblaje para aficionados a la fotografía y la inteligencia artificial, que permite armar un dispositivo digital capaz de registrar y reconocer objetos sobre la base del conocimiento adquirido por redes neurales. El kit incluye una cámara y un chip especial, que permite procesar las imágenes directamente en el dispositivo sin la necesidad de conectarlo a una computadora externa o servicio en la nube.



Fuente





Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 52

Noticias de la semana - 39