Noticias de la semana - 11


Google está ayudando a la Fuerza Aérea a analizar imágenes de drones con IA


Desde abril de 2017, el Departamento de Defensa de EE. UU. Ha estado buscando formas de aprovechar el aprendizaje automático y la inteligencia artificial a través del Proyecto Maven. Ahora, se ha descubierto que Google ha estado colaborando con la agencia.
Han surgido noticias de que Google está ayudando al Departamento de Defensa a utilizar la inteligencia artificial para analizar secuencias de drones militares. La semana pasada, la información sobre el proyecto se compartió entre los empleados de la compañía y luego fue compartida por Gizmodo .

La iniciativa, conocida como Project Maven , se lanzó en abril de 2017. Su objetivo es proporcionar a la Fuerza Aérea de los EE. UU. Un medio para clasificar la cantidad masiva de imágenes producidas por sus drones autónomos, para descubrir qué elementos requieren análisis humano.

Google ha estado proporcionando su interfaz de programación de aplicaciones TensorFlow (API) al Departamento de Defensa para ayudar a los algoritmos de aprendizaje automático a reconocer objetos particulares. Una declaración de la empresa presentada a Gizmodo subraya que la tecnología se usó para fines no ofensivos.


Sin embargo, aparentemente hay inquietud entre los empleados con respecto al proyecto. Algunos están molestos porque Google está dedicando recursos al uso militar de la tecnología de vigilancia, mientras que otros argumentan que Project Maven plantea preguntas importantes sobre la implementación ética del aprendizaje automático .

También hay resistencia del otro lado del problema. La Agencia Nacional de Inteligencia Geoespacial es una parte del Pentágono que se encarga de analizar imágenes recogidas de satélites y secuencias de drones. Actualmente se encuentra en el proceso de introducir nueva tecnología en sus capacidades, y algunos analistas temen que la dependencia excesiva de los sistemas automatizados en lugar de expertos humanos resultará en una inteligencia menos efectiva.

El aprendizaje automático ciertamente tiene un papel que desempeñar en la vigilancia militar: aparentemente, el Proyecto Maven ha sido empleado en la lucha contra el ISIS desde diciembre de 2017, según un informe de The Bulletin . La pregunta es cómo utilizar estas herramientas de forma ética, y qué tanta supervisión es apropiada, dada la naturaleza de las operaciones militares.



OpenAI quiere hacer una IA segura, pero esa puede ser una tarea imposible


Sabemos que la verdadera inteligencia artificial está en el horizonte, y varias organizaciones están tratando de descubrir cómo podemos protegernos de ella. Sin embargo, las respuestas son difíciles de alcanzar.

La verdadera inteligencia artificial está en camino, y no estamos preparados para eso. Así como nuestros antepasados tuvieron problemas para visualizar todo, desde el automóvil moderno hasta el nacimiento de la computadora, es difícil para la mayoría de las personas imaginarse cuánta tecnología verdaderamente inteligente podría cambiar nuestras vidas tan pronto como en la próxima década  , y cuánto podemos perder si AI sale de nuestro control.

Afortunadamente, hay una liga de personas que trabajan para garantizar que el nacimiento de la inteligencia artificial no sea la muerte de la humanidad. Desde el Instituto Future of Life de Max Tegmark hasta la Future Society de la Harvard Kennedy School of Government, los expertos más reconocidos del mundo unen sus fuerzas para abordar uno de los avances tecnológicos (y las mayores amenazas) más perturbadores que jamás haya enfrentado la humanidad.

Quizás la organización más famosa que nace de esta amenaza existencial es OpenAI. Está respaldado por algunos de los nombres más respetados en la industria: Elon Musk, el multimillonario de SpaceX que fundó Open AI, pero se retiró del consejo este año para evitar conflictos de intereses con Tesla; Sam Altman, el presidente de Y Combinator; y Peter Thiel, de la fama de PayPal, solo por nombrar algunos. Si alguien tiene la oportunidad de asegurar el futuro de la humanidad, es OpenAI.

Pero hay un problema. Cuando se trata de crear IA segura y regular esta tecnología, estas grandes mentes tienen poca idea de lo que están haciendo. Ni siquiera saben por dónde empezar.

El amanecer de una nueva batalla

Mientras viajaba en Dubai, me reuní con Michael Page, el asesor de política y ética de OpenAI. Debajo de los relucientes rascacielos de la autoproclamada "ciudad del futuro", me contó la incertidumbre que enfrenta. Habló de las preguntas que no tienen respuestas, y del precio increíblemente alto que pagaremos si no las encontramos.

La conversación comenzó cuando le pregunté a Page sobre su papel en OpenAI. Respondió que su trabajo es "ver las implicaciones políticas a largo plazo de la inteligencia artificial avanzada". Si piensas que esto parece un tanto intangible y mal definido, no eres el único. Le pregunté a la página qué significa eso, prácticamente hablando. Él fue franco en su respuesta: "Todavía estoy tratando de resolver eso".
Page intentó dar una idea más clara de la situación actual al señalar que, dado que la verdadera inteligencia artificial aún no existe, su trabajo es un poco más difícil que lo normal.

Señaló que, cuando los expertos en políticas consideran cómo proteger al mundo de la IA, realmente están tratando de predecir el futuro. Intentan, como él dijo, "encontrar los modos de falla ... descubrir si hay cursos que podríamos tomar hoy que podrían ponernos en una situación de la que no podamos salir". En resumen, estos expertos en políticas son tratando de salvaguardar el mundo del mañana anticipando problemas y actuando hoy. El problema es que pueden enfrentarse a una tarea imposible.

Page es plenamente consciente de esta incómoda posibilidad, y lo admite fácilmente. "Quiero averiguar qué podemos hacer hoy, en todo caso. Podría ser que el futuro sea tan incierto que no hay nada que podamos hacer ", dijo.


Nuestros problemas no se detienen allí. También cabe la posibilidad de que vamos a averiguar lo que necesitamos hacer para protegernos de las amenazas de AI, y nos damos cuenta de que simplemente no podemos hacerlo. "Podría ser que, aunque podemos predecir el futuro, no hay mucho que podamos hacer porque la tecnología es demasiado inmadura", dijo Page.

Esta falta de claridad no es realmente sorprendente, dada la edad de esta industria. Todavía estamos en el comienzo, por lo que todo lo que tenemos son predicciones y preguntas. Page y sus colegas todavía están tratando de articular el problema que están tratando de resolver, descubrir qué habilidades debemos poner sobre la mesa, y qué responsables políticos tendrán que participar en el juego.

Como tal, cuando se le pidió una predicción concreta de dónde estarían la humanidad y la AI juntos en un año, o en cinco años, Page no ofreció falsas esperanzas: "No tengo idea", dijo.

Sin embargo, Page y OpenAI no están solos trabajando en la búsqueda de soluciones. Por lo tanto, espera que tales soluciones puedan llegar: "Afortunadamente, en un año, tendré una respuesta. Con suerte, en cinco años, habrá miles de personas pensando en esto ", dijo Page.

Bueno, entonces, tal vez es hora de que todos tengamos nuestras tapas de pensamiento.



Es realmente difícil darle a AI "sentido común"


En los humanos, el sentido común es relativamente fácil de identificar, aunque es un poco difícil de definir. Ponte en línea al final? Eso es sentido común. Toma el extremo al rojo vivo de un poker de metal que estuvo en el fuego momentos antes? No tanto.

¿Cómo enseñamos algo tan nebuloso como el sentido común a la inteligencia artificial (AI)? Muchos investigadores han intentado hacerlo y han fallado.

Pero eso podría cambiar pronto. Ahora, el cofundador de Microsoft, Paul Allen, se está uniendo a sus filas.

Allen está invirtiendo $ 125 millones adicionales en su laboratorio de computación sin fines de lucro, el Instituto Allen para Inteligencia Artificial (AI2) , duplicando su presupuesto para los próximos tres años, según The New York Times . Esta afluencia de dinero se destinará a proyectos existentes, así como a Project Alexandria , una nueva iniciativa centrada en la enseñanza del "sentido común" a los robots.

"Cuando fundé AI2, quería ampliar las capacidades de la inteligencia artificial a través de la investigación de alto impacto", dijo Allen en un comunicado de prensa . "Al principio de la investigación de la IA, había una gran cantidad de enfoque en el sentido común, pero ese trabajo se estancó. A AI todavía le falta lo que la mayoría de los niños de 10 años poseen: sentido común. Queremos poner en marcha esa investigación para lograr grandes avances en el campo ".


Las máquinas pueden imitar las tareas humanas si son lo suficientemente específicas. Pueden  ubicar e identificar objetos , escalar , vender casas ,  proporcionar ayuda en desastres y mucho más.

Sin embargo, incluso estas máquinas avanzadas no pueden manejar más que simples preguntas y comandos. ¿Cómo podría uno acercarse a una situación desconocida y usar el "sentido común" para calibrar la acción y la respuesta apropiadas? En este momento, no puede.

"A pesar de los recientes éxitos de IA, el sentido común  ,  que es trivialmente fácil para las personas  , es notablemente difícil para AI", dijo en el comunicado de prensa Oren Etzioni, CEO de AI2. "Ningún sistema de inteligencia artificial actualmente implementado puede responder de manera confiable a una amplia gama de preguntas simples, como: 'Si pongo mis calcetines en un cajón, ¿seguirán allí mañana?' o '¿Cómo puede saber si un cartón de leche está lleno?' "

"Por ejemplo, cuando AlphaGo venció al jugador Go número uno en el mundo en 2016, el programa no sabía que Go es un juego de mesa", agregó Etzioni.

Hay una razón simple por la que no hemos podido enseñar el sentido común de AI hasta este momento: es realmente, muy difícil.


Gary Marcus, el fundador de Geometric Intelligence Company, se inspiró en las formas en que los niños desarrollan el sentido común y el sentido del pensamiento abstracto. Los investigadores del Imperial College London se centraron en la IA simbólica , una técnica en la que un humano etiqueta todo para una IA.

Ninguna de las dos estrategias ha resultado en lo que podríamos definir como "sentido común" para los robots.



El proyecto Alexandria adoptará un enfoque mucho más sólido para el problema. Según el comunicado de prensa, integrará el razonamiento de la máquina de investigación y la visión por computadora, y descubrirá una forma de medir el sentido común. Los investigadores también planean congregar el sentido común de los humanos.

"Estoy muy entusiasmado con el Proyecto Alexandria", dijo en el comunicado de prensa Gary Marcus, fundador de AI lab Geometric Intelligence. "Es el momento adecuado para un nuevo enfoque del problema".

La tarea es desalentadora Pero si AI va a alcanzar el siguiente nivel de utilidad e integración en aún más facetas de vidas humanas, tendremos que superarlo. El proyecto Alexandria podría ser la mejor opción para hacerlo.







Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 36

Noticias de la semana - 52