Noticias de la semana - 11
Google está ayudando a la Fuerza Aérea a analizar imágenes
de drones con IA
Desde abril de 2017, el Departamento de Defensa de EE. UU.
Ha estado buscando formas de aprovechar el aprendizaje automático y la
inteligencia artificial a través del Proyecto Maven. Ahora, se ha descubierto
que Google ha estado colaborando con la agencia.
Han surgido noticias de que Google está ayudando al
Departamento de Defensa a utilizar la inteligencia artificial para analizar
secuencias de drones militares. La semana pasada, la información sobre el
proyecto se compartió entre los empleados de la compañía y luego fue compartida
por Gizmodo .
La iniciativa, conocida como Project Maven , se lanzó en
abril de 2017. Su objetivo es proporcionar a la Fuerza Aérea de los EE. UU. Un
medio para clasificar la cantidad masiva de imágenes producidas por sus drones
autónomos, para descubrir qué elementos requieren análisis humano.
Google ha estado proporcionando su interfaz de programación
de aplicaciones TensorFlow (API) al Departamento de Defensa para ayudar a los
algoritmos de aprendizaje automático a reconocer objetos particulares. Una
declaración de la empresa presentada a Gizmodo subraya que la tecnología se usó
para fines no ofensivos.
Sin embargo, aparentemente hay inquietud entre los empleados
con respecto al proyecto. Algunos están molestos porque Google está dedicando
recursos al uso militar de la tecnología de vigilancia, mientras que otros
argumentan que Project Maven plantea preguntas importantes sobre la
implementación ética del aprendizaje automático .
También hay resistencia del otro lado del problema. La
Agencia Nacional de Inteligencia Geoespacial es una parte del Pentágono que se
encarga de analizar imágenes recogidas de satélites y secuencias de drones.
Actualmente se encuentra en el proceso de introducir nueva tecnología en sus capacidades,
y algunos analistas temen que la dependencia excesiva de los sistemas
automatizados en lugar de expertos humanos resultará en una inteligencia menos
efectiva.
El aprendizaje automático ciertamente tiene un papel que
desempeñar en la vigilancia militar: aparentemente, el Proyecto Maven ha sido
empleado en la lucha contra el ISIS desde diciembre de 2017, según un informe
de The Bulletin . La pregunta es cómo utilizar estas herramientas de forma
ética, y qué tanta supervisión es apropiada, dada la naturaleza de las
operaciones militares.
OpenAI quiere hacer una IA segura, pero esa puede ser una
tarea imposible
Sabemos que la verdadera inteligencia artificial está en el
horizonte, y varias organizaciones están tratando de descubrir cómo podemos
protegernos de ella. Sin embargo, las respuestas son difíciles de alcanzar.
La verdadera inteligencia artificial está en camino, y no
estamos preparados para eso. Así como nuestros antepasados tuvieron problemas
para visualizar todo, desde el automóvil moderno hasta el nacimiento de la
computadora, es difícil para la mayoría de las personas imaginarse cuánta
tecnología verdaderamente inteligente podría cambiar nuestras vidas tan pronto
como en la próxima década , y cuánto
podemos perder si AI sale de nuestro control.
Afortunadamente, hay una liga de personas que trabajan para
garantizar que el nacimiento de la inteligencia artificial no sea la muerte de
la humanidad. Desde el Instituto Future of Life de Max Tegmark hasta la Future
Society de la Harvard Kennedy School of Government, los expertos más
reconocidos del mundo unen sus fuerzas para abordar uno de los avances
tecnológicos (y las mayores amenazas) más perturbadores que jamás haya
enfrentado la humanidad.
Quizás la organización más famosa que nace de esta amenaza
existencial es OpenAI. Está respaldado por algunos de los nombres más
respetados en la industria: Elon Musk, el multimillonario de SpaceX que fundó
Open AI, pero se retiró del consejo este año para evitar conflictos de
intereses con Tesla; Sam Altman, el presidente de Y Combinator; y Peter Thiel,
de la fama de PayPal, solo por nombrar algunos. Si alguien tiene la oportunidad
de asegurar el futuro de la humanidad, es OpenAI.
Pero hay un problema. Cuando se trata de crear IA segura y
regular esta tecnología, estas grandes mentes tienen poca idea de lo que están
haciendo. Ni siquiera saben por dónde empezar.
El amanecer de una nueva batalla
Mientras viajaba en Dubai, me reuní con Michael Page, el
asesor de política y ética de OpenAI. Debajo de los relucientes rascacielos de
la autoproclamada "ciudad del futuro", me contó la incertidumbre que
enfrenta. Habló de las preguntas que no tienen respuestas, y del precio
increíblemente alto que pagaremos si no las encontramos.
La conversación comenzó cuando le pregunté a Page sobre su
papel en OpenAI. Respondió que su trabajo es "ver las implicaciones
políticas a largo plazo de la inteligencia artificial avanzada". Si
piensas que esto parece un tanto intangible y mal definido, no eres el único.
Le pregunté a la página qué significa eso, prácticamente hablando. Él fue
franco en su respuesta: "Todavía estoy tratando de resolver eso".
Page intentó dar una idea más clara de la situación actual
al señalar que, dado que la verdadera inteligencia artificial aún no existe, su
trabajo es un poco más difícil que lo normal.
Señaló que, cuando los expertos en políticas consideran cómo
proteger al mundo de la IA, realmente están tratando de predecir el futuro.
Intentan, como él dijo, "encontrar los modos de falla ... descubrir si hay
cursos que podríamos tomar hoy que podrían ponernos en una situación de la que
no podamos salir". En resumen, estos expertos en políticas son tratando de
salvaguardar el mundo del mañana anticipando problemas y actuando hoy. El
problema es que pueden enfrentarse a una tarea imposible.
Page es plenamente consciente de esta incómoda posibilidad,
y lo admite fácilmente. "Quiero averiguar qué podemos hacer hoy, en todo
caso. Podría ser que el futuro sea tan incierto que no hay nada que podamos
hacer ", dijo.
Nuestros problemas no se detienen allí. También cabe la
posibilidad de que vamos a averiguar lo que necesitamos hacer para protegernos
de las amenazas de AI, y nos damos cuenta de que simplemente no podemos
hacerlo. "Podría ser que, aunque podemos predecir el futuro, no hay mucho
que podamos hacer porque la tecnología es demasiado inmadura", dijo Page.
Esta falta de claridad no es realmente sorprendente, dada la
edad de esta industria. Todavía estamos en el comienzo, por lo que todo lo que tenemos
son predicciones y preguntas. Page y sus colegas todavía están tratando de
articular el problema que están tratando de resolver, descubrir qué habilidades
debemos poner sobre la mesa, y qué responsables políticos tendrán que
participar en el juego.
Como tal, cuando se le pidió una predicción concreta de
dónde estarían la humanidad y la AI juntos en un año, o en cinco años, Page no
ofreció falsas esperanzas: "No tengo idea", dijo.
Sin embargo, Page y OpenAI no están solos trabajando en la
búsqueda de soluciones. Por lo tanto, espera que tales soluciones puedan
llegar: "Afortunadamente, en un año, tendré una respuesta. Con suerte, en
cinco años, habrá miles de personas pensando en esto ", dijo Page.
Bueno, entonces, tal vez es hora de que todos tengamos
nuestras tapas de pensamiento.
Es realmente difícil darle a AI "sentido común"
En los humanos, el sentido común es relativamente fácil de
identificar, aunque es un poco difícil de definir. Ponte en línea al final? Eso
es sentido común. Toma el extremo al rojo vivo de un poker de metal que estuvo
en el fuego momentos antes? No tanto.
¿Cómo enseñamos algo tan nebuloso como el sentido común a la
inteligencia artificial (AI)? Muchos investigadores han intentado hacerlo y han
fallado.
Pero eso podría cambiar pronto. Ahora, el cofundador de
Microsoft, Paul Allen, se está uniendo a sus filas.
Allen está invirtiendo $ 125 millones adicionales en su
laboratorio de computación sin fines de lucro, el Instituto Allen para
Inteligencia Artificial (AI2) , duplicando su presupuesto para los próximos
tres años, según The New York Times . Esta afluencia de dinero se destinará a
proyectos existentes, así como a Project Alexandria , una nueva iniciativa
centrada en la enseñanza del "sentido común" a los robots.
"Cuando fundé AI2, quería ampliar las capacidades de la
inteligencia artificial a través de la investigación de alto impacto",
dijo Allen en un comunicado de prensa . "Al principio de la investigación
de la IA, había una gran cantidad de enfoque en el sentido común, pero ese
trabajo se estancó. A AI todavía le falta lo que la mayoría de los niños de 10
años poseen: sentido común. Queremos poner en marcha esa investigación para
lograr grandes avances en el campo ".
Las máquinas pueden imitar las tareas humanas si son lo
suficientemente específicas. Pueden
ubicar e identificar objetos , escalar , vender casas , proporcionar ayuda en desastres y mucho más.
Sin embargo, incluso estas máquinas avanzadas no pueden
manejar más que simples preguntas y comandos. ¿Cómo podría uno acercarse a una
situación desconocida y usar el "sentido común" para calibrar la
acción y la respuesta apropiadas? En este momento, no puede.
"A pesar de los recientes éxitos de IA, el sentido
común ,
que es trivialmente fácil para las personas , es notablemente difícil para AI", dijo
en el comunicado de prensa Oren Etzioni, CEO de AI2. "Ningún sistema de
inteligencia artificial actualmente implementado puede responder de manera
confiable a una amplia gama de preguntas simples, como: 'Si pongo mis
calcetines en un cajón, ¿seguirán allí mañana?' o '¿Cómo puede saber si un
cartón de leche está lleno?' "
"Por ejemplo, cuando AlphaGo venció al jugador Go
número uno en el mundo en 2016, el programa no sabía que Go es un juego de
mesa", agregó Etzioni.
Hay una razón simple por la que no hemos podido enseñar el
sentido común de AI hasta este momento: es realmente, muy difícil.
Gary Marcus, el fundador de Geometric Intelligence Company,
se inspiró en las formas en que los niños desarrollan el sentido común y el
sentido del pensamiento abstracto. Los investigadores del Imperial College
London se centraron en la IA simbólica , una técnica en la que un humano
etiqueta todo para una IA.
Ninguna de las dos estrategias ha resultado en lo que
podríamos definir como "sentido común" para los robots.
El proyecto Alexandria adoptará un enfoque mucho más sólido
para el problema. Según el comunicado de prensa, integrará el razonamiento de
la máquina de investigación y la visión por computadora, y descubrirá una forma
de medir el sentido común. Los investigadores también planean congregar el
sentido común de los humanos.
"Estoy muy entusiasmado con el Proyecto
Alexandria", dijo en el comunicado de prensa Gary Marcus, fundador de AI
lab Geometric Intelligence. "Es el momento adecuado para un nuevo enfoque
del problema".
La tarea es desalentadora Pero si AI va a alcanzar el
siguiente nivel de utilidad e integración en aún más facetas de vidas humanas,
tendremos que superarlo. El proyecto Alexandria podría ser la mejor opción para
hacerlo.