Noticias de la semana - 36

AI no pudo vencer a un equipo de jugadores profesionales en DOTA 2


AI puede ser capaz de mejores seres humanos en juegos como Go y ajedrez y póquer . Pero para el videojuego de estrategia cooperativa DOTA 2, AI todavía no puede vencer a los profesionales , al menos no todavía.

Esa es la principal conclusión de  The International , un torneo para el juego de estrategia por computadora DOTA 2. Durante el torneo, el grupo de investigación OpenAI tuvo su OpenAI Five, un equipo compuesto por cinco redes neuronales, juego contra jugadores profesionales de DOTA 2.

Fue una competencia al mejor de tres, pero el equipo de paiN Gaming y un equipo estrella de profesionales de China confirmaron la superioridad de la humanidad sobre el equipo de IA en solo dos partidos.

DOS TORNEOS TORNEOS.  No es que la IA sea mala  en el juego. De hecho, en junio, OpenAI Five venció a un equipo de cinco aficionados humanos en DOTA 2.

Pero este partido fue diferente en algunas formas significativas. Anteriormente, cada miembro del equipo de IA tenía su propio servicio de mensajería invulnerable, un componente clave del juego que entrega suministros a los jugadores. Para The International, cada equipo tenía solo un mensajero para compartir: los OpenAI Five tenían solo unos días para adaptarse a eso antes del partido.

Los jugadores tampoco pudieron elegir sus propios héroes esta vez: los expertos de DOTA 2 eligieron los personajes para cada jugador en el torneo, sin importar si eran humanos o AI.

VOLVER EN LA PARTE SUPERIOR Aunque los humanos salieron victoriosos, OpenAI Five se mantuvo firme. Cada partido duró entre 45 y 51 minutos: los humanos no simplemente destruyeron al equipo de IA justo en la puerta. Con un poco más de tiempo para adaptarse a los cambios del partido de junio, al equipo de IA también le habría ido un poco mejor.

Por ahora, los investigadores de OpenAI planean continuar mejorando el sistema, por lo que quizás esté listo para llevarlo a una futura revancha.



La inteligencia artificial avanzada podría manejar el mundo mejor que los humanos


Existen temores que tienden a surgir cuando las personas hablan sobre la inteligencia artificial futurista, por ejemplo, una que podría aprender a aprender y llegar a ser más avanzada que cualquier cosa que los humanos podamos comprender. En las manos equivocadas, tal vez incluso por sí mismo, un algoritmo tan avanzado podría dominar a los gobiernos y ejércitos del mundo, impartir niveles orwellianos de vigilancia , manipulación y control social sobre las sociedades, y quizás incluso controlar campos de batalla enteros de armas letales autónomas como militares. drones

Pero algunos expertos en inteligencia artificial no creen que esos temores estén bien fundamentados. De hecho, la inteligencia artificial altamente avanzada podría ser mejor en la gestión del mundo que los humanos. Estos temores en sí mismos son el peligro real, porque pueden impedirnos hacer realidad ese potencial.

"Tal vez no alcanzar la IA es un peligro para la humanidad", dijo  Tomas Mikolov , científico investigador de Facebook AI, en  The Joint Multi-Conference on Human-Level Artificial Intelligence , organizado por GoodAI, en Praga el sábado.

"Tal vez no alcanzar la IA es el peligro para la humanidad".
Como especie, explicó Mikolov, los humanos son bastante terribles a la hora de tomar decisiones que son buenas para nosotros a largo plazo. La gente ha quitado las selvas tropicales y otros ecosistemas para cosechar materias primas, sin darse cuenta (o desinteresado) de cómo estaban contribuyendo a la lenta, tal vez irreversible, degradación del planeta en general.

Pero un sofisticado sistema de inteligencia artificial podría proteger a la humanidad de su propia miopía.

"Nosotros, como seres humanos, somos muy malos a la hora de hacer predicciones de lo que sucederá en una línea de tiempo distante, quizás dentro de 20 o 30 años", agregó Mikolov. "Tal vez hacer una IA que sea mucho más inteligente que la nuestra, en una especie de relación simbiótica, puede ayudarnos a evitar algunos desastres futuros".

De acuerdo, Mikolov puede ser una minoría al pensar que una entidad superior de IA sería benevolente . A lo largo de la conferencia, muchos otros oradores expresaron estos temores comunes, principalmente sobre la IA utilizada con fines peligrosos o mal utilizada por actores humanos malintencionados. Y no deberíamos reírnos o minimizar esas preocupaciones.

No sabemos con certeza si alguna vez será posible crear una inteligencia artificial general, a menudo considerada como el santo grial de una IA sofisticada que es capaz de hacer prácticamente cualquier tarea cognitiva que los humanos puedan hacer, tal vez incluso hacerlo mejor.

El futuro de la inteligencia artificial avanzada es prometedor, pero viene con muchas preguntas éticas. Probablemente aún no sepamos todas las preguntas que tendremos que responder.

Pero la mayoría de los panelistas en la conferencia de HLAI estuvieron de acuerdo en que aún debemos decidir las reglas antes de que las necesitemos. ¿Es hora de crear acuerdos internacionales, consejos de ética y organismos reguladores en gobiernos, empresas privadas y el mundo académico? Nieva. Poner estas instituciones y protocolos en su lugar reduciría las probabilidades de que un gobierno hostil, un investigador involuntario o incluso un científico loco cacareante  desaten  un  sistema de IA malicioso o de otro modo conviertan en armas los algoritmos avanzados. Y si algo desagradable llegara a salir, entonces estos sistemas garantizarían que tendríamos formas de manejarlo.

Con estas reglas y salvaguardas en su lugar, estaremos mucho más dispuestos a marcar el comienzo de un futuro en sistemas avanzados de inteligencia artificial que vivan en armonía con nosotros, o incluso que nos salven de nosotros mismos.



La IA de Google puede ayudar a predecir dónde son más probables las réplicas de terremotos


La destrucción que un terremoto grande puede causar a menudo no termina cuando el suelo deja de temblar. Muchos producen réplicas, temblores más pequeños horas o incluso días más tarde causados ​​por la reacción del suelo al primer terremoto.

Estas réplicas a veces pueden causar más daño que el terremoto primario. Y aunque generalmente podemos predecir el tamaño de una réplica, no hemos sido tan buenos para predecir su  ubicación .

Ahora, eso podría cambiar. Investigadores de la Universidad de Harvard y la división de inteligencia artificial de Google han creado una red neuronal que puede evaluar la probabilidad de que una ubicación particular experimente una réplica. ¿La mejor parte? Es más preciso que el mejor modelo existente.

Publicaron su estudio el miércoles en la revista Nature .

A MENOS MEJOR QUE UNA COIN FLIP. La mejor herramienta que tenemos ahora para predecir réplicas es un modelo conocido como  C oul o mb failure  str ess change. Los investigadores pueden calcular el estrés geológico que un terremoto coloca en la roca circundante y luego usar el modelo para determinar la probabilidad de que una ubicación experimente una réplica. 

Desafortunadamente, este modelo es solo un poco más preciso que lanzar una moneda.

AI AL RESCATE. Para predecir mejor la ubicación de las réplicas, el equipo recurrió a AI .

En primer lugar, alimentaron los datos de 131,000 terremotos de mainshock y réplicas en una red neuronal, que diseñaron para producir una red de 5 kilómetros por 5 kilómetros de células alrededor del sitio de cada mainshock. A continuación, alimentaron los datos de la red neuronal que muestran cómo el "mainshock" cambió el nivel de estrés en el centro de cada celda circundante. Luego, la red neuronal predijo la probabilidad de que cada célula sea el sitio de una réplica.

Los investigadores probaron su red neuronal en 30,000 eventos de réplicas principales y descubrieron que podría predecir el sitio de las réplicas de forma mucho más precisa que el modelo utilizado anteriormente.

MÁS POR VENIR. Aunque las predicciones del algoritmo no son infalibles, los investigadores están satisfechos con su IA hasta ahora y piensan que incluso sistemas más precisos podrían estar en el horizonte.

"La predicción de Aftershock en particular es un desafío adecuado para el aprendizaje automático porque hay muchos fenómenos físicos que podrían influir en el comportamiento de las réplicas y el aprendizaje automático es extremadamente bueno para desentrañar esas relaciones", dijo la investigadora Phoebe DeVries a Science Daily . "Creo que realmente hemos arañado la superficie de lo que se podría hacer con la predicción de réplicas ... y eso es realmente emocionante".



Fuente:




Entradas populares de este blog

Noticias de la semana - 28

Noticias de la semana - 52