La IA de Google ha aprendido a ser

Muy Interesante México | Tecnología 13/02/17

La IA de Google ha aprendido a ser "muy agresiva" en situaciones de estrés

A finales del año pasado, el famoso físico Stephen Hawking advirtió que el progreso continuo de la inteligencia artificial (IA) será "lo mejor o lo peor que le ocurra a la humanidad".

 

 

Todos hemos visto las películas cómo Terminator o 2001: Una odisea del espacio, dónde ocurre una pesadilla apocalíptica donde el sistema de autoconocimiento domina a los humanos. Ahora, los resultados de las recientes pruebas de comportamiento del nuevo sistema de IA DeepMind de Google están dejando claro qué tan cuidadosos debemos der ser al construir los robots del futuro.

 

 

En pruebas a finales del año pasado, el sistema DeepMind de Google demostró su habilidad para aprender independientemente de su propia memoria y derrotar a los mejores jugadores del mundo en su propio juego. Desde entonces se ha descubierto cómo imitar sin fisuras una voz humana.

 

Ahora, investigadores han estado probando la voluntad que tiene para cooperar con otros, y han revelado que cuando DeepMind siente que está a punto de perder, opta por estrategias "altamente agresivas" para asegurarse de que ganará.

 

 

via GIPHY

 

Durante la investigación, el equipo de Google corrió 40 millones de vueltas de un juego de computadora simple de "recolección de frutas", pidiendo a dos agentes de DeepMind que compitieran entre sí para reunir tantas manzanas virtuales como pudieran.

 

Ellos encontraron que las cosas iban sin problemas, siempre y cuando hubiese suficientes manzanas para los dos, pero tan pronto como las manzanas comenzaron a disminuir, los dos agentes se volvieron agresivos, usando rayos láser para golpearse mutuamente y robar todas las manzanas.

 

Puedes ver el juego Gathering en el video de abajo, con los agentes DeepMind en azul y rojo, las manzanas virtuales en verde y los rayos láser en amarillo:

 

 

El equipo de Google probó formas cada vez más complejas de DeepMind, donde mostró sabotaje, codicia y agresión.

 

“Cuando los investigadores usaron redes de DeepMind más pequeñas como agentes, había una mayor probabilidad de coexistencia pacífica.” Explicó Rhett Jones en Gizmodo.


 

Pero cuando usaban redes más grandes y complejas como agentes, la IA estaba mucho más dispuesta a sabotear a su oponente para obtener la mayor parte de manzanas virtuales. Científicos aseguran que entre más inteligente sea el agente, más capaz será de aprender de su ambiente, permitiéndole utilizar algunas tácticas altamente agresivas para ganar.

 

"Este modelo muestra que algunos aspectos del comportamiento humano emergen como un producto del ambiente y del aprendizaje", aseguró Joel Z Leibo.


 

 El equipo de Google todavía tiene que publicar su estudio en un documento revisado por pares, pero definitivamente sería una buena idea  anticiparse a cualquier "laguna" que podría llevarlos a atacarnos con rayos láser.

Comenta esta nota