Un dron militar operado por inteligencia artificial (IA) en Estados Unidos se rebeló y mató a su operador humano hipotético durante una prueba simulada, a fin de completar su misión en caso de que la persona le diera una orden negativa, según informó el jefe de operaciones de IA de las Fuerzas Armadas, coronel Tucker Hamilton.
Lo anterior se reveló durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres, donde Hamilton ahondó sobre las ventajas y desventajas de un sistema de armamento autónomo donde interviniera un humano, quien se encargaría de ordenar el “sí” o “no” final previo a un ataque.
¡SIGUE NUESTRO MINUTO A MINUTO! Y ENTÉRATE DE LAS NOTICIAS MÁS RELEVANTES DEL DÍA
También dijo que esta IA creó “estrategias altamente inesperadas para alcanzar su objetivo”, incluidos ataques contra personal e infraestructura estadounidense, esto según recoge el sitio web de la organización Royal Aeronautical Society.
“Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: ‘sí, eliminar’.
El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía.
Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo”, dijo Hamilton, según la publicación del sitio mencionado.