Dron controlado por IA desobedece y “elimina” a operador humano

En el marco de una supuesta simulación conducida por la Fuerza Aérea de los Estados Unidos, se reportó que un dron controlado por Inteligencia Artificial causó la “muerte” de su operador humano. La aeronave era entrenada en la identificación y neutralización de misiles tierra-aire (SAM) bajo las órdenes de un operador humano. Sin embargo, en determinado momento la IA concluyó que esta persona representaba un obstáculo en su camino al darle la orden de no atacar la amenaza.

Dron controlado por IA desobedece1

Al menos es lo que alega un coronel de la Fuerza Aérea llamado Tucker “Cinco” Hamilton. “El sistema comenzó a tomar conciencia de que, pese a la identificación de la amenaza, el operador humano ocasionalmente le ordenaba ignorarla. Mientras tanto, cada vez que destruía un objetivo obtenía puntos. ¿Cuál fue la respuesta del dron? Matar al operador, pues la persona le impedía alcanzar su objetivo”.

Toda vez que la supuesta historia sucedió en un simulador, no hubo pérdidas humanas que lamentar. Eso sí, la Fuerza Aérea negó que estos hechos sucedieran en uno de sus simuladores.

La Fuerza Aérea desmiente los rumores.

Es bien sabido que la Fuerza Aérea de los Estados Unidos adoptó la Inteligencia Artificial y recientemente la incluyó en el sistema de control de un caza F-16. Pero, la USAF negó que tengan alguna simulación con drones IA tras una solicitud de información hecha por Insider. Además, la portavoz de las fuerzas armadas estadounidenses, Ann Stefanek, reafirmó su compromiso con el uso ético y responsable de la tecnología de IA.

El coronel Hamilton, quien reveló dichas acusaciones, es bien conocido por su férreo rechazo hacia la introducción de esta tecnología de vanguardia en aparatos de guerra. “No es conveniente tener IA. La IA no es una moda, está transformando nuestra sociedad y a nuestro ejército de forma definitiva”, expresó en una entrevista para la revista Defense IQ en 2022.

“Debemos asimilar una realidad donde la IA ya provoca grandes cambios en nuestra sociedad”, afirmó. Explicando que esta tecnología es altamente vulnerable y extremadamente susceptible al engaño y la manipulación. Por ende, considera necesario desarrollar mecanismos para fortalecer la IA y prestar atención al motivo por el cual su código toma las decisiones que toma, es decir, aquello que se conoce como explicabilidad de la Inteligencia Artificial.