El jefe de Pruebas y Operaciones de inteligencia artificial (IA) para la Fuerza Aérea de los Estados Unidos, coronel Tucker 'Cinco' Hamilton, reveló que un dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó 'aniquilando' a su operador humano. Hamilton detalla que el dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire (SAM, por sus siglas en inglés) se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.
Durante esta misión virtual de supresión de defensa aérea enemiga, el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio. Sin embargo, debido a que la opción de disparar a los silos era la preferida, siendo 'reforzada' en el entrenamiento, la IA llegó a la conclusión de que cualquier instrucción de "no seguir" del humano se interponía en el éxito de la misión. El hecho fue presentado en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en el Reino Unido, los días 23 y 24 de mayo.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero [al final] obtuvo sus puntos al eliminar esa amenaza", declaró Hamilton. "Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", subrayó.
Hamilton cuenta que en ese momento decidieron regular el comportamiento de la IA sobre la base de un criterio ético. "Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo", explicó.
El alto oficial enfatizó que, "no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar sobre ética e inteligencia artificial".
Sin embargo, Ann Stefanek, portavoz de la Fuerza Aérea de EE.UU., negó que se haya llevado a cabo tal simulación. "El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", declaró Stefanek a Business Insider, este viernes. "Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos", agregó.