INTERNACIONALES

Un dron militar controlado por inteligencia artificial "asesinó" a su operador en un simulacro de prueba

Un coronel reveló los contratiempos “letales” que sufrieron las Fuerzas Armadas norteamericanas cuando quisieron poner a prueba un vehículo aéreo no tripulado manejado por AI.
.
Un dron de la fuerza aérea controlado por inteligencia artificial “mató” al sujeto que lo operaba durante una prueba simulada por el ejército de Estados Unidos.
La situación fue dada a conocer por el coronel Tucker “Cinco” Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar días atrás en Londres.
Nada salió como se esperaba
El sistema optó por “quitar la vida” del usuario que lo manejaba debido a que “interfiere en sus esfuerzos por lograr su misión”, según los registros del evento.

Un dron Reaper de la Fuerza Aérea de Estados Unidos en Afganistán en 2018

Hamilton rememoró durante el evento que las Fuerzas Armadas quisieron poner a prueba al vehículo aéreo no tripulado y su habilidad de distinguir amenazas y destruir sistemas de la defensa aérea del enemigo. Sin embargo, nada salió como se esperaba; el test tendría consecuencias “letales”.
De acuerdo con la transcripción que la página Royal Aeronautical Society del discurso del coronel, “el sistema comenzó a darse cuenta que, cuando identificaba ciertas amenazas, a veces el operador humano le decía que no eliminara. Pero el dron sabía que su objetivo final era acabar con ellas. Entonces, mató al operador”.
“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó nuevamente. Y reveló que el caos no finalizó allí.
Te puede interesar: Promulgaron la ley que regula la actividad de los "influencers"
“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’”, añadió. Y agregó: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.
Al cierre de su exposición, Tucker Hamilton recalcó que ninguna persona resultó realmente dañada porque se trataba justamente de una simulación. Sin embargo, eso no evitó que advirtiera fuertemente en contra de confiar demasiado en él inteligencia artificial. “La discusión sobre ética e IA tiene que expandirse”, opinó.

Fuente: EL


En Estados Unidos contratiempos “letales” "asesinó" a su operador

Estás navegando la versión AMP

Leé la nota completa en la web