¿Cuál es la política actualizada del Pentágono sobre los robots asesinos?

El Pentágono ha emitido un actualización a su Directiva 3000.09, que cubre lo que denominan Autonomía en Sistemas de Armas y otros llaman'robots asesinos.' Drones actuales como la Fuerza Aérea y la CIA Segadores MQ-9 son operados por control remoto: un ser humano sentado frente a una pantalla de video identifica objetivos en el suelo a miles de kilómetros de distancia, los coloca en el punto de mira y lanza un Misil fuego infernal u otra arma. Las armas autónomas son diferentes: eligen sus propios objetivos sin intervención humana. Se necesitan reglas claras sobre cuándo y cómo se pueden usar, y la nueva directiva las acerca un paso más.

Hace diez años, cuando se lanzó la primera versión de 3000.09, las armas autónomas parecían ciencia ficción. Ahora son muy reales. La ONU afirmó que Drones suministrados por Turquía atacaron objetivos de forma autónoma en Libia en 2020 y Rusia ahora está desplegando municiones merodeadoras en Ucrania con capacidad autónoma.

Muchos activistas, como el Campaña para detener a los robots asesinos, quiere una prohibición total de las armas autónomas, insistiendo en que cualquier arma remota permanezca bajo control humano significativo en todo momento. La ONU ha estado debatiendo cómo controlar esas armas durante muchos años.

Sin embargo, como deja en claro la nueva directiva, el Pentágono se apega a una línea diferente.

“El Departamento de Defensa se ha opuesto consistentemente a un estándar de política de 'control humano significativo' cuando se trata tanto de sistemas autónomos como de IA”, Gregory Allen, director del Proyecto sobre Gobernanza de la IA en la Centro de Estudios Estratégicos e Internacionales, me dijo. “El término de arte preferido del Departamento de Defensa es 'niveles apropiados de juicio humano', que refleja el hecho de que en algunos casos (aviones de vigilancia autónomos y algunos tipos de armas cibernéticas autónomas, por ejemplo) el nivel apropiado de control humano puede ser poco o nada. .”

¿Qué armas autónomas estarían permitidas bajo qué circunstancias? Allen cree que la versión anterior de la directiva era tan poco clara que desalentaba cualquier desarrollo en esta área.

“La confusión estaba tan extendida, incluso entre algunos altos líderes del Departamento de Defensa, que los funcionarios se abstenían de desarrollar algunos sistemas que no solo estaban permitidos por la política, sino que también estaban expresamente exentos del requisito de revisión de alto nivel”, dice Allen.

Ni una sola arma se ha sometido al proceso de revisión de armas autónomas establecido en el 3000.09 original en los diez años desde que se publicó.

Allen escribió un ensayo sobre esto para CSIS el año pasado, describiendo cuatro áreas que necesitaban trabajo: definir formalmente los sistemas de armas autónomos, decir qué significa "habilitado para IA" para la política, cómo el proceso de revisión manejará el reentrenamiento de los modelos de aprendizaje automático y aclarar qué tipos de armas requieren tener que pasar por el arduo proceso de revisión.

“El Departamento de Defensa los ha implementado todos”, dice Allen.

Entonces, en principio, esto debería garantizar lo que el DoD denomina "compromiso fuerte y continuo para ser un líder global transparente en el establecimiento de políticas responsables con respecto a los usos militares de los sistemas autónomos".

Sin embargo, hay algunas adiciones que podrían verse como lagunas, como una exención de la revisión superior para armas autónomas que defienden drones que no apuntan a personas ('armas antimateriales') y que podrían apuntar a misiles, otros drones y potencialmente otros sistemas.

"La palabra 'defensa' está haciendo un montón de trabajo", Zak Kallenborn, me dijo un becario de política en la Escuela de Política y Gobierno Schar de la Universidad George Mason. "Si un dron está operando en territorio enemigo, casi cualquier arma podría interpretarse como 'defensa' de la plataforma".

Kallenborn también señala que, si bien las armas autónomas, como las minas terrestres, se han utilizado durante más de un siglo, el panorama está cambiando rápidamente debido a los avances en IA y, en particular, en el aprendizaje automático. Estos han dado lugar a sistemas que son muy capaces, pero técnicamente frágil – cuando fallan, fallan espectacularmente en formas que ningún ser humano haría, por ejemplo confundiendo una tortuga con un rifle.

“La autonomía a través de la IA definitivamente merece más preocupación, dada la fragilidad y la falta de explicabilidad de los enfoques actualmente dominantes”, dice Kallenborn.

La actualización no es grande. Pero sí muestra el compromiso continuo del Pentágono con el desarrollo de armas autónomas efectivas y la creencia de que pueden cumplir con Ley humanitaria internacional — distinguir a los civiles del personal militar, tratando de evitar dañar a los civiles, y utilizando únicamente la fuerza proporcionada y necesaria.

Los activistas creen que la IA no poseerá la comprensión necesaria para emitir juicios morales en tiempos de guerra y corre el riesgo de crear un mundo donde la guerra esté automatizada y los humanos ya no tengan el control. Otros creen que el ejército estadounidense será superado por oponentes con armas autónomas a menos que la IA se incorpore a un nivel táctico, y que demasiada participación humana ralentiza los robots militares.

Es probable que la discusión continúe incluso cuando comiencen a aparecer armas autónomas, y los resultados se seguirán de cerca. De cualquier manera, parece que vienen los robots asesinos.

Fuente: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/