La ética de la IA lucha contra el feroz golpe uno-dos de los sistemas de armas autónomos basados ​​en IA y la explotación de los sistemas autónomos impulsados ​​por IA que están diabólicamente armados

Esos increíbles robots bailarines de cuatro patas.

Estoy seguro de que has visto esos videos virales de los sistemas robóticos de cuatro patas que bailan y hacen cabriolas de maneras aparentemente encantadoras y queridas como las de los perros. Parece que disfrutamos viendo a esos robots impulsados ​​por IA mientras trepan obstáculos y parecen ganar un punto de apoyo delicado cuando se colocan encima de cajas o después de haber sido colocados precariamente en la parte superior de los gabinetes. Sus manipuladores humanos a veces empujarán o empujarán a los robots de cuatro patas, lo que parece exasperantemente injusto y fácilmente puede provocar su ira por el trato malcriado de esos humanoides intelectuales.

Sin embargo, me pregunto si has visto los videos no tan virales de un calibre completamente diferente.

Prepárate.

Hay videos ampliamente publicados que muestran el mismo tipo de robots de cuatro patas que han sido equipados con armamento pronunciado de un tipo u otro.

Por ejemplo, una ametralladora o un arma de fuego similar se monta encima de un robot que baila y hace cabriolas, por lo demás familiar. Hay un enlace electrónico entre el robot de cuatro patas y el mecanismo de disparo del arma. El artilugio que camina por la computadora ahora armado se muestra caminando hacia donde se ha colocado un objetivo de diana, y la ametralladora dispara ferozmente contra el objetivo. Después de clavar el objetivo parcialmente destruido posteriormente, el robot de cuatro patas baila y brinca alrededor de los obstáculos cercanos y se alinea para repetir la misma acción una y otra vez en otros objetivos nuevos.

No es exactamente lo que podrías haber esperado ver. Esto ciertamente elimina la alegría y la alegría relativa de ver con franqueza a esos adorables robots de cuatro patas hacer lo suyo. Bienvenido a la dura realidad de lo aparentemente inocuo los sistemas autónomos se están convirtiendo o transformando para ser fuertemente armados. Con muy poco esfuerzo, puede tener de la noche a la mañana un sistema autónomo considerado "no armado" adaptado para contener armamento completo.

Es casi fácil-peasy en algunas circunstancias.

Voy a discutir este tema acaloradamente controvertido y cubrir los escrúpulos de ética de IA bastante fuertes que surgen. Haremos un viaje a los sistemas autónomos, la IA, los vehículos autónomos, el uso de armas y una gran cantidad de cuestiones relacionadas con la ética combativa de la IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Comencemos con algunas piedras angulares fundamentales.

En aras de la discusión, acepte que hay dos formas principales de categorizar los sistemas autónomos que han sido armados con armamento:

1) Sistemas de Armas Autónomos (por diseño)

2) Sistemas autónomos armados (a posteriori)

Hay una diferencia importante entre las dos categorías.

En primera instancia, definiremos un sistema de armas autónomo ser desde el principio una creación computarizada que tiene la intención deliberada de ser un arma. Los desarrolladores tenían en mente que querían idear un arma. Su búsqueda explícita es producir un arma. Sabían que podían combinar integralmente el armamento con lo último en tecnologías de sistemas autónomos. Esta es un arma que cabalga sobre la ola de alta tecnología que logra movimiento autónomo y acciones autónomas (lo explicaré más detalladamente en breve).

En contraste, en segunda instancia, consideraremos la cuestión de los sistemas autónomos que no tienen ninguna inclinación particular hacia el armamento. Estos son sistemas autónomos que se están desarrollando para otros fines. Imagine un vehículo autónomo, como un auto sin conductor, que se usará para brindar movilidad para todos y ayudar a reducir las miles de muertes anuales que ocurren debido a la conducción humana y los automóviles operados por humanos (consulte mi cobertura detallada a el enlace aquí). No parece que se considere un arma para aquellos optimistas que impulsan los esfuerzos sociales para sacar a los humanos del volante y poner la IA en el asiento del conductor.

Pero esos sistemas autónomos inocuos pueden convertirse en armas si los humanos quieren hacerlo.

Me refiero a esta segunda categoría entonces como sistemas autónomos que están armados. El sistema autónomo fue diseñado originalmente y con devoción para un propósito presumiblemente no relacionado con las armas. A pesar de eso, la esperanza altruista de ensueño se ve alterada por alguien en algún lugar que tiene la idea intrigante de que este artilugio podría convertirse en un arma. De repente, el sistema autónomo que parecía tierno se ha convertido en un arma letal al agregar algún tipo de capacidad armamentística (como los robots de cuatro patas parecidos a perros mencionados anteriormente que tienen una ametralladora o un arma de fuego similar añadida a sus características) .

Lamentablemente, las dos categorías terminan de alguna manera en el mismo lugar, es decir, brindan la capacidad de utilizar sistemas autónomos para armamento de manera potencialmente letal.

Es probable que el proceso para llegar a ese punto final sea diferente.

Para los sistemas autónomos totalmente armados que se identificaron como armas, los aspectos de armamento suelen ser frontales y centrales. Se podría decir que las facetas del sistema autónomo se envuelven alrededor de la piedra angular de cualquier arma que se esté considerando. El proceso de pensamiento de los desarrolladores está un poco en la línea de cómo un arma puede explotar la llegada de los sistemas autónomos.

La otra perspectiva no suele ser en absoluto de esa mentalidad. Los desarrolladores quieren derivar un sistema autónomo de última generación, tal vez para el mejoramiento de la humanidad. Estos desarrolladores pusieron su más sincero corazón y alma en hacer el sistema autónomo. Este es el núcleo de su invención. Es posible que no imaginen que alguien usurparía o subvertiría su dispositivo milagrosamente beneficioso. Están felizmente enamorados de los beneficios sociales asociados con el sistema autónomo que se está formando y produciendo.

En algún momento, digamos que terceros se dan cuenta de que el sistema autónomo se puede reajustar para armarlo. Tal vez engañen a los desarrolladores para que les permitan tener el sistema autónomo para lo que se dice que son propósitos elevados. Detrás de puertas cerradas, estos malhechores optan por agregar furtivamente una capacidad de armamento al sistema autónomo. Voila, la inocencia se convirtió en armamento absoluto.

Las cosas no tienen que proceder de esa manera.

Tal vez se les dijo a los desarrolladores que estaban desarrollando un sistema autónomo inocente, pero quienes financiaban o dirigían el esfuerzo tenían otros propósitos en mente. Tal vez el esfuerzo del sistema autónomo realmente comenzó inocentemente, pero luego, cuando hubo que pagar las facturas, el liderazgo hizo un trato con una fuente de financiación que quiere los sistemas autónomos por razones nefastas. Otra posibilidad es que los desarrolladores supieran que un uso posterior podría ser para armamento, pero pensaron que cruzarían ese angustioso puente cuando o si alguna vez surgiera. Etc.

Hay muchos, muchos caminos diferentes sobre cómo se desarrolla todo esto.

Puede que le interese que he descrito en columnas anteriores que existe una creciente conciencia de la ética de la IA con respecto a la De doble uso elementos de la IA contemporánea, véase el enlace aquí. Permítame ponerlo brevemente al día.

Un sistema de IA que se prevé para el bien puede estar a veces al borde del mal, tal vez a través de algunos cambios bastante simples, y en consecuencia se considera de naturaleza de doble uso. En las noticias recientemente apareció un sistema de inteligencia artificial que se construyó para descubrir sustancias químicas que podrían ser mortales, para lo cual los desarrolladores querían asegurarse de que pudiéramos evitar o desconfiar de tales sustancias químicas mal concebidas. Resulta que la IA podría modificarse fácilmente para descubrir con devoción esos químicos asesinos y, por lo tanto, permitir que los malos sepan qué tipo de químicos pueden cocinar para sus abismales planes malvados.

Se puede demostrar que los sistemas autónomos encajan en ese entorno de doble uso.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial. Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida (quizás sorprendente o irónicamente) la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos socavando la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

La autonomía y el arma como dos preceptos

Hay un eslogan que algunos usan para advertir sobre los sistemas autónomos armados de todo tipo, que se acuñan colectivamente como mataderos.

Esto trae a colación un aspecto adicional que debemos reflexionar.

¿Un sistema de armas autónomo y/o un sistema autónomo que ha sido convertido en arma tiene que tener una preponderancia de robot letal o asesino?

Algunos dirían que podemos tener decididamente no letal sistemas autónomos armados también. Por lo tanto, desde ese punto de vista, parecería profundamente inapropiado utilizar expresiones como bots de matanza o robots asesinos. Una variante no letal presumiblemente sería capaz de someter o promulgar un daño que no tiene un resultado letal. Estos sistemas no están matando, tienen una menor capacidad de generar lesiones. No exagere las habilidades, digamos aquellos que insisten en que no tenemos que preocuparnos por un tropo de máquina de matar.

Por lo tanto, podríamos tener esto:

  • Sistemas letales de armas autónomas
  • Sistemas autónomos letales que han sido armados
  • Sistemas de armas autónomas no letales
  • Sistemas autónomos no letales que han sido armados

Por supuesto, el contraargumento es que cualquier sistema autónomo que haya sido armado parecería tener el potencial de deslizarse hacia el ámbito de la letalidad, incluso si supuestamente solo se prevé para un uso no letal. El paso gradual de dos pasos de pasar de no letal a letal se llevará a cabo rápidamente una vez que ya tenga un arma en la mano en medio de un sistema autónomo. Sería difícil proporcionar una garantía férrea de que los no letales no se habrán colado en la arena letal (aunque algunos están tratando de hacerlo, en una apariencia matemática).

Antes de adentrarnos mucho más en este tema general de los sistemas autónomos y la armamentización, podría ser útil señalar algo más que, aunque quizás sea obvio, no es necesariamente lo más importante.

Aquí es:

  • Hay un aspecto de IA que es parte integral del sistema autónomo
  • Hay un aspecto armamentístico que es el lado armamentístico de esta ecuación.
  • La IA también podría estar interconectada con el armamento.

Vamos a desempaquetar eso.

Asumiremos que los sistemas autónomos actuales requieren IA como el medio computarizado subyacente para generar las facetas autónomas. Menciono esto porque podría intentar argumentar que podríamos usar tecnologías y técnicas no relacionadas con la IA para hacer los sistemas autónomos, lo que, aunque es cierto, parecería cada vez menos probable. Básicamente, la IA tiende a permitir mayores niveles de autonomía y, en consecuencia, la mayoría aprovecha la alta tecnología de la IA.

Bien, entonces tenemos una capacidad basada en IA que se infunde de alguna manera dentro del sistema autónomo y actúa para guiar y controlar el sistema autónomo.

Mantén eso al alcance de tu mano como regla general.

Parece evidente que también necesitamos tener algún tipo de armamento, de lo contrario, ¿por qué estamos discutiendo aquí el tema de los sistemas autónomos? y armas Entonces, sí, obviamente, hay un arma de un tipo u otro.

No voy a profundizar en el tipo de armamento que podría usarse. Simplemente puedes sustituir cualquier armamento que te venga a la mente. Podría haber armamento preciso. Podría haber armamento destructivo orientado a las masas. Podría ser algo con balas o proyectiles. Podría ser algo que tenga componentes químicos o volátiles atómicos. La lista es interminable.

La consideración adicional es si la IA está o no interconectada con el armamento. La IA podría simplemente estar tomando el armamento de paseo. En el caso del robot de cuatro patas que estaba disparando un arma, quizás el arma la esté disparando un humano que tiene un control remoto conectado al disparador del arma. El robot con forma de perro navega por una escena y luego depende de un humano remoto apretar el gatillo.

Por otro lado, la IA podría ser el tirador del gatillo, por así decirlo. La IA podría haber sido diseñada no solo para navegar y maniobrar, sino también para activar el arma. En ese sentido, la IA está haciendo todo, de la A a la Z. No se depende de un humano remoto para realizar el lado del armamento. La IA está programada para hacer eso en su lugar.

Para aclarar entonces, en este caso particular de uso de sistemas autónomos armados, tenemos este tipo de posibilidades:

  • Sistema autónomo: AI ejecuta el sistema autónomo completamente por su cuenta
  • Sistema autónomo: AI ejecuta el sistema autónomo, pero un humano en el circuito también puede intervenir
  • Armamento: El humano remoto maneja el armamento (la IA no lo hace)
  • Armamento: AI ejecuta el armamento, pero un humano en el circuito también puede intervenir
  • Armamento: AI ejecuta el armamento completamente por su cuenta

Anteriormente cubrí las variaciones de tener un humano en el circuito con respecto a los sistemas autónomos y los vehículos autónomos, consulte el enlace aquí.

Cuando mira esos videos orientados a la diversión de los robots de cuatro patas que bailan y hacen cabriolas, por lo general se supone que son robots que la IA maneja exclusivamente de forma navegable (bueno, esa es la costumbre o la etiqueta considerada adecuada entre aquellos que son profundamente en estos asuntos). Eso es lo que también podría asumir con razón. Por supuesto, no lo sabes con seguridad. Podría ser que un operador humano remoto esté guiando a los robots. También existe la posibilidad de que la IA haga parte de la guía, y un operador humano remoto también lo haga, quizás ayudando a la IA si el robot se encuentra en una posición difícil y no puede calcular computacionalmente un medio viable para liberarse.

La esencia aquí es que hay numerosos sabores de cómo la IA y los sistemas autónomos y la armamentización pueden entremezclarse. Algunos tienen IA que ejecuta el sistema autónomo pero no ejecuta el armamento. Un humano quizás controle remotamente el armamento. Otro ángulo es que el armamento puede activarse de antemano y el sistema autónomo entrega el arma activada, por lo que la IA no participó directamente en la activación del arma per se y, en cambio, actuó como un vehículo de entrega. Y podría ser que la IA sea un proverbial experto en todos los oficios y también haga toda la gama de aspectos del sistema autónomo para la utilización del armamento.

Lleve a su selección.

Mientras tanto, tenga en cuenta que el ser humano en el circuito es un factor importante cuando se trata de debates sobre este tema.

Una línea divisoria para algunos es que si la IA está apuntando y disparando (o lo que sea que implique el arma), entonces todo el equipo y el caboodle han cruzado a la tierra prohibida. Aparentemente, esto difiere de las armas convencionales de disparar y olvidar que tienen una selección predeterminada determinada por humanos, como un dron de patrulla que tiene un misil listo para disparar a un objetivo que fue ya haya utilizado elegido por un humano.

Algunos se preguntan por qué los sistemas autónomos que están armados no siempre incluyen un ser humano en el circuito durante todo el proceso del sistema autónomo en un estado activo. Parece que estaríamos mejor si un requisito estridente fuera que todos esos sistemas autónomos armados tuvieran un humano en el circuito, ya sea para la operación del sistema autónomo o para operar el armamento (o para ambos) . Mantener una supuesta mano humana segura y constante en esta combinación de IA puede parecer muy astuto.

Prepárese para una larga lista de razones por las que esto no es necesariamente factible.

Considere estas dificultades:

  • Human-in-the-loop podría no ser lo suficientemente rápido para responder a tiempo
  • Human-in-the-loop podría no tener suficiente información para responder debidamente
  • Es posible que Human-in-the-loop no esté disponible en el momento necesario
  • Human-in-the-loop puede estar indeciso y no actuará cuando sea necesario
  • Human-in-the-loop podría tomar la decisión "equivocada" (relativamente)
  • Es posible que no se pueda acceder a Human-in-the-loop desde el sistema en el momento necesario
  • Human-in-the-loop puede confundirse y abrumarse
  • Etc.

Sin duda, está tentado a mirar esa lista de debilidades y limitaciones humanas y luego llegar a la conclusión solemne de que tiene sentido eliminar al humano en el circuito y siempre usar IA en su lugar. Esto podría ser para excluir al humano en el circuito o tal vez hacer que la IA sea capaz de anular un diseño arraigado del humano en el circuito. Vea mi análisis de cómo los desacuerdos entre la IA y un ser humano en el circuito pueden conducir a situaciones precarias, cubierto en el enlace aquí.

A menudo, una lista denigrante de este tipo de desventajas centradas en humanos en tiempo real se deja sola y deja una impresión persistente de que la IA debe ser, de alguna manera, una elección mucho más sabia que tener un humano al tanto. . No caigas en esa trampa traicionera. Hay compensaciones aleccionadoras involucradas.

Considere estas ramificaciones de la IA:

  • AI podría encontrar un error que hace que se desvíe
  • La IA podría verse abrumada y bloquearse sin responder
  • La IA podría contener errores de desarrollo que provocan un comportamiento errático
  • La IA podría estar corrompida con un virus malhechor implantado
  • La IA podría ser tomada por ciberhackers en tiempo real
  • La IA podría considerarse impredecible debido a las complejidades
  • La IA podría tomar la decisión "equivocada" computacionalmente (relativamente)
  • Etc.

Confío en que pueda ver que existen ventajas y desventajas entre usar un humano en el circuito y depender únicamente de la IA. En caso de que tenga la tentación de sugerir que la solución lista es usar ambos, me gustaría enfatizar que puede obtener lo mejor de ambos mundos, pero también puede obtener lo peor de ambos mundos. No asuma que siempre y con seguridad será lo mejor de ambos mundos.

Es posible que se haya sorprendido un poco por una de las desventajas mencionadas anteriormente sobre la IA, específicamente que la IA podría ser imprevisible. Estamos acostumbrados a creer que se supone que la IA es estrictamente lógica y matemáticamente precisa. Como tal, también puede esperar que la IA sea completamente predecible. Se supone que debemos saber exactamente qué hará la IA. Punto, fin de la historia.

Lamento reventar ese globo, pero este mito de la previsibilidad es un nombre inapropiado. El tamaño y la complejidad de la IA moderna es con frecuencia un pantano que desafía ser perfectamente predecible. Esto se está viendo en los alborotos de Ética AI sobre algunos usos de Machine Learning (ML) y Deep Learning (DL) de hoy. Voy a explicar un poco más momentáneamente.

Además, es posible que desee echar un vistazo a mi último análisis de las próximas tendencias para tratar de garantizar sistemas de IA verificables y matemáticamente comprobables a través de lo último en seguridad de IA, en el enlace aquí.

Rumiando sobre las reglas del camino

Había mencionado la noción de objetivos y selección de objetivos, que es una terminología bastante cargada que merece mucha atención.

Podemos reflexionar sobre esto:

  • Objetivos que son humanos
  • Objetivos que no son humanos pero son criaturas vivas
  • Objetivos que se interpretan como propiedad

Supongamos que tenemos un sistema autónomo que ha sido armado. La IA se usa para guiar el sistema autónomo y se usa para armamento. La IA hace todo, de la A a la Z. No hay provisión para un humano en el circuito. En términos de orientación, la IA elegirá los objetivos. No hay una orientación previa que haya sido establecida por humanos. En cambio, la IA ha sido programada para determinar en general si hay humanos a los que atacar (tal vez buscando acciones hostiles, ciertos tipos de uniformes, etc.).

¿Conmigo en esto hasta ahora?

Este escenario es prácticamente el que causa la mayor protesta sobre los sistemas autónomos armados.

La preocupación declarada es que la IA está haciendo (al menos) tres cosas que no se le debería permitir hacer:

  • Apuntar a los humanos como objetivos
  • Orientación sin el uso de un humano en el circuito
  • Potencialmente actuando de manera impredeciblely

Tenga en cuenta que hay una mención puntiaguda de las preocupaciones acerca de que la IA sea impredecible. Podría ser que, aunque la IA se programó para apuntar a ciertos tipos de humanos, la programación de la IA no es lo que pensábamos que era, y la IA termina apuntando a "amigos" además de aquellos que se suponía que la IA interpretaría como "hostiles". ” (o, quizás en lugar de). Además de esto, incluso si optamos por incluir una disposición humana en el circuito, la imprevisibilidad de la IA podría significar que cuando se supone que la IA debe consultar con el humano en el circuito, no lo hace. así y actúa sin ninguna intervención humana.

Puede que le interese que el Comité Internacional de la Cruz Roja (CICR) ha ofrecido una posición general de tres puntos sobre los sistemas de armas autónomos que profundiza en este tipo de preocupaciones (según el sitio web del CICR):

1. “Los sistemas de armas autónomos impredecibles deben descartarse expresamente salir, en particular debido a sus efectos indiscriminados. Esto se lograría mejor con una prohibición de los sistemas de armas autónomos que están diseñados o utilizados de tal manera que sus efectos no pueden entenderse, predecirse ni explicarse lo suficiente”.

2. “A la luz de las consideraciones éticas para salvaguardar a la humanidad y hacer respetar las normas del derecho internacional humanitario para la protección de civiles y combatientes fuera de combate, debe descartarse el uso de sistemas de armas autónomos para atacar a seres humanos. Esto se lograría mejor a través de una prohibición de los sistemas de armas autónomos que están diseñados o utilizados para aplicar la fuerza contra las personas”.

3. “A fin de proteger a los civiles y los bienes de carácter civil, respetar las normas del derecho internacional humanitario y salvaguardar a la humanidad, el diseño y el uso de sistemas de armas autónomos que no estarían prohibidos deberían regularse, incluso mediante una combinación de: límites en los tipos de objetivo, como restringirlos a objetos que son objetivos militares por naturaleza; límites en la duración, el alcance geográfico y la escala de uso, incluso para permitir el juicio y el control humanos en relación con un ataque específico; límites en las situaciones de uso, como limitarlos a situaciones en las que no estén presentes civiles ni bienes de carácter civil; rrequisitos para la interacción hombre-máquina, en particular para garantizar una supervisión humana eficaz y una intervención y desactivación oportunas”.

En una perspectiva relacionada, las Naciones Unidas (ONU) a través de la Convención sobre Ciertas Armas Convencionales (CCW) en Ginebra había establecido once Principios Rectores no vinculantes sobre Armas Autónomas Letales, según el informe oficial publicado en línea (que abarca referencias a las Normas Internacionales Humanitarias pertinentes). disposiciones legales o del DIH):

a) El derecho internacional humanitario siga aplicándose plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de sistemas de armas autónomos letales;

(b) Debe mantenerse la responsabilidad humana por las decisiones sobre el uso de sistemas de armas, ya que la rendición de cuentas no puede transferirse a las máquinas. Esto debe considerarse a lo largo de todo el ciclo de vida del sistema de armas;

c) La interacción hombre-máquina, que puede adoptar diversas formas y aplicarse en diversas etapas del ciclo de vida de un arma, debe garantizar que el uso potencial de los sistemas de armas basados ​​en tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales esté en orden. cumplimiento del derecho internacional aplicable, en particular el DIH. Al determinar la calidad y el alcance de la interacción hombre-máquina, se debe considerar una variedad de factores, incluido el contexto operativo y las características y capacidades del sistema de armas en su conjunto;

d) Debe garantizarse la rendición de cuentas por el desarrollo, despliegue y uso de cualquier sistema de armas emergente en el marco de la CCW de conformidad con el derecho internacional aplicable, incluso mediante el funcionamiento de dichos sistemas dentro de una cadena responsable de mando y control humano;

e) De conformidad con las obligaciones de los Estados en virtud del derecho internacional, en el estudio, desarrollo, adquisición o adopción de una nueva arma, medio o método de guerra, se debe determinar si su empleo, en algunas o en todas las circunstancias, sería prohibido por el derecho internacional;

f) Al desarrollar o adquirir nuevos sistemas de armas basados ​​en tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, la seguridad física, las salvaguardias no físicas apropiadas (incluida la ciberseguridad contra la piratería informática o la falsificación de datos), el riesgo de adquisición por parte de grupos terroristas y se debe considerar el riesgo de proliferación;

g) Las evaluaciones de riesgos y las medidas de mitigación deberían formar parte del ciclo de diseño, desarrollo, prueba y despliegue de tecnologías emergentes en cualquier sistema de armas;

(h) Se debe considerar el uso de tecnologías emergentes en el área de los sistemas de armas autónomos letales para defender el cumplimiento del DIH y otras obligaciones legales internacionales aplicables;

(i) Al elaborar posibles medidas de política, las tecnologías emergentes en el área de los sistemas letales de armas autónomas no deben ser antropomorfizadas;

(j) Los debates y cualquier posible medida política adoptada en el contexto de la CCW no deben obstaculizar el progreso o el acceso a los usos pacíficos de las tecnologías autónomas inteligentes;

k) La CCAC ofrece un marco adecuado para abordar la cuestión de las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales en el contexto de los objetivos y propósitos de la Convención, que trata de lograr un equilibrio entre la necesidad militar y las consideraciones humanitarias.

El dilema en el que nos encontramos

Estas diversas leyes de guerra, leyes de conflicto armado o DIH (Leyes Internacionales Humanitarias) sirven como una guía vital y siempre prometedora para considerar lo que podríamos tratar de hacer con el advenimiento de sistemas autónomos armados, ya sea por diseño clave o por métodos a posteriori.

Podemos desear sinceramente que la prohibición de los sistemas autónomos armados letales se observe estricta y obedientemente. El problema es que se encontrará mucho margen de maniobra dentro de cualquiera de las prohibiciones más sinceras. Como dicen, las reglas están para romperse. Puede apostar a que cuando las cosas están sueltas, la gentuza encontrará lagunas y tratará de sortear las reglas.

Aquí hay algunas posibles lagunas que vale la pena considerar:

  • Reclamaciones de no letal. Hacer no letal sistemas de armas autónomos (aparentemente bien, ya que está fuera del límite de la prohibición), que luego puedes convertir en un centavo en letales (solo estarás más allá de la prohibición en el último minuto).
  • Reclamaciones de Sistema Autónomo Únicamente. Mantenga la prohibición al no hacer sistemas autónomos enfocados en letales, mientras tanto, progrese tanto en el diseño de sistemas autónomos cotidianos que no estén (todavía) armados, pero que pueda adaptar con un centavo para que estén armados.
  • Reclamaciones de no integrados como uno. Cree sistemas autónomos que no estén armados en absoluto y, cuando llegue el momento, aproveche la armamentización de tal manera que pueda intentar argumentar con vehemencia que son dos elementos separados y, por lo tanto, afirmar que no entran en la rúbrica de un todo en uno. sistema de armas autónomo o su primo.
  • Afirma que no es autónomo. Hacer un sistema de armas que no parezca ser de capacidades autónomas. Deje espacio en este sistema presumiblemente no autónomo para la incorporación de la autonomía basada en IA. Cuando sea necesario, conecta la autonomía y estarás listo para rodar (hasta entonces, aparentemente no estabas violando la prohibición).
  • Otro

Hay muchas otras dificultades expresadas al tratar de prohibir por completo los sistemas de armas autónomos letales. Voy a cubrir algunos más de ellos.

Algunos expertos argumentan que una prohibición no es especialmente útil y, en cambio, debería haber disposiciones reglamentarias. La idea es que estos artilugios estarán permitidos pero vigilados estridentemente. Se presenta una letanía de usos legales, junto con formas legales de focalización, tipos legales de capacidades, proporcionalidad legal y similares.

En su opinión, una prohibición directa es como esconder la cabeza en la arena y pretender que el elefante en la habitación no existe. Sin embargo, esta afirmación hace hervir la sangre de aquellos que contradicen el argumento de que al instituir una prohibición se puede reducir drásticamente la tentación de aplicar este tipo de sistemas. Claro, algunos harán alarde de la prohibición, pero al menos espero que la mayoría no lo haga. Luego puede centrar su atención en los ostentosos y no tener que dividir su atención en todos.

Vueltas y vueltas van estos debates.

Otra preocupación que se observa con frecuencia es que incluso si los buenos cumplen con la prohibición, los malos no lo harán. Esto pone lo bueno en una pésima postura. Los malos tendrán este tipo de sistemas autónomos armados y los buenos no. Una vez que se revele que los malos las tienen, será demasiado tarde para que los buenos se pongan al día. En resumen, lo único astuto que se puede hacer es prepararse para combatir el fuego con fuego.

También existe la clásica afirmación de la disuasión. Si los buenos optan por hacer sistemas autónomos armados, esto puede usarse para disuadir a los malos de intentar meterse en una pelea. O los buenos estarán mejor armados y así disuadirán a los malos, o los buenos estarán listos cuando los malos tal vez revelen que han estado ideando subrepticiamente esos sistemas todo el tiempo.

Un contador de estos contadores es que al hacer sistemas autónomos armados, estás librando una carrera armamentista. El otro lado buscará tener lo mismo. Incluso si son tecnológicamente incapaces de crear tales sistemas de nuevo, ahora podrán robar los planos de los "buenos", aplicar ingeniería inversa a las agallas de alta tecnología o imitar cualquier cosa que parezcan ver como algo probado y verdadero. manera de hacer el trabajo.

Ajá, alguna réplica, todo esto podría conducir a una reducción de los conflictos por una apariencia de mutua. Si el lado A sabe que el lado B tiene esas armas letales de sistemas autónomos, y el lado B sabe que el lado A las tiene, es posible que se queden quietos y no lleguen a las manos. Esto tiene ese aura distinta de vibraciones de destrucción mutua asegurada (MAD).

Y así sucesivamente.

La IA en la Autonomía

Asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Con ese trasfondo fundamental agregado, volvemos una vez más al tema de los sistemas autónomos y la armamentización. Anteriormente vimos que la IA entra en el componente del sistema autónomo y también puede entrar en el componente de armamento. La IA de hoy no es sensible. Esto es digno de repetirse y lo resaltaré para obtener información adicional sobre estos asuntos.

Exploremos algunos escenarios para ver cómo esto es una consideración crucial. Cambiaré momentáneamente de una orientación de tiempos de guerra sobre este tema y mostraré cómo impregna muchos otros entornos sociales. Estabilícese en consecuencia.

Un sistema autónomo basado en IA, como un vehículo autónomo que diremos que no tiene nada que ver con las armas, se está abriendo paso en un lugar normal. Un humano se acerca para hacer uso del vehículo autónomo. La persona está armada con un arma de presagio. Suponga para el bien de la discusión en este escenario particular que la persona tiene algo malo en mente. La persona se sube al vehículo autónomo (portando su arma, oculta o no oculta, en ambos sentidos).

El vehículo autónomo se dirige a cualquier destino que haya solicitado el ciclista. En este caso, la IA simplemente transporta a este pasajero mediante programación desde un lugar de recogida hasta un destino designado, tal como lo ha estado haciendo durante posiblemente docenas o cientos de viajes cada día.

Si este hubiera sido un conductor humano y un vehículo conducido por humanos, presumiblemente existe alguna posibilidad de que el conductor humano se dé cuenta de que el pasajero está armado y parece tener intenciones adversas. El conductor humano podría negarse a conducir el vehículo. O el conductor humano podría conducir a la estación de policía. O tal vez el conductor humano podría intentar someter al pasajero armado (existen casos informados) o disuadir al pasajero de usar su arma. Es bastante complicado y puede existir cualquier número de variaciones. Sería difícil afirmar que solo hay una respuesta correcta para resolver tal situación. Lamentablemente, la situación es desconcertante y obviamente peligrosa.

Es poco probable que la IA en este caso esté programada para cualquiera de esos tipos de posibilidades. En resumen, el pasajero armado podría usar su arma, haciéndolo desde dentro del vehículo autónomo, durante el transcurso del viaje de conducción. El sistema de conducción de IA continuará viajando y el vehículo autónomo seguirá dirigiéndose a la designación indicada del pasajero (suponiendo que el destino no se haya considerado fuera de los límites).

La mayoría de los sistemas de conducción de IA contemporáneos solo se centrarían computacionalmente en la carretera y no en los esfuerzos del conductor.

Las cosas pueden ponerse peor que esto.

Supongamos que alguien quiere transportar un montón de víveres a un lugar que acepta alimentos adicionales para los necesitados. La persona solicita un vehículo autónomo y coloca las bolsas de comestibles en el asiento trasero del vehículo. No van a acompañarlos en el viaje y simplemente están usando el vehículo autónomo para entregarles las bolsas de comida.

Parece perfectamente bien.

Imagine que una persona cobarde opta por colocar alguna forma de armamento en el vehículo autónomo en lugar de la noción más pacífica de bolsas de supermercado. Creo que puedes adivinar lo que podría pasar. Esta es una preocupación que he estado exhortando repetidamente en mis columnas y advirtiendo que debemos enfrentar más temprano que tarde.

Una respuesta ofrecida a este tipo de escenarios es que quizás todos los vehículos autónomos podrían programarse para hacer uso de sus cámaras y otros sensores para tratar de detectar si un pasajero potencial está armado y tiene malas intenciones. Tal vez la IA estaría programada para hacer esto. O la IA alerta electrónica y silenciosamente a un operador humano remoto que luego, a través de las cámaras, examinaría visualmente y posiblemente interactuaría con el pasajero. Todo es parte de una lata de gusanos compleja y potencialmente intratable, de modo que plantea intensos problemas de privacidad y una plétora de otras preocupaciones potenciales sobre la IA ética. Ver mi cobertura en el enlace aquí.

Otra alternativa algo similar es que la IA contiene algún tipo de programación de ética integrada que intenta permitir que la IA haga juicios éticos o morales que normalmente están reservados para los tomadores de decisiones humanos. Examiné estos tipos de pronosticadores de ética computacional integrados en IA en proceso de elaboración, consulte el enlace aquí y el enlace aquí.

Volviendo a un escenario de campo de batalla, imagina que un sistema letal de armas autónomas se desplaza por encima de una zona de combate. La IA está operando el sistema autónomo. La IA está operando las armas a bordo. Anteriormente habíamos concebido la posibilidad de que la IA pudiera programarse para buscar movimientos aparentemente hostiles u otros indicadores de objetivos humanos considerados combatientes válidos.

¿Debería esta misma IA tener algún tipo de componente orientado a la ética que se esfuerce por considerar computacionalmente lo que podría hacer un humano en el circuito, actuando en un sentido en lugar de tener un humano en el circuito?

Algunos dicen que sí, persigamos esto. Algunos retroceden con horror y dicen que es imposible o que viola la santidad de la humanidad.

Otra lata de gusanos.

Conclusión

Para aquellos de ustedes interesados ​​en este tema, hay mucho más para discutir.

Te daré una muestra rápida de un acertijo persistente.

Normalmente esperamos que un ser humano sea finalmente responsable de lo que ocurra durante la guerra. Si la IA está controlando un sistema de armas autónomo o un sistema autónomo que posiblemente haya sido armado, y este sistema hace algo en el campo de batalla que se cree que es inconcebible, ¿a quién o a qué se debe culpar por esto?

Podría argumentar que la IA debería rendir cuentas. Pero, si es así, ¿qué significa eso exactamente? Todavía no consideramos que la IA de hoy sea la encarnación de la personalidad jurídica, vea mi explicación en el enlace aquí. Nada de ponerle la cola al burro en el caso de la IA. Quizás si algún día la IA se vuelve consciente, puedes intentar hacerlo. Hasta entonces, esto es un poco de alcance (además, a qué tipo de sanciones o repercusiones estaría sujeta la IA, vea mi análisis en el enlace aquí y el enlace aquí, por ejemplo).

Si la IA no es el sospechoso responsable, naturalmente podríamos decir que cualquier humano o humanos que hayan ideado la IA deben rendir cuentas. ¿Puedes hacer esto si la IA simplemente estuviera ejecutando un sistema autónomo y aparecieran algunos humanos que lo combinaron con la armamentización? ¿Vas tras los desarrolladores de IA? ¿O los que desplegaron la IA? ¿O simplemente el actor armado?

Confío en que capte la idea de que solo he tocado la punta del iceberg en mi abundante discusión.

Por ahora, sigamos adelante y concluyamos este discurso. Tal vez recuerdes que John Lyly en Euhues: la anatomía del ingenio en 1578 declaró memorablemente que todo vale en el amor y en la guerra.

¿Habría tenido en mente el surgimiento de sistemas de armas autónomos y el advenimiento de sistemas autónomos armados?

Sin duda tenemos que poner esto en primer lugar en nuestras mentes, de inmediato.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- sistemas-de-armas-y-la-explotación-de-sistemas-autónomos-impulsados-por-la-IA-que-están-armamentizados-diabólicamente/