La ética de la IA y la ley de la IA hacen preguntas difíciles sobre esa nueva promesa de los fabricantes de robots bailarines que dicen que evitarán el uso de armas de la IA

Es posible que la semana pasada haya visto en las noticias o notado en las redes sociales la promesa anunciada por algunos fabricantes de robots sobre sus objetivos declarados de evitar el uso de armas de IA en robots de propósito general. Te explicaré los detalles en un momento, así que no te preocupes si no te has enterado del asunto.

La reacción a esta proclamación ha sido rápida y, tal vez como es habitual en nuestra sociedad polarizada, ha sido tanto elogiosa como, en ocasiones, burlonamente crítica o francamente desagradablemente escéptica.

Es una historia de dos mundos.

En un mundo, algunos dicen que esto es exactamente lo que necesitamos para responsable Desarrolladores de robots AI para declarar.

Gracias a Dios por estar en el lado correcto de un tema que gradualmente se volverá más visible y más preocupante. Esos simpáticos robots bailarines son preocupantes porque es muy fácil reajustarlos para que lleven armas y se usen de la peor de las formas (puede comprobarlo usted mismo en las redes sociales y hay muchos videos que muestran robots bailarines armados con ametralladoras y otros armamentos).

La otra cara de esta moneda dice que el llamado compromiso no es más que una estratagema de marketing o relaciones públicas (como nota al margen, ¿alguien está familiarizado con la diferencia entre un compromiso y una donación?). De todos modos, los escépticos exhortan que se trata de una señal de virtud desenfrenada en el contexto de los robots bailarines. Verá, lamentar el hecho de que los robots de uso general pueden convertirse en armas es sin duda una consideración que vale la pena y que se busca con seriedad, aunque simplemente afirmar que un fabricante no lo hará es probablemente una promesa hueca, insisten algunos.

En general, todo el asunto plantea un conjunto bastante considerable de consideraciones de ética y leyes de IA. Analizaremos meticulosamente el tema y veremos cómo se trata de un doble golpe de un pantano de IA ético y legal. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

También me referiré a lo largo de esta discusión a mis análisis previos de los peligros del uso de armas de la IA, como mi evaluación en profundidad en el enlace aquí. Es posible que desee echar un vistazo a ese discurso para obtener detalles adicionales detrás de escena.

La carta abierta que abre una lata de gusanos

Comencemos este análisis haciendo una cuidadosa exploración paso a paso de la Carta Abierta que fue publicada recientemente por seis fabricantes de robots avanzados relativamente conocidos, a saber, Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics y Unitree. En general, supongo que ha visto principalmente los robots de Boston Dynamics, como los que se mueven a cuatro patas. Parecen perros y nos encanta verlos corretear.

Como he advertido anteriormente y en repetidas ocasiones, el uso de tales robots "bailarines" como un medio para convencer al público en general de que estos robots son lindos y adorables es lamentablemente engañoso y se desvía hacia las abundantes trampas de antropomorfizarlos. Empezamos a pensar en estas piezas endurecidas de metal y plástico como si fueran el equivalente de un perro leal y mimoso. Nuestra voluntad de aceptar estos robots se basa en una falsa sensación de seguridad y garantía. Claro, tienes que ganar dinero y las probabilidades de hacerlo aumentan al desfilar por los robots que bailan, pero lamentablemente esto omite o aparentemente oculta el hecho real de que estos robots son robots y que la IA que los controla se puede diseñar erróneamente. o salir mal.

Considere estas ramificaciones de la IA (extraído de mi artículo sobre el uso de armas de la IA, que se encuentra en el enlace aquí):

  • AI podría encontrar un error que hace que se desvíe
  • La IA podría verse abrumada y bloquearse sin responder
  • La IA podría contener errores de desarrollo que provocan un comportamiento errático
  • La IA podría estar corrompida con un virus malhechor implantado
  • La IA podría ser tomada por ciberhackers en tiempo real
  • La IA podría considerarse impredecible debido a las complejidades
  • La IA podría tomar la decisión "equivocada" computacionalmente (relativamente)
  • Etc.

Esos son puntos con respecto a la IA que es del tipo que está genuinamente diseñado desde el principio para hacer lo correcto.

Además de esas consideraciones, debe incluir sistemas de inteligencia artificial creados desde el principio para hacer cosas malas. Puede tener IA que se haga con fines beneficiosos, a menudo denominada AI para siempre. También puede tener IA que se crea intencionalmente para malos propósitos, conocida como AI para mal. Además, puedes tener AI para siempre que se corrompe o reajusta para convertirse AI para mal.

Por cierto, nada de esto tiene nada que ver con que la IA se vuelva sensible, lo cual menciono porque algunos siguen exclamando que la IA actual es sensible o está a punto de serlo. No tan. Desarmo esos mitos en mi análisis en el enlace aquí.

Asegurémonos entonces de que estamos en la misma página sobre la naturaleza de la IA de hoy.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre la IA consciente, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Sugiero enfáticamente que mantengamos las cosas con los pies en la tierra y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones de ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

Ahora que he sentado una base útil para entrar en la Carta Abierta, estamos listos para sumergirnos.

El título oficial del tema de la Carta Abierta es este:

  • "Una carta abierta a la industria de la robótica y nuestras comunidades, los robots de propósito general no deben armarse” (según lo publicado en línea).

Hasta ahora, todo bien.

El título casi parece helado y tarta de manzana. ¿Cómo podría alguien disputar esto como una llamada antigua para evitar el uso de armas con robots de IA?

Siga leyendo para ver.

Primero, como forraje para la consideración, aquí está el párrafo de apertura oficial de la Carta Abierta:

  • “Somos algunas de las empresas líderes en el mundo dedicadas a introducir nuevas generaciones de robótica móvil avanzada en la sociedad. Estas nuevas generaciones de robots son más accesibles, más fáciles de operar, más autónomas, asequibles y adaptables que las generaciones anteriores, y son capaces de navegar a lugares que antes eran inaccesibles para las tecnologías automatizadas o controladas de forma remota. Creemos que los robots móviles avanzados brindarán un gran beneficio a la sociedad como compañeros de trabajo en la industria y compañeros en nuestros hogares” (según lo publicado en línea).

El lado positivo de la llegada de este tipo de robots es que podemos anticipar que surgirán muchos grandes beneficios. No hay duda de eso. Es posible que tenga un robot en su hogar que pueda realizar esas actividades similares a Jetson, como limpiar su casa, lavar los platos y otras tareas domésticas. Tendremos robots avanzados para usar en fábricas e instalaciones de fabricación. Los robots pueden gatear o maniobrar potencialmente en espacios reducidos, como cuando un edificio se derrumba y hay vidas humanas en juego para salvarlas. Y así.

Aparte, puede que le interese mi reciente cobertura visual crítica del Día de la IA de Tesla, en el que Elon Musk retrató una especie de robots andantes como el futuro de Tesla y la sociedad. el enlace aquí.

De vuelta al asunto. Cuando hablamos seriamente de robots que bailan o robots que caminan, debemos tener en cuenta las compensaciones o el ROI (retorno de la inversión) total de este uso de la IA. No debemos permitirnos enamorarnos demasiado de los beneficios cuando también hay que considerar los costos.

Un juguete nuevo y brillante puede tener bordes bastante afilados.

Todo esto genera un punto importante, pero algo silencioso, de que parte de la razón por la que surge ahora el problema del armamento de la IA se debe al avance de la IA hacia la actividad autónoma. Por lo general, hemos esperado que las armas sean generalmente operadas por humanos. Un humano toma la decisión de disparar o activar el arma. Presumiblemente, podemos responsabilizar a ese ser humano por sus acciones.

La IA que está diseñada para funcionar de forma autónoma o que puede ser engañada para que lo haga aparentemente eliminaría al ser humano del circuito. Luego, la IA toma decisiones computacionales algorítmicamente que pueden terminar matando o dañando a los humanos. Además de las preocupaciones obvias sobre la falta de control sobre la IA, también tiene dudas de que podríamos tener un tiempo arduo para responsabilizarnos de las acciones de la IA. No tenemos un ser humano que sea nuestro instigador obvio.

Me doy cuenta de que algunos creen que deberíamos responsabilizar a la IA de manera simple y directa por sus acciones, como si la IA hubiera alcanzado la conciencia o se le hubiera otorgado personalidad jurídica (consulte mi cobertura sobre los debates sobre la obtención de la personalidad jurídica por parte de la IA en el enlace aquí). Eso no va a funcionar por ahora. Vamos a tener que rastrear la IA hasta los humanos que la idearon o la desplegaron. Sin duda, intentarán eludir legalmente la responsabilidad tratando de afirmar que la IA fue más allá de lo que habían imaginado. Esta es una disputa creciente con la que debemos lidiar (consulte mis escritos sobre la Ley de AI para obtener información sobre los temas contenciosos involucrados).

Las Naciones Unidas (ONU) a través de la Convención sobre Ciertas Armas Convencionales (CCW) en Ginebra ha establecido once Principios Rectores no vinculantes sobre Armas Letales Autónomas, según el informe oficial publicado en línea (que abarca referencias a las disposiciones pertinentes del Derecho Internacional Humanitario o DIH) , incluido:

a) El derecho internacional humanitario siga aplicándose plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de sistemas de armas autónomos letales;

(b) Debe mantenerse la responsabilidad humana por las decisiones sobre el uso de sistemas de armas, ya que la rendición de cuentas no puede transferirse a las máquinas. Esto debe considerarse a lo largo de todo el ciclo de vida del sistema de armas;

c) La interacción hombre-máquina, que puede adoptar diversas formas y aplicarse en diversas etapas del ciclo de vida de un arma, debe garantizar que el uso potencial de los sistemas de armas basados ​​en tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales esté en orden. cumplimiento del derecho internacional aplicable, en particular el DIH. Al determinar la calidad y el alcance de la interacción hombre-máquina, se debe considerar una variedad de factores, incluido el contexto operativo y las características y capacidades del sistema de armas en su conjunto;

d) Debe garantizarse la rendición de cuentas por el desarrollo, despliegue y uso de cualquier sistema de armas emergente en el marco de la CCW de conformidad con el derecho internacional aplicable, incluso mediante el funcionamiento de dichos sistemas dentro de una cadena responsable de mando y control humano;

e) De conformidad con las obligaciones de los Estados en virtud del derecho internacional, en el estudio, desarrollo, adquisición o adopción de una nueva arma, medio o método de guerra, se debe determinar si su empleo, en algunas o en todas las circunstancias, sería prohibido por el derecho internacional;

f) Al desarrollar o adquirir nuevos sistemas de armas basados ​​en tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, la seguridad física, las salvaguardias no físicas apropiadas (incluida la ciberseguridad contra la piratería informática o la falsificación de datos), el riesgo de adquisición por parte de grupos terroristas y se debe considerar el riesgo de proliferación;

g) Las evaluaciones de riesgos y las medidas de mitigación deberían formar parte del ciclo de diseño, desarrollo, prueba y despliegue de tecnologías emergentes en cualquier sistema de armas;

(h) Se debe considerar el uso de tecnologías emergentes en el área de los sistemas de armas autónomos letales para defender el cumplimiento del DIH y otras obligaciones legales internacionales aplicables;

(i) Al elaborar posibles medidas de política, las tecnologías emergentes en el área de los sistemas letales de armas autónomas no deben ser antropomorfizadas;

(j) Los debates y cualquier posible medida política adoptada en el contexto de la CCW no deben obstaculizar el progreso o el acceso a los usos pacíficos de las tecnologías autónomas inteligentes;

k) La CCAC ofrece un marco adecuado para abordar la cuestión de las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales en el contexto de los objetivos y propósitos de la Convención, que trata de lograr un equilibrio entre la necesidad militar y las consideraciones humanitarias.

Estas y otras diversas leyes de la guerra y las leyes de los conflictos armados, o DIH (Leyes Internacionales Humanitarias) sirven como una guía vital y siempre prometedora para considerar lo que podríamos intentar hacer con respecto al advenimiento de sistemas autónomos armados, ya sea por Keystone diseño o por métodos a posteriori.

Algunos dicen que deberíamos prohibir por completo los sistemas autónomos de IA que se pueden armar. Así es, el mundo debería poner su pie en el suelo y exigir estridentemente que los sistemas autónomos de IA nunca sean armados. Se impondrá una prohibición total. Fin de la historia. Punto final, punto.

Bueno, podemos desear sinceramente que la prohibición de los sistemas autónomos armados letales se observe estricta y obedientemente. El problema es que es probable que se encuentre mucho margen de maniobra dentro de cualquiera de las prohibiciones más sinceras. Como dicen, las reglas están para romperse. Puede apostar a que cuando las cosas están sueltas, la gentuza encontrará lagunas y tratará de sortear las reglas.

Aquí hay algunas posibles lagunas que vale la pena considerar:

  • Reclamaciones de no letal. Cree sistemas de armas autónomos no letales (aparentemente bien, ya que está fuera del límite de prohibición), que luego puede convertir en un centavo en letales (solo estará más allá de la prohibición en el último minuto).
  • Reclamaciones de Sistema Autónomo Únicamente. Mantenga la prohibición al no hacer sistemas autónomos enfocados en letales, mientras tanto, progrese tanto en el diseño de sistemas autónomos cotidianos que no estén (todavía) armados, pero que pueda adaptar con un centavo para que estén armados.
  • Reclamaciones de No Integrado Como Uno. Cree sistemas autónomos que no estén armados en absoluto y, cuando llegue el momento, aproveche la armamentización de tal manera que pueda intentar argumentar con vehemencia que son dos elementos separados y, por lo tanto, afirmar que no entran en la rúbrica de un todo en uno. sistema de armas autónomo o su primo.
  • Afirma que no es autónomo. Hacer un sistema de armas que no parezca ser de capacidades autónomas. Deje espacio en este sistema presumiblemente no autónomo para la incorporación de la autonomía basada en IA. Cuando sea necesario, conecta la autonomía y estarás listo para rodar (hasta entonces, aparentemente no estabas violando la prohibición).
  • Otro

Hay muchas otras dificultades expresadas al tratar de prohibir por completo los sistemas de armas autónomos letales. Voy a cubrir algunos más de ellos.

Algunos expertos argumentan que una prohibición no es especialmente útil y, en cambio, debería haber disposiciones reglamentarias. La idea es que estos artilugios estarán permitidos pero vigilados estridentemente. Se presenta una letanía de usos legales, junto con formas legales de focalización, tipos legales de capacidades, proporcionalidad legal y similares.

En su opinión, una prohibición directa es como esconder la cabeza en la arena y pretender que el elefante en la habitación no existe. Sin embargo, esta afirmación hace hervir la sangre de aquellos que contradicen el argumento de que al instituir una prohibición se puede reducir drásticamente la tentación de aplicar este tipo de sistemas. Claro, algunos harán alarde de la prohibición, pero al menos espero que la mayoría no lo haga. Luego puede centrar su atención en los ostentosos y no tener que dividir su atención en todos.

Vueltas y vueltas van estos debates.

Otra preocupación que se observa con frecuencia es que incluso si los buenos cumplen con la prohibición, los malos no lo harán. Esto pone lo bueno en una pésima postura. Los malos tendrán este tipo de sistemas autónomos armados y los buenos no. Una vez que se revele que los malos las tienen, será demasiado tarde para que los buenos se pongan al día. En resumen, lo único astuto que se puede hacer es prepararse para combatir el fuego con fuego.

También existe la clásica afirmación de la disuasión. Si los buenos optan por hacer sistemas autónomos armados, esto puede usarse para disuadir a los malos de intentar meterse en una pelea. O los buenos estarán mejor armados y así disuadirán a los malos, o los buenos estarán listos cuando los malos tal vez descubran que han estado ideando subrepticiamente esos sistemas todo el tiempo.

Un contador de estos contadores es que al hacer sistemas autónomos armados, estás librando una carrera armamentista. El otro lado buscará tener lo mismo. Incluso si son tecnológicamente incapaces de crear tales sistemas de nuevo, ahora podrán robar los planos de los "buenos", aplicar ingeniería inversa a las agallas de alta tecnología o imitar cualquier cosa que parezcan ver como algo probado y verdadero. manera de hacer el trabajo.

Ajá, alguna réplica, todo esto podría conducir a una reducción de los conflictos por una apariencia de mutuo. Si el lado A sabe que el lado B tiene esas armas letales de sistemas autónomos, y el lado B sabe que el lado A las tiene, es posible que se queden quietos y no lleguen a las manos. Esto tiene ese aura distinta de vibraciones de destrucción mutua asegurada (MAD).

Y así sucesivamente.

Mirando de cerca el segundo párrafo

Ya hemos cubierto mucho terreno en este documento y solo hasta ahora hemos considerado el primer párrafo o párrafo de apertura de la Carta Abierta (hay cuatro párrafos en total).

Es hora de echar un vistazo al segundo párrafo, aquí tienes:

  • “Al igual que con cualquier nueva tecnología que ofrece nuevas capacidades, la aparición de robots móviles avanzados ofrece la posibilidad de un mal uso. Las personas que no son de confianza podrían usarlos para invadir los derechos civiles o para amenazar, dañar o intimidar a otros. Un área de especial preocupación es la armamentización. Creemos que agregar armas a los robots que se operan de forma remota o autónoma, ampliamente disponibles para el público y capaces de navegar a lugares previamente inaccesibles donde las personas viven y trabajan, plantea nuevos riesgos de daños y graves problemas éticos. Las aplicaciones armadas de estos robots recién capacitados también dañarán la confianza pública en la tecnología de manera que dañarán los tremendos beneficios que traerán a la sociedad. Por estas razones, no apoyamos la militarización de nuestros robots de propósito general de movilidad avanzada. Para aquellos de nosotros que hemos hablado sobre este tema en el pasado, y aquellos que nos involucramos por primera vez, ahora sentimos una urgencia renovada a la luz de la creciente preocupación pública en los últimos meses causada por un pequeño número de personas que han publicitado visiblemente su improvisado esfuerzos para convertir en armas a los robots disponibles comercialmente” (según lo publicado en línea).

Al leer ese segundo párrafo, espero que pueda ver cómo mi discurso anterior aquí sobre el uso de armas de la IA pasa a primer plano.

Examinemos algunos puntos adicionales.

Una especie de reparo sobre un aspecto de redacción particular que ha despertado la caspa de algunos es que la narrativa parece enfatizar que las "personas no confiables" podrían hacer un mal uso de estos robots de IA. Sí, de hecho, podrían ser malas personas o malhechores los que provoquen actos cobardes que “utilicen indebidamente” los robots de IA.

Al mismo tiempo, como se señaló al comienzo de esta discusión, también debemos dejar en claro que la IA en sí misma podría fallar, posiblemente debido a errores o errores integrados y otras complicaciones similares. La preocupación expresada es que solo enfatizar las posibilidades de gente poco confiable es que parece ignorar otras posibilidades adversas. Aunque la mayoría de las empresas y proveedores de IA se resisten a admitirlo, hay una gran cantidad de problemas de sistemas de IA que pueden socavar la seguridad y la confiabilidad de los sistemas autónomos. Para mi cobertura de la seguridad de la IA y la necesidad de medidas de seguridad rigurosas y demostrables, consulte el enlace aquí, por ejemplo.

Otro punto notable que ha surgido entre quienes han leído la Carta Abierta implica la afirmación incluida de que podría terminar socavando la confianza pública asociada con los robots de IA.

Por un lado, esta es una afirmación válida. Si los robots de IA se utilizan para hacer malas ofertas, puede apostar que el público se pondrá al vapor. Cuando el público se enfurece, puede apostar a que los legisladores se lanzarán a la incursión y buscarán promulgar leyes que tomen medidas drásticas contra los robots de IA y los fabricantes de robótica de IA. Esto, a su vez, podría paralizar la industria de la robótica de IA si las leyes son integrales y cierran los esfuerzos que involucran los beneficios de la robótica de IA. En cierto sentido, el bebé podría ser arrojado junto con el agua del baño (una expresión antigua que probablemente merece ser retirada).

La pregunta obvia que se plantea también es si esta afirmación sobre evitar una reducción de la confianza pública en los robots de IA es un credo un tanto egoísta o si es por el bien de todos nosotros (¿pueden ser ambos?).

Tú decides.

Ahora llegamos a la parte especialmente sustanciosa de la Carta Abierta:

  • “Nos comprometemos a no armar nuestros robots de propósito general de movilidad avanzada o el software que desarrollamos que permite la robótica avanzada y no apoyaremos a otros para que lo hagan. Cuando sea posible, revisaremos cuidadosamente las aplicaciones previstas de nuestros clientes para evitar el uso potencial de armas. También nos comprometemos a explorar el desarrollo de características tecnológicas que podrían mitigar o reducir estos riesgos. Para ser claros, no estamos en desacuerdo con las tecnologías existentes que las naciones y sus agencias gubernamentales usan para defenderse y hacer cumplir sus leyes” (según lo publicado en línea).

Podemos desempacar esto.

Siéntate y prepárate en consecuencia.

¿Estás listo para una polarización ardiente?

En el lado favorable, algunos anuncian abiertamente que estos fabricantes de robots de IA harían tal promesa. Parece que estos fabricantes de robots afortunadamente buscarán no armar sus robots de "propósito general de movilidad avanzada". Además, la Carta Abierta dice que no apoyarán a otros que lo hagan.

Los críticos se preguntan si está ocurriendo alguna ingeniosa redacción.

Por ejemplo, ¿dónde comienza y termina la “movilidad avanzada”? Si un fabricante de robots está diseñando un simples-Mobility AI robot en lugar de uno avanzado (que es una pieza indefinida de la jerga técnica), ¿se excluye eso del alcance de lo que será? no ser armado? Por lo tanto, aparentemente, está bien armar robots de IA de movilidad simple, siempre que no se los llame avanzado.

Lo mismo ocurre con la redacción de los robots de propósito general. Si un robot de IA está diseñado específicamente para armamento y, por lo tanto, no lo es, digamos un propósito general robot, ¿eso se convierte en una exclusión viable del alcance?

Puede cuestionar estas sutilezas y argumentar fervientemente que esto es solo una carta abierta y no un documento legal de cincuenta páginas que detalla cada rincón y grieta.

Esto nos lleva al reparo aparentemente más macroeconómico expresado por algunos. En esencia, ¿qué denota una “prenda”?

Algunos preguntan, ¿dónde está la carne?

Una empresa que hace una promesa como esta aparentemente lo hace sin ningún interés real en el juego. Si los altos mandos de cualquier empresa que se suscriba a este compromiso deciden no cumplir más con el compromiso, ¿qué le sucede a esa empresa? ¿Los ejecutivos serán enlatados sumariamente? ¿Cerrará la empresa y se disculpará profusamente por haber violado el compromiso? Y así.

Por lo que se puede inferir, no existe pena o sanción particular por cualquier violación de la prenda.

Podría argumentar que existe la posibilidad de daño a la reputación. Una empresa de pignoración podría ser criticada en el mercado por haber hecho una promesa que ya no cumplió. Por supuesto, esto también supone que la gente recordará que se hizo la promesa. También supone que la violación del compromiso se detectará de alguna manera (claramente parece poco probable que una empresa diga todo si lo hace). El infractor de la promesa tendría que ser denunciado y, sin embargo, tal problema podría convertirse en un mero ruido en el actual tsunami de noticias sobre los fabricantes de robótica de IA.

Considere otro ángulo que ha surgido.

Una empresa de promesas de contribuciones es comprada por una empresa más grande. La empresa más grande opta por comenzar a convertir los robots de propósito general de movilidad avanzada en versiones armadas de IA.

¿Es esto una violación de la promesa?

La empresa más grande podría insistir en que no se trata de una violación ya que ellos (la empresa más grande) nunca hicieron el compromiso. Mientras tanto, los inocuos robots de IA que la empresa más pequeña ha creado y diseñado, haciéndolo aparentemente con las intenciones más altruistas, se renuevan casi de la noche a la mañana para convertirse en armas.

De alguna manera socava la promesa, aunque se podría decir que la empresa más pequeña no sabía que esto sucedería algún día. Eran fervientes en su deseo. Estaba fuera de su control lo que la empresa compradora más grande optara por hacer.

Algunos también preguntan si hay alguna responsabilidad legal en esto.

Una empresa de promesas de contribuciones decide dentro de unos meses que no va a cumplir la promesa. Han tenido un cambio de corazón. ¿Se puede demandar a la empresa por haber desistido de la prenda que hizo? ¿Quién demandaría? ¿Cuál sería la base de la demanda? Surgen una serie de problemas legales. Como dicen, puedes demandar prácticamente a cualquiera, pero si prevalecerás es un asunto completamente diferente.

Piense en esto de otra manera. Una empresa comprometida tiene la oportunidad de hacer un gran negocio para vender un montón de sus robots de uso general de movilidad avanzada a una empresa enorme que está dispuesta a pagar un ojo de la cara para conseguir los robots. Es una de esas ofertas de compra de millones de dólares únicas en la vida.

¿Qué debe hacer la empresa de robótica de IA?

Si la empresa de robótica de IA cotiza en bolsa, es casi seguro que intentarán realizar la venta (lo mismo podría decirse de una empresa privada, aunque no del todo). Imagínese que la firma de promesas de contribuciones está preocupada de que el comprador pueda tratar de armar a los robots, aunque digamos que no hay tal discusión sobre la mesa. Solo se rumorea que el comprador podría hacerlo.

En consecuencia, la firma de compromisos incluye en su licencia que los robots no deben ser armados. El comprador se resiste a este lenguaje y se aleja de la compra.

¿De cuántas ganancias se alejó la empresa de robótica de inteligencia artificial?

¿Hay un punto en el que la ganancia en mano supere la inclusión del requisito de restricción de licencia (o, tal vez, redactar legalmente la restricción para permitir un margen de maniobra y aún así hacer que el trato suceda)? Creo que puedes ver el dilema involucrado. Toneladas de tales escenarios se evocan fácilmente. La pregunta es si esta promesa va a tener dientes. Si es así, ¿qué tipo de dientes?

En resumen, como se mencionó al comienzo de esta discusión, algunos están entusiasmados porque se está haciendo este tipo de compromiso, mientras que otros tienen una visión más sombría de si el compromiso se mantendrá.

Seguimos.

Poner en marcha una promesa

El cuarto y último párrafo de la Carta Abierta dice así:

  • “Entendemos que nuestro compromiso por sí solo no es suficiente para abordar completamente estos riesgos y, por lo tanto, hacemos un llamado a los legisladores para que trabajen con nosotros para promover el uso seguro de estos robots y prohibir su uso indebido. También hacemos un llamado a todas las organizaciones, desarrolladores, investigadores y usuarios de la comunidad de robótica para que se comprometan de forma similar a no construir, autorizar, apoyar o habilitar la conexión de armamento a tales robots. Estamos convencidos de que los beneficios para la humanidad de estas tecnologías superan con creces el riesgo de un mal uso, y estamos entusiasmados con un futuro brillante en el que los humanos y los robots trabajen codo con codo para abordar algunos de los desafíos del mundo” (según lo publicado en línea).

Esta última parte de la Carta Abierta tiene varios elementos adicionales que han provocado ira.

Apelar a los formuladores de políticas puede ser una buena o mala idea, afirman algunos. Es posible que los formuladores de políticas que no están versados ​​​​en estos asuntos se apresuren a emitir un juicio y elaboren leyes y regulaciones que usurpan el progreso de los robots de IA. Según el punto mencionado anteriormente, tal vez la innovación que está impulsando los avances robóticos de IA sea interrumpida o pisoteada.

Mejor asegúrese de saber lo que está pidiendo, dicen los críticos.

Por supuesto, el contraargumento es que la narrativa establece claramente que los formuladores de políticas deberían trabajar con empresas de robótica de IA para descubrir cómo, presumiblemente, hacer tales leyes y regulaciones de manera sensata. El contraargumento del contraargumento es que se podría considerar que los formuladores de políticas observan a los fabricantes de robótica de IA si satisfacen sus caprichos. El contraargumento contra el contraargumento es que, naturalmente, es una necesidad trabajar con aquellos que conocen la tecnología, o de lo contrario, el resultado será potencialmente un error. Etc.

Quizá sobre una base de sutilezas, algunos han tenido acidez estomacal en la línea que llama a todos a hacer promesas similares de no adjuntando armamento hasta robots de propósito general de movilidad avanzada. La palabra clave allí es la palabra. adjuntando. Si alguien está haciendo un robot de IA que incorpora o integra armamento sin problemas, eso parece eludir la redacción de adjuntando alguna cosa. Puede verlo ahora, alguien argumentando con vehemencia que el arma no está conectada, es completamente parte integrante del robot AI. Supéralo, exclaman, no estamos dentro del alcance de ese compromiso, e incluso podrían haber dicho de otro modo que lo estaban.

Esto trae a colación otra queja sobre la falta de adherencia de la prenda.

¿Puede una empresa o cualquier persona que opte por hacer esta prenda declararse no prendada en cualquier momento que desee hacerlo y por cualquier razón que así lo desee?

Aparentemente si.

Se habla mucho sobre hacer promesas y la tracción que imbuyen.

Conclusión

Yikes, se podría decir, estas empresas que están tratando de hacer lo correcto están siendo criticadas por tratar de hacer lo correcto.

¿Qué ha venido de nuestro mundo?

A cualquiera que haga tal promesa se le debe dar el beneficio de la duda, podrías sostener apasionadamente. Están saliendo a la esfera pública para hacer una contribución audaz y vital. Si empezamos a mancillarlos por hacerlo, seguramente empeorará las cosas. Nadie querrá hacer tal promesa. Las empresas y otros ni siquiera lo intentarán. Se esconderán y no advertirán a la sociedad sobre en qué se pueden convertir peligrosamente esos queridos robots bailarines.

Los escépticos proclaman que la forma de hacer que la sociedad se vuelva inteligente implica otras acciones, como abandonar el acto fantasioso de exhibir a los robots de IA que bailan y se divierten. O al menos que sea un acto más equilibrado. Por ejemplo, en lugar de imitar únicamente a los queridos perros leales a las mascotas, ilustre cómo los robots bailarines pueden ser más parecidos a lobos salvajes y furiosos que pueden despedazar a los humanos sin dudarlo.

Eso llamará más la atención que las promesas, imploran.

Las promesas sin duda pueden ser todo un enigma.

Como dijo elocuentemente Mahatma Gandhi: “No importa cuán explícito sea el compromiso, la gente cambiará y torcerá el texto para adaptarlo a su propio propósito”.

Quizás para concluir aquí con una nota edificante, Thomas Jefferson dijo esto sobre las promesas: “Nos comprometemos mutuamente nuestras vidas, nuestras fortunas y nuestro sagrado honor”.

Cuando se trata de robots de IA, su autonomía, su armamento y similares, en última instancia, todos vamos a estar juntos en esto. Nuestro compromiso mutuo debe ser, al menos, que mantendremos estos asuntos en primer plano, nos esforzaremos por encontrar formas de hacer frente a estos avances y, de alguna manera, encontraremos el camino para asegurar nuestro honor, nuestra fortuna y nuestras vidas.

¿Podemos comprometernos con eso?

Espero que sí.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- los fabricantes de robots dicen que evitarán la armamentización de la IA/