La ética de AI reflexiona sobre los méritos de exigir legalmente fondos de expiación para garantizar la rendición de cuentas por la mala actuación de AI

¿De quien es la culpa?

Esa puede parecer una pregunta sencilla, aunque en el caso de la famosa comedia del legendario dúo de Abbott y Costello sobre un equipo de béisbol, el "quién" puede ser confuso. Es posible que esté vagamente familiarizado con el quien esta primero rutina cómica que convirtieron en una de las parodias más perdurables de todos los tiempos (alerta de spoiler para aquellos de ustedes que no la han escuchado).

Abbott le dice a Costello que Quién está en primer lugar, Qué está en segundo y No sé está en tercero. El truco inteligente es que el primera base se llama Quién, el segundo sótano se llama Qué y el tercera base se llama No sé. Por supuesto, esas frases también tienen su significado convencional y, por lo tanto, tratar de interpretar lo que dice Abbott puede ser completamente confuso. De hecho, Costello hace la pregunta aparentemente inocua de quién está primero, para lo cual la respuesta es un rotundo sí. Pero esto no tiene sentido para Costello ya que estaba esperando un nombre y en su lugar recibió un desconcertante sí como respuesta.

Cambiando de marcha, cuando se trata del advenimiento de la Inteligencia Artificial (IA), una de las preguntas más desconcertantes que se siguen haciendo implica quién o quizás qué será responsable cuando la IA se desvíe.

Anteriormente he discutido la responsabilidad penal de cuando la IA conduce o lleva a cabo acciones criminales, vea mi cobertura en el enlace aquí. También está la cuestión de la responsabilidad civil, como a quién o qué podrías demandar cuando AI te haya hecho mal, que es el tema que discutiré aquí. Todo esto tiene importantes consideraciones de ética de IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida (quizás sorprendente o irónicamente) la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

Un acalorado debate que tiene lugar es si las leyes existentes pueden abordar adecuadamente el surgimiento de sistemas de IA en toda la sociedad. La responsabilidad legal generalmente requiere que pueda ponerle la cola al burro en cuanto a quién es responsable de la conducta dañina. En el caso de la IA, puede haber un camino poco claro que vincule a una persona o personas en particular con la IA que realizó alguna acción perjudicial. La IA podría ser en gran medida imposible de rastrear hasta la fuente o el inventor que compuso la IA.

Otra consideración es que incluso si las raíces de la IA se pueden rastrear hasta alguien, la pregunta es si la persona o personas podrían no haber podido prever razonablemente el resultado adverso que finalmente produjo la IA. El quid de la previsibilidad es un factor habitualmente notable en la evaluación de la responsabilidad legal.

Es posible que tenga la tentación de pensar que simplemente puede perseguir a la propia IA y nombrar a la IA como la parte legal responsable de cualquier daño supuestamente incurrido. En general, la opinión jurídica predominante es que AI aún no ha alcanzado el nivel de personalidad jurídica. Por lo tanto, estrictamente hablando, no podrá buscar que la IA pague y necesitará encontrar humanos que estuvieran trabajando detrás de escena, por así decirlo (para mi análisis de la personalidad jurídica para la IA, consulte el enlace aquí).

En todo este marasmo legal potencial, surge una idea que se plantea como un posible remedio, ya sea a corto plazo o posiblemente a largo plazo. La idea es que tal vez debería establecerse un fondo compensatorio especial para brindar alivio financiero a aquellos que han sido perjudicados por AI. Si no puede lograr que la IA lo compense, y no puede identificar a las personas que supuestamente deberían rendir cuentas, la siguiente mejor opción podría ser aprovechar un fondo compensatorio que tenga como objetivo ayudar a los perjudicados por la IA.

Tal fondo sería similar a una especie de seguro, como se afirma en un trabajo de investigación que invita a la reflexión: "Esto sería esencialmente un mecanismo de seguro contra la incertidumbre: un marco claro y transparente para una compensación rápida en los casos en que se ha presentado una demanda por responsabilidad". incertidumbre o ninguna perspectiva de éxito debido a la naturaleza imprevisible de la conducta dañina, el (tipo de) daño en sí mismo, o los costos excesivos y/o la complejidad del procedimiento” (artículo de Olivia Erdelyi y Gabor Erdelyi, “The AI ​​Liability Puzzle y una solución alternativa basada en fondos”, Revista de Investigación de Inteligencia Artificial, 2021).

El fondo compensatorio sería parte de un Esquema de Garantía de IA general (AIGS) y estaría acompañado de algunas modificaciones leves a las leyes existentes sobre responsabilidad legal. Presumiblemente, el toque ligero sería más fácil de promulgar y no requeriría el arduo tipo de angustia legal y social si se hiciera una serie de cambios demostrativos más desgarradores en los regímenes legales existentes. Según los investigadores: "Esto refleja nuestra creencia de que, a pesar del atractivo de una solución tan rápida, el inalterado aplicación de las normas de responsabilidad existentes a AI o a un con motivaciones proteccionistas el recurso a la responsabilidad objetiva con el fin de establecer la responsabilidad a toda costa no son las respuestas correctas por tres razones: en primer lugar, ignorando que esas reglas se han adaptado a diferentes circunstancias y, por lo tanto, pueden ser inapropiadas para AI, contravienen los objetivos delicadamente equilibrados de la régimen de responsabilidad legal. En segundo lugar, inhiben la innovación de la IA al adoptar un enfoque indebidamente punitivo. En tercer lugar, el recurso indebido a la responsabilidad estricta simplemente elude los problemas de previsibilidad y falla de una manera dogmáticamente inconsistente en lugar de remediarlos” (según el documento citado anteriormente).

Los argumentos a favor de tales fondos compensatorios de AI incluyen:

  • Reduce la necesidad de juicios legales largos y costosos para hacer frente a los daños infligidos por la IA
  • Asegura a los humanos que pueden hacer uso de la IA y ser compensados ​​​​si son dañados
  • Promueve la innovación de IA al aliviar la incertidumbre legal que enfrentan los innovadores de IA
  • Se puede poner en uso mucho más rápido que hacer cambios masivos a las leyes existentes
  • Ofrece un remedio relativamente claro que es confiable y fácilmente disponible
  • Otro

Mientras tanto, los que se oponen al enfoque de fondos compensatorios de AI dicen esto:

  • Dejemos que los fabricantes de IA se liberen excesivamente y permítales eludir la responsabilidad
  • Animará a los fabricantes de IA a crear una IA que carezca de seguridad y controles adecuados
  • Podría incitar a las personas a reclamar falsamente los daños de la IA para que puedan acceder a los fondos
  • Elude y socava la verdadera necesidad de revisar nuestras leyes para gobernar suficientemente la IA
  • Podría convertirse en una pesadilla burocrática que se atasca y malversa los fondos
  • Otro

Como puede ser evidente, hay tanto defensores como detractores de esta noción tan controvertida.

Sería difícil descartar sumariamente el fondo compensatorio de IA como un enfoque potencial para las crecientes preocupaciones sobre la IA que causa daño. La solución propuesta tampoco es pan comido.

Un punto de vista es que los fabricantes de IA tendrían que invertir dinero en los fondos como parte de sus esfuerzos al diseñar y promulgar la IA. Esto podría interpretarse como una especie de tarifa o impuesto que deben pagar como parte de poder lanzar su IA al mundo. Pero, ¿este costo adicional suprime potencialmente los esfuerzos de las nuevas empresas que intentan ampliar los límites de la IA actual? ¿Y cómo se manejaría la aplicación de asegurarse de que los fabricantes de IA pagaran su tarifa o impuesto?

Surgen una serie de preguntas que deberían resolverse:

  • ¿En qué países sería más factible un fondo compensatorio de IA?
  • ¿Se podría establecer una apariencia global de fondos compensatorios de IA interconectados?
  • ¿Cuáles serían los mecanismos detallados y viables asociados con dichos fondos?
  • ¿Cómo se financiarán los fondos compensatorios de AI (públicos, privados, caritativos)?
  • ¿Sería esto una base de seguro sin culpa o se tomaría algún otro enfoque?
  • Etc.

Un ámbito en el que ya se ha discutido la idea de los fondos compensatorios de IA consiste en sistemas autónomos como vehículos autónomos y autos sin conductor. Para mi cobertura de autos sin conductor y sistemas autónomos de IA, consulte el enlace aquí.

Aquí hay un boceto de cómo podría funcionar esto para los autos autónomos basados ​​​​en IA.

Supongamos que un automóvil autónomo choca contra un ciclista. El ciclista resulta herido. El ciclista podría buscar una reparación legal persiguiendo al fabricante de automóviles del vehículo autónomo. O podrían apuntar a la empresa de tecnología de conducción autónoma que creó el sistema de conducción de IA. Si el automóvil autónomo se opera como una flota, otra vía legal sería perseguir al operador de la flota. Intentar demandar a AI no es una opción en este momento ya que la personalidad jurídica de AI aún no está establecida.

En lugar de emprender acciones legales contra cualquiera de esas partes, otro recurso sería presentar una solicitud o reclamo a un fondo compensatorio de AI adecuado. El fondo habría formalizado procesos relacionados con la revisión de la reclamación y luego determinaría qué pagos compensatorios podrían proporcionarse al reclamante. Puede haber un proceso de apelaciones que ayude a los reclamantes que creen que el fondo les negó erróneamente o que el fondo no los compensó lo suficiente.

En teoría, el fondo compensatorio de AI sería un camino mucho más rápido para obtener una compensación por el daño infligido. Puede imaginar lo laborioso que puede ser un juicio, en el que las empresas demandadas podrían intentar alargar el caso.

Sin embargo, los abogados podrían enfatizar que el fondo compensatorio de IA podría permitir que esas otras partes, como los fabricantes de IA, aparentemente eviten cualquier sanción clara por haber soltado su automóvil autónomo en vías públicas que terminaron golpeando a un ciclista. ¿Qué más podrían esas empresas optar por hacer “descuidadamente”? Sin el espectro inminente de la espada legal colgando sobre sus cabezas, podríamos enfrentarnos diariamente a una IA que está plagada de capacidades peligrosas.

Vueltas y vueltas van los argumentos.

Conclusión

La ética de la IA nos recuerda que siempre debemos considerar las ramificaciones éticas y legales de la IA. En este caso de los fondos compensatorios de AI, la noción propuesta de un conjunto de fondos similar a un seguro para compensar a aquellos que se ven perjudicados por AI parece atractivo. Aparentemente, los fondos estarían esperando allí, listos para ser aprovechados y proporcionar la compensación lo antes posible.

Las compensaciones de si esto podría abrir las compuertas para hacer que la IA tenga cada vez menos controles de seguridad es una preocupación desalentadora y demasiado real. Probablemente no necesitemos agregar combustible a un incendio que tal vez ya esté en marcha.

¿Podemos de alguna manera seguir obligando a los fabricantes de IA a diseñar una IA ética adecuada y establecer simultáneamente estos fondos compensatorios de IA?

Algunos dirían que sí, podemos. Al reajustar las leyes existentes para alinearlas con los fondos compensatorios de AI, aquellos que se ven perjudicados por AI tendrían potencialmente un doble camino para buscar su compensación justa.

¿Quién va primero?

Sí, eso es lo que (como todos nosotros) es el primer aviso de que deberíamos estar reflexionando sobre el uso potencial de los fondos compensatorios de IA y modificando las leyes existentes, aunque sea ligeramente, proporcionando un medio para hacer frente a la avalancha de buena IA y mala IA.

No hay confusión sobre esa consideración vital.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- responsabilidad/