Implantar el razonamiento legal en la IA podría lograr de manera inteligente la alineación del valor humano, dice la ética de la IA y la ley de la IA

En la columna de hoy, voy a entretejer una miríada de temas aparentemente dispares relacionados con la IA en una tela muy bien entretejida.

¿Listo para iniciar?

Imagine que está utilizando una aplicación impulsada por IA que lo ayuda mientras realiza algún tipo de tarea importante. Tal vez el asunto es financiero o podría estar relacionado con la salud. La esencia es que usted depende de que la IA haga lo correcto y se desempeñe de manera supuestamente segura.

Supongamos que la IA vira hacia un territorio poco ético.

Es posible que no te des cuenta de que la IA lo está haciendo.

Por ejemplo, la IA podría depender de factores discriminatorios potencialmente ocultos, como la raza o el género, aunque es posible que no tenga ningún medio viable para discernir el uso indebido. Ahí está, solo, obteniendo el extremo corto del palo a través de una IA que ha sido diseñada desde el principio de una manera problemática o ha logrado conducir a un peligro ético incierto y límite (hablaré más sobre esto en un momento).

¿Qué se puede hacer o qué se puede hacer con respecto a la IA que opta por seguir un camino poco ético?

Además de tratar de construir de antemano la IA para que no realice este tipo de acción insidiosa, también detallé anteriormente que existe un interés creciente en incorporar una Comprobación de ética de IA componente en el floreciente pantano de los sistemas de IA de todo vale del Salvaje Oeste que se lanzan al mercado. La idea es que para tratar de evitar que una aplicación infundida con IA se aleje de las dimensiones éticas, podríamos usar IA adicional para hacer un control y equilibrio. Esta IA agregada podría estar fuera de la aplicación de IA de destino o podría ser un componente incrustado o implantado directamente en la IA que queremos verificar dos veces.

Como he dicho antes, ver el enlace aquí: “Una tendencia que ha surgido recientemente consiste en tratar de construir barandas éticas en la IA que prevalecerán cuando el resto de un sistema de IA comience a ir más allá de los límites éticos preestablecidos. En cierto sentido, el objetivo es utilizar la propia IA para evitar que se desvíe éticamente. Se podría decir que nuestro objetivo es que la IA se cure a sí misma” (Lance Eliot, “Creación de IA ética que monitorea la IA no ética y trata de disuadir a la IA mala de actuar”, Forbes, 28 de marzo de 2022).

También puede encontrar de interés relevante mi libro sobre Robots guardianes de IA, a veces denominados ángeles de la guarda, que cubre los fundamentos técnicos de estos comprobadores dobles integrados de IA dentro de IA de última generación, consulte el enlace aquí.

La conclusión es que, afortunadamente, su tocino podría salvarse mediante el uso de un elemento de medición de ética de verificación doble de IA incorporado que se ha diseñado e implantado en una aplicación de IA que está utilizando. Pero, ¿será eso un guardián suficiente para asegurarse de que la IA no lo deje completamente rígido y se aventure incluso en un terreno dañino más peligroso?

Verá, la aplicación de IA podría funcionar ostensiblemente ilegal hechos.

Una cosa es tener IA que entre en un área gris de lo que consideramos comportamientos éticos o no éticos. Un comportamiento igualmente desconcertante y un posible empeoramiento de la preocupación implican una IA que simplemente salta sobre el tiburón y desciende a la oscuridad de mala calidad de los actos totalmente ilegales.

La IA ilegal es mala. Permitir que la IA ilegal quede desatendida es malo. Algunos académicos del derecho están abiertamente preocupados de que el advenimiento y la omnipresencia de la IA vayan a socavar de manera gradual y aterradora nuestra apariencia de imperio de la ley, ver mi análisis en el enlace aquí.

Espera un segundo, podrías estar diciendo.

Puede sentirse tentado a pensar que los desarrolladores de IA nunca programar su IA para que vaya en contra de la ley. No imaginable. Solo los villanos malvados lo harían (que, por cierto, tenga en cuenta que hay quienes están diseñando y usando intencionalmente la IA para propósitos malvados, un área de interés creciente para los delincuentes y otros que desean usar la IA para actividades nefastas).

Lo siento, pero es una ilusión suponer que todos los desarrolladores de IA no malvados se asegurarán estrictamente de que su IA respete completamente la ley. Podría ser que la IA se autoajuste y deambule hacia actividades ilegales. Por supuesto, también existe la posibilidad de que los desarrolladores de IA quisieran que la IA actuara ilegalmente o que no estuvieran al tanto de lo que constituía actos ilegales versus legales cuando estaban creando la IA (sí, esto es muy posible, a saber, que un El equipo de IA totalmente tecnológico puede ignorar las travesuras legales de su IA, lo cual no es excusable y, sin embargo, sucede con una frecuencia alarmante).

¿Qué se puede hacer con esto?

Una vez más, además de tratar de garantizar que la IA fuera de la puerta sea férrea y legal, un enfoque adicional para ganar fuerza implica incorporar o implantar un componente de IA que verifique dos veces legalmente el resto de la aplicación de IA. Sentado en silencio y, a menudo, sin ser anunciado, esta IA adicional está observando el resto de la IA para tratar de discernir si la IA se volverá deshonesta o al menos superará los límites de las restricciones legales o reglamentarias impuestas.

Ahora tenemos dos tipos de verificación doble de IA que están potencialmente integrados en una aplicación de IA:

  • Comprobador doble de ética de IA: En tiempo real, este componente o complemento de IA evalúa el resto de la IA en busca de comportamientos éticos y no éticos que exhibe la IA.
  • Verificación doble legal de AI: En tiempo real, este componente o complemento de IA evalúa el resto de la IA para asegurarse de permanecer dentro de las claves legales y detectar actividades ilegales emergentes por parte de la IA.

Para aclarar, esas son concepciones relativamente nuevas y, como tal, la IA que está utilizando hoy podría estar en cualquiera de estas condiciones actuales:

  • AI que no tiene doble verificador incluido en absoluto
  • IA que tiene un verificador doble de ética de IA incluido, pero no otros verificadores dobles
  • IA que tiene un verificador doble AI Legal incluido pero no otros verificadores dobles
  • AI que tiene un doble verificador de Ética de AI y un verificador doble de Legal de AI
  • Otro

Hay algunos aspectos marcadamente complicados de tener tanto el verificador doble de Ética de IA como el verificador doble de Asuntos Legales de IA trabajando uno al lado del otro en una aplicación de IA como hermano y hermana afines. Este es un tipo de dualismo que puede ser más difícil de coordinar de lo que podrías suponer (creo que todos sabemos que los hermanos y las hermanas pueden tener los lazos más estrechos, aunque también pueden pelear como los idiotas de vez en cuando y tener fuerzas opuestas vigorosas). puntos de vista).

He discutido extensamente este tipo de arduo dualismo: “Se está produciendo un dualismo descuidado en la IA para el Bien Social que implica la falta de abarcar tanto el papel de la agencia moral artificial como el razonamiento legal artificial en los sistemas avanzados de IA. Los esfuerzos de los investigadores de IA y los desarrolladores de IA han tendido a centrarse en cómo crear e incorporar agentes morales artificiales para guiar la toma de decisiones morales cuando un sistema de IA está operando en el campo, pero no se han enfocado ni combinado el uso de capacidades de razonamiento legal artificial. , que es igualmente necesario para resultados morales y legales sólidos” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Conferencia Anual CRCS de la Universidad de Harvard 2020, Centro de Harvard para la Sociedad de Investigación y Computación)

Si desea reflexionar sobre por qué podría haber tensión entre una doble verificación de Ética de IA y una verificación doble de Asuntos Legales de IA, puede encontrar esta cita notable de valor conceptual alucinante: “La ley puede permitir algún acto en particular, aunque ese acto sea inmoral; y la ley puede prohibir un acto, aunque ese acto sea moralmente permisible, o incluso moralmente requerido” (Shelly Kagan, Los límites de la moralidad, 1998).

Cambiemos un poco nuestro enfoque y veamos cómo estos verificadores dobles encajan en otro tema de IA altamente analizado, a saber IA responsable o una consideración concertada de la alineación de los valores humanos y la IA.

La idea general es que queremos una IA que respete los valores humanos adecuados y deseables. Algunos se refieren a esto como IA responsable. Otros discuten de manera similar IA responsable, IA confiabley Alineación de IA, todos los cuales tocan el mismo principio fundamental. Para mi discusión sobre estos importantes temas, véase el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

¿Cómo podemos hacer que la IA se alinee con los valores humanos?

Como se sugirió anteriormente, esperamos que los desarrolladores de IA sean conscientes de desarrollar una IA que logre la adherencia a la IA responsable. Lamentablemente, es posible que no, por las razones explicadas anteriormente. Además, podrían intentar hacerlo y, sin embargo, la IA termina autoajustándose más allá del ámbito destacado de los comportamientos éticos o posiblemente en aguas ilegales.

Muy bien, entonces debemos considerar nuestros prácticos y elegantes dobles verificadores como un medio para apuntalar estos riesgos y exposiciones. El uso de un doble verificador de ética de IA bien diseñado puede ayudar materialmente a alinear la IA con los valores humanos. Del mismo modo, el uso de un doble verificador legal de IA bien diseñado puede ayudar sustancialmente a alinear la IA con los valores humanos.

Por lo tanto, un medio crucial y aún no muy conocido de tratar de llegar a una IA responsable, una IA confiable, una IA responsable, una alineación de IA, etc., implicaría el uso de verificadores dobles de IA, como un verificador doble de ética de IA y un Doble verificador legal de IA que funcionaría incansablemente como una doble verificación de la IA en la que están integrados.

En esta discusión, me gustaría profundizar un poco más en la naturaleza y las construcciones de los verificadores dobles legales de IA que podrían integrarse en la IA. Para hacerlo, podría ser útil compartir con usted algunos antecedentes adicionales sobre el tema general de IA y derecho.

Para un examen sensato de cómo la IA y la ley se entremezclan entre sí, vea mi discusión en el enlace aquí. En mi mirada perspicaz a la IA y derecho acoplamiento, proporciono esta concepción directa de dos formas principales de interrelacionar la IA y la ley:

  • (1) Derecho aplicado a la IA: La formulación, promulgación y aplicación de leyes aplicadas a la regulación o gobernanza de la inteligencia artificial en nuestra sociedad.
  • (2) IA aplicada al Derecho: Tecnología de inteligencia artificial diseñada y aplicada a la ley, incluido el razonamiento legal basado en IA (AILR) infundido en las aplicaciones de alta tecnología de LegalTech para realizar tareas de abogacía de forma autónoma o semiautónoma

El primer punto de vista enumerado consiste en considerar cómo las leyes nuevas y existentes regirán la IA. La segunda perspectiva enumerada tiene que ver con la aplicación de la IA a la ley.

Esta última categoría generalmente implica el empleo de Razonamiento legal basado en IA (AILR) en varias herramientas en línea utilizadas por los abogados. Por ejemplo, la IA puede ser parte de un paquete de gestión del ciclo de vida del contrato (CLM) que ayuda a los abogados a identificar el lenguaje contractual que será útil para redactar nuevos contratos o puede detectar contratos que tienen un lenguaje legalmente insípido que permite contratiempos o lagunas legales. (Para mi mirada a los llamados "olores de ley" que puede discernir la IA, consulte el enlace aquí).

Inevitablemente, la IA se aplicará a la ley que esté disponible para el uso del público en general y que no requiera que un abogado esté al tanto. En este momento, como resultado de varias restricciones, incluida la UPL (Práctica no autorizada de la ley), poner a disposición aplicaciones de asesoría legal basadas en IA es un asunto espinoso y controvertido, vea mi discusión en el enlace aquí.

Mencioné esta introducción sobre IA y derecho para señalar que otro uso instrumental de la IA aplicada a la ley sería crear verificadores dobles legales de IA.

Sí, el mismo tipo de destreza tecnológica involucrada en la aplicación de la IA a la ley puede servir como una doble función al usar la IA para servir como un doble verificador legal de IA incorporado o implantado. El verificador doble de AI Legal es un componente que debe estar versado en aspectos legales. Cuando el resto de la aplicación de IA está realizando varias acciones, el verificador doble legal de IA está evaluando si la aplicación de IA lo está haciendo legalmente y dentro de las restricciones legales.

Un componente de verificación doble de AI Legal no necesariamente tiene que cubrir toda la gama de todo lo que hay que saber sobre la ley. Dependiendo de la naturaleza de la aplicación de IA en cuanto al propósito y las acciones de la IA en general, la verificación doble de AI Legal puede ser mucho más limitada en términos de la experiencia legal que contiene.

He identificado un marco útil para mostrar cómo la IA en el ámbito legal abarca una serie de capacidades autónomas, conocidas como niveles de autonomía (LoA). Para obtener una descripción general, consulte mi Forbes Publicación en columna del 21 de noviembre de 2022, "El caso convincente, completo y serio de por qué los abogados necesitan saber sobre la IA y la ley" en el enlace aquí, y para una descripción técnica detallada, consulte mi artículo de investigación en profundidad en el Revista de derecho computacional del MIT del 7 de diciembre de 2021, ver el enlace aquí.

El marco aclara cinco niveles de IA que se utilizan en los esfuerzos legales:

  • Nivel 0: Sin automatización para el trabajo legal basado en IA
  • Nivel 1: Automatización de asistencia simple para trabajo legal basado en IA
  • Nivel 2: Automatización de asistencia avanzada para trabajo legal basado en IA
  • Nivel 3: Automatización semiautónoma para trabajo legal basado en IA
  • Nivel 4: Dominio autónomo para trabajo legal basado en IA
  • Nivel 5: Totalmente autónomo para el trabajo legal basado en IA

Los describiré brevemente aquí.

El nivel 0 se considera el nivel sin automatización. El razonamiento legal y las tareas legales se llevan a cabo a través de métodos manuales y principalmente se realizan a través de enfoques basados ​​en papel.

El nivel 1 consiste en una automatización de asistencia simple para el razonamiento legal de AI. Los ejemplos de esta categoría incluirían el uso diario de procesamiento de textos basado en computadora, el uso diario de hojas de cálculo basadas en computadora, el acceso a documentos legales en línea que se almacenan y recuperan electrónicamente, etc.

El nivel 2 consiste en la automatización de asistencia avanzada para el razonamiento legal de IA. Los ejemplos de esta categoría incluirían el uso de procesamiento de lenguaje natural (NLP) rudimentario de estilo de consulta, elementos simplistas de aprendizaje automático (ML), herramientas de análisis estadístico para predicciones de casos legales, etc.

El nivel 3 consiste en una automatización semiautónoma para el razonamiento legal de la IA. Los ejemplos de esta categoría incluirían el uso de sistemas avanzados basados ​​en el conocimiento (KBS) para el razonamiento legal, el uso de Machine Learning y Deep Learning (ML/DL) para el razonamiento legal, NLP avanzado, etc.

El nivel 4 consiste en sistemas informáticos autónomos de dominio para el razonamiento jurídico de la IA. Este nivel reutiliza la noción conceptual de dominios de diseño operativo (ODD), tal como se utiliza para los automóviles autónomos, pero se aplica al dominio legal. Los dominios legales pueden clasificarse por áreas funcionales, como derecho de familia, derecho inmobiliario, derecho concursal, derecho ambiental, derecho fiscal, etc.

El nivel 5 consiste en sistemas informáticos totalmente autónomos para el razonamiento jurídico de la IA. En cierto sentido, el Nivel 5 es el superconjunto del Nivel 4 en términos de abarcar todos los dominios legales posibles. Por favor, tenga en cuenta que esto es una tarea bastante difícil.

Puede concebir estos niveles de autonomía a la par de los usos similares cuando se habla de autos sin conductor y vehículos autónomos (también basados ​​en el estándar oficial SAE, vea mi cobertura en el enlace aquí). Todavía no tenemos autos sin conductor SAE Nivel 5. Nos estamos acercando a los autos sin conductor SAE Nivel 4. La mayoría de los autos convencionales están en el nivel 2 de SAE, mientras que algunos de los autos más nuevos están llegando al nivel 3 de SAE.

En el dominio legal, aún no tenemos AILR de nivel 5. Estamos hablando de algún Nivel 4, aunque en ODD extremadamente estrechos. El nivel 3 está comenzando a ver la luz del día, mientras que el pilar de AILR hoy en día se encuentra principalmente en el nivel 2.

Un artículo de investigación reciente sobre la IA aplicada a la ley ha postulado una tipificación conocida como Ley Informa Código. El investigador afirma: “Uno de los objetivos principales de la Ley Informa Código La agenda es enseñar a la IA a seguir el espíritu de la ley” (John J. Nay, “La ley informa el código: un enfoque de informática legal para alinear la inteligencia artificial con los humanos”, Revista del Noroeste de Tecnología y Propiedad Intelectual, Volumen 20, de próxima aparición). Hay algunas consideraciones esenciales que el Ley Informa Código mantra aparece y lo guiaré a través de varios de esos preceptos clave.

Antes de profundizar en el tema, primero me gustaría establecer una base esencial sobre la IA y, en particular, sobre la ética y la ley de la IA, para asegurarme de que la discusión sea contextualmente sensata.

La creciente conciencia de la IA ética y también de la ley de IA

Inicialmente, se consideró que la era reciente de la IA era AI para siempre, lo que significa que podríamos usar la IA para el mejoramiento de la humanidad. En los talones de AI para siempre vino la realización de que también estamos inmersos en AI para mal. Esto incluye la IA que se diseña o se modifica a sí misma para que sea discriminatoria y toma decisiones computacionales imbuyendo sesgos indebidos. A veces, la IA se construye de esa manera, mientras que en otros casos se desvía hacia ese territorio adverso.

Quiero estar completamente seguro de que estamos en la misma página sobre la naturaleza de la IA de hoy.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre la IA consciente, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Sugiero enfáticamente que mantengamos las cosas con los pies en la tierra y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones de ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

También examiné recientemente la Declaración de derechos de IA que es el título oficial del documento oficial del gobierno de EE. UU. titulado "Proyecto para una declaración de derechos de IA: hacer que los sistemas automatizados funcionen para el pueblo estadounidense" que fue el resultado de un esfuerzo de un año de la Oficina de Política Científica y Tecnológica (OSTP ). La OSTP es una entidad federal que sirve para asesorar al Presidente de los Estados Unidos ya la Oficina Ejecutiva de los Estados Unidos en diversos aspectos tecnológicos, científicos y de ingeniería de importancia nacional. En ese sentido, se puede decir que esta Declaración de Derechos de AI es un documento aprobado y respaldado por la actual Casa Blanca de EE. UU.

En la Declaración de derechos de AI, hay cinco categorías clave:

  • Sistemas seguros y efectivos
  • Protecciones de discriminación algorítmica
  • Privacidad de datos
  • Aviso y explicación
  • Alternativas humanas, consideración y respaldo

He revisado cuidadosamente esos preceptos, mira el enlace aquí.

Ahora que he sentado una base útil sobre estos temas relacionados con la ética de la IA y la ley de la IA, estamos listos para saltar al tema embriagador de las verificaciones dobles legales de la IA y el ámbito de Ley Informa Código.

Verificadores dobles legales de IA integrados en la IA para la alineación del valor humano

A veces me refiero a Verificadores dobles legales de IA a través de un acrónimo de AI-LDC. Esto es un poco discordante visualmente para aquellos que no están familiarizados con el acrónimo. Como tal, no usaré este acrónimo en particular en esta discusión, pero quería mencionarlo como aviso.

Para desentrañar algunas de las complejidades de las verificaciones dobles de AI Legal, abordemos estos puntos principales:

  • Uso de doble verificadores legales de AI como un mecanismo de alineación de valores humanos de AI
  • Una IA más expansiva requerirá, en consecuencia, una IA más robusta Verificadores dobles legales
  • Los verificadores dobles de AI Legal promulgan la ley y, en particular, no están haciendo la ley (presumiblemente)
  • Delicado equilibrio entre IA Encarnación legal de la ley como reglas versus estándares
  • Requerir prueba del pudín cuando se trata de que la IA cumpla con la ley

Debido a las limitaciones de espacio, solo cubriré esos cinco puntos por ahora, aunque esté atento a más cobertura en mi columna que cubre consideraciones adicionales e igualmente notables sobre estos asuntos que evolucionan rápidamente y avanzan.

En este momento, abróchese el cinturón de seguridad y prepárese para un viaje estimulante.

  • Uso de doble verificadores legales de AI como un mecanismo de alineación de valores humanos de AI

Existen numerosas formas de tratar de lograr una alineación armoniosa entre la IA y los valores humanos.

Como se mencionó anteriormente, podemos producir y promulgar preceptos de ética de IA y buscar que los desarrolladores de IA y aquellos que implementan y operan IA cumplan con esos pilares. Desafortunadamente, esto por sí solo no funcionará. Tienes algunos diseñadores que inevitablemente no captarán el mensaje. Tiene algunos artífices que harán alarde de la IA ética e intentarán eludir los principios prescritos un tanto sueltos. Y así.

El uso de enfoques de "ley blanda" que implican la ética de la IA tiene que combinarse casi inexorablemente con vías de "ley dura", como la aprobación de leyes y regulaciones que enviarán una fuerte señal a todos los que crean o utilizan la IA. El brazo largo de la ley podría llegar a atraparlo si no está aprovechando la IA de manera juiciosa. El sonido de las puertas de la prisión golpeando podría llamar la atención.

Sin embargo, un gran problema es que a veces la puerta del establo ya ha dejado salir a los caballos. Una IA que se encuentra en el campo producirá potencialmente todo tipo de actos ilegales y continuará haciéndolo hasta que no solo sea capturada, sino también cuando finalmente se intensifique alguna aplicación para obstaculizar el flujo de acciones ilegales. Todo eso puede tomar tiempo. Mientras tanto, los humanos están siendo dañados de una forma u otra.

En esta incursión viene el doble verificador de AI Legal.

Al residir dentro de una aplicación de IA, el verificador doble de AI Legal puede detectar de inmediato cuando la IA parece estar infringiendo la ley. La doble verificación de AI Legal podría detener a la IA en seco. O el componente podría alertar a los humanos sobre las actividades ilegales discernidas, haciéndolo de manera oportuna que podría incitar a los supervisores a tomar medidas correctivas urgentes. También existe el registro formalizado considerado que el componente podría crear, proporcionando una apariencia tangible de un registro de auditoría con el fin de codificar las acciones adversas de la IA.

Se dice que nuestras leyes son una forma de conglomerado de múltiples agentes, de modo que las leyes inevitablemente son una mezcla de lo que la sociedad ha tratado de presentar como un equilibrio entre puntos de vista probablemente conflictivos de los comportamientos sociales adecuados e inadecuados. Por lo tanto, una doble verificación de AI Legal basada en nuestras leyes incorpora esa combinación.

En particular, esto es más que simplemente programar una lista de normas legales definitivas. Las leyes tienden a ser más maleables y se esfuerzan por alcanzar estándares generales, en lugar de especificar la más mínima de las reglas microscópicas. Las complejidades son abundantes.

Volviendo al artículo de investigación mencionado anteriormente, así es como estas consideraciones también pueden verse con respecto a la búsqueda de la alineación de la IA: “La ley, la filosofía aplicada de la alineación de múltiples agentes, cumple estos criterios de manera única. La alineación es un problema porque no podemos ex ante especificar reglas que dirijan total y demostrablemente el buen comportamiento de la IA. De manera similar, las partes de un contrato legal no pueden prever todas las contingencias de su relación, y los legisladores no pueden predecir las circunstancias específicas bajo las cuales se aplicarán sus leyes. Por eso gran parte del derecho es una constelación de normas” (ibíd.).

Incorporar la ley en un doble verificador de AI Legal es mucho más desafiante de lo que podría suponer al principio.

A medida que avance la IA, tendremos que aprovechar dichos avances en consecuencia. Resulta que lo que es bueno para el ganso también lo es para el ganso. Aquellos de nosotros que progresamos en la IA tal como se aplica a la ley, estamos empujando los límites de la IA e indudablemente forjando nuevos avances que, en última instancia, pueden alimentar el progreso de la IA por completo.

  • Una IA más expansiva requerirá, en consecuencia, una IA más robusta Verificadores dobles legales

Un gambito del gato y el ratón confronta este tema.

Lo más probable es que a medida que la IA avance más, cualquier componente de verificación doble de AI Legal encontrará asuntos cada vez más difíciles de manejar. Por ejemplo, una aplicación de IA que se está examinando podría haber ideado nuevas formas superdisimuladas de ocultar las acciones ilegales que está tomando la IA. Incluso si la IA no está tomando una ruta encubierta, la complejidad general de la IA por sí sola podría ser un obstáculo desalentador para intentar que la doble verificación legal de la IA evalúe.

Así es como esto se vuelve especialmente significativo.

Supongamos que un desarrollador de IA o alguna empresa que utiliza IA proclama que hay un doble verificador legal de IA que se ha integrado en la aplicación basada en IA. Voila, parece que ahora se han lavado las manos de cualquier otra preocupación. El verificador doble de AI Legal se encargará de todo.

No es así.

La doble verificación legal de AI podría ser insuficiente para la naturaleza de la aplicación de AI involucrada. También existe la posibilidad de que el verificador doble de AI Legal se vuelva obsoleto, tal vez no se actualice con las últimas leyes relacionadas con la aplicación AI. Se pueden prever una serie de razones por las que la mera presencia de un doble verificador legal de AI no será una panacea.

Considere estas ideas de la investigación citada anteriormente: “A medida que avanza el estado del arte de la IA, podemos establecer estándares iterativamente más altos de capacidades de comprensión legal demostradas. Si un desarrollador afirma que su sistema tiene capacidades avanzadas en las tareas, debe demostrar la comprensión legal y las habilidades legales y de razonamiento correspondientemente avanzadas de la IA, que prácticamente no tienen límite de dificultad cuando se considera la maraña de leyes y regulaciones a lo largo del tiempo, los precedentes y la jurisdicción. ” (ibíd.).

  • Los verificadores dobles de AI Legal promulgan la ley y, en particular, no están haciendo la ley (presumiblemente)

Estoy seguro de que algunos de ustedes están horrorizados ante la idea de tener estas dobles verificadoras de AI Legal.

Una preocupación expresada a menudo es que aparentemente vamos a permitir que AI decida nuestras leyes por nosotros. Dios mío, podrías estar pensando, alguna pieza de automatización superará a la humanidad. Esos malditos verificadores dobles legales de IA incorporados se convertirán en los reyes predeterminados de nuestras leyes. Cualquier cosa que hagan será lo que parece ser la ley.

Los humanos serán gobernados por la IA.

Y estas dobles verificaciones de AI Legal son la pendiente resbaladiza que nos lleva allí.

Un contraargumento es que tales conversaciones son parte de las teorías de la conspiración. Estás postulando salvajemente y poniéndote nervioso. La realidad es que estos verificadores dobles de AI Legal no son conscientes, no van a apoderarse del planeta, y exagerar sobre su riesgo existencial es simplemente absurdo e inmensamente exagerado.

Con todo, permaneciendo con una postura tranquila y razonada, debemos tener en cuenta que las dobles verificaciones legales de AI sirven para reflejar adecuadamente la ley y no por diseño ni por accidente ir más allá para entrar de alguna manera por defecto en el reverenciado reino de hacer ley. Dejando a un lado las extrapolaciones de sensibilidad, ciertamente podemos estar de acuerdo en que existe una preocupación real y apremiante de que la doble verificación de AI Legal pueda terminar tergiversando la verdadera naturaleza de una ley determinada.

A su vez, podría afirmar que, por lo tanto, esa ley particular "tergiversada" esencialmente se está haciendo de nuevo, ya que ya no significa adecuadamente lo que pretendía la ley real. Confío en que, francamente, puede ver cómo se trata de una consideración sutil pero reveladora. En cualquier momento, el verificador doble legal de AI podría virtualmente hacer o deberíamos decir "alucinar" nuevas leyes simplemente por la forma en que el componente de AI interpreta la ley como se declaró originalmente o se incorporó en AI (para mi cobertura de la llamada IA alucinaciones, consulte nuestra página, el enlace aquí).

El cuidado en esto debe ser ejercido estridentemente.

Sobre este tema, el estudio de investigación antes mencionado ofrece este pensamiento paralelo en términos de tratar de evitar cruzar esa línea sagrada: “No estamos apuntando a que la IA tenga la legitimidad para hacer leyes, sentar precedentes legales o hacer cumplir las leyes. De hecho, esto socavaría nuestro enfoque (y deberíamos invertir un esfuerzo significativo para evitarlo). Más bien, el objetivo más ambicioso del Código Informativo de la Ley es codificar computacionalmente e integrar la generalización de los conceptos y estándares legales existentes en el desempeño validado de la IA” (ibíd.).

  • Delicado equilibrio entre IA Encarnación legal de la ley como reglas versus estándares

Las leyes son desordenadas.

Para casi cualquier ley en los libros, es probable que haya una multitud de interpretaciones sobre lo que estipula la ley en la práctica real. En el lenguaje del campo de la IA, nos referimos a las leyes como semánticamente ambiguas. Eso es lo que hace que el desarrollo de la IA aplicada a la ley sea un desafío tan emocionante y al mismo tiempo desconcertante. A diferencia del cálculo numérico preciso que podría ver, por ejemplo, en aplicaciones de inteligencia artificial orientadas a las finanzas, el deseo de incorporar nuestras leyes en la inteligencia artificial implica lidiar con un tsunami de ambigüedades semánticas.

En el libro de mi fundación sobre los fundamentos de AI Legal Reasoning (AILR), analizo cómo los intentos anteriores de simplemente codificar leyes en un conjunto de reglas limitadas no nos llevaron tan lejos como nos gustaría llegar en el dominio legal (ver el enlace aquí). La AILR de hoy tiene que abarcar una integración entre el uso de reglas y lo que podría llamarse estándares generales que representa la ley.

Este importante equilibrio se puede expresar de esta manera: “En la práctica, la mayoría de las disposiciones legales caen en algún lugar en un espectro entre regla pura y estándar puro, y la teoría legal puede ayudar a estimar la combinación correcta de “regla” y “estandarización”. al especificar los objetivos de los sistemas de IA” (ibíd.).

  • Requerir prueba del pudín cuando se trata de que la IA cumpla con la ley

Querer algo es diferente a tener algo.

Esa pizca de sabiduría surge al afirmar que, si bien es posible que deseemos tener verificadores dobles de AI Legal, debemos asegurarnos abundantemente de que funcionen y funcionen correctamente. Tenga en cuenta que esto presenta otro obstáculo difícil y agotador. He cubierto anteriormente los últimos avances y desafíos en la verificación y validación de la IA, consulte el enlace aquí.

Como se señala en el trabajo de investigación: “Para abordar la brecha, antes de que los modelos de IA se implementen en capacidades cada vez más representativas, por ejemplo, vehículos completamente autónomos en las principales carreteras, la parte que implementa debe demostrar la comprensión del sistema de los objetivos humanos, las políticas y los estándares legales. Un procedimiento de validación podría ilustrar la 'comprensión' de la IA del 'significado' de los conceptos legales” (ibíd.).

Conclusión

Le insto a que considere unirse a mí en esta noble búsqueda para construir y desplegar dobles verificadores de AI Legal. Necesitamos más atención y recursos dedicados a esta búsqueda virtuosa.

Esto también brinda una doble función, como se mencionó anteriormente, para lograr el Razonamiento legal de IA (AILR) que se puede usar para ayudar a los abogados y potencialmente usar directamente por el público en general. De hecho, algunos argumentan con vehemencia que el único medio viable de llegar a un sentido más completo de acceso a la justicia (A2J) será a través de la elaboración de una IA que incorpore capacidades legales y a la que todos puedan acceder.

Un punto final rápido por ahora.

La discusión hasta ahora ha enfatizado que el doble verificador legal de AI se incrustaría o implantaría en AI. Este es, de hecho, el enfoque principal de quienes investigan y emprenden este ámbito emergente.

Aquí hay una pregunta que vale la pena reflexionar.

Ponte la gorra de pensar.

¿Por qué no utilizar los verificadores dobles de AI Legal en todo el software?

La esencia es que, en lugar de utilizar exclusivamente las dobles comprobaciones legales de AI en AI, tal vez deberíamos ampliar nuestro punto de vista. Todo tipo de software puede extraviarse legalmente. Es cierto que la IA ha recibido la mayor parte de la atención debido a las formas en que la IA generalmente se usa, como tomar decisiones desgarradoras que afectan a los humanos en su vida cotidiana. Sin embargo, podría sostener fácilmente que hay muchos sistemas que no son de IA que hacen lo mismo.

En esencia, no debemos permitir que ningún software tenga un viaje gratis para evitar o eludir la ley.

Recuerde también que anteriormente mencioné las dos categorías de combinación de IA y la ley. En este documento nos hemos centrado en el uso de la IA aplicada a la ley. En la otra cara de la moneda está la aplicación de la ley a la IA. Supongamos que promulgamos leyes que requieren el uso de doble verificadores de AI Legal.

Al principio, esto podría limitarse a los sistemas de IA, especialmente a aquellos calificados como de alto riesgo. Gradualmente, el mismo requisito de verificación doble de AI Legal también podría extenderse al software que no es AI. Una vez más, no hay viajes gratis.

Mientras te fijas en esa consideración anterior, le daré sabor a las cosas como un adelanto de cierre. Si vamos a intentar exigir dobles verificadores legales de AI, también podríamos hacer lo mismo con los verificadores dobles de ética de AI. El uso de una doble verificación legal de AI es solo la mitad de la historia, y no podemos descuidar ni olvidarnos de las preocupaciones de ética de AI también.

Terminaré este alegre discurso con una de mis citas favoritas. Según las sabias palabras de Earl Warren, el famoso jurista que se desempeñó como Presidente del Tribunal Supremo de los Estados Unidos: “En la vida civilizada, la ley flota en un mar de ética”.

Podría ser mejor utilizar de manera estridente esos incipientes y burbujeantes verificadores dobles legales de IA y verificadores dobles de ética de IA si queremos mantener nuestras cabezas por encima de mares potencialmente amenazantes de IA agria y sistemas severos que no son de IA que ponen en peligro nuestra seguridad. .

Podrían ser el chaleco salvavidas de la humanidad.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- y-ai-ley/