El caso completo y convincente de por qué los abogados necesitan saber acerca de la IA y la ley

El guante había sido lanzado.

Verá, fui el orador principal invitado en una importante conferencia de la industria legal y mi tema anunciado estaba directamente en mi timonera, a saber, la Inteligencia Artificial (IA) y la ley (típicamente acuñado como IA y derecho).

En lugar de ser anunciado por completo, tal vez la frase más adecuada sea decir que el tema fue recibido con una mezcla de entusiasmo por parte de algunos y un escepticismo absoluto y sorprendente por parte de otros. La colección reunida de varios cientos de socios y asociados de bufetes de abogados murmuró y cuestionó sutilmente si necesitaban saber algo sobre AI y la ley en especial. En general, la IA se percibía como un tema de fantasía. Además de esa afirmación, la IA, cuando se combina con la ley, estaba igual o incluso más lejos de lo que los abogados que trabajan duro y que trabajan duro todos los días parecen estar pensando.

En este crisol de muéstrame algo con los brazos cruzados me aventuré ardientemente.

Me complace decir que mis comentarios fueron bien recibidos y que la respuesta fue bastante positiva, incluso que esta fue la primera vez que muchos de ellos escucharon un caso convincente y completo sobre por qué los abogados deberían saber sobre la IA. y la ley La discusión puso en marcha esos engranajes legales de primer nivel y los asistentes tuvieron mucho sobre lo que reflexionar.

Veamos si se puede decir lo mismo de aquellos de ustedes que puedan estar interesados ​​o al menos intrigados por el IA y derecho tema.

Aquí vamos.

Primero, una faceta vital a saber es que IA y derecho consta de dos concepciones entrelazadas.

En pocas palabras, son:

  • (1) Derecho aplicado a la IA: La formulación, promulgación y aplicación de leyes aplicadas a la regulación o gobernanza de la inteligencia artificial en nuestra sociedad.
  • (2) IA aplicada al Derecho: Tecnología de inteligencia artificial diseñada y aplicada a la ley, incluido el razonamiento legal basado en IA (AILR) infundido en las aplicaciones de alta tecnología de LegalTech para realizar tareas de abogacía de forma autónoma o semiautónoma

Quiero dejar enfáticamente claro que se trata de formas de buena fe y de rápida expansión en las que se combinan la IA y la ley.

Muchos abogados solo están familiarizados con una u otra de las dos perspectivas, o muchas veces no están familiarizados con ninguna de las dos.

Dependiendo de sus preferencias de abogado, está perfectamente bien concentrarse en uno de los dos y no enfocarse particularmente en el otro. En general, los abogados que parecen menos inclinados a tener un interés en la tecnología están obligados a estar atentos a la ley aplicada a la IA, en la que no es necesario que tenga en sus manos la tecnología per se. Aquellos abogados que parecen disfrutar de la infusión de alta tecnología en el ámbito legal son más propensos a gravitar hacia el ámbito de la IA aplicada a la ley.

Le invitamos a abrazar ambos aspectos y hacerlo con la frente en alto.

Consideraciones sobre la aplicación de la ley a la IA

En primer lugar, aquí haré un desempaque sustancioso de la ley aplicada a la IA.

Al referirse a la ley aplicada a la IA, debe pensar inmediatamente en la letanía emergente de nuevas leyes que buscan regir el advenimiento de los sistemas de IA. Las leyes brotan como la pólvora. Están surgiendo leyes internacionales sobre IA y derecho, las leyes federales también, las leyes estatales también y las leyes locales en abundancia, vea mi cobertura continua en el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

¿Por qué de repente somos testigos de cómo las leyes relacionadas con la IA se apresuran a existir?

Eso se responde fácilmente.

Hace tan solo unos años, se alababa la última era de la IA por proporcionar AI para siempre. Esto significaba que se percibía que la IA se ofrecía por el bien de la sociedad. Eso no duró mucho. Por ejemplo, las personas comenzaron a descubrir que la tecnología de reconocimiento facial basada en IA podía generar fácilmente indicaciones falsas y funcionar de manera aparentemente discriminatoria (ver mi cobertura en el enlace aquí). Lo mismo podría decirse de la IA que se estaba utilizando para fines de contratación. Una y otra vez las preocupaciones comenzaron a aumentar.

AI para mal había llegado (bueno, estuvo ahí todo el tiempo, pero ahora se notaba).

¿Cómo vamos a tratar con AI para mal?

La respuesta rápida fue identificar leyes blandas consistente en preceptos de ética de la IA.

Estas pautas éticas de IA con respecto al diseño de la IA y el despliegue de la IA son hasta cierto punto medidas provisionales mientras que los esfuerzos más arduos se esfuerzan por promulgar leyes duras. Sin embargo, no quiero dejar la impresión de que la ética de la IA y la IA ética de alguna manera ya no serán necesarias una vez que exista una gran cantidad de leyes en los libros. De nada. Vamos a necesitar continuamente y siempre la ética de la IA como un complemento necesario de las leyes formales. Todo lo que sucede en este momento con la ética de la IA tendrá que permanecer intacto y ser el pegamento vinculante definitivo para que la IA siga en la dirección correcta.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente en mis publicaciones de columna:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí. También he examinado en profundidad los diversos principios y directrices de ética de la IA que numerosas naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, véase el enlace aquí.

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

Cambiando nuestra discusión al campo de la ley dura, están sucediendo muchas cosas.

En los Estados Unidos, el Ley de responsabilidad algorítmica está deambulando centímetro a centímetro por el Congreso, mientras que la UE y su propuesta Ley de inteligencia artificial (AIA) avanzan a un ritmo aparentemente más estridente. También puede encontrar de interés que un llamado Declaración de derechos de IA fue presentado recientemente por la actual administración de la Casa Blanca de los EE. UU., buscando definir los derechos humanos en una era de IA, vea mi análisis en el enlace aquí (nótese que el pronunciamiento no fue vinculante y carece de fuerza de ley).

Un abogado común podría encogerse de hombros y decir que toda esta energía asociada con la ética de la IA y las leyes de aterrizaje gradual sobre la IA son de interés ocioso. Todo el asunto es ciertamente medianamente entretenido, pero no tiene un peso notable en sus esfuerzos existentes.

Abordemos esto.

Suponga que tiene un cliente que es una gran empresa y le brinda servicios legales externos. Resulta que este cliente ha estado adoptando varios sistemas de inteligencia artificial para hacer que su negocio sea más efectivo y eficiente. Bien por ellos, podrías estar pensando, aunque no te concierne.

¿En serio?

El cliente adopta estas aplicaciones de IA y, después de un tiempo de usarlas, se ve envuelto en demandas de clientes que afirman que la IA actuó de manera discriminatoria o indebidamente sesgada. Además, avancemos y visualicemos que se han promulgado varias leyes a nivel local, estatal y federal que están dirigidas a la IA. El cliente no solo enfrenta demandas civiles, sino que ahora también está siendo perseguido por posibles actos delictivos cometidos a través de la adopción y el despliegue de IA.

¿Dónde estabas cuando todo esto estaba pasando?

Aparentemente, sin importarle un ápice la IA y si la IA y la ley estaban por venir.

Qué vergüenza. Peor aún, es posible que el cliente lo eche sumariamente. Peor aún, es posible que enfrente reclamos de negligencia legal por no haber estado asesorando legalmente a la empresa de manera oportuna y astuta mientras saltaba al pantano de la IA.

Estabas dormido en la rueda legal.

Los abogados que conocen la IA se apresuran a señalar que la American Bar Association (ABA) ya ha ofrecido asesoramiento oficial sobre el tema del uso de la IA y la práctica de la ley. De acuerdo con la resolución de la ABA adoptada en agosto de 2019 (sí, leíste bien, esto sucedió hace más de 3 años), este es el trato sobre la IA:

  • "RESUELTO, que la American Bar Association insta a los tribunales y abogados a abordar los problemas éticos y legales emergentes relacionados con el uso de inteligencia artificial ("AI") en la práctica de la ley, incluidos (1) sesgo, explicabilidad y transparencia de decisiones automatizadas hecho por IA; (2) uso ético y beneficioso de la IA; y (3) controles y supervisión de AI y los proveedores que proporcionan AI”.

En ese sentido, se puede hacer un argumento algo persuasivo de que los abogados tienen el deber de estar al tanto de la IA y asegurarse de asesorar legalmente a sus clientes en consecuencia (para mi análisis detallado sobre esto, ver el enlace aquí).

Si lee atentamente la proclamación antes mencionada, es cierto que es insípido, de modo que puede confiar en la redacción de que simplemente lo "insta" a abordar el problema de la IA, en lugar de obligarlo a hacerlo. Esto podría ser un suspiro de alivio.

Pero podría ser un respiro de corta duración.

En primer lugar, se podría decir que la ABA le advirtió sobre la importancia de la IA en la ley.

En segundo lugar, si ha ignorado por completo la orientación, esto podría ser usado en su contra por un abogado inteligente de mala práctica que intente perseguirlo en nombre de su cliente amargado y con mucho dinero.

En tercer lugar, aunque obviamente intentaría contraargumentar que el precepto afirmado no es vinculante en su redacción laxa, lo más probable es que un tribunal no lo vea de esa manera, y tampoco un jurado probablemente simpatice especialmente con su intento de moderar las palabras. . Podrían interpretar el espíritu de la resolución y ponderarlo sobre la redacción precisa de la declaración.

Gira la rueda y mira cómo va.

Tenga en cuenta también que, aunque el escenario involucró sus servicios legales como asesores externos, tenga en cuenta que los asesores internos, como el director jurídico (CLO), el asesor jurídico general (GC) u otros asesores corporativos, también están inextricablemente involucrados en este mismo juego. Para aquellos de ustedes que brindan asesoramiento legal interno, dejar que la IA se diseñe o adopte sin sentido dentro de su empresa volverá y los perseguirá. Ese es un resultado premonitorio férreo garantizado.

La reacción más común a esta gobernanza de la consideración de la IA es que seguramente debe no se aplican a usted ya que no realiza trabajos legales para empresas de tecnología (supongamos que ese es el caso). Claro, si estuviera inmerso en una empresa de tecnología, todo esto podría ser pertinente. Pero usted es asesor legal para o dentro de una empresa no tecnológica. La empresa no fabrica IA. No están orientados a la tecnología.

Regrese y vuelva a leer cuidadosamente en qué consistía el escenario.

Mientras que la atención a la IA involucraba inicialmente a empresas de alta tecnología que ideado IA, el panorama general es que casi todas las empresas de cualquier tamaño o forma son incrementalmente adoptar sistemas de IA. Son usuarios de IA. A su vez, sus productos y servicios dependen de la IA.

Supongo que intentará argumentar que, dado que estas empresas solo adoptaron la IA, se salvan mágicamente cuando la IA falla. Todo lo que necesita hacer es decirle a cualquiera que llame a la puerta legal que debe caminar por la calle hasta la empresa que ideó la IA.

Buen intento, pero sin duda no va a funcionar.

Lo más probable es que la empresa que utiliza IA se mezcle en medio de cualquier enredo legal, especialmente si es una gran empresa y el fabricante de IA es una empresa pequeña. Póngase los pies en los zapatos del abogado que está tratando de demandar. La gran firma tiene mucho dinero. Consigue la pequeña empresa y ve tras la gran empresa. Por supuesto, habrá todo tipo de disputas sobre las licencias y el resto. No obstante, la gran firma es el objetivo jugoso, y ningún abogado que se precie va a renunciar a perseguirlo.

Agregando combustible a ese fuego, lo más probable es que la gran empresa optó por hacer personalizaciones o tener la IA "entrenada" para hacer uso de los datos de la gran empresa. Oopsie, ya no estás a un brazo de distancia de la empresa que fue el fabricante de la IA. Trajiste la IA y esencialmente la hiciste tuya. Se ha ido la aparente protección de que eras inocente. Su empresa modificó o adaptó intencionalmente la IA, por lo que la IA ahora es parte integral de su gran empresa.

Vive con ello, aduéñalo.

Hay más para hacer que tu cabeza dé más vueltas.

Las nuevas leyes que se están acumulando como aviones atrapados en un patrón de vuelo en un aeropuerto importante van a tener todo tipo de problemas legales complicados incrustados en ellas. Los legisladores están atascando estas pesadillas legales embarradas a través de la tubería de elaboración de leyes. Todos quieren ser los primeros en demostrar que están tomando medidas drásticas contra AI para mal. Glory espera, además de ayudar a aquellos que están siendo dañados por la malvada IA.

Sin embargo, hay problemas en esta elaboración de salchichas. El lenguaje legal a menudo no está bien diseñado. Existen lagunas. Prevalece la redacción errónea. Etc.

Puede interpretar esto como un atolladero legal o como un premio gordo legal, dependiendo de qué lado de la cerca esté cuando intente interpretar estas leyes. Vea, por ejemplo, mi análisis de esa vaga y preocupante ley de la ciudad de Nueva York (NYC) sobre auditoría de sesgos de IA que está programada para entrar en vigor el próximo enero y será un problema enorme para miles y miles de empresas (grandes y pequeñas) en Nueva York. ciudad, ver el enlace aquí.

Entonces, estamos viendo una oleada de leyes que se concentran en la IA.

Eso no es todo. Vamos a tener leyes aparentemente dedicadas a la IA y, además, la IA también se mencionará de manera profunda o modesta en leyes que aparentemente son tangenciales a la IA. Si estás pensando que no tienes que preocuparte por IA y derecho debido a que es un nicho legal extremadamente estrecho, le sugiero que vuelva a calibrar ese pensamiento miope.

Un giro adicional es que vamos a tener nuevas leyes que incorporen algunas galimatías legales sobre la IA, que luego casi seguramente entrarán en conflicto con las leyes existentes que no mencionan la IA. En resumen, es posible que se sienta completamente cómodo con alguna ley existente, conociéndola como la palma de su mano. Lo siguiente que sucede es que aparece una nueva ley oscura y menciona la IA. Resulta que la nueva ley se cruza con la querida ley de no IA que conoces de memoria.

¿Estás listo para lidiar con cómo las nuevas leyes que incluyen IA están en desacuerdo con la ley existente que no menciona IA?

Imagina este escenario.

Uno de sus clientes favoritos ha estado feliz con sus servicios legales, año tras año. Usted conoce completamente y sin ninguna calificación las leyes que pertenecen a este cliente. Puedes recitar las leyes con los ojos vendados.

Se aprueba una nueva ley que incluye varias partes asociadas con la IA. No está prestando atención a esta nueva ley porque el tema o enfoque de la ley no parece estar directamente relacionado con las leyes que cree que son relevantes para el cliente.

Un abogado inteligente que ha estudiado de cerca esta nueva ley se da cuenta de que el elemento AI abre la puerta a su ámbito legal. De repente, y para su conmoción y sorpresa, este otro abogado logra encontrar un cliente que cree que ha sido perjudicado legalmente por su cliente. El pasadizo que conecta los puntos es esta nueva ley que se puede extender a su arena legal normalmente sobria.

Nunca lo vi venir.

Si cree que su especialidad en derecho es de alguna manera inmune a la invasión de disputas legales de la IA, tenga cuidado al hacer esa suposición descarada y eventualmente falsa. Mencione una especialidad legal y puedo señalar fácilmente cómo la IA está llegando a esa ciudad. ¿Derecho penal? Por supuesto. ¿Ley familiar? Sí. ¿Ley de Impuesto? Obviamente. ¿Derecho Marítimo? Sí. La lista continúa.

Lo siento si eso parece desalentador y un poco abrumador.

Sin duda, es algo que pocos abogados conocen.

Se acerca un terremoto, pero pocos se están preparando para él. Algunos no saben que el terremoto está empezando a retumbar. Otros piensan que no les afectará. Cuando ocurre el terremoto, solo entonces el reconocimiento legal de AI encenderá algunas bombillas.

Muy bien, hasta ahora, he estado insistiendo en el ley dura aspectos. Creo que el lado del soft law se está poniendo celoso. Esto es lo que quiero decir.

Imagina esto. Un cliente para el que ha estado prestando servicios legales opta por adoptar la ética de la IA. Supongamos por el momento que no hay leyes estrictas que hagan cumplir esta adopción de IA ética. El cliente quería hacer "lo correcto" y ergo decidió mostrarle al mundo que están totalmente de acuerdo con la ética de la IA.

Eso es bueno.

Es posible que no sepa que han decidido incorporar la ética de la IA en la cultura de su empresa. O bien, es posible que lo sepa, pero pensó que no era algo de su interés. Es solo un enfoque de ley blanda. ¿A quién le importa? No tú.

Unos meses por el lucio y la empresa se desliza hacia arriba. Solo hablaron de boquilla sobre esos principios éticos de IA. Fue principalmente un truco publicitario. Mientras tanto, la IA que han traído a la empresa está repleta de todo tipo de violaciones éticas de la IA.

Eso no es bueno.

Es probable que un abogado inteligente que desee enfrentarse legalmente a su cliente agradezca a sus estrellas de la suerte que se haya llevado a cabo la aceptación de la ética de la IA. Si su cliente nunca ha dicho nada sobre la IA ética, tal vez exista la posibilidad de que pueda jugar el gambito de no saber lo que no sabe. En cambio, hicieron un escándalo por saber sobre la ética de la IA. Hasta cierto punto, se han exigido a sí mismos un mayor nivel de responsabilidad por lo que hicieron con su IA.

¿Les llamó la atención sobre esto desde el principio y los ayudó a considerar legalmente la naturaleza de la ética de la IA y cómo ellos, como empresa, iban a hacer uso de ellos?

Maldita sea, no estaba en tu jurisdicción.

Podría seguir y seguir, pero confío en que el tema se escuche alto y claro.

Los bufetes de abogados que están alerta están comenzando a darse cuenta de la bonanza asociada con la oferta de servicios legales que giran en torno a la IA. Están comenzando a establecer nuevas prácticas dentro de su firma de abogados que ha IA y derecho como especialidad.

Los que están dentro del IA y derecho especialidad pueden asesorar a clientes existentes y potenciales sobre sus adopciones de IA. Además, los socios y asociados con mentalidad de IA intentan colaborar e informar a través de todas las demás líneas legales o especialidades de la firma, buscando asegurarse de que esas otras áreas no se vean sorprendidas por las nuevas leyes de IA, incluidas las tangenciales.

Los abogados internos también están agregando poco a poco talento legal versado en IA y derecho (principalmente en empresas que se dan cuenta de que están inundadas de IA) o asignando abogados capacitados ansiosos por capacitarse que se conviertan en un recurso interno útil en el tema legal de IA. Es probable que aún usen un recurso legal externo para asuntos relacionados con la IA a gran escala, aunque al tener talento interno tienen un miembro interno de confianza del equipo legal que puede servir como vínculo vital entre lo que es la empresa haciendo y las probablemente más profundas capacidades legales versadas en IA de un abogado externo.

No quiero sugerir que esto está sucediendo de la noche a la mañana como si se hubiera agitado una varita mágica.

Los bufetes de abogados son famosos, o mejor dicho, notorios por su lentitud para cambiar.

Además, hasta que el mercado clame por IA y derecho talento, la mayoría de los bufetes de abogados adoptarán un enfoque de esperar y ver. Si surge el mercado, listo, probablemente adoptarán un enfoque completo y adquirirán cualquier nuevo talento que sea necesario. Es la clásica estrategia justo a tiempo (JIT) de intercambio de servicios legales.

Los bufetes de abogados más pequeños o las prácticas individuales están obligados a encontrarse en una situación difícil. Por un lado, si hay que ganar dinero en el IA y derecho dominio, esto parece muy atractivo. Sin embargo, no pueden darse el lujo de arriesgarse si el mercado no se está filtrando lo suficiente. Tienes que hacer lo suficiente para mantener las cosas en marcha. Manténgase en la fuente de ingresos de cualquier dominio legal existente que conozca, y esté listo cuando el mercado se abra a las llamadas vociferantes de IA y derecho servicios jurídicos.

Es una especie de Catch-22.

Las firmas legales y los abogados no van a gastar energía y atención en IA y derecho a menos que sus clientes y el mercado estallen con una demanda embriagadora. La cuestión es que es poco probable que la mayoría de los clientes se den cuenta de que necesitan IA y derecho servicios legales relacionados. Están avanzando a toda velocidad en el tren de la IA y en el carro de la IA, completamente ignorantes de los baches legales y los precipicios que se avecinan.

Tal vez sea el huevo o la gallina el que llegue primero.

Clientes que se meten en todo tipo de problemas legales y se enojan con razón por no haber recibido asesoramiento legal sobre su uso de IA, y luego confrontan con enojo a sus proveedores de servicios legales en consecuencia. ¿O deberíamos tener abogados inteligentes que se enfrenten a los tsunamis que se avecinan y traten de involucrar a sus clientes en discusiones que seguramente serán difíciles de hacer, ya que muchos clientes harán oídos sordos a las campanas de advertencia legal de AI?

Esto trae a colación una noción relacionada que es digna de consideración.

Tenga en cuenta que algunos expertos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten además que si promulgamos estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales. A veces, esta opinión o punto de vista se denota como acuñado como Excepcionalismo de IA (lo que significa que deberíamos permitir una libertad significativa sobre la fijación legal de la IA porque la IA ofrece tal excepcionalmente importantes beneficios para la sociedad).

Decididamente va a escuchar lo mismo dicho por muchos de sus clientes de hoy.

Si participa ciegamente en discusiones intensas con sus clientes e intenta explicar la ramificación legal de su adopción de IA, esto a menudo se percibirá como el lado legal una vez más frenando las cosas buenas. Yikes, se le dirá apresuradamente, por favor, deténgase con todos esos escenarios de pesadilla legal salvajes y con los ojos muy abiertos.

Estaremos bien con la IA, insistirán. Reducirá nuestros costos, podemos reducir nuestra plantilla y finalmente podremos escalar para brindar nuestros productos y servicios a más y más consumidores o clientes. Todos los demás están haciendo lo mismo. Si ellos lo están haciendo, nosotros también tenemos que hacerlo. Si sus palabras de precaución legal tuvieran algún sentido, esos competidores nuestros no estarían adoptando la IA como si fuera lo mejor desde el pan rebanado.

Estado allí, hecho eso.

Asegúrese de expresar sus advertencias legales de IA en los términos más favorables para el negocio que pueda. Me ha resultado útil señalar los deslices de IA muy publicitados que ya han castigado a las empresas a través de una pérdida de reputación comercial y/o mediante juicios costosos. Supongo que también podrías probar el viejo estribillo que todos aprendimos cuando éramos niños, es decir, solo porque alguien más está saltando sin pensar por un precipicio, ¿significa eso que ellos también deberían hacerlo?

Querrá enmarcar la discusión sobre la IA enfatizando que hay formas correctas y formas incorrectas de adoptar la IA. Si da la impresión de que está poniendo fin al uso de la IA en su totalidad, bueno, esa será una afirmación aplastante. Parecería no dejar espacio para aprovechar la IA. Ese no es el mensaje que va a tener éxito en impartir.

El mejor enfoque es establecer cómo las necesidades legales deben ser una parte integral del ciclo de vida de adopción de la IA. Para cada etapa del desarrollo, la personalización o la adopción de la IA, el departamento legal debe tener en cuenta. Nada de esas cosas tardías posteriores al hecho en las que al final se le pide al departamento legal que haga una aprobación final. Eso es muy tarde. El caballo ya está bastante fuera del establo.

Lo siguiente que viene a la mente es el proverbial palo y la zanahoria.

Se podría decir que la zanahoria es que la ley, tal como se aplica a la IA, será una gran fuente de dinero para los abogados (provocando muchas de esas preciadas horas facturables), mientras que el palo es que los abogados que no prestan atención pueden encontrarse en serios problemas cuando los clientes se ven abrumados legalmente por los riesgos y responsabilidades legales relacionados con la IA (lo que probablemente lleve a la pérdida del valor de la reputación del abogado y tal vez enfrente malas prácticas o problemas de jurisprudencia similares).

Me gustaría agregar juiciosamente otra zanahoria a la pila, si se me permite.

Algunos abogados están motivados por la novedad de los desafíos legales no resueltos.

Este tipo de abogados tiene como objetivo explorar nuevos terrenos legales. Quieren dejar una marca en el panorama legal y no simplemente llevar las mismas minucias legales de un lugar legal a otro. Para ellos, aunque las horas facturables son sin duda vitales, están ampliamente y de la manera más sincera deseosas de utilizar su preciada mentalidad legal ganada con tanto esfuerzo para resolver acertijos legales especialmente molestos o desafiantes.

Para aquellos buscadores legales de grandes aventuras, les doy la más sincera bienvenida al campo del derecho aplicado a la IA.

Aquí está el trato.

Comenzaré con una pregunta que podría hacer que hagas un escupitajo. Prepárate.

¿Cuál es la definición de Inteligencia Artificial (IA)?

Permítanme reformular levemente pero de manera importante la pregunta: ¿Cuál es el legal definición de inteligencia artificial (IA)?

Seguramente está dando por sentado que el mundo jurídico ya ha afinado hasta el más mínimo detalle la definición y el significado concretos al referirse a eso que llamamos “IA” (por cierto, algunos ahora prefieren decir Inteligencia Artificial General (AGI), un intento de recuperar el objetivo de lograr una verdadera IA en lugar de la IA no sensible menos impresionante de hoy).

No es así.

Como he cubierto extensamente, las definiciones legales de IA son verdaderamente una moneda de diez centavos por docena, vea mi análisis en el enlace aquí.

Piensa en ello de esta manera.

Todas esas nuevas y brillantes leyes de IA a nivel internacional, federal, estatal y local presumiblemente se centran en la IA y, sin embargo, resulta que no existe una definición de IA completamente acordada, totalmente estandarizada y legalmente consolidada. En cambio, todos están inventando sus definiciones de IA cuando redactan una ley, o toman prestada la definición de otra persona, incluso si nadie puede decir concretamente si resistirá la prueba del tiempo y soportará los rigores de las batallas judiciales.

Reflexiona sobre esto por un momento.

Si opta por utilizar en una nueva ley una definición de IA que es demasiado limitada, lo más probable es que todo tipo de IA que debería haber estado dentro del alcance pueda escapar de la ley (especialmente como argumentan legalmente los abogados expertos en IA que darse cuenta de que existe la laguna). Por otro lado, si la definición de IA es demasiado amplia, podría incorporar a la nueva ley una amplia gama de software y sistemas que presumiblemente no tienen una base genuina para estar dentro del alcance de esa ley. En resumen, parte del lío de la ley aplicada a la IA es que vamos a terminar con un mosaico de nuevas leyes que cubren algo que vagamente se conoce como "IA", pero que estará abierto a interpretaciones legales muy diferentes.

Los abogados se encontrarán de diversas maneras en estas posturas relacionadas con los caprichos de definición legal sobre la IA:

  • Defender a un cliente que afirma que la ley no se aplica a su supuesta "IA" que ideó la firma
  • Defender a un cliente que afirma que la ley no se aplica a su supuesta "IA" que la empresa está usando o adoptando
  • Representar a un cliente que afirma que la ley se aplica a una empresa que ideó una supuesta "IA" de naturaleza dañina
  • Representar a un cliente que afirma que la ley se aplica a una empresa que usó o adoptó la supuesta "IA" de naturaleza dañina
  • Otro

¿Cómo puede usted, como abogado, hacer algo para ayudar a hacer frente a este problema que se expande rápidamente y tratar de evitar el altercado legal enormemente costoso y bizantino que definitivamente se producirá?

Ayude a trabajar con los legisladores para descubrir los detalles de la definición de IA. Tal vez conviértete en legislador si eso te interesa. Conviértase en un líder en descubrir leyes de IA que tengan sentido, que estén bien especificadas, que puedan estar libres de disputas (bueno, no existe tal cosa), o al menos disminuir la variación en torno a la cual surgirán disputas y tratar de evitar una vorágine legal. eso vendrá una vez que todas estas nuevas leyes de IA entren en los libros y el caballo esté fuera del establo.

¿Cómo le parece que es una proposición legalmente intrigante?

Algunos de ustedes podrían estar diciendo que los problemas de definición de IA no son un desafío especialmente interesante desde su perspectiva. ¿Qué más hay en el expediente?, te estarás preguntando. Tengo un bushel lleno de ellos, pero por ahora tomemos un ejemplo más.

Dos palabras: personalidad jurídica.

¿Puede o debe AI ser ungida con alguna forma de personalidad jurídica?

Tienes que admitir que parece un movimiento y una coctelera. Supongamos que todos decidimos colectivamente permitir que AI tenga una apariencia de personalidad jurídica. Piensa en las ramificaciones. Algunos países ya han comenzado por ese camino, como afirmar que AI puede tener derechos de propiedad intelectual (IP) para artefactos producidos por AI, como nuevos inventos, arte nuevo y similares.

Algunos dicen que esto tiene mucho sentido, otros están furiosos a gritos y argumentan que la IA de hoy no es en absoluto digna de un ápice de personalidad jurídica.

Es una gran controversia.

Hasta ahora, en los Estados Unidos en lo que respecta a la PI, el aterrizaje legal general ha sido que las leyes de PI estipulan que el propietario legal tiene que ser un ser humano, vea mi cobertura sobre esto en el enlace aquí. En cierto sentido, esto elude silenciosamente la cuestión de la personalidad jurídica de AI simplemente indicando que el único propietario de PI aplicable debe ser un ser humano.

Algo relacionado con la cuestión de la personalidad jurídica es un tema estrechamente relacionado que implica la Responsabilidad de la IA (a veces denominado como el Responsabilidad de la IA). Rendición de cuentas o responsabilidad se refiere a tratar de vincular legalmente una IA a quién o qué debería ser responsable o rendir cuentas cuando la IA causa daño, vea mi análisis en el enlace aquí.

La respuesta fácil parece ser que quienquiera que ideó la IA tiene la culpa. Un humano escribió el código, por lo tanto, el humano asume la responsabilidad o la rendición de cuentas. Pero supongamos que la IA fue escrita para autoajustarse. Esto podría hacerse por razones claramente beneficiosas. Al mismo tiempo, la IA ofendida se ha desviado de sus mecanizaciones originales. ¿Debemos seguir responsabilizando a los programadores?

Surge la turbiedad.

Por ejemplo, los programadores escribieron la IA, y luego alguien más que envió la IA cambió la IA.

Ahora, ¿quién tiene la responsabilidad? Más confuso es que la IA ha pasado por docenas de manos humanas, además de realizar docenas de circunvoluciones autoajustables, y la variante resultante de la IA ya no se parece en nada a las versiones anteriores. ¿Todo el mundo tiene la culpa? ¿Nadie tiene la culpa? ¿Puedes siquiera rastrear el linaje de la IA para estipular definitivamente qué humanos estuvieron involucrados y qué participación tuvo cada uno?

Aquí hay un truco adicional, tal vez la IA tenga la culpa.

Si vamos a proporcionar un mínimo de personalidad jurídica a AI, presumiblemente también podemos responsabilizar legalmente a AI. Pero ¿qué significa eso? ¿La IA poseerá legalmente activos para ser arrebatados a cambio de la debida compensación por parte de los perjudicados? ¿Se puede encarcelar a AI? He cubierto estos temas en el enlace aquí y el enlace aquí, entre muchos de mis escritos sobre estos temas.

Espero que estos diversos adelantos sean suficientes para despertar su apetito legal.

La conclusión es que para aquellos de ustedes que sueñan con algún día poder dejar una marca legalmente y están ansiosos por sumergirse en desafíos legales notables y acertijos legales, consideren la ley aplicada a la IA.

Es hora de echar un vistazo a los hermanos aliados, la IA aplicada a la ley.

Considerando el auge de la IA aplicada a la ley

Dije al comienzo de esta discusión que hay dos formas principales de interconectar la IA y la ley (IA y derecho), que nuevamente consisten en:

  • (1) Derecho aplicado a la IA: La formulación, promulgación y aplicación de leyes aplicadas a la regulación o gobernanza de la inteligencia artificial en nuestra sociedad.
  • (2) IA aplicada al Derecho: Tecnología de inteligencia artificial diseñada y aplicada a la ley, incluido el razonamiento legal basado en IA (AILR) infundido en las aplicaciones de alta tecnología de LegalTech para realizar tareas de abogacía de forma autónoma o semiautónoma

Ya hemos hecho un recorrido rápido por el primer elemento relacionado con la ley aplicada a la IA.

Hagas lo que hagas, no ignores ni omitas el otro pilar igualmente crucial, a saber, el uso de la IA tal como se aplica a la ley. Les aseguro que hay tantas zanahorias con el uso de la IA aplicada a la ley como cuando se habla de la ley aplicada a la IA. Además, y aunque no quiero parecer pesimista, también hay palos relacionados con la IA aplicada al ámbito de la ley, así que prepárate para eso también.

La IA aplicada a la ley implica tratar de aprovechar los avances más recientes y continuos de la IA para ayudar en la realización de tareas legales. El objetivo es proporcionar tecnología que pueda funcionar de manera similar a un abogado humano, aunque por ahora de una manera bastante limitada.

En general, este es un problema difícil.

Un problema muy duro.

Resulta que diseñar una IA que pueda realizar debidamente un razonamiento legal es mucho más difícil de lo que muchos creen. Verá, la ley está repleta de ambigüedad semántica y hasta ahora todo tipo de programación convencional y representaciones estructurales de datos han sido incapaces de comprender completamente la cognición encarnada en los abogados humanos en medio de la tarea de abogar. Para los ávidos científicos informáticos que buscan un desafío notable, IA y derecho es un terreno marcadamente fértil. A los abogados que deseen dar un salto adelante en los anales de la ley también les encantaría ser parte de estos esfuerzos.

Muchos insisten en que este es un tipo de problema inesperado. estaría de acuerdo La buena noticia es que, al igual que la conducción autónoma de la IA se presentó anteriormente como un lanzamiento a la luna, y para el cual se ha logrado un gran progreso, lo mismo puede decirse de los objetivos del razonamiento legal basado en la IA. Con suficiente atención y recursos devotos, este difícil problema es manejable computacionalmente y terminaremos aterrizando en la luna, por así decirlo.

Es posible que sienta la tentación de decir que nunca podremos hacer que AI haga lo que hacen los abogados. Los abogados nunca pueden ser “automatizados” es un estribillo frecuente.

Como pronto verá aquí, el debate tiende a centrarse en una artimaña de todo o nada. La afirmación es que, o la IA reemplaza por completo a los abogados humanos y la abogacía humana, o no hace nada por el estilo y aparentemente no tiene ningún valor que agregar.

Un poco loco.

Cualquier abogado que se precie conoce ese tipo de argumentos perversos. Buscas montar un muñeco de paja y luego derribarlo. Voila, ganas la discusión. A menos que aparezca otra persona igualmente versada en argumentación y señale que el hombre de paja era un falso artificio utilizado para complacer un argumento débil.

Podemos usar la IA de formas seleccionadas y para tareas legales particulares y no tenemos que registrarnos exclusivamente para poder realizar todas las tareas de abogados de todas las formas imaginadas al mismo tiempo.

Dicho esto, por supuesto, existen serias preocupaciones sobre lo que está haciendo la IA y si es capaz de desempeñarse lo suficiente para la tarea en cuestión. Probablemente sepa bien que un aspecto de ejercer la abogacía en los Estados Unidos es que el Práctica no autorizada de la ley (UPL) es una condición bastante estricta. Aparentemente, la UPL protege a quienes buscan asesoramiento legal al garantizar que solo lo hagan aquellos con la debida licencia para ejercer como abogado. Una pregunta inminente es si la IA que se dedica a realizar tareas legales está violando la UPL, un tema complejo que he cubierto en el enlace aquí.

Estoy seguro de que algunos de ustedes están esperando saber si hemos logrado una IA que reemplace por completo a los abogados humanos. Ese es el rumor habitual que se escucha en las conferencias de la industria legal. ¿Ya llegamos?, la pregunta permanece pesadamente en el aire.

Reemplazar a los abogados humanos es un tema candente polémico, sin duda.

La opinión interna es que, en lugar de preocuparse por si la IA va a “reemplazar” a los abogados humanos, el escenario más realista a corto plazo es que los abogados armados con IA probablemente “reemplacen” a los abogados que no están armados con IA.

Diré más sobre esto hacia el final de esta discusión.

Un tema particularmente oneroso en el ámbito de la IA aplicada a la ley involucra esas variadas historias de que algún día habrá Robo-abogados, Robo-jueces e incluso quizás Robo-jurados. No soy un fanático de Robo-labeling. El problema es que hay tanto bagaje preconcebido asociado con el etiquetado de Robo que no puedes entablar una conversación seria con alguien en el momento en que la noción de Robo se lanza a la mezcla. Vacilantemente, incluiré al trío de robots en esta discusión y le pediré que deje de lado cualquier idea loca o salvajemente preconcebida que pueda tener.

Gracias por su graciosa voluntad de mirar de nuevo el tema de la IA aplicada a la ley.

La primera y más esencial piedra angular consiste en entender un marco importante por el que me he hecho conocido con respecto a mi opinión sobre el razonamiento legal de IA (AILR) en el contexto de los niveles de autonomía (LoA), consulte mi trabajo de investigación según la revista Computational Law del MIT en el enlace aquí.

Les presentaré brevemente el marco momentáneamente.

La esencia es que la mayoría de los abogados parecen caer de inmediato en la trampa mental de que si la IA se va a utilizar con fines de razonamiento legal, entonces la IA está ahí o no está ahí. Esta es una falsa dicotomía. Se supone que la IA está activada o desactivada. Aparentemente, o tienes IA o no tienes IA. Pero no es así como funcionan las cosas.

Compararé esta misma falsedad intermitente con la aparición de los automóviles autónomos, lo que le permitirá ver más claramente por qué es crucial tener en cuenta varios niveles de autonomía.

Es casi seguro que sabe que se están realizando numerosos esfuerzos para diseñar automóviles autónomos basados ​​​​en IA, en los que la IA conduce y no hay necesidad de un conductor humano al volante. Hay pruebas en curso de autos sin conductor en varias ciudades importantes de los EE. UU. En algunos casos, un conductor humano todavía está al volante, sirviendo como conductor de seguridad o de respaldo. Mientras tanto, de manera limitada, se utilizan automóviles autónomos sin ningún conductor humano de respaldo.

Apuesto a que tal vez sabes vagamente que hay varios de coches autónomos de IA.

Existe un estándar que ha establecido una escala de 0 a 5, que denota la Nivel de Autonomía que pudiera existir.

La parte inferior de la escala es un cero (Nivel 0), para el cual esencialmente no hay conducción automatizada en absoluto y la conducción es operada completamente de forma manual por un conductor humano. En el otro extremo de la escala está la puntuación más alta de 5 (Nivel 5). La puntuación más alta es indicativa de un vehículo totalmente impulsado por IA que no tiene un conductor humano y que puede operar en casi cualquier entorno de conducción que un conductor humano pueda manejar.

La mayoría de la gente piensa en el 0 y el 5, pero no considera los niveles importantes entre las puntuaciones más bajas y más altas. Los automóviles de hoy en día generalmente se consideran en el Nivel 2, por lo que brindan cierta automatización para conducir. Sin embargo, el conductor humano todavía se considera legalmente el conductor del vehículo. Los autos de nivel 3 apenas están surgiendo y consisten en un arreglo de conducción semiautónomo. Todavía se espera que el conductor humano esté listo cuando sea necesario, aunque presumiblemente la IA puede realizar la mayor parte de la conducción.

El nivel 4 es una categoría algo confusa para muchos. El nivel 4 se considera un automóvil totalmente autónomo, pero solo podrá conducir en ciertas condiciones designadas, conocidas como dominio de diseño operativo (ODD). Por ejemplo, podría decir que tengo un automóvil autónomo de IA que solo puede conducir de manera segura cuando está en San Francisco, solo durante el día, y no cuando el clima empeora, como cuando llueve mucho. Ese es un ODD particular que abarca o limita donde el sistema de conducción de IA puede conducir correctamente el vehículo autónomo.

Ahora que hemos cubierto los conceptos básicos de los Niveles de Autonomía, estamos listos para adoptar el mismo enfoque y ver cómo se aplica también al acto de razonamiento legal.

Estos son mis niveles de autonomía declarados para el razonamiento legal basado en IA:

  • Nivel 0: sin automatización para el razonamiento legal de IA
  • Nivel 1: Automatización de asistencia simple para razonamiento legal de IA
  • Nivel 2: Automatización de Asistencia Avanzada para Razonamiento Legal de IA
  • Nivel 3: Automatización semiautónoma para razonamiento legal de IA
  • Nivel 4: Dominio Autónomo para Razonamiento Legal de IA
  • Nivel 5: Totalmente Autónomo para el Razonamiento Legal de IA

El nivel 0 se considera el nivel sin automatización. El razonamiento legal y las tareas legales se llevan a cabo a través de métodos manuales y principalmente se realizan a través de enfoques basados ​​en papel.

El nivel 1 consiste en una automatización de asistencia simple para el razonamiento legal de AI. Los ejemplos de esta categoría incluirían el uso diario de procesamiento de textos basado en computadora, el uso diario de hojas de cálculo basadas en computadora, el acceso a documentos legales en línea que se almacenan y recuperan electrónicamente, etc.

El nivel 2 consiste en la automatización de asistencia avanzada para el razonamiento legal de IA. Los ejemplos de esta categoría incluirían el uso de procesamiento de lenguaje natural (NLP) rudimentario de estilo de consulta, elementos simplistas de aprendizaje automático (ML), herramientas de análisis estadístico para predicciones de casos legales, etc.

El nivel 3 consiste en una automatización semiautónoma para el razonamiento legal de la IA. Los ejemplos de esta categoría incluirían el uso de sistemas avanzados basados ​​en el conocimiento (KBS) para el razonamiento legal, el uso de Machine Learning y Deep Learning (ML/DL) para el razonamiento legal, NLP avanzado, etc.

El nivel 4 consiste en sistemas informáticos autónomos de dominio para el razonamiento jurídico de la IA. Este nivel reutiliza la noción conceptual de dominios de diseño operativo (ODD), tal como se utiliza para los automóviles autónomos, pero se aplica al dominio legal. Los dominios legales pueden clasificarse por áreas funcionales, como derecho de familia, derecho inmobiliario, derecho concursal, derecho ambiental, derecho fiscal, etc.

El nivel 5 consiste en sistemas informáticos totalmente autónomos para el razonamiento jurídico de la IA. En cierto sentido, el Nivel 5 es el superconjunto del Nivel 4 en términos de abarcar todos los dominios legales posibles. Por favor, tenga en cuenta que esto es una tarea bastante difícil.

Tómese un momento para contemplar estos Niveles de Autonomía en el contexto de sus servicios legales y actividades legales.

La mayoría de los bufetes de abogados en la actualidad utilizan algún tipo de paquete informático para ayudar a realizar su trabajo legal. El nombre popular para estas aplicaciones es que se consideran en la rúbrica de Tecnología Jurídica (Es posible que sepa que existe MedTech para tecnología médica, FinTech para tecnología financiera, EdTech para tecnología educativa, etc.).

Casi a diario me preguntan si LegalTech incluye IA o no incluye IA.

Mi respuesta es que esto no es una cosa de encendido o apagado. Necesitas considerar los Niveles de Autonomía.

Algunos paquetes de LegalTech han agregado capacidades de IA en su paquete (o, en algunos casos, usaron IA en el núcleo, para empezar), haciéndolo en diversos grados. Debe examinar cuidadosamente qué IA se ha agregado y qué logra. Tenga cuidado con las afirmaciones descaradas y sin fundamento que se utilizan con frecuencia sobre la IA.

Una de las arenas más populares consiste en usar IA para tratar con contratos legales. Puede obtener un paquete de gestión del ciclo de vida del contrato (CLM) para realizar un seguimiento y flujo de sus contratos legales durante el proceso de revisión legal. Agregar IA puede ser útil si la IA, por ejemplo, puede identificar posibles fallas legales o carcajadas en borradores de contratos, o quizás unir el lenguaje legal propuesto para un contrato determinado que se está elaborando.

Otro enfoque de la IA surge al hacer eDiscovery. Es posible que se enfrente a un corpus masivo de documentos electrónicos durante el proceso de descubrimiento. Se pueden utilizar potencialmente varios tipos de IA para buscar en el corpus e intentar identificar elementos relevantes. Además, la IA podría resumir o analizar de otra manera el valor del material encontrado para el caso en cuestión.

Y así sucesivamente.

Si la IA solo hace un mínimo de razonamiento legal sustantivo o procesamiento legal, lo clasificaría como IA que se usa en mi escala en un Nivel 2. Cuando la IA está diseñada de manera más sólida, LegalTech podría estar utilizando IA en el Nivel 3. En general, el Nivel 4 solo existe en ODD bastante estrechos en la actualidad. El nivel 5 es aspiracional, y tendremos que seguir esforzándonos para ver si podemos alcanzarlo (tal como existe la misma pregunta abierta en el ámbito de los autos autónomos de IA).

Entonces, sí, actualmente se usa IA en LegalTech y la IA varía considerablemente en términos de lo que hace y lo que no puede hacer.

Mientras tanto, se están realizando esfuerzos estridentes para ampliar los límites de la IA y tratar de unir esto para realizar tareas legales y realizar varios rangos y profundidades de razonamiento legal. En mi laboratorio de investigación (ver el enlace aquí), estamos aprovechando el advenimiento de los modelos de lenguaje extenso (LLM, por sus siglas en inglés) y aplicando esta última tecnología nueva a la ley, además de reunir una variedad de técnicas y tecnologías de IA para tratar de descifrar de manera sinérgica y holística el enigma continuo de cómo lograr niveles elevados de autonomía en el razonamiento legal basado en IA.

Volviendo al apodo Robo-abogado (no quiero hacerlo, pero siento que debo hacerlo en aras de la exhaustividad aquí), aquí hay un asunto de consideración:

  • ¿Qué constituye un “Robo-abogado” en términos de alcance y capacidad?

La respuesta habitual es que un Robo-abogado es un sistema de razonamiento jurídico basado en IA que puede hacer todo lo que puede hacer un abogado humano. Punto, punto final. Si ese es el caso, aparentemente diríamos que un Robo-abogado tendría que ser un Nivel 5 en la escala de autonomía. Por supuesto, esto es algo argumentativo porque puede cuestionar si cualquier elegido humana abogado puede realmente operar plenamente en todos los dominios de la ley, que no es particularmente realista. La mayoría de los abogados suelen estar en un dominio o especialidad legal en particular, similar a los ODD de nivel 4.

Veamos el Robo-Lawyer en un contexto de Nivel 4.

Supongamos que diseñamos un sistema de inteligencia artificial que pueda hacer un "razonamiento legal" para lidiar legalmente con las multas de estacionamiento. La IA puede realizar una función legal similar a la que haría un abogado que fue contratado para hacer las disputas legales sobre una multa de estacionamiento convencional.

¿Es esta IA similar a la de los abogados de multas de estacionamiento un Robo-Lawyer o no?

En cierto sentido, sí, ya que está asumiendo una tarea de abogado, aunque dentro de un dominio o subdominio muy estrecho de la ley. Por otro lado, si está comparando esto con una capacidad de abogado basada en IA autónoma de nivel 5 (que aún no tenemos), probablemente diría con vehemencia que este no es un Robo-abogado.

¿Ves por qué no me gusta el nombre Robo-abogado?

es ambiguo Lleva equipaje. Implica cosas que no están necesariamente articuladas. El eslogan es horrible y sería mejor prescindir de él. Desafortunadamente, la frase es pegadiza y seductora. Es pegajoso y no desaparece fácilmente. Lamentablemente, hay anuncios de algunos proveedores de LegalTech que intentan explotar la etiqueta Robo-abogado y, como tal, parece dudoso que en el corto plazo el nombre caduque o se elimine.

Cambiando de marcha, debemos examinar las zanahorias y los palos asociados con la IA tal como se aplican a la ley.

Si una práctica legal adopta un paquete LegalTech basado en IA que, debido a la IA, puede aumentar drásticamente la productividad de los abogados humanos, esto parecería ser algo bueno. Los bufetes de abogados generalmente dan la bienvenida al aumento de la productividad de su trabajo humano.

Un contraargumento es que los potenciadores de la productividad reducirán las horas facturables. Su abogado, que habría tardado 20 horas en realizar una tarea legal en particular, ahora puede hacerlo en 15 horas. ¡Ay! Eso implica que acaba de renunciar a 5 horas de tiempo facturable. Por supuesto, esa es una visión limitada de la situación y omite la perspicacia empresarial que subyace a la búsqueda de impulsores de la productividad.

Por ejemplo, es posible que pueda usar esas horas "ahorradas" al usar al abogado para obtener nuevos clientes o hacer que otros trabajos de clientes existentes se realicen antes (presumiblemente aumentando la satisfacción con esos clientes). También hay que tener en cuenta el ángulo competitivo. Si su bufete de abogados es menos productivo, lo más probable es que las empresas que buscan servicios legales se den cuenta. ¿Deben elegir el bufete de abogados conocido por ser altamente eficiente o el que lo es menos?

También debe ir más allá de la productividad y observar otras métricas clave, como la calidad de la asesoría legal.

Si un elemento de razonamiento legal basado en IA generó opciones legales o avivó la argumentación legal, el abogado humano que usa dicha IA podría muy bien identificar soluciones legales de mayor calidad. En cierto sentido, esto sería como tener un socio senior actuando como mentor. Los socios y asociados pueden aprovechar la IA, en cualquier momento del día o de la noche, desde cualquier lugar, lo que los impulsa a considerar de manera más consciente una gama más completa de vías legales a seguir.

Esas son algunas de las zanahorias.

El lado de los palos es quizás evidente.

Un argumento provocador que se está haciendo es que los abogados que no adopten dicha IA estarán usurpando su deber para con sus clientes. Como abogados, no se valen de los mejores medios posibles para asesorar a sus clientes. Están socavando su obligación jurada como proveedor de servicios legales.

Es probable que también haya visto el surgimiento de los llamados cajas de arena en el campo juridico. Algunos creen que este podría ser el medio fundamental para que la IA entre en el juego legal. El argumento es que si los bufetes de abogados convencionales no se van a mover voluntariamente más ávidamente hacia la IA, tal vez se necesite una vía alternativa.

Se sugiere que los abogados que no usan IA aparentemente estarán en desventaja en comparación con los que sí lo hacen. Esto preocupa especialmente a algunas asociaciones de la industria legal. La preocupación es que los bufetes de abogados pequeños o los abogados independientes no podrán permitirse herramientas de razonamiento legal de IA. Serán eclipsados ​​​​aún más por Big Law, que tiene la masa para hacer tales inversiones.

Un contraargumento es que si el costo de las herramientas de razonamiento legal de IA es lo suficientemente bajo, esto podría hacer que las pequeñas firmas de abogados y los abogados independientes sean más competitivos con Big Law. Los clientes que de otro modo sintieran que el pequeño bufete de abogados o el solo no tendrían los recursos legales adecuados quizás podrían ser persuadidos de lo contrario a través del aumento de IA.

Una de las mayores revelaciones involucra la suposición de que si el razonamiento legal de IA de naturaleza autónoma pudiera estar ampliamente disponible y a un precio asequible, esto ayudaría potencialmente al abrumador problema de A2J (acceso a la justicia). Grandes cantidades de personas no tienen fácil acceso a abogados y asistencia letrada. No saben cómo hacer frente al ecosistema legal. Imagine lo que podría hacer un sistema de razonamiento legal basado en IA las 24 horas del día, los 7 días de la semana para democratizar la ley y mejorar la percepción del estado de derecho.

Esos últimos puntos tocan algunos de los emocionantes acertijos legales o desafíos legales que les esperan a aquellos que podrían optar por participar en el advenimiento de la IA aplicada a la ley.

Algunos adelantos más son que podemos usar la IA para ayudar en la preparación o redacción de leyes. Aquí está la idea. A menudo, una ley está mal redactada. Las fallas del lenguaje legal producen confusión sobre la ley. Esto socava el estado de derecho. La IA se está utilizando para analizar las leyes propuestas y tratar de identificar dónde hay lagunas y problemas que, de otro modo, no habrían parecido tan evidentes. Además de detectar estas preocupaciones (a veces denominadas olores legales), la IA puede sugerir una nueva redacción para reducir la ambigüedad.

Otro alucinante invoca la afirmación de que la ley es código.

En otras palabras, si observa la mayoría de las leyes, tienen un parecido algo familiar con la codificación informática. Se están realizando esfuerzos para traducir automáticamente las leyes en código de programación puro o su equivalente. Esto, a su vez, podría permitir pruebas computacionales y matemáticas asociadas con nuestras leyes.

También puedes pensar en la idea de código como ley.

Si una ley se va a basar en algún algoritmo de computadora, podría sugerir que el código de programación per se represente la ley. El código es la ley. Imagine ir a los tribunales para discutir sobre un código de programación que se considera legalmente como la indicación textual de la ley.

Reflexiona sobre estas tentadoras preguntas:

  • ¿De qué manera podemos diseñar mejor la IA que encapsule más completamente el razonamiento legal?
  • ¿Qué tipo de interacción en línea entre los abogados humanos y los sistemas de razonamiento legal de IA será más propicio para el uso?
  • El razonamiento legal de la IA requiere XAI (IA explicable), pero ¿cómo pueden el aprendizaje automático y el aprendizaje profundo proporcionar una explicabilidad adecuada?
  • ¿Cómo podemos hacer que el razonamiento legal de AI esté disponible para aquellos que no tienen suficiente A2J?
  • ¿Podemos resolver el problema de UPL cuando se trata de razonamiento legal basado en IA?
  • ¿Nuestros tribunales también adoptarán la IA y, de ser así, cómo afectará esto a la adjudicación en todos los ámbitos?
  • Etcétera

Algunos abogados se consideran emprendedores de corazón.

Hay muchas nuevas empresas en el espacio LegalTech, y de ellas, hay muchas que están tratando de inventar o aplicar IA en consecuencia a las tareas legales. Es posible que haya visto la cosecha reciente de anuncios de trabajo que solicitan Ingenieros en Conocimiento Jurídico o simplemente listado como Ingenieros Jurídicos.

Algunos abogados son expertos en tecnología que entran en este espacio.

Algunos abogados no son expertos en tecnología que ingresan a la IA aplicada al ámbito legal, para lo cual brindan experiencia en el dominio legal para ayudar a desarrollar sistemas de razonamiento legal de IA. Menciono esto porque la suposición de muchos abogados y estudiantes de derecho es que deben ser expertos en tecnología para entrar en este ámbito. Eso no es un requisito per se. La voluntad de explorar la ley en formas que hasta ahora no había examinado y hecho mientras trabajaba con firmeza y en colaboración con los técnicos es el camino ascendente reciente.

Conclusión

Llegaste hasta el final de este tratado.

Bien por usted.

Espero sinceramente que haya encontrado esta discusión informativa, tal vez incluso modestamente inspiradora.

¿Por qué los abogados no corren hacia IA y derecho?

Muy pocos saben lo que ahora sabes.

La mayor parte de los abogados no tiene o tiene poca idea de lo que IA y derecho consiste en. Es un tema que rara vez se trata en las facultades de derecho, aunque he predicho que una vez que el IA y derecho tsunami golpea, es probable que veamos un gran cambio en la comprensión de dónde IA y derecho necesita ser cubierto.

También mencioné anteriormente que hay una gallina o un huevo sobre IA y derecho. Los clientes aún no saben que IA y derecho va a ser un tema legal trascendental. Los bufetes de abogados tienden a esperar hasta que los clientes comiencen a pedir servicios legales. En este momento, solo algunos bufetes de abogados ven la escritura en la pared. Asimismo, solo algunos clientes ven la escritura en la pared. Por lo general, pocos son conscientes del terremoto, mientras que aún menos se están preparando para el terremoto.

Se acerca la disrupción.

Me doy cuenta de que la palabra "disrupción" se usa bastante en estos días. A pesar de ese uso excesivo, creo que el campo legal está al borde de una interrupción asociada con la IA. No será de la noche a la mañana. No te despertarás una mañana y durante la noche ocurrió inexplicablemente una transformación radical. Yo diría que va a ser una marcha constante por delante. Un pie a la vez, un paso a la vez.

Un viaje de muchas millas comienza con un solo paso.

Según el famoso comentario de William Randolph Hearst: “Debes mantener tu mente en el objetivo, no en el obstáculo”.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai- y-la-ley/