La ética de la IA y la debacle que se avecina cuando se ponga en marcha la ley de la ciudad de Nueva York que exige auditorías para los sesgos de la IA

A veces, la mejor de las intenciones se frustra lamentablemente por una grave falta de atención a los detalles.

Vale la pena explorar un excelente ejemplo de esta sabia sabiduría.

Específicamente, echemos un vistazo de cerca a una nueva ley en la ciudad de Nueva York con respecto a la inteligencia artificial (IA) que entrará en vigencia el 1 de enero de 2023. Fácilmente podría ganar una apuesta considerable de que surgirán todo tipo de confusión, consternación y problemas. una vez que la ley entre en vigor. Si bien los problemas no son por diseño, indudablemente ocurrirán como resultado de un diseño deficiente o, al menos, de una estipulación insuficiente de los detalles necesarios que deberían y podrían haber sido fácilmente ideados y declarados explícitamente.

Me refiero a una ley local aprobada el año pasado el 11 de diciembre de 2021 en la venerada ciudad de Nueva York que está programada para entrar en acción a principios de 2023. Actualmente estamos a solo unos meses del gran despertar que esta nueva ley va a revolver. Desearía poder decir que la ambiciosa ley hará sin problemas lo que se supone que debe hacer, es decir, lidiar con los posibles sesgos de la IA en el ámbito de la toma de decisiones laborales. Por desgracia, aunque la intención es loable, lo guiaré a través de las lagunas, las omisiones y la falta de especificidad que socavarán esta ley y volverán locos a los empleadores mientras buscan hacer frente a las repercusiones no deseadas pero bastante adversas de la misma.

Se podría decir que este es el tema clásico de seguir adelante con un plan a medias. Una máxima venerada atribuida a Dwight Eisenhower era que un plan no es nada, mientras que la planificación lo es todo. En resumen, esta ley en particular proporcionará un ejemplo vívido de cómo los legisladores a veces pueden quedarse cortos al no pensar detenidamente. de antemano los detalles necesarios para que la ley cumpla sus encomiables fines y pueda ser adoptada en formas ciertamente razonables y prudentes.

Le espera una debacle.

Las excusas ya se están alineando.

Algunos expertos han dicho que nunca se puede especificar completamente una ley y que hay que verla en acción para saber qué aspectos de la ley deben modificarse (una perogrullada general que se está torciendo fuera de proporción en este caso). Además, argumentan acaloradamente que este es especialmente el caso cuando se trata de la novedad emergente de las leyes relacionadas con la IA. Diablos, exhortan, la IA es magia de alta tecnología de la que no sabemos mucho como legisladores, por lo tanto, la lógica dice que tener algo puesto en las páginas legales es mejor que no tener nada allí.

En la superficie, eso ciertamente suena persuasivo. Sin embargo, profundice más y se dará cuenta de que es potencialmente una tontería, incluso y particularmente en el caso de esta ley específica. Esta ley podría fácilmente estipularse más hábil y juiciosamente. No necesitamos pociones mágicas. No necesitamos esperar hasta que surjan los caos. En el momento en que se redactó la ley, se podría haber establecido el tipo correcto de redacción y detalles.

Asegurémonos también de que la idea indecorosa y flotante de que los aspectos de la adopción no pueden adivinarse de antemano es dolorosamente absurda. Es un galimatías legal del tipo más vacuo. Hay muchas consideraciones ya conocidas sobre el tratamiento de los sesgos de la IA y la realización de auditorías de la IA que podrían haberse convertido fácilmente en esta ley. Lo mismo puede decirse de cualquier otra jurisdicción que contemple establecer tal ley. No os dejéis engañar creyendo que sólo debemos recurrir a tirar a ciegas un dardo legal a los vientos salvajes y sufrir angustia. Una dosis de pensamiento legal combinado con una comprensión adecuada de la IA ya es factible y no hay necesidad de aferrarse únicamente a las pajitas.

Debo agregar que todavía hay tiempo para corregir esto. El reloj sigue corriendo. Podría ser posible despertar antes de que suenen las campanas de alarma. El asesoramiento necesario se puede derivar y dar a conocer. El tiempo es corto, por lo que se le debe dar la debida prioridad.

En cualquier caso, asegúrese de que está captando el énfasis aquí.

Permítanme aclarar fervientemente que tal ley sobre los sesgos de la IA tiene mérito. Voy a explicar por qué momentáneamente. También describiré qué problemas hay con esta nueva ley que muchos dirían que es la primera en ser incluida en los libros legales (existen otras variaciones, aunque tal vez no como esta).

De hecho, puede esperar que leyes similares vayan surgiendo gradualmente en todo el país. Una preocupación notable es que si este intento de ser el primero en actuar en la ciudad de Nueva York sale mal, podría hacer que el resto del país desconfíe de promulgar tales leyes. Esa no es la lección correcta para ser aprendida. La lección correcta es que si va a escribir tal ley, hágalo con sensatez y con la debida consideración.

Las leyes arrojadas a los libros sin la verificación adecuada pueden ser bastante molestas y crear todo tipo de dificultades posteriores. En ese sentido de las cosas, por favor no tire al bebé con el agua del baño (un viejo dicho, probablemente debería ser retirado). La esencia es que tales leyes pueden ser genuinamente productivas y protectoras cuando se redactan correctamente.

Desafortunadamente, este en particular no lo hará por la puerta.

Todo tipo de orientación de pánico seguramente provendrá de los promulgadores y ejecutores de la ley. Marque sus calendarios para fines de enero y hasta febrero de 2023 para ver cómo se produce la lucha. Señalar con el dedo va a ser inmensamente intenso.

Nadie está especialmente quejándose en este momento porque la ley aún no ha aterrizado en las cabezas de los empleadores que serán engañados por la nueva ley. Imagine que, metafóricamente hablando, se trata de una especie de terremoto que tendrá lugar en las primeras semanas de 2023. Pocos se están preparando para el terremoto. Muchos ni siquiera saben que el terremoto ya está en el calendario. Dicho todo esto, una vez que ocurra el terremoto, muchas empresas muy asombradas y conmocionadas se preguntarán qué sucedió y por qué tuvo que ocurrir el desastre.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA. Para mi cobertura continua y extensa de la ética de la IA, la IA ética, junto con la ley de la IA en medio de las facetas legales de la gobernanza de la IA, se pueden encontrar en el enlace aquí y el enlace aquí, sólo para nombrar unos pocos.

Esta historia legal de aflicción se relaciona con las preocupaciones emergentes sobre la IA de hoy y, especialmente, el uso de Machine Learning (ML) y Deep Learning (DL) como una forma de tecnología y cómo se utiliza. Verá, hay usos de ML / DL que tienden a implicar que la IA sea antropomorfizada por el público en general, creyendo o eligiendo asumir que ML / DL es una IA inteligente o cercana (no lo es). Además, ML/DL puede contener aspectos de coincidencia de patrones computacionales que son indeseables o totalmente inadecuados, o ilegales desde el punto de vista ético o legal.

Puede ser útil aclarar primero a qué me refiero cuando me refiero a la IA en general y también proporcionar una breve descripción general del aprendizaje automático y el aprendizaje profundo. Existe una gran confusión en cuanto a lo que connota la Inteligencia Artificial. También me gustaría presentarles los preceptos de la ética de la IA, que serán especialmente integrales para el resto de este discurso.

Declarando el registro sobre la IA

Asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente.

No tenemos esto.

No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como La Singularidad, vea mi cobertura en el enlace aquí).

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de la IA ha hecho un uso extensivo del aprendizaje automático y el aprendizaje profundo, que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Parte del problema es nuestra tendencia a antropomorfizar las computadoras y especialmente la IA. Cuando un sistema informático o IA parece actuar de formas que asociamos con el comportamiento humano, existe una necesidad casi abrumadora de atribuir cualidades humanas al sistema. Es una trampa mental común que puede atrapar incluso al escéptico más intransigente acerca de las posibilidades de alcanzar la conciencia.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial.

Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales. Ver por ejemplo mi cobertura en el enlace aquí.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone que los desarrolladores de IA deben utilizar esos principios de ética de IA, junto con aquellos que administran los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

Mantengamos las cosas con los pies en la tierra y concentrémonos en la IA computacional no sensible de hoy.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Creo que ahora he preparado el escenario para discutir suficientemente el papel de la IA dentro de la rúbrica de dejar de fumar tranquilamente.

IA que se utiliza en la toma de decisiones de empleo

La ley de la ciudad de Nueva York se centra en el tema de la toma de decisiones laborales.

Si últimamente ha intentado solicitar un trabajo moderno en casi cualquier lugar del mundo, probablemente haya encontrado un elemento basado en IA en el proceso de toma de decisiones de empleo. Por supuesto, es posible que no sepa que está allí, ya que podría estar oculto detrás de escena y no tendría una forma fácil de discernir que un sistema de IA estuvo involucrado.

Un eslogan común utilizado para referirse a estos sistemas de IA es que se consideran Herramientas de decisión de empleo automatizadas, abreviado como AEDT.

Veamos cómo la ley de NYC definió estas herramientas o aplicaciones que implican la toma de decisiones laborales:

  • “El término 'herramienta de decisión de empleo automatizada' significa cualquier proceso computacional, derivado del aprendizaje automático, el modelado estadístico, el análisis de datos o la inteligencia artificial, que emite resultados simplificados, incluida una puntuación, clasificación o recomendación, que se utiliza para ayudar o sustituir la toma de decisiones discrecionales por la toma de decisiones laborales que afectan a las personas físicas. El término "herramienta de decisión de empleo automatizada" no incluye una herramienta que no automatice, apoye, asista sustancialmente o reemplace los procesos de toma de decisiones discrecionales y que no afecte materialmente a las personas físicas, incluidos, entre otros, un filtro de correo electrónico no deseado, firewall, software antivirus, calculadora, hoja de cálculo, base de datos, conjunto de datos u otra compilación de datos” (NYC, Int 1894-2020, Subcapítulo 25, Sección 20-870).

Examinaré brevemente esta redacción ya que es vital para toda la naturaleza y el alcance de la ley.

Primero, como he dicho muchas veces en mis escritos, uno de los obstáculos más difíciles al escribir leyes sobre IA consiste en tratar de definir adecuadamente lo que significa IA. No existe un único estándar legalmente a prueba de balas en el que todos hayan aterrizado. Existen todo tipo de definiciones. Algunos son útiles, otros no. Ver mis análisis en el enlace aquí.

Es posible que sienta la tentación de pensar que no importa especialmente cómo definamos la IA. Lo siento, pero te equivocarías en eso.

El problema es que si la definición de IA se especifica vagamente en una ley determinada, permite que aquellos que desarrollan IA traten de eludir la ley al afirmar aparentemente que su software o sistema no está infundido con IA. Argumentarían con gran audacia que la ley no se aplica a su software. Del mismo modo, alguien que use el software también podría afirmar que la ley no le afecta porque el software o el sistema que está usando queda fuera de la definición de IA establecida en la ley.

Los humanos son así de engañosos.

Una de las formas más astutas de evitar ser golpeado por una ley que no está a su favor es afirmar que la ley no se aplica a usted. En este caso, buscaría desarmar por partes la definición de AEDT. Su objetivo, suponiendo que no quiera que la ley le cubra las espaldas, sería argumentar legalmente que la definición dada en la ley no es adecuada para lo que es o hace su sistema informático relacionado con el empleo.

Una ley de este tipo puede verse favorecida y, en ocasiones, socavada al haber incluido deliberadamente estipulaciones excluyentes en la definición.

Fíjese de nuevo en la definición de AEDT tal y como se establece en esta ley. Es de esperar que haya observado que hay una cláusula de exclusión que dice "... no incluye una herramienta que no automatice, apoye, asista sustancialmente o reemplace los procesos de toma de decisiones discrecionales y que no afecte materialmente a las personas físicas...".

Por un lado, la base para incluir tal exclusión es decididamente útil.

Parece estar sugiriendo (desde mi punto de vista profano) que la AEDT tiene que proporcionar un propósito específico y ser utilizada de manera sustantiva. Si el AEDT es, digamos superficial o periférico, y si la decisión de empleo sigue siendo más bien humana, quizás el sistema de software utilizado no deba interpretarse como un AEDT. Además, si el software o el sistema no está afectando “materialmente” a las personas naturales (humanos), entonces no parece que valga la pena mantener los pies en el fuego, por así decirlo.

Con sensatez, no desea que una ley exagere su alcance y abarque todo, incluido el fregadero de la cocina. Hacerlo es esencialmente injusto y oneroso para aquellos que la ley no pretendía abarcar. Pueden quedar atrapados en un pantano que actúa como una de esas redes de pesca que lo atrapan todo. Presumiblemente, nuestras leyes deben tener cuidado de no arrastrar a los inocentes al ámbito de la ley.

Todo está bien y bien.

Un abogado inteligente está obligado a darse cuenta de que una cláusula de exclusión puede ser una especie de tarjeta legal para salir de la cárcel (aparte, esta ley en particular estipula sanciones civiles, no sanciones penales, por lo que el salir de la carcel el comentario es meramente metafórico y tiene un toque sabroso). Si alguien sostuviera que una empresa estaba utilizando un AEDT en el procesamiento de empleo, una de las primeras formas de tratar de superar ese reclamo sería argumentar que el llamado AEDT estaba realmente en el ámbito de exclusión. Podría intentar demostrar que el llamado AEDT no automatizado la decisión de empleo, o no SOPORTE la decisión de empleo, o no ayudar sustancialmente or reemplazar procesos discrecionales de toma de decisiones.

Luego puede seguir el camino tortuoso de identificar qué significan las palabras "automatizar", "apoyar", "ayudar sustancialmente" o "reemplazar" en este contexto. Es una madriguera de conejo legal bastante útil. Se podría presentar un caso convincente de que el software o el sistema que supuestamente es un AEDT es parte de las indicaciones de exclusión. Por lo tanto, no hay daño, no hay falta, con respecto a esta ley en particular.

Obviamente, se debe consultar a abogados con licencia para tales asuntos (no se indica ningún tipo de asesoramiento legal en este documento y esta es la opinión de un profano en su totalidad).

Mi punto aquí es que va a haber margen de maniobra en esta nueva ley. El margen de maniobra permitirá que algunos empleadores que realmente están usando un AEDT quizás encuentren una escapatoria para eludir el uso de AEDT. La otra cara de la moneda es que puede haber empresas que no utilicen genuinamente un AEDT que queden atrapadas por esta ley. Se podría afirmar que lo que sea que estuvieran usando era de hecho un AEDT, y necesitarán encontrar un medio para demostrar que su software o sistemas quedaron fuera del AEDT y en la disposición de exclusión.

Podemos hacer esta audaz predicción:

  • Indudablemente, habrá empleadores que a sabiendas estén utilizando un AEDT que potencialmente intentará eludir sus responsabilidades legales.
  • Inevitablemente, habrá empleadores que no usen un AEDT que se atasquen en afirmaciones de que están usando un AEDT, obligándolos a tener que hacer un esfuerzo "extra" para mostrar que no están usando un AEDT.

Estaré exponiendo más sobre estas numerosas permutaciones y combinaciones cuando avancemos en esta discusión. Tenemos mucho más terreno por recorrer.

El uso de un AEDT per se no es la parte de este problema que genera preocupaciones demostrativas, es la forma en que el AEDT realiza sus acciones lo que hace que fluya la ira legal. El quid es que si la AEDT también introduce sesgos relacionados con la toma de decisiones de empleo, entonces estás potencialmente en problemas (bueno, más o menos).

¿Cómo vamos a saber si un AEDT de hecho introduce sesgos cargados de IA en un esfuerzo de toma de decisiones de empleo?

La respuesta según esta ley es que se debe realizar una auditoría de IA.

Previamente y con frecuencia cubrí la naturaleza de las auditorías de IA y lo que son, junto con las desventajas existentes y las facetas mal definidas, como en el enlace aquí y el enlace aquí, entre muchas otras publicaciones similares. En pocas palabras, la idea es que, al igual que podría realizar una auditoría financiera de una empresa o una auditoría de tecnología relacionada con un sistema informático, puede realizar una auditoría en un sistema de IA. Utilizando técnicas, herramientas y métodos de auditoría especializados, examina y evalúa en qué consiste un sistema de IA, incluido, por ejemplo, tratando de determinar si contiene sesgos de un tipo u otro.

Esta es un área floreciente de atención.

Puede esperar que este subcampo de auditoría dedicado a la auditoría de IA continúe creciendo. Es evidente que, a medida que se liberen más y más sistemas de IA en el mercado y, a su vez, habrá más y más clamores por auditorías de IA. Las nuevas leyes ayudarán a desencadenar esto. Incluso sin esas leyes, habrá muchas auditorías de IA a medida que las personas y las empresas afirmen que la IA les ha hecho daño y buscarán proporcionar una indicación documentada tangible de que el daño estuvo presente y vinculado a la IA que se está utilizando.

Los auditores de IA estarán de moda y tendrán una gran demanda.

Puede ser un trabajo emocionante. Un elemento quizás emocionante consiste en sumergirse en lo último y lo mejor de la IA. La IA sigue avanzando. Mientras esto sucede, un auditor de IA astuto tendrá que mantenerse alerta. Si usted es un auditor que se ha cansado de hacer auditorías convencionales todos los días, el campo de auditoría de IA siempre nuevo y revelador ofrece una promesa (digo esto para elevar parcialmente la estatura de los auditores, ya que a menudo son los héroes no anunciados que trabajan en las trincheras y tienden a ser descuidados por sus esfuerzos).

Aparte, he sido auditor certificado de sistemas informáticos (una de esas designaciones es CISA) y he realizado auditorías de TI (tecnología de la información) muchas veces durante muchos años, incluidas auditorías de IA. La mayoría de las veces, no obtienes el reconocimiento que mereces por tales esfuerzos. Probablemente puedas adivinar por qué. En general, los auditores tienden a encontrar cosas que están mal o rotas. En ese sentido, están siendo bastante útiles, aunque algunos pueden percibir esto como malas noticias, y el mensajero de malas noticias generalmente no se coloca especialmente en un pedestal.

De vuelta al asunto.

Con respecto a la ley de la ciudad de Nueva York, esto es lo que dice la ley sobre la auditoría de IA y la búsqueda de descubrir sesgos de IA:

  • “El término 'auditoría sesgada' significa una evaluación imparcial realizada por un auditor independiente. Dicha auditoría de sesgo incluirá, entre otros, la prueba de una herramienta de decisión de empleo automatizada para evaluar el impacto desigual de la herramienta en personas de cualquier categoría del componente 1 que los empleadores deben informar de conformidad con la subsección (c) de la sección 2000e-8 del título. 42 del código de los Estados Unidos como se especifica en la parte 1602.7 del título 29 del código de regulaciones federales” (NYC, Int 1894-2020, Subcapítulo 25, Sección 20-870).

Como resumen, aquí es donde estamos hasta ahora en el desempaque de esta ley:

  • La ley cubre las herramientas de decisión de empleo automatizadas (AEDT)
  • Se incluye una especie de definición para identificar qué es un AEDT
  • La definición de AEDT también menciona disposiciones excluyentes
  • La esencia es que la ley quiere exponer los sesgos de IA en AEDT
  • Para determinar si hay sesgos de IA, se debe realizar una auditoría de IA.
  • La auditoría de IA presumiblemente dará a conocer cualquier sesgo de IA

A continuación podemos profundizar un poco más en la ley.

Esto es en lo que consiste una decisión de empleo:

  • “El término 'decisión de empleo' significa seleccionar candidatos para empleo o empleados para promoción dentro de la ciudad” (NYC, Int 1894-2020, Subcapítulo 25, Sección 20-870).

Tenga en cuenta que el aspecto delimitador de "la ciudad" sugiere que el asunto solo se ocupa de las circunstancias relacionadas con el empleo dentro de la ciudad de Nueva York. Además, vale la pena señalar que una decisión de empleo tal como se define implica la selección de candidatos, que es la connotación habitual de lo que consideramos una decisión de empleo, además de que también incluye promociones.

Este es un doble golpe en el sentido de que las empresas deberán darse cuenta de que deben estar al tanto de cómo se utiliza su AEDT (si están usando uno) para los entornos de empleo iniciales y también cuando se promocionan dentro de la empresa. Es probable que pueda adivinar o asumir que muchas empresas no serán muy conscientes de que el elemento de promociones también se encuentra dentro de esta rúbrica. Inevitablemente, pasarán por alto esa construcción adicional bajo su propio riesgo.

A continuación, proporcionaré un extracto clave adicional de la ley para iluminar la esencia de lo que se interpreta como ilegal por esta ley:

  • “Requisitos para herramientas automatizadas de decisión de empleo. una. En la ciudad, será ilegal que un empleador o una agencia de empleo use una herramienta de decisión de empleo automatizada para evaluar a un candidato o empleado para una decisión de empleo a menos que: 1. Dicha herramienta haya sido objeto de una auditoría de sesgo realizada no más de un año antes del uso de dicha herramienta; y 2. Un resumen de los resultados de la auditoría de sesgo más reciente de dicha herramienta, así como la fecha de distribución de la herramienta a la que se aplica dicha auditoría, se ha puesto a disposición del público en el sitio web del empleador o agencia de empleo antes del uso de dicha herramienta…” (NYC, Int 1894-2020, Subcapítulo 25, Sección 20-871). Hay subcláusulas adicionales que tal vez desee consultar, si está muy interesado en la redacción legal.

Los escépticos y los críticos han argumentado que esto parece algo tibio en cuanto a la actividad ilegal que se denuncia.

Dicen que la ley solo se enfoca de manera estrecha y mínima en conductible una auditoría de IA y dar a conocer los resultados, en lugar de si la auditoría de AI descubrió sesgos de AI y qué ramificaciones ha tenido esto en la toma de decisiones de empleo que entran dentro del alcance de esta ley. En esencia, aparentemente es ilegal no optar por realizar una auditoría de IA de este tipo (cuando corresponda, como se discutió anteriormente), además, también es ilegal en el caso de que realice la auditoría de IA pero no no publicitarlo

La ley parece guardar silencio sobre la cuestión de si se detectaron o no sesgos de IA. Del mismo modo, silencio sobre si los sesgos de la IA afectaron a alguien relacionado con una actividad destacada de toma de decisiones laborales. La clave es aparentemente "simplemente" realizar una auditoría de IA y contarla.

¿Esta ley no va lo suficientemente lejos?

Parte del contraargumento para afirmar que esto es aparentemente satisfactorio en cuanto al rango o alcance de lo que abarca esta ley es que si una auditoría de AI encuentra sesgos de AI, y si esos sesgos de AI están vinculados a instancias particulares de toma de decisiones de empleo, la persona o las personas así perjudicadas podrían perseguir al empleador bajo otros leyes Por lo tanto, no hay necesidad de incluir ese aspecto en esta ley en particular.

Supuestamente, esta ley tiene por objeto sacar a la luz estos asuntos.

Una vez que se arroje la luz del día sobre estas prácticas adversas, se pueden buscar todo tipo de otras vías legales si los sesgos de la IA existen y tienen un impacto en las personas. Sin esta ley, el argumento es que aquellos que usan AEDT lo estarían haciendo mientras posiblemente se vuelven locos y tienen potencialmente toneladas de sesgos de IA, por lo que aquellos que buscan empleo o aquellos que buscan promociones no sabrían que está ocurriendo.

Llévalos a la superficie. Haz que lo cuenten. Métete debajo del capó. Mira lo que hay dentro de ese motor. Ese es el mantra en este caso. A partir de esta aparición y narración, se pueden emprender acciones adicionales.

Además de emprender acciones legales como resultado de revelar que una auditoría de IA tal vez informó que había sesgos de IA, también existe la creencia de que la publicación de estos resultados tendrá repercusiones en la reputación. Los empleadores que se muestran como usuarios de AEDT que tienen sesgos de IA probablemente sufrirán la ira de la sociedad, como a través de las redes sociales y similares. Quedarán expuestos por sus malas acciones y avergonzados por corregir su comportamiento, y también podrían verse privados de personas que buscan trabajar allí debido a las dudas de que los sesgos de la IA impiden la contratación o usurpan las promociones.

Las sanciones establecidas asociadas con ser ilegal son las siguientes:

  • “Sanciones. una. Cualquier persona que viole cualquier disposición de este subcapítulo o cualquier regla promulgada conforme a este subcapítulo está sujeta a una sanción civil de no más de $500 por la primera violación y cada violación adicional que ocurra el mismo día que la primera violación, y no menos de $500 ni más de $1,500 por cada infracción posterior” (NYC, Int 1894-2020, Subcapítulo 25, Sección 20-872). Hay subcláusulas adicionales que tal vez desee consultar, si está muy interesado en la redacción legal.

Los escépticos y los críticos sostienen que las penas no son lo suficientemente duras. Una gran empresa supuestamente se burlaría o se reiría de las minúsculas multas en dólares involucradas. Otros señalan que la multa podría terminar siendo más de lo que parece, de modo que si una empresa tuviera mil dólares de infracciones cada día (solo un escenario, hay muchos otros escenarios), el valor de un año sería alrededor. $365,000, suponiendo que la empresa simplemente ignoró la ley durante un año entero y se salió con la suya (parece difícil de imaginar, pero podría suceder, e incluso podría durar más o por una mayor culminación de multas diarias, en teoría).

Mientras tanto, algunos están preocupados por las empresas más pequeñas y las multas asociadas. Si una pequeña empresa que apenas llega a fin de mes recibe multas, y supuestamente no lo hizo por una motivación deliberada para eludir la ley, las multas podrían afectar materialmente su tambaleante negocio.

Las consideraciones problemáticas de Keystone en cuestión

Tengo una pregunta simple y directa para ti.

En el contexto de esta ley, ¿qué constituye exactamente una auditoría de IA?

Problemáticamente, no hay una indicación definitiva dentro de la narrativa de la ley. Todo lo que parece que se nos dice es que la "auditoría de sesgo" debe realizarse a través de "una evaluación imparcial por parte de un auditor independiente" (según la redacción de la ley).

Puedes conducir un camión Mac a través de ese enorme agujero.

Este es el por qué.

Considere este ejemplo bastante desconcertante. Un estafador se pone en contacto con una empresa en la ciudad de Nueva York y explica que brindan un servicio tal que realizarán una llamada "auditoría de sesgo" de su AEDT. Prometen que lo harán “imparcialmente” (lo que sea que eso signifique). Se presentan como un auditor independiente y se han ungido como tal. No es necesario ningún tipo de formación en contabilidad o auditoría, títulos, certificaciones ni nada por el estilo. Tal vez se tomen la molestia de imprimir algunas tarjetas de presentación o se apresuren a crear un sitio web promocionando su posición como auditor independiente.

Le cobrarán a la empresa una tarifa modesta de, digamos, $ 100. Su servicio consiste quizás en hacer algunas preguntas sobre la AEDT y luego proclamar que la AEDT no tiene prejuicios. Luego envían un informe de una página de tamaño y declaran los "resultados" de la llamada auditoría. La empresa publica debidamente esto en su sitio web.

¿La empresa ha cumplido con esta ley?

Dígame usted.

Parece que tienen.

Es posible que se sorprenda de inmediato de que la auditoría se haya realizado de manera superficial (eso es ser cortés y generoso en este escenario en particular). Es posible que le moleste que la detección de sesgo (o la falta de ella) esté esencialmente predeterminada (voilá, parece que no tiene sesgo). Es posible que le moleste que los resultados publicados puedan dar la impresión de haber pasado una auditoría rigurosa por parte de un auditor certificado, capacitado, experimentado y de buena fe.

Sí, eso hace que las cosas se evalúen.

Un empleador podría sentirse aliviado de haber completado este requisito "tonto" y feliz de que solo le haya costado $ 100 míseros. El empleador podría darse cuenta interna y silenciosamente de que la auditoría independiente era una farsa, pero aparentemente no está sobre sus hombros decidirlo. Se les presentó un supuesto auditor independiente, el auditor hizo el trabajo que el auditor dijo que cumplía, la empresa lo pagó, obtuvieron los resultados y publicaron los resultados.

Algunos empleadores harán esto y se darán cuenta de que están cumpliendo con la ley en un abrir y cerrar de ojos. No obstante, creerán que están siendo totalmente obedientes.

Otros empleadores podrían ser estafados. Todo lo que saben es la necesidad de cumplir con la ley. Afortunadamente para ellos (o eso suponen), un “auditor independiente” los contacta y les promete que se puede obtener una auditoría de quejas y el resultado por $100. Para evitar recibir esa multa diaria de $ 500 o más, la empresa cree que ha recibido un regalo del cielo. Pagan los $ 100, se lleva a cabo la "auditoría", obtienen un certificado de salud gratuito en cuanto a su falta de sesgos de IA, publican los resultados y se olvidan de esto hasta la próxima vez que necesiten hacer otra auditoría. .

¿Cómo se supone que todas las empresas de la ciudad de Nueva York que están sujetas a esta ley saben qué es el cumplimiento de buena fe de la ley?

En caso de que aún no tenga un poco de malestar estomacal, podemos empeorar las cosas. Espero que no hayas comido nada en las últimas horas, ya que el próximo giro será difícil de mantener intacto.

¿Listo para iniciar?

Este proveedor de servicios falso resulta ser más falso de lo que podría haber pensado. Consiguen que la firma se inscriba en el servicio de $100 para realizar la auditoría de sesgo imparcial como auditor independiente. He aquí que hacen la “auditoría” y descubren que hay sesgos en cada rincón y rincón de la AEDT.

Tienen sesgos de IA como una plaga de cucarachas.

Yikes, dice la firma, ¿qué podemos hacer al respecto?

No hay problema, les dicen, podemos corregir esos sesgos de IA por usted. Le costará solo $ 50 por cada sesgo que se encuentre. De acuerdo, dice la empresa, por favor arréglenlos, gracias por hacerlo. El proveedor de servicios codifica un poco y le dice a la empresa que corrigieron cien sesgos de IA y, por lo tanto, les cobrarán $ 5,000 (eso es $ 50 por sesgo de IA que se corregirá, multiplicado por los 100 encontrados).

Ay, la empresa se siente presionada, pero aún así es mejor que enfrentar la infracción de $500 o más por día, por lo que le pagan al "auditor independiente" y luego obtienen un nuevo informe que muestra que ahora están libres de prejuicios. Publican esto con orgullo en su sitio web.

Poco saben que esto fue un despilfarro, una estafa, una estafa.

Puede insistir en que este proveedor de servicios debe ser castigado por su engaño. Atrapar y detener a estos embaucadores será mucho más difícil de lo que imaginas. Al igual que perseguir a los príncipes con sede en el extranjero que tienen una fortuna para usted, es probable que se encuentren en algún país extranjero más allá del alcance de la ley de los Estados Unidos, lo mismo podría ocurrir en este caso también.

Espere que surja una industria artesanal debido a esta nueva ley.

Habrá auditores de buena fe que busquen prestar estos servicios. Bien por ellos. Habrá auditores incompletos que irán tras este trabajo. Habrá auditores falsamente proclamados que irán tras esta obra.

Mencioné que el escenario del proveedor de servicios implicaba pedir $ 100 para realizar la llamada auditoría de IA. Eso fue solo un marcador de posición inventado. Tal vez algunos cobren $ 10 (parece incompleto). Quizás unos $ 50 (todavía incompletos). Etc.

Suponga que un proveedor de servicios dice que le costará $10,000 hacer el trabajo.

O $100,000 para hacerlo.

Posiblemente $1,000,000 para hacerlo.

Algunos empleadores no tendrán ni idea de cuánto podría o debería costar esto. La comercialización de estos servicios va a ser gratuita para todos. Esta es una ley lucrativa para aquellos que realizan estos servicios legítimamente y una lucrativa para aquellos que también están siendo engañados al hacerlo. Será difícil saber cuál es cuál.

También te pediré que contemples otro agujero abierto.

En el contexto de esta ley, ¿qué constituye exactamente un sesgo de IA?

Aparte de la mención del código de regulaciones federales de los Estados Unidos (esto no responde particularmente a la cuestión de los sesgos de la IA y, por lo tanto, no sirve como un recurso provisional o para resolver el asunto), sería difícil afirmar que este nuevo la ley proporciona cualquier indicación sustantiva de lo que son los sesgos de la IA. Una vez más, esto estará completamente abierto a interpretaciones muy dispares y no sabrá especialmente qué se buscó, qué se encontró, etc. Además, es probable que el trabajo realizado incluso por auditores de IA de buena fe sea incomparable con otro, de modo que cada uno tenderá a utilizar sus propias definiciones y enfoques.

En resumen, podemos observar con inquietud y preocupación lo que los empleadores encontrarán como resultado de esta ley vaga pero bien intencionada:

  • Algunos empleadores conocerán la ley y la cumplirán con seriedad y en su totalidad lo mejor que puedan.
  • Algunos empleadores conocerán la ley y cumplirán marginalmente con el camino más delgado, más barato y posiblemente desagradable que puedan encontrar o que llegue a su puerta.
  • Algunos empleadores sabrán acerca de la ley y creerán que no están dentro del alcance de la ley, por lo que no harán nada al respecto (aunque resulta que podrían estar dentro del alcance)
  • Algunos empleadores sabrán acerca de la ley y decidirán ignorarla rotundamente, tal vez creyendo que nadie se dará cuenta o que la ley no se hará cumplir, o que se encontrará que la ley es inaplicable, etc.
  • Algunos empleadores no sabrán acerca de la ley y serán atrapados desprevenidos, luchando por cumplir
  • Algunos empleadores no sabrán acerca de la ley y miserablemente serán estafados por estafadores.
  • Algunos empleadores no sabrán sobre la ley, no están dentro del alcance, pero de todos modos son estafados por estafadores que los convencen de que están dentro del alcance.
  • Algunos empleadores no sabrán acerca de la ley y no harán nada al respecto, mientras que, milagrosamente, nunca serán atrapados o criticados por su supervisión.
  • Otro

Una consideración crucial a tener en cuenta es la magnitud o escala asociada con esta nueva ley.

De acuerdo con varias estadísticas informadas sobre la cantidad de empresas en la ciudad de Nueva York, el recuento generalmente se indica en alrededor de 200,000 empresas (vamos a usar eso como un orden de magnitud). Suponiendo que esta sea una aproximación razonable, presumiblemente aquellas empresas como empleadores están sujetas a esta nueva ley. Por lo tanto, tome las varias formas mencionadas anteriormente en las que los empleadores van a reaccionar ante esta ley y contemple cuántos habrá en cada uno de los diversos cubos que acabo de mencionar.

Es un problema de escala bastante asombroso.

Además, según las estadísticas reportadas, hay quizás 4 millones de empleos en el sector privado en la ciudad de Nueva York, más un recuento estimado de 300,000 o más trabajadores gubernamentales empleados por el gobierno de la ciudad de Nueva York (nuevamente, utilícelos como órdenes de magnitud en lugar de recuentos precisos). Si tiene en cuenta que las nuevas contrataciones aparentemente están dentro del alcance de esta nueva ley, junto con las promociones asociadas con todos los trabajadores existentes y futuros, la cantidad de empleados que de una forma u otra se verán afectados por esta ley es francamente asombrosa. .

La Gran Manzana tiene una nueva ley que a primera vista parece ser inocua y aparentemente insignificante o mundana, pero cuando te das cuenta de los factores de escala involucrados, bueno, puede hacer que tu cabeza dé vueltas.

Conclusión

Mencioné al comienzo de esta discusión que esta es una nueva ley bien intencionada.

Todo lo que acabo de describir como posibles lagunas, omisiones, lagunas, problemas y similares, todo podría anticiparse fácilmente. Esto no es ciencia de cohetes. Podría agregar que hay aún más preocupaciones inherentes y aspectos confusos de esta ley que, debido a limitaciones de espacio, no he mencionado aquí.

Puede encontrarlos tan fácilmente como disparar peces en un barril.

Las leyes de este tipo deben elaborarse cuidadosamente para tratar de evitar este tipo de engaños finales. Asumo que los compositores serios buscaron escribir una ley que creían que era relativamente férrea y que tal vez, en el peor de los casos, tendría algunos pequeños goteos aquí o allá. Lamentablemente, es una manguera contra incendios de goteos. Se necesitará mucha cinta adhesiva.

¿Se podría haber redactado la ley de una manera más clara para cerrar estas aparentes lagunas y problemas asociados?

Sí, en abundancia.

Ahora bien, siendo ese el caso, usted podría exhortar con indignación que tal ley sin duda sería mucho más larga. Siempre hay una compensación entre tener una ley que sigue y sigue, volviéndose difícil de manejar, versus ser sucinta y compacta. Sin embargo, no desea ganar concisión a costa de una pérdida de lo que sería claridad y especificidad sustantivas y meritorias. Una ley corta que permite travesuras está plagada de problemas. Una ley más larga, incluso si aparentemente es más compleja, por lo general sería una compensación valiosa si evita, evita o al menos minimiza los problemas posteriores durante la etapa de adopción.

San Agustín dijo célebremente: “Me parece que una ley injusta no es ley en absoluto”.

Podríamos proporcionar el corolario de que una ley justa que se compone de un lenguaje problemático es una ley que ruega por producir problemas severos. En este caso, parece que nos quedamos con las sabias palabras del gran jurista Oliver Wendell Holmes Jr., a saber, que una página de historia vale más que una libra de lógica.

Estén atentos ya que pronto se hará historia.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- sesgos-auditorias-patadas-en-marcha/