La IA responsable disfruta de un impulso preeminente a través de la proclamación de ética de la IA por parte de la principal sociedad profesional, la ACM

¿Viste o escuchaste las noticias?

Se ha proclamado recientemente otro conjunto de preceptos de ética de la IA.

Aplausos estridentes, por favor.

Por otra parte, es posible que no Lo he notado debido al hecho de que muchos otros decretos de ética de la IA han estado flotando desde hace un tiempo. Algunos dicen que la filtración aparentemente ininterrumpida de las proclamaciones de ética de la IA se está volviendo un poco adormecedora. ¿Cuantos necesitamos? ¿Alguien puede mantenerse al día con todos ellos? ¿Cuál es el mejor? ¿Quizás nos estamos pasando por la borda con los principios de ética de la IA? Y así.

Bueno, en este caso en particular, digo que debemos saludar especialmente a esta última incorporación al club.

Voy a explicar perspicazmente por qué en un momento.

En primer lugar, como aclaración, me refiero al conjunto de preceptos de ética de la IA ahora conocido oficialmente como “Declaración sobre principios para sistemas algorítmicos responsables” que fue publicado recientemente por el Consejo de Política Tecnológica de ACM el 26 de octubre de 2022. Felicitaciones a los equipos de expertos que elaboraron este preciado documento, incluidos los coautores Jeanna Matthews (Universidad de Clarkson) y Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Aquellos de ustedes que estén al tanto podrían darse cuenta de que este documento les resulta vagamente familiar después de una inspección minuciosa.

¡Buen ojo!

Esta última encarnación es esencialmente una variante actualizada y ampliada de la anterior "Declaración conjunta sobre transparencia algorítmica y responsabilidad" que fue promulgada por el Comité de política tecnológica de ACM de EE. UU. y el Comité de política tecnológica de ACM Europa en 2017. Los lectores fieles de mis columnas recordarán que De vez en cuando he mencionado el decreto de 2017 en mi columna de cobertura de facetas clave subyacentes a la ética y la ley de IA.

Para ver mi evaluación extensa y continua y los análisis de tendencias de la ética y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Esta última declaración de la ACM es especialmente importante por varias razones vitales.

Este es el por qué.

El ACM, que es un acrónimo práctico para el Association for Computing Machinery, es considerada la asociación centrada en la computación más grande del mundo. Compuesta por aproximadamente 110,000 1947 miembros, la ACM es pionera desde hace mucho tiempo en el campo de la computación. El ACM produce algunas de las investigaciones académicas más importantes en el campo de la computación y, del mismo modo, proporciona redes profesionales y atrae a los profesionales de la computación. Como tal, la ACM es una voz importante que representa generalmente a aquellos que son de alta tecnología y se han esforzado de manera duradera para avanzar en el campo de la informática (la ACM se fundó en XNUMX).

Podría añadir un poco de una nota personal sobre esto también. Cuando entré por primera vez en las computadoras en la escuela secundaria, me uní a la ACM y participé en sus programas educativos, especialmente en la emocionante oportunidad de competir en su competencia anual de programación de computadoras (este tipo de competencias son muy comunes hoy en día y se etiquetan típicamente como hackathon). Sigo involucrado en la ACM mientras estaba en la universidad a través de mi capítulo universitario local y tuve la oportunidad de aprender sobre liderazgo al convertirme en un oficial del capítulo estudiantil. Al ingresar a la industria, me uní a un capítulo profesional y una vez más asumí un papel de liderazgo. Más tarde después de esto, cuando me convertí en profesor, serví en los comités y consejos editoriales de ACM, además de patrocinar el capítulo de estudiantes del campus. Incluso hoy en día, sigo activo en la ACM, incluso sirviendo en el Comité de Política Tecnológica de EE. UU. de la ACM.

Disfruto de la visión entrañable y perdurable de ACM sobre el aprendizaje permanente y el desarrollo profesional.

En cualquier caso, en términos de la última declaración de ética de AI, el hecho de que haya sido emitida por la ACM tiene un gran peso. Podría afirmar razonablemente que los preceptos de la IA ética son la totalidad o la voz colectiva de un grupo mundial de profesionales informáticos. Eso dice algo ahí mismo.

También existe el aspecto de que otros en el campo de la informática se inspirarán para animarse y escuchar en el sentido de dar la debida consideración a lo que declara la declaración de sus colegas informáticos. Por lo tanto, incluso para aquellos que no están en la ACM o no saben nada sobre el venerado grupo, es de esperar que haya un gran interés en descubrir de qué se trata la declaración.

Mientras tanto, los que están afuera del campo de la computación podría sentirse atraído por la declaración como una especie de mirada interna detrás de escena de lo que dicen los que están en las computadoras sobre la IA ética. Sin embargo, quiero enfatizar que la declaración está destinada a todos, no solo a aquellos en la comunidad informática y, por lo tanto, tenga en cuenta que los preceptos de ética de la IA son generales, por así decirlo.

Finalmente, hay un giro adicional que pocos considerarían.

A veces, los forasteros perciben que las asociaciones informáticas están hasta la rodilla en tecnología y no son especialmente conscientes de los impactos sociales de las computadoras y la IA. Es posible que sienta la tentación de suponer que tales entidades profesionales solo se preocupan por los avances más recientes y novedosos en hardware o software. Son percibidos por el público, de una manera simple e irreprochable, como nerds tecnológicos.

Para dejar las cosas claras, he estado inmerso en los impactos sociales de la informática desde que me metí en las computadoras y, del mismo modo, la ACM también se ha involucrado profundamente en estos temas.

Para cualquiera que se sorprenda de que esta declaración sobre los preceptos de ética de la IA haya sido elaborada y publicada por la ACM, no está prestando atención a la investigación y el trabajo de larga data que se están realizando sobre estos asuntos. También insto a los interesados ​​a que echen un buen vistazo a la ACM. Código de ética, un código de ética profesional estridente que ha evolucionado a lo largo de los años y enfatiza que los desarrolladores de sistemas deben conocer, cumplir y estar atentos a las ramificaciones éticas de sus esfuerzos y productos.

AI ha estado avivando los fuegos para informarse sobre la ética informática.

La visibilidad de las consideraciones éticas y legales en el campo de la informática ha aumentado enormemente con el surgimiento de la IA actual. Aquellos dentro de la profesión están siendo informados y, en ocasiones, presionados para que presten la atención adecuada a los problemas de ética y leyes de IA. Los legisladores son cada vez más conscientes de los aspectos de la ética y las leyes de la IA. Las empresas se están dando cuenta de que la IA que están diseñando o utilizando es ventajosa y, sin embargo, a veces también abre enormes riesgos y posibles desventajas.

Desglosemos lo que ha estado ocurriendo en los últimos años para que se pueda establecer un contexto apropiado antes de saltar a este último conjunto de preceptos de ética de la IA.

La creciente conciencia de la IA ética

Inicialmente, se consideró que la era reciente de la IA era AI para siempre, lo que significa que podríamos usar la IA para el mejoramiento de la humanidad. En los talones de AI para siempre vino la realización de que también estamos inmersos en AI para mal. Esto incluye la IA que se diseña o se modifica a sí misma para que sea discriminatoria y toma decisiones computacionales imbuyendo sesgos indebidos. A veces, la IA se construye de esa manera, mientras que en otros casos se desvía hacia ese territorio adverso.

Quiero estar completamente seguro de que estamos en la misma página sobre la naturaleza de la IA de hoy.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre la IA consciente, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Sugiero enfáticamente que mantengamos las cosas con los pies en la tierra y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones de ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

También examiné recientemente la Declaración de derechos de IA que es el título oficial del documento oficial del gobierno de EE. UU. titulado "Proyecto para una declaración de derechos de IA: hacer que los sistemas automatizados funcionen para el pueblo estadounidense" que fue el resultado de un esfuerzo de un año de la Oficina de Política Científica y Tecnológica (OSTP ). La OSTP es una entidad federal que sirve para asesorar al Presidente de los Estados Unidos ya la Oficina Ejecutiva de los Estados Unidos en diversos aspectos tecnológicos, científicos y de ingeniería de importancia nacional. En ese sentido, se puede decir que esta Declaración de Derechos de AI es un documento aprobado y respaldado por la actual Casa Blanca de EE. UU.

En la Declaración de derechos de AI, hay cinco categorías clave:

  • Sistemas seguros y efectivos
  • Protecciones de discriminación algorítmica
  • Privacidad de datos
  • Aviso y explicación
  • Alternativas humanas, consideración y respaldo

He revisado cuidadosamente esos preceptos, mira el enlace aquí.

Ahora que he sentado una base útil sobre estos temas relacionados con la ética de la IA y la ley de la IA, estamos listos para saltar a la "Declaración sobre principios para sistemas algorítmicos responsables" de ACM recientemente publicada (por cierto, dado que el título del documento se refiere a responsable sistemas algorítmicos, es posible que desee echar un vistazo a mi evaluación de lo que significa hablar de IA confiable, consulte nuestra página, el enlace aquí).

Prepárese para un viaje a este último conjunto de principios de ética de la IA.

Profundizando intensamente en los preceptos de ética de IA declarados por ACM

El pronunciamiento de ACM sobre IA ética consta de estos nueve pilares:

  • Legitimación y competencia
  • Minimizar el daño
  • Seguridad y privacidad
  • Transparencia
  • Interpretabilidad y explicabilidad
  • Mantenibilidad
  • Contestabilidad y auditabilidad
  • Responsabilidad y responsabilidad
  • Limitación de los impactos ambientales

Si compara este último conjunto con otros conjuntos notablemente disponibles, hay una gran similitud o correspondencias similares entre ellos.

Por un lado, puedes tomar eso como una buena señal.

En general, podríamos esperar que la gran cantidad de principios de ética de la IA que rondan se fusionen hacia la misma cobertura general. Ver que un conjunto es algo comparable con otro conjunto le da una apariencia de confianza de que estos conjuntos están dentro del mismo estadio y no de alguna manera en un campo izquierdo desconcertante.

Una queja potencial por parte de algunos es que estos diversos conjuntos parecen ser más o menos iguales, lo que posiblemente crea confusión o al menos consternación debido a la preocupación de que no deberíamos tener numerosas listas aparentemente duplicadas. ¿No puede haber una sola lista? El problema, por supuesto, es que no existe una forma sencilla de conseguir que todas esas listas sean uniformemente exactamente iguales. Diferentes grupos y diferentes entidades han abordado esto de diferentes maneras. La buena noticia es que prácticamente todos han llegado a la misma conclusión general. Podemos sentirnos aliviados de que los conjuntos no tengan grandes diferencias, lo que tal vez nos inquietaría si no hubiera un consenso general.

Un contrario podría exhortar que la similitud de estas listas es desconcertante, argumentando que tal vez esté ocurriendo un pensamiento grupal. Quizás todos estos grupos dispares están pensando de la misma manera y no pueden mirar más allá de la norma. Todos nosotros estamos cayendo en una trampa idéntica. Aparentemente, las listas anclan nuestro pensamiento y no somos capaces de ver más allá de nuestras propias narices.

Mirar más allá de nuestras narices es sin duda una buena causa.

Ciertamente estoy abierto a escuchar lo que los contrarios tienen que decir. A veces se enteran de algo que tiene la Titanic dirigiéndose hacia un iceberg gigante. Nos vendrían bien unos cuantos vigías con ojo de águila. Pero, en el tema de estos preceptos de ética de la IA, no ha habido nada definitivamente articulado por los contrarios que parezca socavar o plantear preocupaciones sobre una comunidad indebida. Creo que lo estamos haciendo bien.

En este conjunto de ACM, hay algunos puntos particularmente notables o destacados que creo que merecen una atención notable.

Primero, me gusta la redacción de nivel superior que es algo diferente a la norma.

Por ejemplo, refiriéndose a legitimidad y competencia (el primer elemento con viñetas) evoca una apariencia de la importancia de las competencias de diseño y gestión asociadas con la IA. además, el legitimidad el eslogan termina llevándonos a la ética de la IA y Ámbito de la ley AI. Digo esto porque muchos de los preceptos de ética de la IA se concentran casi por completo en las implicaciones éticas, pero parecen omitir o desviarse de señalar también las ramificaciones legales. En el campo legal, las consideraciones éticas a menudo se promocionan como "ley blanda", mientras que las leyes en los libros se interpretan como "leyes duras" (lo que significa que llevan el peso de los tribunales legales).

Uno de mis dichos favoritos de todos los tiempos fue pronunciado por el famoso jurista Earl Warren: “En la vida civilizada, la ley flota en un mar de ética”.

Necesitamos asegurarnos de que los preceptos de ética de la IA también abarquen y enfaticen el lado de las leyes duras como en la redacción, promulgación y aplicación de las leyes de la IA.

En segundo lugar, agradezco que la lista incluya contestabilidad y auditabilidad.

He escrito repetidamente sobre el valor de poder disputar o levantar una bandera roja cuando está sujeto a un sistema de IA, vea el enlace aquí. Además, vamos a ver cada vez más nuevas leyes que obliguen a auditar los sistemas de IA, lo cual he discutido extensamente sobre la ley de la ciudad de Nueva York (NYC) sobre los sesgos de auditoría de los sistemas de IA utilizados para la contratación y promoción de empleados, consulte el enlace aquí. Desafortunadamente, y según critiqué abiertamente la nueva ley de la ciudad de Nueva York, si estas leyes de auditabilidad son defectuosas, probablemente crearán más problemas de los que resolverán.

En tercer lugar, hay un despertar gradual de que la IA puede imbuir los problemas de sostenibilidad y me complace ver que la ambientales El tema obtuvo una facturación de nivel superior en estos preceptos de ética de la IA (consulte la última viñeta de la lista).

El acto de crear un sistema de IA por sí solo puede consumir una gran cantidad de recursos informáticos. Esos recursos informáticos pueden ser directa o indirectamente usurpadores de la sostenibilidad. Se debe considerar una compensación en cuanto a los beneficios que proporciona una IA frente a los costos que conlleva la IA. El último de los elementos con viñetas de ACM toma nota de las consideraciones ambientales y de sostenibilidad que surgen con la IA. Para mi cobertura de los problemas de la huella de carbono relacionados con la IA, consulte el enlace aquí.

Ahora que hemos echado un vistazo por las nubes a la lista de preceptos de ética de la IA de la ACM, ahora nos sumergimos más profundamente en las aguas.

Estas son las descripciones oficiales de cada uno de los preceptos de ética de IA de alto nivel (citados de la declaración formal):

1. "Legitimación y competencia: Los diseñadores de sistemas algorítmicos deben tener la competencia de gestión y la autorización explícita para construir y desplegar tales sistemas. También deben tener experiencia en el dominio de la aplicación, una base científica para el uso previsto de los sistemas y ser ampliamente considerados socialmente legítimos por las partes interesadas afectadas por el sistema. Se deben realizar evaluaciones legales y éticas para confirmar que los riesgos introducidos por los sistemas serán proporcionales a los problemas que se abordan, y que todas las partes interesadas pertinentes entienden las compensaciones entre beneficios y daños”.

2. "Minimizar el daño: Los administradores, diseñadores, desarrolladores, usuarios y otras partes interesadas de los sistemas algorítmicos deben ser conscientes de los posibles errores y sesgos involucrados en su diseño, implementación y uso, y el daño potencial que un sistema puede causar a las personas y la sociedad. Las organizaciones deben realizar evaluaciones de impacto de manera rutinaria en los sistemas que emplean para determinar si el sistema podría generar daños, especialmente daños discriminatorios, y aplicar las mitigaciones apropiadas. Cuando sea posible, deben aprender de las medidas del desempeño real, no solo de los patrones de decisiones pasadas que pueden haber sido discriminatorias en sí mismas”.

3. "Seguridad y privacidad: El riesgo de las partes maliciosas se puede mitigar mediante la introducción de las mejores prácticas de seguridad y privacidad en cada fase de los ciclos de vida de los sistemas, incluidos controles sólidos para mitigar las nuevas vulnerabilidades que surgen en el contexto de los sistemas algorítmicos”.

4. "Transparencia: Se alienta a los desarrolladores de sistemas a documentar claramente la forma en que se seleccionaron conjuntos de datos, variables y modelos específicos para el desarrollo, capacitación, validación y prueba, así como las medidas específicas que se usaron para garantizar la calidad de los datos y los resultados. Los sistemas deben indicar su nivel de confianza en cada resultado y los humanos deben intervenir cuando la confianza es baja. Los desarrolladores también deben documentar los enfoques que se utilizaron para explorar posibles sesgos. Para los sistemas con un impacto crítico en la vida y el bienestar, se deben exigir procedimientos de verificación y validación independientes. El escrutinio público de los datos y modelos brinda la máxima oportunidad de corrección. Por lo tanto, los desarrolladores deberían facilitar las pruebas de terceros en el interés público”.

5. "Interpretabilidad y explicabilidad: Se alienta a los administradores de sistemas algorítmicos a producir información sobre los procedimientos que siguen los algoritmos empleados (interpretabilidad) y las decisiones específicas que toman (explicabilidad). La explicabilidad puede ser tan importante como la precisión, especialmente en contextos de políticas públicas o en cualquier entorno en el que haya preocupaciones sobre cómo los algoritmos podrían sesgarse para beneficiar a un grupo sobre otro sin reconocimiento. Es importante distinguir entre explicaciones y racionalizaciones posteriores que no reflejan la evidencia o el proceso de toma de decisiones utilizado para llegar a la conclusión que se explica”.

6. "Mantenibilidad: Se debe recopilar evidencia de la solidez de todos los sistemas algorítmicos a lo largo de sus ciclos de vida, incluida la documentación de los requisitos del sistema, el diseño o implementación de cambios, casos de prueba y resultados, y un registro de errores encontrados y corregidos. El mantenimiento adecuado puede requerir sistemas de reentrenamiento con nuevos datos de entrenamiento y/o reemplazo de los modelos empleados”.

7. "Contestabilidad y auditabilidad: Los reguladores deben alentar la adopción de mecanismos que permitan a las personas y grupos cuestionar los resultados y buscar reparación por los efectos adversos resultantes de decisiones informadas algorítmicamente. Los gerentes deben asegurarse de que los datos, modelos, algoritmos y decisiones se registren para que puedan auditarse y replicar los resultados en los casos en que se sospeche o se alegue un daño. Las estrategias de auditoría deben hacerse públicas para permitir que las personas, las organizaciones de interés público y los investigadores revisen y recomienden mejoras”.

8. "Rendición de cuentas y responsabilidad: Los organismos públicos y privados deben rendir cuentas por las decisiones tomadas por los algoritmos que utilizan, incluso si no es factible explicar en detalle cómo esos algoritmos produjeron sus resultados. Dichos organismos deberían ser responsables de los sistemas completos tal como se implementan en sus contextos específicos, no solo de las partes individuales que componen un sistema determinado. Cuando se detectan problemas en los sistemas automatizados, las organizaciones responsables de implementar esos sistemas deben documentar las acciones específicas que tomarán para remediar el problema y bajo qué circunstancias se debe suspender o terminar el uso de dichas tecnologías”.

9. "Limitación de los impactos ambientales: Los sistemas algorítmicos deben diseñarse para informar estimaciones de impactos ambientales, incluidas las emisiones de carbono de los cálculos operativos y de capacitación. Los sistemas de IA deben diseñarse para garantizar que sus emisiones de carbono sean razonables dado el grado de precisión requerido por el contexto en el que se implementan”.

Confío en que le dará a cada uno de esos preceptos cruciales de ética de la IA una lectura cuidadosa y antigua. Por favor, tómelos en serio.

Conclusión

Hay una parte sutil pero igualmente crucial del pronunciamiento de ACM que creo que muchos podrían pasar por alto sin darse cuenta. Permítanme asegurarme de traer esto a su atención.

Me refiero a una parte que analiza el angustioso enigma de tener que sopesar las compensaciones asociadas con los preceptos de ética de la IA. Verá, la mayoría de las personas a menudo asienten con la cabeza sin pensar cuando leen los principios de IA ética y asumen que todos los preceptos tienen el mismo peso, y que a todos los preceptos siempre se les dará la misma apariencia óptima de deferencia y valor.

No en el mundo real.

Una vez que la goma se encuentra con el camino, cualquier tipo de IA que tenga incluso un mínimo de complejidad pondrá a prueba los preceptos de ética de la IA en cuanto a que algunos de los elementos son suficientemente alcanzables sobre algunos de los otros principios. Me doy cuenta de que podría estar exclamando en voz alta que toda la IA tiene que maximizar todos los preceptos de la ética de la IA, pero esto no es especialmente realista. Si esa es la posición que desea tomar, me atrevo a decir que probablemente tendría que decirle a la mayoría o casi todos los fabricantes y usuarios de IA que cierren la tienda y desechen la IA por completo.

Es necesario hacer concesiones para que la IA salga por la puerta. Dicho esto, no defiendo tomar atajos que violen los preceptos de ética de la IA, ni insinuar que deban violar las leyes de la IA. Se debe cumplir un mínimo particular, y por encima del cual el objetivo es esforzarse más. Al final, un equilibrio debe ser juzgado cuidadosamente. Este acto de equilibrio debe hacerse de manera consciente, explícita, legal y con la ética de la IA como una creencia sincera y de buena fe (es posible que desee ver cómo las empresas están utilizando los Consejos de ética de la IA para tratar de obtener este enfoque solemne, consulte el enlace aquí).

Aquí hay algunos puntos con viñetas que la declaración de ACM menciona sobre las complejidades de las compensaciones (citado del documento formal):

  • “Las soluciones deben ser proporcionales al problema que se está resolviendo, incluso si eso afecta la complejidad o el costo (por ejemplo, rechazar el uso de videovigilancia pública para una simple tarea de predicción)”.
  • “Se debe considerar una amplia variedad de métricas de rendimiento y se pueden ponderar de manera diferente según el dominio de la aplicación. Por ejemplo, en algunas aplicaciones de atención médica, los efectos de los falsos negativos pueden ser mucho peores que los falsos positivos, mientras que en la justicia penal las consecuencias de los falsos positivos (p. ej., encarcelar a una persona inocente) pueden ser mucho peores que los falsos negativos. La configuración del sistema operativo más deseable rara vez es la que tiene la máxima precisión”.
  • “Las preocupaciones sobre la privacidad, la protección de secretos comerciales o la revelación de análisis que podrían permitir que los actores maliciosos jueguen con el sistema pueden justificar la restricción del acceso a personas calificadas, pero no deben usarse para justificar la limitación del escrutinio de terceros o para eximir a los desarrolladores de la obligación. para reconocer y reparar errores.”
  • “La transparencia debe ir acompañada de procesos de rendición de cuentas que permitan a las partes interesadas afectadas por un sistema algorítmico buscar una reparación significativa por los daños causados. La transparencia no debe usarse para legitimar un sistema o para transferir la responsabilidad a otras partes”.
  • “Cuando el impacto de un sistema es alto, puede ser preferible un sistema más explicable. En muchos casos, no hay compensación entre la explicabilidad y la precisión. Sin embargo, en algunos contextos, las explicaciones incorrectas pueden ser incluso peores que ninguna explicación (p. ej., en los sistemas de salud, un síntoma puede corresponder a muchas enfermedades posibles, no solo a una)”.

Es posible que aquellos que están desarrollando o utilizando IA no se den cuenta abiertamente de las compensaciones que enfrentan. Los principales líderes de una empresa pueden asumir ingenuamente que la IA cumple con los máximos en todos los principios de ética de la IA. O creen esto porque no tienen ni idea de la IA, o quieren creerlo y tal vez están haciendo un guiño para adoptar fácilmente la IA.

Lo más probable es que si no se confrontan de manera sustantiva y abierta las compensaciones, se terminará con una IA que producirá daño. Esos daños, a su vez, probablemente expondrán a una empresa a responsabilidades potencialmente a gran escala. Además de eso, las leyes convencionales pueden influir en posibles actos delictivos asociados con la IA, junto con las leyes más nuevas centradas en la IA que también se aplican a esto. Una tonelada de ladrillos está esperando sobre las cabezas de aquellos que creen que pueden sortear las compensaciones o que desconocen por completo que las compensaciones existen (una comprensión aplastante inevitablemente caerá sobre ellos).

Daré la última palabra por ahora sobre este tema al aspecto final del pronunciamiento de ACM, ya que creo que hace un trabajo sólido al explicar lo que estos preceptos de IA ética tienen como objetivo macroscópico:

  • “Las recomendaciones anteriores se enfocan en el diseño, desarrollo y uso responsable de sistemas algorítmicos; la responsabilidad debe ser determinada por la ley y el orden público. El poder cada vez mayor de los sistemas algorítmicos y su uso en aplicaciones consecuentes y críticas para la vida significa que se debe tener mucho cuidado al usarlos. Estos nueve principios instrumentales están destinados a ser una inspiración para iniciar debates, iniciar investigaciones y desarrollar métodos de gobernanza para brindar beneficios a una amplia gama de usuarios, al mismo tiempo que promueven la confiabilidad, la seguridad y la responsabilidad. Al final, es el contexto específico el que define el diseño y uso correctos de un sistema algorítmico en colaboración con representantes de todas las partes interesadas afectadas” (citado del documento formal).

Como nos dicen astutamente las sabias palabras, un viaje de mil millas comienza con un primer paso.

Le imploro que se familiarice con la ética y la ley de la IA, que tome el primer paso que lo ponga en marcha y luego lo ayude a llevar adelante estos esfuerzos vitales. La belleza es que todavía estamos en la infancia de saber cómo administrar y hacer frente socialmente a la IA, por lo tanto, está entrando en la planta baja y sus esfuerzos pueden moldear su futuro y el futuro de todos nosotros.

El viaje de la IA acaba de comenzar y los primeros pasos vitales aún están en marcha.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- profesion-asociacion-la-acm/