La ética de la IA y la ley de la IA avanzan hacia estándares que identifican y gestionan explícitamente los sesgos de la IA

¿Alguna vez has jugado cincuenta y dos cartas?

No es un juego que normalmente emprenderías de buena gana. Este es el por qué. Alguien te ofrece que es un deporte supuestamente divertido y si muerdes el anzuelo, entonces arrojan una baraja completa de cartas al aire y sumariamente al suelo. Luego, la persona te da una sonrisa descarada y te dice que sigas adelante y recojas las cartas. Ese es todo el juego.

¡Bromista!

Tengo una pregunta algo reflexiva que hacerle sobre esto.

Supongamos que una de las cartas se deslizó debajo de un sofá cercano. Cuando hubieras terminado de recoger todas las cartas, sabrías que faltaba una porque solo habría cincuenta y una en tu mano.

La pregunta es, ¿podría determinar qué tarjeta faltaba?

Estoy seguro de que inmediatamente dirías que podrías averiguar fácilmente qué carta no estaba en tus manos. Todo lo que tendrías que hacer es poner la cubierta en orden. Usted sabe que una baraja estándar consta de cuatro palos y que dentro de cada palo las cartas están numeradas del uno al diez y luego en Jota, Reina y Rey.

Lo sabes porque una baraja estándar de naipes se basa en un estándar.

Vaya, esa declaración puede parecer una de esas afirmaciones totalmente obvias. Bueno, sí, por supuesto, una plataforma de juego estándar se basa en un estándar. Todos sabemos eso. Mi punto es que al tener un estándar podemos confiar en el estándar cuando sea necesario. Además de ser capaz de deducir qué carta falta en un mazo, también puedes jugar millones de juegos de cartas conocidos con otras personas. Una vez que alguien conoce las reglas de un juego, puede jugar directamente porque ya sabe en qué consiste el mazo. No es necesario que les expliques que la baraja tiene cuatro palos y cartas numeradas de diversas formas. Ellos ya saben que ese es el caso.

¿A dónde voy con esto?

Estoy tratando de llevarlo por un camino que es un medio vital para progresar en el campo de la IA y especialmente en el ámbito de la ética de la IA y la IA ética. Verá, tenemos que tratar de llegar a estándares generalizados y acordados sobre la ética de la IA. Si podemos hacerlo, mejorará la facilidad de obtener la adopción de la IA ética y el objetivo demostrable será mejorar los sistemas de IA que siguen apareciendo desordenadamente en el mercado (como una baraja de comodines sin numerar y sin ordenar). Para conocer mi cobertura continua y extensa de la ética de la IA, la IA ética y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Menciono esto para proporcionar una base para mi discusión aquí que se centrará en un segmento particular o parte del ámbito más amplio de la ética de la IA, es decir, como se mencionó anteriormente, el elemento específico de los sesgos de la IA. La razón también por la que comparto este tema con ustedes es que un documento publicado por el Instituto Nacional de Estándares y Tecnología (NIST) está tratando de hacernos avanzar poco a poco hacia un estándar que caracterice los sesgos de la IA. El documento se titula Hacia un estándar para identificar y gestionar el sesgo en la inteligencia artificial por los autores Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt y Patrick Hall, y fue publicado por el Departamento de Comercio de EE. UU., NIST Special Publication 1270, en marzo de 2022.

Desempacaremos este esfuerzo útil y alentador para establecer lo que queremos decir con sesgos de IA. El viejo dicho es que no puedes administrar lo que no puedes medir. Al tener un estándar que establece la variedad de sesgos de IA, puede comenzar a medir y administrar el flagelo de los sesgos de IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluso con metodologías, fuentes de datos y procedimientos de diseño y documentación transparentes y auditables.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

Detrás de muchos de esos preceptos clave de ética de la IA se encuentra la naturaleza insidiosa de los sesgos de la IA.

Al igual que una baraja de cartas, seguro que sería ingenioso si de alguna manera pudiéramos agrupar los sesgos de la IA en un conjunto de "palos" o categorías. De hecho, el documento del NIST ofrece una agrupación sugerida.

Se proponen tres categorías principales:

1) Sesgos sistémicos

2) Sesgos estadísticos y computacionales

3) Sesgos humanos

Si todos los sesgos de la IA encajan perfectamente dentro de una de esas tres categorías, es ciertamente algo que se debe considerar. Seguramente puede argumentar que algunos sesgos de IA se dividen en una, dos o las tres categorías al mismo tiempo. Además, podría afirmar que merece la pena mencionar más categorías, como una cuarta, quinta, sexta o más series de agrupaciones.

Espero que eso sea lo que está pensando porque necesitamos que todos se involucren para ayudar a dar forma a estos estándares. Si está irritado con la forma en que estos estándares se están configurando inicialmente, le insto a que convierta esa energía en ayudarnos al resto de nosotros a hacer que esos estándares en ciernes sean tan sólidos y completos como se puedan tallar.

Por ahora, podemos echar un vistazo más de cerca a las tres categorías propuestas y ver con qué tipo de mano nos han tratado hasta ahora (sí, voy a seguir usando una analogía con una baraja de cartas, haciéndolo a lo largo de la totalidad de este artículo escrito, puede apostar su último dólar en ese as no tan oculto de un tema).

¿Qué significa referirse a sesgos sistémicos?

Esto es lo que dice el documento del NIST: “Los sesgos sistémicos son el resultado de procedimientos y prácticas de instituciones particulares que operan de maneras que dan como resultado que ciertos grupos sociales se vean favorecidos o favorecidos y otros en desventaja o devaluados. Esto no tiene por qué ser el resultado de ningún prejuicio o discriminación consciente, sino más bien de la mayoría siguiendo las reglas o normas existentes. El racismo institucional y el sexismo son los ejemplos más comunes” (tenga en cuenta que esto es solo un breve extracto y se anima a los lectores a ver la explicación completa).

La IA entra en la mezcla de sesgos sistémicos al proporcionar un medio para transmitir y aplicar esos sesgos en aplicaciones basadas en IA. Cada vez que utiliza una pieza de software infundida con IA, por lo que sabe, puede contener una gran cantidad de sesgos que ya están integrados en el sistema a través de las empresas y las prácticas de la industria que llevaron a la creación de la IA. Según el estudio del NIST: "Estos sesgos están presentes en los conjuntos de datos utilizados en la IA y en las normas, prácticas y procesos institucionales a lo largo del ciclo de vida de la IA y en la cultura y la sociedad en general".

A continuación, considere el conjunto de sesgos que se etiquetan como sesgos estadísticos y computacionales.

El documento del NIST establece esto: “Los sesgos estadísticos y computacionales surgen de los errores que resultan cuando la muestra no es representativa de la población. Estos sesgos surgen de un error sistemático en lugar de un error aleatorio y pueden ocurrir en ausencia de prejuicio, parcialidad o intención discriminatoria. En los sistemas de IA, estos sesgos están presentes en los conjuntos de datos y los procesos algorítmicos utilizados en el desarrollo de aplicaciones de IA, y a menudo surgen cuando los algoritmos se entrenan en un tipo de datos y no pueden extrapolar más allá de esos datos”.

Este tipo de sesgo estadístico y computacional a menudo se cocina en un sistema de IA que utiliza Machine Learning (ML) y Deep Learning (DL). Sacar a relucir el importante asunto del ML/DL contemporáneo requiere una tangente lateral relacionada sobre qué es la IA y qué es el ML/DL.

Asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de la IA ha hecho un uso extensivo del aprendizaje automático y el aprendizaje profundo, que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Esto nos lleva de lleno a la tercera categoría del conjunto de tres grupos del NIST, específicamente el papel de los sesgos humanos en la aparición de sesgos de IA. Esto es lo que indica el documento del NIST: “Los sesgos humanos reflejan errores sistemáticos en el pensamiento humano basados ​​en un número limitado de principios heurísticos y valores predictivos para operaciones de juicio más simples. Estos sesgos a menudo son implícitos y tienden a relacionarse con la forma en que un individuo o grupo percibe la información (como la salida de IA automatizada) para tomar una decisión o completar información faltante o desconocida. Estos sesgos están omnipresentes en los procesos de toma de decisiones institucionales, grupales e individuales a lo largo del ciclo de vida de la IA y en el uso de las aplicaciones de IA una vez implementadas”.

Ahora ha recibido una introducción rápida a las tres categorías.

Me gustaría compartir con ustedes algunos elementos de reflexión adicionales, tal como se expresa en el documento del NIST. Un gráfico en su narrativa proporciona un resumen útil de las preguntas y consideraciones clave que subyacen a cada uno de los tres conjuntos de sesgos de IA. Los enumero aquí para su conveniencia de referencia y edificación.

#1: Sesgos sistémicos

  • ¿Quién se cuenta y quién no se cuenta?

— Problemas con las variables latentes

— Subrepresentación de los grupos marginados

— Automatización de desigualdades

— Subrepresentación en la determinación de la función de utilidad

— Procesos que favorecen a la mayoría/minoría

— Sesgo cultural en la función objetivo (lo mejor para los individuos frente a lo mejor para el grupo)

  • ¿Cómo sabemos lo que es correcto?

— Refuerzo de las desigualdades (los grupos se ven más afectados con un mayor uso de la IA)

— La vigilancia predictiva se ve más negativamente afectada

— Adopción generalizada de viajes compartidos/coches autónomos/etc. puede cambiar las políticas que afectan a la población en función del uso

#2: Sesgos estadísticos y computacionales

  • ¿Quién se cuenta y quién no se cuenta?

— Sesgo de muestreo y selección

— Usar variables proxy porque son más fáciles de medir

— Sesgo de automatización

— Escala de Likert (categórico a ordinal a cardinal)

— No lineal vs lineal

- Falacia ecológica

— Minimizar la norma L1 vs. L2

— Dificultad general para cuantificar los fenómenos contextuales

  • ¿Cómo sabemos lo que es correcto?

— Falta de validación cruzada adecuada

— Sesgo de supervivencia

— Dificultad con la justicia

#3: Sesgos humanos

  • ¿Quién se cuenta y quién no se cuenta?

— Sesgo de observación (efecto de farola)

— Sesgo de disponibilidad (anclaje)

— Falacia de McNamara

— El pensamiento de grupo conduce a elecciones limitadas

— El efecto Rashomon conduce a la promoción subjetiva

— La dificultad para cuantificar los objetivos puede conducir a la falacia de McNamara

  • ¿Cómo sabemos lo que es correcto?

- Sesgo de confirmación

— Sesgo de automatización

En este momento de esta importante discusión, apuesto a que desea algunos ejemplos ilustrativos que puedan mostrar las tres categorías de sesgos de la IA. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre las tres categorías propuestas de sesgos de IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y sesgos de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de la IA ética que implican las tres categorías de sesgos de la IA.

Imagine que un automóvil autónomo basado en IA está en marcha en las calles de su vecindario y parece conducir de manera segura. Al principio, habías prestado especial atención a cada vez que lograbas vislumbrar el automóvil autónomo. El vehículo autónomo se destacó con su conjunto de sensores electrónicos que incluían cámaras de video, unidades de radar, dispositivos LIDAR y similares. Después de muchas semanas de que el automóvil autónomo deambulara por su comunidad, ahora apenas lo nota. En lo que a usted respecta, es simplemente otro automóvil en las vías públicas ya ocupadas.

Para que no piense que es imposible o inverosímil familiarizarse con ver autos sin conductor, he escrito con frecuencia sobre cómo los lugares que están dentro del alcance de las pruebas de autos sin conductor se han acostumbrado gradualmente a ver los vehículos arreglados. ver mi análisis en este enlace aquí. Muchos de los lugareños finalmente pasaron de estar boquiabiertos a bostezar boquiabiertos a emitir un amplio bostezo de aburrimiento para presenciar esos serpenteantes autos sin conductor.

Probablemente, la razón principal en este momento por la que podrían notar los vehículos autónomos es el factor de irritación y exasperación. Los sistemas de conducción de IA de manual se aseguran de que los autos obedezcan todos los límites de velocidad y las reglas de la carretera. Para los conductores humanos agitados en sus autos tradicionales conducidos por humanos, a veces te molestas cuando estás atrapado detrás de los autos autónomos basados ​​​​en IA que cumplen estrictamente la ley.

Eso es algo a lo que todos deberíamos acostumbrarnos, con razón o sin ella.

Volvamos a nuestra historia.

A continuación, consideraremos cómo los sesgos sistémicos podrían entrar en juego en este contexto de autos sin conductor.

Algunos expertos están muy preocupados de que los autos sin conductor sean competencia exclusiva de los ricos y la élite. Podría ser que el costo de usar autos sin conductor sea prohibitivamente alto. A menos que tenga mucho dinero, es posible que nunca vea el interior de un automóvil autónomo. Aquellos que utilizarán autos sin conductor tendrán que ser ricos, supuestamente se afirma.

Como tal, algunos exhortan desconcertantemente a que una forma de sesgo sistémico impregnará el advenimiento de los automóviles autónomos basados ​​​​en IA. El sistema industrial general de vehículos autónomos en su conjunto mantendrá los vehículos autónomos fuera del alcance de aquellos que son pobres o menos ricos. Esto podría no ser necesariamente una intención abierta y simplemente resulta que la única forma de recuperar los onerosos costos de haber inventado automóviles autónomos será cobrar precios escandalosamente altos.

Si responde que hoy existen estas pruebas de autos sin conductor que permiten que la persona común los use, por lo que parece evidente que no necesita ser rico per se, el contraargumento es que este es un tipo de juego de trileros como estaba. Los fabricantes de automóviles y las empresas de tecnología de vehículos autónomos supuestamente están dispuestos a hacer parecer que el costo no será una barrera sustancial. Están haciendo esto con fines de relaciones públicas en este momento y aumentarán los precios una vez que resuelvan las arrugas. Un conspirador podría incluso afirmar que los "conejillos de indias" como personas comunes están siendo utilizados perniciosamente para permitir que los ricos en última instancia se vuelvan más ricos.

Entonces, dado ese asunto bastante polémico, y poniendo mi granito de arena en este sórdido tema, no creo que los autos sin conductor sean más caros para el uso diario. No entraré en detalles en este documento en cuanto a mi base para hacer tal afirmación y lo invito a ver mis discusiones conscientes en el enlace aquí y también en el enlace aquí.

Continuando, podemos considerar el tema de los sesgos estadísticos y computacionales relacionados con la IA.

Contempla la pregunta aparentemente intrascendente de dónde se desplazarán los automóviles autónomos para recoger pasajeros. Esto parece un tema abundantemente inocuo. Usaremos la historia del pueblo o la ciudad que tiene autos sin conductor para resaltar el espectro potencial quizás sorprendente de los sesgos estadísticos y computacionales relacionados con la IA.

Al principio, suponga que la IA estaba recorriendo los autos sin conductor por toda la ciudad. Cualquiera que quisiera solicitar un viaje en el automóvil autónomo tenía esencialmente las mismas posibilidades de llamar a uno. Gradualmente, la IA comenzó a mantener principalmente a los autos sin conductor deambulando en una sola sección de la ciudad. Esta sección fue una gran fuente de ingresos y el sistema de IA había sido programado para tratar de maximizar los ingresos como parte del uso en la comunidad.

Los miembros de la comunidad en las partes empobrecidas de la ciudad tenían menos probabilidades de poder viajar en un automóvil autónomo. Esto se debió a que los automóviles autónomos estaban más lejos y deambulaban en la parte de mayor ingreso del lugar. Cuando llegaba una solicitud de una parte distante de la ciudad, cualquier solicitud de una ubicación más cercana que probablemente se encontrara en la parte "estimada" de la ciudad tendría una prioridad más alta. Eventualmente, la disponibilidad de obtener un automóvil autónomo en cualquier lugar que no sea la parte más rica de la ciudad fue casi imposible, exasperantemente para aquellos que vivían en esas áreas ahora hambrientas de recursos.

Se podría afirmar que la IA prácticamente aterrizó en una forma de sesgo estadístico y computacional, similar a una forma de discriminación indirecta (también conocida como discriminación indirecta). La IA no estaba programada para evitar esos barrios más pobres. En cambio, "aprendió" a hacerlo mediante el uso de ML/DL.

Se suponía que la IA nunca caería en ese tipo de vergonzosas arenas movedizas. No se configuró un monitoreo especializado para realizar un seguimiento de hacia dónde se dirigían los autos autónomos basados ​​​​en IA. Solo después de que los miembros de la comunidad comenzaron a quejarse, los líderes de la ciudad se dieron cuenta de lo que estaba sucediendo. Para obtener más información sobre este tipo de problemas en toda la ciudad que presentarán los vehículos autónomos y los autos sin conductor, consulte mi cobertura en este enlace aquí y que describe un estudio dirigido por Harvard del que soy coautor sobre el tema.

Para la tercera categoría de sesgos humanos en relación con los sesgos de la IA, pasamos a un ejemplo en el que la IA determina si debe detenerse para esperar a los peatones que no tienen el derecho de paso para cruzar una calle.

Indudablemente ha estado manejando y se encontró con peatones que estaban esperando para cruzar la calle y, sin embargo, no tenían el derecho de paso para hacerlo. Esto significaba que usted tenía la discreción de detenerse y dejarlos cruzar. Puede continuar sin dejar que crucen y aún así estar completamente dentro de las reglas legales de conducción al hacerlo.

Los estudios sobre cómo los conductores humanos deciden detenerse o no para tales peatones han sugerido que a veces los conductores humanos toman la decisión basándose en prejuicios adversos. Un conductor humano podría mirar al peatón y optar por no detenerse, aunque se habría detenido si el peatón tuviera una apariencia diferente, como por raza o género. He examinado esto en el enlace aquí.

Imagine que los autos autónomos basados ​​en IA están programados para lidiar con la cuestión de detenerse o no para los peatones que no tienen el derecho de paso. Así es como los desarrolladores de IA decidieron programar esta tarea. Recolectaron datos de las cámaras de video del pueblo que están ubicadas por toda la ciudad. Los datos muestran conductores humanos que se detienen por peatones que no tienen el derecho de paso y conductores humanos que no se detienen. Todo se recopila en un gran conjunto de datos.

Mediante el uso de Machine Learning y Deep Learning, los datos se modelan computacionalmente. El sistema de conducción AI luego usa este modelo para decidir cuándo detenerse o no. En general, la idea es que cualquiera que sea la costumbre local, así es como la IA va a dirigir el automóvil autónomo.

Para sorpresa de los líderes de la ciudad y los residentes, la IA evidentemente estaba optando por detenerse o no en función de la edad del peatón. ¿Cómo pudo pasar eso?

Tras una revisión más detallada del video de la discreción del conductor humano, resulta que muchos de los casos de no detenerse involucraron a peatones que tenían un bastón de una persona mayor. Los conductores humanos aparentemente no estaban dispuestos a detenerse y dejar que una persona mayor cruzara la calle, presumiblemente debido a la supuesta cantidad de tiempo que le tomaría a alguien hacer el viaje. Si parecía que el peatón podía cruzar rápidamente la calle y minimizar el tiempo de espera del conductor, los conductores estaban más dispuestos a dejar que la persona cruzara.

Esto quedó profundamente enterrado en el sistema de conducción de IA. Los sensores del automóvil autónomo escanearán al peatón que espera, alimentarán estos datos al modelo ML/DL y el modelo emitirá a la IA si debe detenerse o continuar. Cualquier indicación visual de que el peatón podría tardar en cruzar, como el uso de un bastón, se usaba matemáticamente para determinar si el sistema de conducción de IA debería permitir que el peatón cruzara o no.

Se podría afirmar que se trataba de una confianza en un sesgo humano preexistente.

Conclusión

Algunas reflexiones finales por ahora.

Hay un dicho popular que dice que no puedes cambiar las cartas que te reparten y, en cambio, debes aprender a jugar adecuadamente con cualquier mano que te hayan dado.

En el caso de los sesgos de la IA, si no nos ponemos a la cabeza con fervor para establecer la ética de la IA en todos los ámbitos y, en especial, solidificamos la caracterización de los sesgos de la IA, el tipo de manos con las que nos enfrentaremos estará repleta de sórdidas faltas de ética, y posiblemente estrato ilegal. Para empezar, tenemos que evitar que se repartan esas cartas. El valiente objetivo de crear y promulgar estándares éticos de IA es una herramienta crucial para combatir el creciente tsunami de los próximos AI para mal.

Decididamente, puede tomar al banco que el sesgo desenfrenado de la IA y la IA poco ética serán como un castillo de naipes endeble, implosionando sobre sí mismo y probablemente siendo desastroso para todos nosotros.

Juguemos para ganar, haciéndolo con una IA adecuadamente ética.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-sesgos/