La insidiosa discriminación de proxy basada en IA contra los humanos es abrumadoramente irritante para la ética de la IA, lo que puede ocurrir incluso en el caso de autos autónomos de IA autónomos

Analicemos la discriminación por representación en medio de las acciones de la inteligencia artificial (IA) moderna.

Para entrar en el lado de las cosas de la IA, primero debemos establecer el escenario sobre los aspectos generales de la discriminación y luego profundizar en las formas quizás sorprendentes en las que la IA se ve envuelta en este asunto complicado y, a veces, insidioso. También proporcionaré ejemplos de discriminación de proxy basada en IA, incluido que esto puede ocurrir incluso en el caso de vehículos autónomos infundidos con IA, como los autos sin conductor.

Empecemos.

Una definición de diccionario de discriminación normalmente indicaría que es el acto de naturaleza injusta que trata a las personas de manera diferente en función de categorías percibidas como raza, género, edad, etc. (estos criterios a menudo se describen como que consisten en clases protegidas). Una forma de discriminación conocida como de reservas la discriminación implica adherirse abiertamente a una de esas categorías, como enfatizar con relativa claridad, por ejemplo, la raza o el género como la base de la discriminación (estos se interpretarían como los primeros factores). Esta es quizás la forma más transparente de discriminación.

Otra posibilidad algo menos realizada es el uso de indirecto discriminación. Puede sugerir que esta es una forma de discriminación más complicada, ya que se considera un paso eliminado y puede ser un desafío descubrirlo. La discriminación indirecta implica una especie de selección de categorización eliminada en uno o más pasos. Esto también se etiqueta comúnmente como discriminación indirecta, ya que existe un factor intermediario que actúa como representante o sustituto del primer factor subyacente y conectable.

Para ayudar a clarificar la idea aparentemente abstracta de la discriminación indirecta o indirecta, podemos considerar un ejemplo sencillo.

Alguien está solicitando un préstamo hipotecario. Suponga que un agente de préstamos que está revisando la solicitud decide rechazar el préstamo y lo hace en función de la raza del solicitante. Se podría decir que este es un ejemplo de discriminación directa. Pero supongamos que, en cambio, el agente de préstamos usó el código postal del solicitante y optó por rechazar el préstamo en función de ese factor. A primera vista, parecería que el código postal no es uno de los factores que generalmente se consideran discriminatorios o una clase protegida. Como tal, el agente de préstamos parece haber evitado una decisión cargada de discriminación.

Sin embargo, el problema podría ser que el código postal sea en realidad un proxy para otra cosa, una categoría o clase protegida real. Tal vez este código postal en particular esté predominantemente compuesto por una raza o etnia en particular y se esté produciendo el uso de discriminación indirecta o indirecta. En general, es posible que conozca este tipo de ejemplo por el eslogan de líneas rojas.

Verá, aparentemente hay una especie de conexión entre el factor que consiste en un código postal y el factor discriminatorio de la raza en este caso. El código postal parecería un factor inocente o neutral ante esta circunstancia. El código postal nos parece a la mayoría de nosotros un elemento bastante inocuo y no activaría ninguna alarma.

Puede recordar de sus días de tomar un curso de estadística que existen correlaciones estadísticas que pueden surgir entre varios factores, incluso factores que no le parecen estar lógicamente correlacionados entre sí. Podría ser que haya una correlación pronunciada entre el código postal y la raza. Por lo tanto, la selección del código postal a primera vista parece benigna, pero después de una inspección más cercana, en realidad es un sustituto o representante de la clase de raza discriminatoria protegida.

Así es como un artículo de investigación describió la noción de tales correlaciones y el surgimiento de la discriminación por poder: “La discriminación no tiene que involucrar el uso directo de una clase protegida; las pertenencias a clases ni siquiera pueden tomar parte en la decisión. La discriminación también puede ocurrir debido a las correlaciones entre la clase protegida y otros atributos. El marco legal de impacto dispar aborda tales casos al exigir primero resultados significativamente diferentes para la clase protegida, independientemente de cómo se hayan producido los resultados. Una asociación entre las decisiones de préstamo y la raza debido al uso de la dirección del solicitante, que a su vez está asociada con la raza, es un ejemplo de este tipo de discriminación” (como se indica en el documento titulado Discriminación de proxy en sistemas basados ​​en datos: teoría y experimentos con programas de aprendizaje automático, por Anupam Datta, Matt Fredrikson, Gihyuk Ko, Piotr Mardziel y Shayak Sen).

Ahora que tenemos los fundamentos de la discriminación de proxy sobre la mesa, podemos presentar los aspectos de cómo la IA puede incorporar esencialmente una versión procesada computacionalmente de la discriminación de proxy.

Me gustaría centrarme en la IA de hoy y no en una IA futurista que algunos dicen que será inteligente y representará un riesgo existencial (esa es una historia diferente, que he cubierto en el enlace aquí). A pesar de una miríada de titulares estridentes que actualmente proclaman que la IA de alguna manera ha alcanzado la conciencia y encarna el conocimiento y el razonamiento humanos, tenga en cuenta que esta hipérbole exagerada de la IA es pura basura, ya que todavía confiamos en el procesamiento de números en la toma de decisiones de algoritmos (ADM) de hoy. tal como lo realizan los sistemas de IA.

Incluso el aclamado aprendizaje automático (ML) y el aprendizaje profundo (DL) consisten en la coincidencia de patrones computacionales, lo que significa que los números siguen siendo el núcleo del uso exaltado de ML/DL. No sabemos si es posible que la IA alcance la conciencia. Podría ser, podría no ser. Nadie puede decir con certeza cómo podría surgir esto. Algunos creen que mejoraremos gradualmente nuestros esfuerzos de IA computacional de modo que se produzca una forma de sensibilidad espontánea. Otros piensan que la IA podría entrar en una especie de supernova computacional y alcanzar la sensibilidad prácticamente por sí sola (normalmente conocida como la singularidad). Para obtener más información sobre estas teorías sobre el futuro de la IA, consulte mi cobertura en el enlace aquí.

Entonces, no nos engañemos y creamos falsamente que la IA contemporánea puede pensar como humanos. Podemos intentar imitar en la IA aquello en lo que creemos que quizás consiste el pensamiento humano. Hasta ahora, no hemos podido descifrar los elementos elusivos de diseñar una IA que pueda incorporar el sentido común y otras piedras angulares del pensamiento humano.

Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

Mi amplia cobertura de la ética de la IA y la IA ética se puede encontrar en este enlace aquí y este enlace aquí, Sólo para nombrar unos pocos.

Es posible que esté perplejo sobre cómo la IA podría imbuir los mismos tipos de sesgos e inequidades adversas que los humanos. Tendemos a pensar que la IA es completamente neutral, imparcial, simplemente una máquina que no tiene la influencia emocional ni el mal pensamiento que los humanos pueden tener. Uno de los medios más comunes por los que la IA cae en la dureza de los sesgos y las desigualdades ocurre cuando se usa el aprendizaje automático y el aprendizaje profundo, en parte como resultado de confiar en los datos recopilados sobre cómo los humanos toman decisiones.

Permítame un momento para explicarlo.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo o ADM de la IA se carga axiomáticamente de inequidades.

No está bien.

Se están diseñando sistemas de IA que contienen tanto discriminación directa como indirecta sigilosa o indirecta. Como mencionó el mismo trabajo de investigación mencionado anteriormente: “Sin embargo, los sistemas de aprendizaje automático se construyen sobre la base de datos de observación del mundo real, con sus muchos sesgos históricos o institucionalizados. Como resultado, heredan sesgos y prácticas discriminatorias inherentes a los datos. La adopción de tales sistemas conduce a resultados injustos y a la perpetuación de sesgos. Los ejemplos son abundantes: la raza está asociada con las predicciones de reincidencia; género que afecta los anuncios relacionados con el trabajo que se muestran; raza que afecta a los anuncios de búsqueda mostrados; la aplicación Street Bump de Boston, que se enfoca en la reparación de baches en vecindarios acomodados; la entrega el mismo día de Amazon no está disponible en los barrios negros; y Facebook mostrando tráileres de películas "blancos" o "negros" basados ​​en la "afiliación étnica". Varios casos de discriminación están prohibidos por ley”.

Si tuviéramos IA que estuviera sujeta únicamente a incrustaciones de reservas problemas de discriminación, lo más probable es que tengamos una mayor posibilidad de luchar para descubrir tales enfermedades computacionales. Desafortunadamente, el mundo no es tan fácil. Es probable que la IA de hoy tenga la misma probabilidad, si no más, de imbuir discriminación indirecta o indirecta. Ese es un escenario de cara triste. El pantano computacional más profundo que sustenta la discriminación de proxy puede ser un hueso duro de roer.

Como declaró el Comisionado de la Comisión Federal de Comercio (FTC): “Cuando los sistemas algorítmicos se dedican a la discriminación indirecta, utilizan una o más variables facialmente neutrales para reemplazar un rasgo legalmente protegido, lo que a menudo resulta en un trato desigual o un impacto desigual en clases protegidas para ciertas oportunidades económicas, sociales y cívicas. En otras palabras, estos algoritmos identifican características aparentemente neutrales para crear grupos que reflejan fielmente una clase protegida, y estos 'representantes' se utilizan para inclusión o exclusión” (como se señala en el artículo titulado “Algoritmos y justicia económica: una taxonomía de daños y perjuicios”). un camino a seguir para la Comisión Federal de Comercio” publicado en el Revista de derecho y tecnología de Yale, por la comisionada Rebecca Kelly Slaughter, agosto de 2021).

Un aspecto a tener en cuenta es que la IA no está sola en la práctica de la discriminación de terceros. La discriminación por poder tampoco es un brebaje novedoso. Hemos tenido discriminación de proxy durante mucho tiempo, ciertamente mucho antes del advenimiento de la IA. El Comisionado de la FTC se hizo eco de esta misma realización importante: “La discriminación por representación no es un problema nuevo: el uso de factores aparentemente neutrales que generan resultados discriminatorios es algo con lo que la sociedad y las leyes de derechos civiles han estado lidiando durante décadas” (nuevamente en el Revista de derecho y tecnología de Yale).

¿Los desarrolladores de IA elaboran deliberadamente sus sistemas de IA para contener la discriminación de proxy?

Bueno, podría dividir los esfuerzos de IA en aquellos que, sin darse cuenta, se basan en la discriminación de los representantes y aquellos que lo hacen intencionalmente. Supongo que, en general, la mayoría de los desarrolladores de IA están cayendo en el pantano computacional de discriminación de proxy por acciones accidentales o fortuitas. Sin embargo, esto no es una excusa para lo que están haciendo. Siguen siendo responsables de la IA que han ideado y no pueden simplemente agitar la mano y proclamar que no sabían lo que estaba pasando. Está en sus hombros tratar de asegurarse de que su IA no produzca tal discriminación. Mientras tanto, aquellos que construyen su IA de manera tortuosa y deliberada con discriminación de poder deben ser reprendidos y responsabilizados en consecuencia.

Me gustaría agregar un giro que posiblemente hará que tu cabeza dé vueltas.

Algunos afirman que cuanto mejor seamos en el diseño de la IA, existe la probabilidad de que seamos testigos de más instancias de IA que imbuyan discriminación de proxy. Usted podría estar desconcertado por qué este sería el caso. La esperanza y el sueño serían que los avances en IA reduzcan las posibilidades de que surja la pesadilla computacional de aterrizar en las aguas impropias de la discriminación de proxy.

Un ángulo intrigante se identifica en este estudio publicado en el Revisión de la ley de Iowa: “En cambio, las IA usan datos de entrenamiento para descubrir por sí mismos qué características se pueden usar para predecir la variable objetivo. Aunque este proceso ignora por completo la causalidad, da como resultado que las IA inevitablemente "busquen" representantes para las características directamente predictivas cuando los datos sobre estas características no están disponibles para la IA debido a prohibiciones legales. El simple hecho de negar el acceso de las IA a los proxies más intuitivos para las variables directamente predictivas hace poco para frustrar este proceso; en cambio, simplemente hace que las IA produzcan modelos que se basan en proxies menos intuitivos. Por lo tanto, el argumento central de este artículo es que a medida que las IA se vuelvan aún más inteligentes y los datos masivos se vuelvan aún más grandes, la discriminación indirecta representará un desafío cada vez más fundamental para los regímenes antidiscriminatorios que buscan prohibir la discriminación basada en características directamente predictivas” (como se menciona en el artículo con derecho Discriminación por representación en la era de la inteligencia artificial y los macrodatos, de Anya Prince y Daniel Schwarcz).

Tratemos de exponer la lógica de esta escalofriante predicción.

Supongamos que los desarrolladores de IA se dan cuenta inexorablemente de que deben evitar permitir que sus modelos de aprendizaje automático y aprendizaje profundo se esfuercen por discriminar a los representantes (uno esperaría que ya estén atentos a la discriminación directa). De acuerdo, entonces los constructores de IA hacen lo que pueden para evitar un aferramiento computacional a los factores protegidos. Pero supongamos que esto se hace sobre una base bastante obvia, como restringir cualquier tipo de proxy de uno o dos pasos.

Los modelos computacionales profundizan en los datos y encuentran un vínculo eliminado de tres pasos o tal vez diez pasos de discriminación de proxy. Aparentemente, los desarrolladores de IA están contentos de que se pueda mostrar que un dos pasos no forma parte de su sistema ML/DL. Mientras tanto, tal vez no se den cuenta de que matemáticamente se han descubierto tres pasos o diez pasos o algunos otros niveles de astucia. Tenga en cuenta que la IA no es sensible y no está tratando de hacer esto de manera consciente. Todavía nos referimos a la IA que no es consciente y actúa en función de números y cálculos.

Vaya, el hecho inquietante de que la IA está "avanzando" y, sin embargo, parece que nos dirigimos a un estado de cosas más sombrío es bastante exasperante y quizás exasperante. Mientras que, por un lado, podríamos estar satisfechos de que la conciencia de evitar la discriminación de terceros esté recibiendo más atención, el problema no desaparecerá simplemente. Los esfuerzos para evitar la discriminación de proxy basada en IA podrían hacer que los descubrimientos computacionales discriminatorios sean cada vez más profundos para que los humanos no los divulguen ni los descubran.

Esto me recuerda a los viejos dibujos animados de cuando una persona se ha metido en arenas movedizas. Cuanto más se agitan, peor se ponen las cosas. En cierto sentido, la persona provoca su propia muerte al luchar ferozmente contra las arenas movedizas. Esto es ciertamente irónico, ya que normalmente esperaría que luchar contra algo lo llevara a escapar o liberarse.

No necesariamente así.

Los expertos le dirán que si alguna vez se ve atrapado en arenas movedizas, su opción sensata será intentar relajarse y salir de la terrible situación. Debe intentar flotar en la parte superior de las arenas movedizas, posiblemente inclinándose hacia atrás y con los pies al nivel de la cabeza. La paliza salvaje no es deseable e indudablemente reducirá sus posibilidades de escapar. Las mejores probabilidades son que te esfuerces por flotar o nadar ligeramente para salir, o al menos llegar a una posición en las arenas movedizas en la que puedas alcanzar una rama u otra cosa para luego salir más lejos.

¿Podemos usar ese tipo de consejo para combatir la IA imbuida de la discriminación por poder?

Mas o menos.

En primer lugar, saber que la discriminación por representación puede ocurrir es un elemento clave para aquellos que diseñan y aplican sistemas de IA. Todas las partes interesadas deben pensar en esto. La gerencia que supervisa los proyectos de IA debe estar al tanto de esto, ya que no son solo los "codificadores de IA" los que son parte del problema. También es probable que los reguladores intervengan, como la promulgación de nuevas leyes para tratar de reducir o al menos atrapar la IA que tiene prácticas discriminatorias integradas. Etc.

Según el Revisión de la ley de Iowa estudio, podríamos esforzarnos por tener leyes y regulaciones de IA que impongan el deber de mostrar los datos que se utilizan para el LD/LD: “Por ejemplo, los regímenes antidiscriminatorios afectados podrían permitir, y tal vez incluso exigir, que las empresas que usan IA predictiva recopilen datos sobre pertenencia potencial de los individuos a clases legalmente protegidas. En algunos casos, estos datos deben compartirse con los reguladores y/o divulgarse al público en forma resumida. Dichos datos son necesarios para que las empresas, los reguladores, los litigantes y otros prueben si alguna IA en particular está, de hecho, participando en la discriminación por poder” (según el artículo de Anya Prince y Daniel Schwarcz).

Otras posibilidades incluyen el uso de datos más variados y un conjunto más amplio de fuentes de datos al diseñar un modelo de aprendizaje automático y aprendizaje profundo. Otra es que los desarrolladores de IA podrían estar obligados a mostrar que su sistema de IA no emplea la discriminación de proxy. Tratar de mostrar o probar matemáticamente que esto es falta o ausencia de discriminación por representación va a ser notablemente desafiante, por decir lo menos.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, podría detectar en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo de discriminación de proxy (ver mi análisis de tales capacidades en el enlace aquí).

En este punto de esta discusión, apuesto a que desea algunos ejemplos adicionales que podrían mostrar el enigma de la discriminación de proxy basada en IA.

Me alegro de que lo preguntes.

Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre la discriminación de proxy basada en IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por su cuenta y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, que aún no sabemos si será posible lograrlo, ni cuánto tiempo llevará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y discriminación de proxy basada en IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de la IA ética que implican la exploración de la discriminación de proxy basada en la IA.

Imagine que un automóvil autónomo basado en IA está en marcha en las calles de su vecindario y parece conducir de manera segura. Al principio, habías prestado especial atención a cada vez que lograbas vislumbrar el automóvil autónomo. El vehículo autónomo se destacó con su conjunto de sensores electrónicos que incluían cámaras de video, unidades de radar, dispositivos LIDAR y similares. Después de muchas semanas de que el automóvil autónomo deambulara por su comunidad, ahora apenas lo nota. En lo que a usted respecta, es simplemente otro automóvil en las vías públicas ya ocupadas.

Para que no piense que es imposible o inverosímil familiarizarse con ver autos sin conductor, he escrito con frecuencia sobre cómo los lugares que están dentro del alcance de las pruebas de autos sin conductor se han acostumbrado gradualmente a ver los vehículos arreglados. ver mi análisis en este enlace aquí. Muchos de los lugareños finalmente pasaron de estar boquiabiertos a bostezar boquiabiertos a emitir un amplio bostezo de aburrimiento para presenciar esos serpenteantes autos sin conductor.

Probablemente, la razón principal en este momento por la que podrían notar los vehículos autónomos es el factor de irritación y exasperación. Los sistemas de conducción de IA de manual se aseguran de que los autos obedezcan todos los límites de velocidad y las reglas de la carretera. Para los conductores humanos agitados en sus autos tradicionales conducidos por humanos, a veces te molestas cuando estás atrapado detrás de los autos autónomos basados ​​​​en IA que cumplen estrictamente la ley.

Eso es algo a lo que todos deberíamos acostumbrarnos, con razón o sin ella.

Volvamos a nuestra historia.

Resulta que comienzan a surgir dos preocupaciones indecorosas sobre los autos autónomos basados ​​​​en IA, que de otro modo serían inocuos y generalmente bienvenidos, específicamente:

una. Donde la IA está deambulando por los autos sin conductor para recoger viajes se avecinaba como una preocupación expresada

b. La forma en que la IA está tratando a los peatones que esperan y que no tienen el derecho de paso se estaba convirtiendo en un problema apremiante.

Al principio, la IA recorría los autos sin conductor por toda la ciudad. Cualquiera que quisiera solicitar un viaje en el automóvil autónomo tenía esencialmente las mismas posibilidades de llamar a uno. Gradualmente, la IA comenzó a mantener principalmente a los autos sin conductor deambulando en una sola sección de la ciudad. Esta sección fue una gran fuente de ingresos y el sistema de IA había sido programado para tratar de maximizar los ingresos como parte del uso en la comunidad.

Los miembros de la comunidad en las partes empobrecidas de la ciudad tenían menos probabilidades de poder viajar en un automóvil autónomo. Esto se debió a que los automóviles autónomos estaban más lejos y deambulaban en la parte de mayor ingreso del lugar. Cuando llegaba una solicitud de una parte distante de la ciudad, cualquier solicitud de una ubicación más cercana que probablemente se encontrara en la parte "estimada" de la ciudad tendría una prioridad más alta. Eventualmente, la disponibilidad de obtener un automóvil autónomo en cualquier lugar que no sea la parte más rica de la ciudad fue casi imposible, exasperantemente para aquellos que vivían en esas áreas ahora hambrientas de recursos.

Se podría afirmar que la IA prácticamente aterrizó en una forma de discriminación indirecta (también conocida como discriminación indirecta). La IA no estaba programada para evitar esos barrios más pobres. En cambio, "aprendió" a hacerlo mediante el uso de ML/DL.

La cuestión es que los conductores humanos de viajes compartidos eran conocidos por hacer lo mismo, aunque no necesariamente debido exclusivamente al ángulo de hacer dinero. Hubo algunos de los conductores humanos que compartían el viaje que tenían un sesgo adverso acerca de recoger a los pasajeros en ciertas partes de la ciudad. Este era un fenómeno algo conocido y la ciudad había implementado un enfoque de monitoreo para atrapar a los conductores humanos haciendo esto. Los conductores humanos podrían meterse en problemas por llevar a cabo prácticas de selección desagradables.

Se suponía que la IA nunca caería en ese mismo tipo de arenas movedizas. No se configuró un monitoreo especializado para realizar un seguimiento de hacia dónde se dirigían los autos autónomos basados ​​​​en IA. Solo después de que los miembros de la comunidad comenzaron a quejarse, los líderes de la ciudad se dieron cuenta de lo que estaba sucediendo. Para obtener más información sobre este tipo de problemas en toda la ciudad que presentarán los vehículos autónomos y los autos sin conductor, consulte mi cobertura en este enlace aquí y que describe un estudio dirigido por Harvard del que soy coautor sobre el tema.

Este ejemplo de los aspectos de roaming de los autos autónomos basados ​​en IA ilustra la indicación anterior de que puede haber situaciones que involucren a humanos con sesgos adversos, para los cuales se implementan controles, y que la IA que reemplaza a esos conductores humanos queda escotada. gratis. Desafortunadamente, la IA puede verse cada vez más sumida en sesgos similares y hacerlo sin suficientes medidas de seguridad.

Esto muestra cómo puede surgir perniciosamente la discriminación de proxy basada en IA.

Un segundo ejemplo implica que la IA determine si debe detenerse para esperar a los peatones que no tienen el derecho de paso para cruzar una calle.

Indudablemente ha estado manejando y se encontró con peatones que estaban esperando para cruzar la calle y, sin embargo, no tenían el derecho de paso para hacerlo. Esto significaba que usted tenía la discreción de detenerse y dejarlos cruzar. Puede continuar sin dejar que crucen y aún así estar completamente dentro de las reglas legales de conducción al hacerlo.

Los estudios sobre cómo los conductores humanos deciden detenerse o no para tales peatones han sugerido que a veces los conductores humanos toman la decisión basándose en prejuicios adversos. Un conductor humano podría mirar al peatón y optar por no detenerse, aunque se habría detenido si el peatón tuviera una apariencia diferente, como por raza o género. He examinado esto en el enlace aquí.

Imagine que los autos autónomos basados ​​en IA están programados para lidiar con la cuestión de detenerse o no para los peatones que no tienen el derecho de paso. Así es como los desarrolladores de IA decidieron programar esta tarea. Recolectaron datos de las cámaras de video del pueblo que están ubicadas por toda la ciudad. Los datos muestran conductores humanos que se detienen por peatones que no tienen el derecho de paso y conductores humanos que no se detienen. Todo se recopila en un gran conjunto de datos.

Mediante el uso de Machine Learning y Deep Learning, los datos se modelan computacionalmente. El sistema de conducción AI luego usa este modelo para decidir cuándo detenerse o no. En general, la idea es que cualquiera que sea la costumbre local, así es como la IA va a dirigir el automóvil autónomo.

Para sorpresa de los líderes de la ciudad y los residentes, la IA evidentemente estaba optando por detenerse o no en función de la edad del peatón. ¿Cómo pudo pasar eso?

Tras una revisión más detallada del video de la discreción del conductor humano, resulta que muchos de los casos de no detenerse involucraron a peatones que tenían un bastón de una persona mayor. Los conductores humanos aparentemente no estaban dispuestos a detenerse y dejar que una persona mayor cruzara la calle, presumiblemente debido a la supuesta cantidad de tiempo que le tomaría a alguien hacer el viaje. Si parecía que el peatón podía cruzar rápidamente la calle y minimizar el tiempo de espera del conductor, los conductores estaban más dispuestos a dejar que la persona cruzara.

Esto quedó profundamente enterrado en el sistema de conducción de IA. Los sensores del automóvil autónomo escanearán al peatón que espera, alimentarán estos datos al modelo ML/DL y el modelo emitirá a la IA si debe detenerse o continuar. Cualquier indicación visual de que el peatón podría tardar en cruzar, como el uso de un bastón, se usaba matemáticamente para determinar si el sistema de conducción de IA debería permitir que el peatón cruzara o no. Se podría afirmar que se trataba de una forma de discriminación indirecta basada en la edad.

Conclusión

Hay una multitud de formas de tratar de evitar diseñar una IA que incluya la discriminación de proxy o que, con el tiempo, obtenga tales sesgos. En la medida de lo posible, la idea es detectar los problemas antes de acelerar e implementar la IA. Con suerte, ni la discriminación directa ni la discriminación indirecta saldrán a la luz, por así decirlo.

Como se señaló anteriormente, un enfoque consiste en garantizar que los desarrolladores de IA y otras partes interesadas sean conscientes de la ética de la IA y, por lo tanto, alentarlos a estar alerta para diseñar la IA para evitar estos asuntos. Otra vía consiste en hacer que la IA se controle a sí misma en busca de comportamientos poco éticos y/o tener otra pieza de IA que controle otros sistemas de IA en busca de comportamientos potencialmente poco éticos. He cubierto muchas otras posibles soluciones en mis escritos.

Un pensamiento final por ahora.

Es posible que sepa que Lou Gehrig dijo que no hay lugar en el béisbol para la discriminación. Partiendo de esa misma línea de pensamiento, podría declarar con valentía que no hay lugar en la IA para la discriminación.

Todos debemos levantarnos y encontrar formas de evitar que la discriminación se infunda en los sistemas de IA. Por el bien de todos nosotros, tenemos que sacar esto del estadio.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-discrimination-against-humans-is-dauntingly-vexing-for-ai-ethics-which- puede-ocurrir-incluso-en-el-caso-de-coches-autónomos-autónomos/