La ética de la IA se pregunta inquietantemente si los sesgos de la IA están ocultando insidiosamente las dinámicas de poder social, incluso para los automóviles autónomos de la IA

Ocultos a plena vista.

¿Alguna vez has escuchado esa línea antes?

Probablemente.

Puede tener varios significados, aunque el entendimiento más común parece ser que a veces no nos damos cuenta de algo que está justo delante de nuestros propios ojos. Es posible que haya experimentado este fenómeno.

Por ejemplo, tal vez recientemente entró un poco en pánico porque no podía encontrar su teléfono inteligente y luego, de repente y con vergüenza, se dio cuenta de que lo estaba sosteniendo firmemente en su propia mano y, sin embargo, lo pasó por alto. Esto sucedió porque estabas mirando ansiosamente por toda la habitación para encontrar dónde habías dejado tu teléfono inteligente por última vez, lo que te distrajo de darte cuenta de que el escurridizo y preciado dispositivo electrónico estaba a tu alcance.

Nos pasa a todos.

Un experimento psicológico relacionado y bastante legendario a fines de la década de 1990 documentó vívidamente este tipo de descuido humano y periódicamente ha recuperado la atención pública en cuanto a esta vulnerabilidad aparentemente sin sentido o deberíamos decir distraída. En los tiempos modernos, hay muchos videos en línea que muestran la esencia del experimento y la facilidad con la que podemos dejar de ver algo que está "escondido" a simple vista. Sobre una base un tanto formal, el asunto en general se refiere a menudo como ceguera por falta de atención, aunque se han descrito extensamente otras caracterizaciones y variaciones.

Me gustaría contarles sobre el experimento y los videos que lo representan, aunque primero debo advertirles que si leen mi aclaración sobre esto, lamentablemente la diversión del truco disminuye. Podrías comparar esto con un acto de magia. Una vez que sabes cómo funciona el truco, nunca verás el truco de magia bajo la misma luz. Solo quería darte un buen aviso.

¿Listo para iniciar?

Suele ser así. Se le pide que mire un video que contiene varias personas que están agrupadas libremente. Están un tanto ociosos y al azar lanzando una pelota o algún objeto similar de un lado a otro. No hay un patrón particular en el lanzamiento y simplemente se divierten haciendo algo alegre.

Hasta ahora, todo bien.

El giro viene después.

Se le pide que cuente cuántas veces se lanza la pelota o el objeto. Por lo general, a esta tarea se le da un poco más de especificidad. Por ejemplo, cuente cuántas veces los miembros del grupo que visten una camiseta morada están lanzando la pelota, mientras que no cuente las instancias en las que aquellos con una camiseta blanca atrapan la pelota. Como verá en un momento, este es el medio "disimulado" de distraerlo, al involucrar sus procesos cognitivos en una tarea limitada.

Se le pide que realice con seriedad la tarea de contar, dándole su intento más sincero. Es cierto que es un poco difícil de hacer y requiere una concentración intensa porque la pelota se mueve rápidamente y las personas aparentemente eligen al azar dónde y cuándo lanzar la pelota. Su mente trata de concentrarse en los participantes de camisa morada. Tu mente busca la pelota. Tu mente trata simultáneamente de ignorar o borrar a los miembros de camisa blanca. Se están poniendo casi confusamente mentalmente en tu camino. No querrás contarlos sin darte cuenta en tu conteo (un error exasperante si lo haces).

Al final de la secuencia de lanzamientos, se le pregunta cuántas veces lanzaron la pelota los miembros de la camiseta morada. Usted se enorgullece de su confianza personal y de su profunda seguridad de que con exactitud y precisión hizo el conteo exacto. De hecho, usted sin duda debe tener toda la razón sobre el conteo.

Sin embargo, el experimento no ha terminado (aquí está el truco de magia revelado, así que continúa leyendo solo si quieres o estás dispuesto a saber).

Se le pregunta si acaso notó que un gorila había caminado entre los participantes que estaban lanzando la pelota u otros objetos.

¿Cómo?

¿Eh?

¿Llegar de nuevo?

La mayoría de la gente se ríe o se burla de la pregunta de si había un gorila en la escena. La respuesta instintiva consiste en insistir obstinadamente en que nunca apareció tal gorila. De hecho, la pregunta parece una consulta peculiar y totalmente inventada.

He tenido personas que estaban dispuestas a poner una tonelada de masa en su argumento de que no había ningún gorila de ningún tipo en esa escena de lanzamiento que observaron de cerca y con atención. A veces desearía haber aceptado a esas personas en esa apuesta ya que hoy estaría rodando en efectivo. Sin embargo, sería una apuesta completamente injusta y probablemente se convertiría en un lamentable paso en falso de amigo que se convierte en enemigo.

Verá, de hecho, había un gorila que caminó en esa escena (una persona con un traje de gorila, que para todos los propósitos prácticos es esencialmente un gorila per se cuando se trata de la naturaleza del experimento).

Al volver a ver la misma escena grabada, la persona que no pudo ver al gorila se queda boquiabierta. Por lo general, y dentro de unos segundos, girarán frenéticamente a través de una serie de reacciones emocionales. Primero, están atónitos por la incredulidad. En segundo lugar, afirmarán que les está mostrando una versión manipulada de la escena y que no les está mostrando la que vieron. En tercer lugar, reconocerán de mala gana que les está mostrando la escena real, pero insistirán en que nunca les dijo que estuvieran atentos a un gorila. En otras palabras, obedientemente hiciste lo que se te pidió que hicieras. Nada más y nada menos. Como tal, si notó un gorila o no, es completamente irrelevante y no tiene relación ni mérito en el asunto aleccionador en cuestión.

Te advierto que la conclusión aquí es que corres el riesgo de perder a un amigo o posiblemente molestar para siempre a un conocido si intentas esto con ellos sin ninguna apariencia de pista o al menos un consejo útil de lo que está a punto de suceder. Tenga cuidado al probar esto. He cumplido con mi deber y te he dado una advertencia de precaución adecuada, por lo que depende de ti decidir si contarle esto a alguien que puedas conocer.

Aunque tengo que mencionar lo poderoso que es este ejercicio.

Para aquellos atrapados desprevenidos, existe una garantía casi segura de que la persona recordará para siempre el "experimento" y siempre lo recordará, no necesariamente con cariño, pero lo recordará con mucha fuerza. Si nunca has visto un video así, y si vas a ver uno ahora, dudo que tengas un recuerdo tan estridente sobre el asunto. Hay una diferencia notable entre ser atrapado completamente desprevenido sobre la intrigante noción de tal punto ciego cognitivo y simplemente aprender sobre él de segunda mano.

Todos tendemos a enorgullecernos de nuestras agudas capacidades cognitivas. Ser atrapado por no haber visto al gorila es un gran derribo en nuestra confianza cognitiva. Esa es también la razón por la cual algunos son tan inflexibles en negarse a aceptar lo que ocurrió y lucharán con uñas y dientes contra el resultado experimental. Si le dices a alguien de antemano que está a punto de presenciar un poco de magia, por lo general estará bien después si lo engañan. Cuando le pides a alguien que aparentemente haga una tarea seria, y luego, de la nada, optas por quitarle la alfombra debajo de ellos, la reacción puede ser emocional y cognitivamente explosiva.

Para aquellos de ustedes con una inclinación literaria, es posible que hayan experimentado un ejemplo similar de esta distracción orientada a la mente al leer la famosa historia de Edgar Allen Poe titulada "La carta robada" sobre un detective aficionado que se esfuerza por convertirse en un detective de pleno derecho. No quiero desvelar demasiado, sobre todo porque ya te he echado a perder el experimento del gorila, así que digamos que esta maravillosa historia, tal como se publicó en 1844, es totalmente relevante para la idea de ocultar algo a plena vista ( tal vez eso despierte su curiosidad para leer la encantadora historia).

Hagamos un resumen rápido de la ocultos a plena vista mantra.

Aquí hay algunas conclusiones clave:

  • A veces podemos no notar las cosas que están justo en frente de nuestros ojos
  • Esto es especialmente posible cuando estás preocupado cognitivamente.
  • La preocupación cognitiva podría no tener nada que ver con la oculto a la vista aspecto
  • También existe la posibilidad de que la preocupación cognitiva esté relacionada con el aspecto "oculto"

Vale la pena considerar algunos corolarios adicionales:

  • Si está alerta a tal condición, es posible que pueda superar el ocultamiento mal percibido.
  • Lo oculto debe estar razonablemente a la vista, de lo contrario, lo oculto está realmente oculto (una prueba amañada e injusta de este fenómeno específico)
  • Al estar preparado cognitivamente, es factible hacer frente a la situación, aunque todavía pueden ocurrir sorpresas (surgen varios otros factores cognitivos)
  • Este fenómeno es cognitivamente omnipresente y, en general, es el caso de prácticamente todo el mundo.

Con esa base clave establecida sobre este asunto fascinante, me gustaría cambiar de tema y compartir con ustedes un ángulo quizás sorprendente, incluyendo que todo esto se relaciona de una manera extraordinaria con el advenimiento de la Inteligencia Artificial (IA).

En resumen, algunos afirman que la aparición de sesgos de IA oculta algo más a simple vista. El argumento es que los sesgos de la IA suelen ser más indicadores de la dinámica del poder social que meras rarezas deformes de datos que requieren una resolución centrada únicamente en la tecnología.

Permítanme un momento para elaborar sobre esto.

La detección de sesgos dentro de los sistemas de IA a menudo se ve como un tipo de gambito de golpear a un topo. Cuando logras encontrar un sesgo incrustado, lo eliminas, con suerte. Por supuesto, aún podrían existir muchos más sesgos imbuidos de este tipo y, en última instancia, revelarse o, peor aún, quizás nunca ver la luz del día. Sin embargo, todo esto se basa en llamar la atención sobre los propios sesgos de la IA. Rara vez aquellos que buscan eliminar esos sesgos de IA echan un vistazo mucho más profundo para obtener una apariencia más amplia de lo que podría estar sucediendo.

Lo que algunos afirman enérgicamente es que esos sesgos de IA podrían ser fácilmente una pista reveladora de la dinámica de poder social subyacente. En cierto sentido, la naturaleza brillante de los sesgos de la IA distrae a muchos de mirar más de cerca. Si realizó una evaluación más profunda y reveladora, es muy posible que descubra que existen todo tipo de arreglos de poder social en la raíz de los sesgos de IA incorporados.

Estabas viendo cómo se lanzaba la pelota de un lado a otro, contando los lanzamientos de forma un tanto mental y mecánica, y no pudiste ver al gorila porque estabas distraído o tenías la mente en otra parte y no en la causa raíz.

Vaya, algunos responden, esto es alarmante. Otros sostienen que el supuesto factor oculto de la dinámica del poder social no existe en absoluto. O, si está ahí, no tiene la tarea de contar gorilas y, en cambio, tiene la tarea de contar y destripar esos sesgos de IA, por lo que todo el gorila ("dinámica de poder") no entra en juego de todos modos.

Ahora bien, aquellos que son defensores abiertos de la postura de la dinámica del poder social probablemente clamarían que tales reacciones a esta noción sorprendente y generalmente no realizada de que los sesgos de la IA son los canarios en la mina de carbón están a la par con las mismas reacciones a aquellos que quedan atrapados. -guardia por el experimento del gorila. Por lo tanto, la reacción típica consiste en oscilar entre la incredulidad, el rechazo de la premisa y la molestia de que quizás hayan sido "engañados" todo el tiempo y vergonzosamente no se dieron cuenta de que estaban ciegos para darse cuenta de la verdadera importancia de los sesgos de la IA.

Otros que se encuentran con esta teoría que se filtra lentamente sobre los sesgos de la IA a menudo se sienten intrigados por ella. Todos estamos obligados a encontrar que una posibilidad hasta ahora "no había notado eso antes" como abiertamente curiosa y potencialmente expansiva de la mente. Tal vez este sea un ejemplo de algo que se esconde a plena vista. Para aquellos que se esfuerzan por encontrar y erradicar los sesgos de la IA, podría ser valioso encontrar una forma más macroscópica de evaluar y tratar de resolver o prevenir de alguna manera dichos sesgos.

¿Podría este supuesto apuntalamiento de la dinámica del poder social ser un medio útil para revisar y repensar el problema cada vez más creciente que implica los sesgos de la IA?

Como explicaré en un momento, hay muchas ramificaciones de la ética de la IA y la IA ética relacionadas con los sesgos de la IA. Esto ha dado lugar a los principios de ética de la IA, como tratar de asegurarse de que la IA esté diseñada y actúe con una apariencia de justicia, rendición de cuentas, responsabilidad y similares. Cubriré aquí más sobre esto en un momento. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, sólo para nombrar unos pocos.

Podemos profundizar por ahora en los sesgos de la IA y la dinámica del poder social con un agudo sentido de interés y curiosidad.

En un artículo publicado en la revista Naturaleza, titulado "No preguntes si la IA es buena o justa, pregunta cómo cambia el poder", la autora Pratyusha Kalluri ofrece un punto crucial sobre la posibilidad de que los sesgos de la IA se oculten a simple vista como una mezcla heterogénea reveladora de la dinámica del poder social: "Es No es raro ahora que los expertos en IA pregunten si una IA es 'justa' y 'para siempre'. Pero 'justo' y 'bueno' son palabras infinitamente espaciosas en las que cualquier sistema de IA puede encajar. La pregunta a plantear es más profunda: ¿Cómo está cambiando el poder la IA?”

Para dejar esto aún más claro, el investigador hace esta sugerencia un tanto sorprendente (para algunos) sobre dónde el campo de la IA a veces podría estar engañándose a sí mismo en la (digamos) preocupación por los sesgos de la IA como una consideración independiente: “Cuando el campo de AI cree que es neutral, no se da cuenta de los datos sesgados y construye sistemas que santifican el statu quo y promueven los intereses de los poderosos”.

Una vez más, algunos están sorprendidos por estas sugerencias o tal vez podrían interpretarse como acusaciones o una especie de teoría, mientras que otros dicen que tenían una sospecha furtiva todo el tiempo y que alguien finalmente ha puesto el dedo en lo que realmente está mal. Mientras tanto, también hay algunos que reaccionan diciendo que esto no es especialmente trascendental. Hay una especie de "¿y qué?" reacción y un sentimiento de que nada especial o perspicaz está siendo recogido por esto.

Para tratar de mostrar por qué la comprensión de que la dinámica del poder social es de hecho un factor oculto genuino y vital con respecto a los sesgos de la IA, hay varios esfuerzos en marcha para ayudar a mostrar los pasos constructivos abyectos que se pueden tomar como resultado de ver o aceptar que el gorila existe. .

Considere un estudio reciente de Milagros Miceli, Julian Posada y Tianling Yang titulado "Estudiando datos de aprendizaje automático: ¿Por qué hablar de sesgo cuando nos referimos a poder?" que explora estas inquietudes de sondeo: “Con el presente comentario, nuestro objetivo es contribuir a la discusión sobre el sesgo de datos, el sesgo de los trabajadores de datos y la documentación de datos ampliando el campo de investigación: desde la investigación de sesgos hacia una investigación de los diferenciales de poder que dan forma a los datos. Como argumentaremos en las siguientes secciones, el estudio de los sesgos ubica el problema dentro de los sistemas técnicos, ya sean datos o algoritmos, y oscurece sus causas fundamentales. Además, la comprensión misma del sesgo y la eliminación del sesgo está inscrita en valores, intereses y relaciones de poder que informan qué cuenta como sesgo y qué no, qué problemas abordan las iniciativas de eliminación del sesgo y qué objetivos pretenden lograr. Por el contrario, la perspectiva orientada al poder examina los sistemas técnicos, pero se centra en contextos organizativos y sociales más amplios. Investiga las relaciones que intervienen en la producción de datos y sistemas y pretende hacer visibles las asimetrías de poder que inscriben en ellas valores y preferencias particulares” (Procedimiento de las Interacciones Hombre-Computadora ACM, 2022 de enero).

Tomemos como otro ejemplo un artículo de Jonne Maas titulado "Aprendizaje automático y relaciones de poder" que cubre el dilema moral de la IA que tiene sesgos y podría ir en contra de los preceptos de la ética de la IA de una necesidad explícita de responsabilidad: "De hecho, depender cada vez más de un ejercicio de poder tan irresponsable no solo es problemático cuando el sistema demuestra ser incorrecto en sus resultados, es problemático en términos más generales, ya que abre la posibilidad de un error moral, limitando el florecimiento humano al establecer una dicotomía de poder entre los desarrolladores y los usuarios. , por un lado, y los usuarios finales, por el otro. Por lo tanto, deberíamos considerar seriamente la posible asimetría política que el mayor uso de aplicaciones de ML trae a la sociedad, donde los desarrolladores y usuarios, en combinación con el propio sistema de ML, obtienen cada vez más poder sobre los usuarios finales de un sistema debido a mecanismos de responsabilidad inadecuados” (en IA y sociedad, 2022 de febrero).

Todos estos esfuerzos emergentes parecen afirmar que la dinámica de poder social subyacente está marcando una diferencia sustancial en lo que hacemos (u optamos por no hacer) con respecto a los sesgos de la IA, que incluyen:

  • La dinámica del poder social puede conducir a la producción de sesgos de IA
  • La dinámica del poder social puede definir esencialmente lo que creemos que son los sesgos de la IA
  • La dinámica del poder social puede dar forma a cómo tratamos los sesgos de la IA
  • La dinámica del poder social puede guiar cómo se llevará a cabo la eliminación del sesgo de la IA
  • La dinámica del poder social impacta a todas las partes interesadas en lo que respecta a la IA y los sesgos de la IA
  • La dinámica del poder social puede afectar especialmente negativamente a las partes interesadas más vulnerables
  • Y así sucesivamente.

Como comentario aparte, es posible que se pregunte qué significa referirse a dinámica de poder social y de dónde viene ese concepto.

Regrese el reloj al año 1640. Es posible que sepa vagamente que Thomas Hobbes estableció algunos fundamentos esenciales para analizar y comprender la naturaleza del poder social, que todavía se utiliza con avidez hasta el día de hoy. Es indudable que es más conocido por la leviatán que se publicó en 1651 y expuso el quid de sus teorías sobre el poder y la dinámica del poder. Anteriormente, en 1640, había formulado este comentario fundamental sobre la esencia del poder en su obra anterior titulada El Elementos de Derecho (He mostrado el pasaje en algo de su forma original, que consiste en lo que hoy se considera inglés antiguo): “… debido a que el poder de un hombre resiste y obstaculiza los efectos del poder de otro, el poder simplemente ya no existe, sino el exceso del Poder de uno sobre el de otro. Porque fuerzas iguales opuestas se destruyen entre sí, y tal oposición se llama Contienda.”

De una manera sencilla y modernista, los diccionarios contemporáneos tienden a decir que el poder es cuando alguien puede hacer que otra persona haga lo que le pide que, de lo contrario, la persona encargada no desearía hacerlo. En ese sentido, se sugiere definitivamente que el poder suele generar una relación asimétrica. Una persona tiene poder sobre otra. Podemos referirnos a las partes como agentes. El poder se distribuye asimétricamente entre uno o más agentes.

La abreviatura está etiquetada como poder sobre.

Existe un acalorado debate en el campo de la dinámica del poder social sobre si esta es la única forma de tal poder. Por ejemplo, otro punto de vista es que el poder consiste más en obtener el resultado deseado, conocido como poder-a. Se dice que haces uso del poder para afectar un resultado particular buscado. Es probable que el resultado involucre a los agentes, aunque esto es más o menos un medio para lograr de manera más amplia el resultado que desea lograr.

La versión abreviada de esto es poder-a.

Si desea profundizar más en el tema de la dinámica del poder social, hay mucho material útil disponible. A modo de ejemplo, este investigador trae una muestra del debate que se desarrolla: “Si para la primera tradición el poder consiste en el poder de un agente para afectar ciertos resultados, para la segunda consiste en el poder de un agente sobre otros agentes. Los defensores de la primera tradición argumentan con frecuencia que el poder sobre es simplemente una especie de poder para; los defensores de este último, por el contrario, a menudo sostienen que todo poder social relevante consiste en poder-sobre, de modo que el poder-para social se reduce al poder-sobre” y el autor luego propone siete variaciones que incluyen poder-sobre-otros, poder-para -efecto-resultados, poder-a pesar-de-la-resistencia, poder-con-otros, y así sucesivamente (según el diario de Estudios politicos, "La gramática del poder social: poder para, poder con, poder a pesar y poder sobre" por Arash Abizadeh, 2021).

En una nota de limpieza, normalmente trato de afirmar cuidadosamente que la redacción abreviada de "poder" utilizada en este contexto se refiere a dinámica de poder social (las tres palabras en combinación juntas). Hago esto porque, de lo contrario, si simplemente uso la palabra "poder", podría estar pensando en energía eléctrica o tal vez en la energía de la computadora, que consiste en capacidades de procesamiento computacional. Confío en que durante el resto de esta discusión, simplemente puedo usar la palabra "poder" y sabrán que me estoy refiriendo a la dinámica del poder social, gracias.

Antes de entrar en más carne y papas sobre el papel de industria (dinámica de poder social) y la ocultos a plena vista Con respecto a los sesgos de la IA, establezcamos algunos fundamentos adicionales sobre algunos temas profundamente integrales. Gran parte de las preocupaciones sobre los sesgos de la IA tienen lugar predominantemente en el ámbito de la IA conocido como Machine Learning (ML) y Deep Learning (DL).

Deberíamos sumergirnos en el campo de la ética de la IA y el ML/DL.

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, podemos preparar el escenario aún más explorando lo que quiero decir cuando hablo de aprendizaje automático y aprendizaje profundo.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos ahora al tema del poder (dinámica de poder social).

Recuerde que anteriormente proclamé estas hipótesis sobre la mezcla de poder y el reino de los sesgos de la IA:

  • El poder puede conducir a la producción de sesgos de IA
  • El poder puede definir esencialmente lo que creemos que son los sesgos de la IA
  • El poder puede dar forma a cómo lidiamos con los sesgos de la IA
  • El poder puede guiar cómo se llevará a cabo la eliminación del sesgo de la IA
  • El poder puede afectar a todas las partes interesadas en relación con la IA y los sesgos de la IA
  • El poder puede tener un impacto especialmente adverso en las partes interesadas más vulnerables
  • Y así sucesivamente.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre cómo los sesgos de la IA están entrelazados integralmente con las dinámicas de poder social ocultas potenciales y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y el papel de la dinámica del poder social

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

A continuación, consideraremos cómo los sesgos de la IA y las dinámicas de poder social podrían entrar en juego en este contexto de automóviles autónomos. Comencemos con uno de los "juegos de poder" más transparentes y citados con frecuencia con respecto a los vehículos autónomos y especialmente a los autos sin conductor.

A algunos expertos les preocupa que los autos sin conductor sean competencia exclusiva de los ricos y la élite. Podría ser que el costo de usar autos sin conductor sea prohibitivamente costoso. A menos que tenga mucho dinero, es posible que nunca vea el interior de un automóvil autónomo. Aquellos que utilizarán autos sin conductor tendrán que ser ricos, supuestamente se afirma (no estoy de acuerdo, vea mi discusión en el enlace aquí).

Esto podría interpretarse como una forma de dinámica de poder social que impregnará el advenimiento de los automóviles autónomos basados ​​​​en IA. El sistema industrial general de vehículos autónomos en su conjunto mantendrá los vehículos autónomos fuera del alcance de aquellos que son pobres o menos ricos. Esto podría no ser necesariamente una intención abierta y simplemente resulta que la única forma de recuperar los onerosos costos de haber inventado automóviles autónomos será cobrar precios escandalosamente altos.

¿Es esta una consideración dinámica del poder social o no?

Se el juez.

Continuando, podemos considerar el tema de los sesgos estadísticos y computacionales relacionados con la IA.

Contempla la pregunta aparentemente intrascendente de dónde se desplazarán los automóviles autónomos para recoger pasajeros. Esto parece un tema abundantemente inocuo.

Al principio, suponga que los autos autónomos de IA estarán deambulando por ciudades enteras. Cualquiera que quiera solicitar un viaje en un automóvil autónomo tiene esencialmente las mismas posibilidades de llamar a uno. Gradualmente, la IA comienza a mantener principalmente a los autos autónomos deambulando en una sola sección de la ciudad. Esta sección genera más dinero y la IA ha sido programada para tratar de maximizar los ingresos como parte del uso en la comunidad en general.

Los miembros de la comunidad en las partes empobrecidas de la ciudad tienen menos probabilidades de poder viajar en un automóvil autónomo. Esto se debe a que los autos sin conductor estaban más lejos y deambulando por la parte de ingresos más altos de la ciudad. Cuando llega una solicitud de una parte distante de la ciudad, cualquier otra solicitud de una ubicación más cercana tendrá mayor prioridad. Eventualmente, la disponibilidad de obtener un automóvil autónomo en cualquier lugar que no sea la parte más rica de la ciudad es casi imposible, de manera exasperante para aquellos que vivían en esas áreas que ahora carecen de recursos.

Se acaban los cacareados sueños de movilidad para todos que se supone que los autos sin conductor hacen realidad.

Se podría afirmar que la IA prácticamente aterrizó en una forma de sesgo estadístico y computacional, similar a una forma de discriminación indirecta (también conocida como discriminación indirecta). La IA no estaba programada para evitar esos barrios más pobres. En cambio, "aprendió" a hacerlo mediante el uso de ML/DL. Vea mi explicación sobre la discriminación de proxy y los sesgos de IA en el enlace aquí. Además, para obtener más información sobre este tipo de problemas en toda la ciudad o municipio que los vehículos autónomos y autos sin conductor van a encontrar, consulte mi cobertura en este enlace aquí, que describe un estudio dirigido por Harvard del que soy coautor.

¿Las dinámicas de poder social entran en juego en este caso?

Se el juez.

Para el tercer caso de sesgos de la IA, pasamos a un ejemplo en el que la IA determina si debe detenerse para esperar a los peatones que no tienen el derecho de paso para cruzar una calle.

Indudablemente ha estado manejando y se encontró con peatones que estaban esperando para cruzar la calle y, sin embargo, no tenían el derecho de paso para hacerlo. Esto significaba que usted tenía la discreción de detenerse y dejarlos cruzar. Puede continuar sin dejar que crucen y aún así estar completamente dentro de las reglas legales de conducción al hacerlo.

Los estudios sobre cómo los conductores humanos deciden detenerse o no para tales peatones han sugerido que a veces los conductores humanos toman la decisión basándose en prejuicios adversos. Un conductor humano podría mirar al peatón y optar por no detenerse, aunque se habría detenido si el peatón tuviera una apariencia diferente, como por raza o género. He examinado esto en el enlace aquí.

Imagine que los autos autónomos basados ​​en IA están programados para lidiar con la cuestión de detenerse o no para los peatones que no tienen el derecho de paso. Así es como los desarrolladores de IA podrían decidir programar esta tarea. Recopilan datos de las cámaras de video de un pueblo que se colocan por toda la ciudad. Los datos muestran a los conductores humanos que se detienen ante los peatones que no tienen el derecho de paso y también capturan videos de los conductores humanos que no se detienen. Todo esto se recopila en un gran conjunto de datos.

Mediante el uso de Machine Learning y Deep Learning, los datos se modelan computacionalmente. El sistema de conducción AI luego usa este modelo para decidir cuándo detenerse o no. En general, la idea es que cualquiera que sea la costumbre local, así es como la IA va a dirigir el automóvil autónomo.

Para sorpresa de los líderes de la ciudad y los residentes, imagine su sorpresa cuando la IA opte por detenerse o no en función de la edad del peatón.

¿Cómo pudo pasar eso?

Luego de una revisión más detallada de los datos de capacitación de ML/DL y los videos de la discreción del conductor humano, resulta que muchos de los casos de no detenerse involucraron a peatones que tenían un bastón para caminar, como podría ser habitual para un anciano. Los conductores humanos aparentemente no estaban dispuestos a detenerse y dejar que un anciano cruzara la calle, presumiblemente debido a la cantidad de tiempo anticipada que le tomaría a alguien hacer el viaje. Si parecía que el peatón podía cruzar rápidamente la calle y minimizar el tiempo de espera del conductor, los conductores humanos estaban más dispuestos a dejar que la persona cruzara.

Esto se enterró profundamente en el sistema de conducción de IA a través de ML/DL después de haber "descubierto" este patrón en los datos de entrenamiento y, en consecuencia, modelado computacionalmente sobre él. Una vez que el ML/DL se descargó en los autos autónomos mediante el uso de actualizaciones OTA (Over-The-Air), el sistema de conducción de IA a bordo siguió adelante para usar los modelos ML/DL recientemente proporcionados.

Así es como funcionaría. Los sensores del automóvil autónomo escanearán al peatón que espera, alimentarán estos datos al modelo ML/DL y el modelo emitirá a la IA si debe detenerse o continuar. Cualquier indicación visual de que el peatón podría tardar en cruzar, como el uso de un bastón, se usaba matemáticamente para determinar si el sistema de conducción de IA debería permitir que el peatón cruzara o no.

¿Crees que este sesgo de la IA oculta una dinámica de poder social?

Se el juez.

Conclusión

Algunas reflexiones finales por ahora.

Veamos algunos consejos de alto nivel y advertencias importantes.

Primero, para aclarar, no hay nadie que argumente particularmente que de alguna manera deberíamos ignorar los sesgos de la IA y pasar a examinar únicamente la dinámica del poder social. Menciono esto porque hay algunos que parecen tirar al bebé con el agua del baño y saltan completamente a los elementos de poder como si los sesgos de la IA fueran intrascendentes en comparación.

No haga ese tipo de salto de gran tamaño del Gran Cañón.

En segundo lugar, debemos centrarnos en los sesgos de la IA. Y, mientras tanto, también deberíamos mantener nuestros ojos y oídos abiertos a la dinámica del poder social.

Sí, podemos hacer las dos cosas al mismo tiempo, especialmente ahora que sabemos estar atentos. Les aseguro que las personas que experimentan el experimento del gorila tienden a estar alerta la próxima vez que vean algo que pueda desafiar su agilidad cognitiva. Saber que un gorila puede estar allí, aunque no necesariamente aparezca, asegurará que esté atento a la posible aparición de todos modos.

Aquí hay algunas reglas generales valiosas (esto plantea cierta controversia, solo para que lo sepas):

  • Un sesgo de IA puede interpretarse como "ocultar" un problema de dinámica de poder social (el sesgo de IA no es el que oculta, es la persona preocupada por mirar solo la superficie del sesgo de IA)
  • Pero no todos los sesgos de la IA ocultan necesariamente un problema de dinámica de poder social
  • Tampoco todos los problemas de dinámica de poder social están necesariamente integrados solo en un sesgo de IA.
  • Un sesgo de IA puede ser parte de un colectivo de sesgos de IA que están todos relacionados con un problema particular de dinámica de poder social
  • Una letanía de problemas de dinámica de poder social puede ser un acertijo para casi cualquier sistema de IA, ya que los sistemas de IA son un reflejo de la sociedad y la dinámica de poder en general.

Reflexiona sobre eso por un momento.

Esperaré.

De acuerdo, aquí hay algunas reglas generales más que también pueden hacer que los jugos mentales funcionen:

  • Cuando encuentre sesgos de IA, pregúntese si existe alguna conexión con la dinámica del poder social.
  • Al diseñar un sistema de IA, pregúntese si las dinámicas de poder social están dando forma a la IA y de qué manera.
  • Trate de examinar cómo la dinámica del poder social está afectando a las partes interesadas de la IA
  • Considere qué mitigaciones podrían ser apropiadas con respecto a la IA y la dinámica del poder social
  • Esté siempre atento al gorila y no olvide que los gorilas pueden existir (yo diría que eso desencadena la regla general de un truco de la vida: nunca se deje sorprender por un gorila, podría ser doloroso y deseará haberlo visto). viene!).

Hablando sobre el industria me ha recordado los impactos que el poder social puede engendrar. Apuesto a que está familiarizado con una de las líneas más famosas o infames sobre el poder, que según Lord Action dice así: "El poder tiende a corromper, y el poder absoluto corrompe absolutamente".

Una preocupación impresionante.

La sociedad tiene que estar al tanto de que la IA tendrá un impacto demostrativo en la dinámica del poder social. Esto parece descaradamente obvio, tal vez, y, sin embargo, no hay tanto debate externo ni discurso abierto sobre el asunto como podría pensarse que parece justificado. Afortunadamente, el auge de las consideraciones éticas de la IA está moviendo a la sociedad en esa dirección. Inexorablemente, si no a regañadientes, y un insoportable centímetro a la vez.

Podemos darle la última palabra por ahora al gran Leonardo da Vinci y tomar un momento de reflexión para reflexionar sobre estas palabras astutamente sabias: "Nada fortalece tanto la autoridad como el silencio".

Aquellos que se están aventurando en los sesgos de la IA y el campo de la dinámica del poder social están tratando de atraer la atención directa de la luz del sol a un asunto que de otro modo sería silencioso o sin pretensiones y que aparentemente estaría al acecho en silencio. Empecemos a hablar, como presumiblemente Leonardo da Vinci nos estaría instando a hacer.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/05/22/ai-ethics-unnervingly-asking-whether-ai-biases-are-insidiously-hiding-societal-power-dynamics-incluyendo- para-ai-autónomo-coches/