Ética de la IA Revelación impactante de que entrenar a la IA para que sea tóxica o sesgada podría ser beneficioso, incluso para los vehículos autónomos que se conducen solos

Aquí hay una vieja línea que estoy seguro que has escuchado antes.

Que toma uno para conocer uno.

Es posible que no se dé cuenta de que esta es una expresión que se remonta a principios del siglo XX y que generalmente se invocaba para referirse a los malhechores (otras variaciones del eslogan se remontan más atrás, como al siglo XVII). Un ejemplo de cómo se podría usar esta expresión implica la noción de que si desea atrapar a un ladrón, entonces necesita usar un ladrón para hacerlo. Esto muestra la afirmación de que se necesita uno para conocer a uno. Muchas películas y programas de televisión se han aprovechado de esta práctica sabiduría sabia, a menudo retratando que el único medio viable para atrapar a un ladrón implicaba contratar a un ladrón igualmente corrupto para perseguir al malhechor.

Cambiando de tema, algunos podrían aprovechar esta misma lógica para argumentar que una forma adecuada de discernir si alguien está encarnando sesgos indebidos y creencias discriminatorias sería encontrar a alguien que ya albergue tales tendencias. Presumiblemente, una persona que ya está llena de prejuicios podrá sentir más fácilmente que este otro ser humano también está lleno de toxicidad. Una vez más, se necesita uno para saber que uno es el mantra declarado.

Su reacción inicial ante la posibilidad de utilizar a una persona con prejuicios para descubrir a otra persona con prejuicios podría ser de escepticismo e incredulidad. ¿No podemos averiguar si alguien tiene sesgos negativos simplemente examinándolos y sin tener que recurrir a encontrar a alguien de naturaleza similar? Parecería extraño buscar deliberadamente descubrir a alguien que tiene prejuicios para descubrir a otros que también tienen prejuicios tóxicos.

Supongo que depende en parte de si estás dispuesto a aceptar el supuesto estribillo de que se necesita uno para conocerse. Tenga en cuenta que esto no sugiere que la única forma de atrapar a un ladrón requiera que usted haga uso exclusivo y siempre de un ladrón. Se podría argumentar razonablemente que este es simplemente un camino adicional al que se le puede dar la debida consideración. Tal vez a veces estés dispuesto a considerar la posibilidad de usar a un ladrón para atrapar a un ladrón, mientras que otras circunstancias pueden hacer que esta sea una táctica insondable.

Use la herramienta correcta para la configuración correcta, como dicen.

Ahora que he presentado esos fundamentos, podemos pasar a la parte tal vez desconcertante y aparentemente impactante de esta historia.

¿Listo para iniciar?

El campo de la IA persigue activamente el mismo precepto de que a veces se necesita conocer a uno, particularmente en el caso de tratar de descubrir una IA que sea parcial o actúe de manera discriminatoria. Sí, la idea alucinante es que podríamos querer diseñar una IA que sea total y descaradamente sesgada y discriminatoria, para usar esto como un medio para descubrir y descubrir otra IA que tenga la misma apariencia de toxicidad. Como verá en un momento, hay una variedad de problemas de ética de IA desconcertantes subyacentes al asunto. Para conocer mi cobertura general continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Supongo que podría expresar este uso de la IA tóxica para perseguir otra IA tóxica como la concepción proverbial de luchar contra el fuego (podemos invocar muchos eufemismos y metáforas ilustrativas para describir esta situación). O, como ya se ha enfatizado, podríamos referirnos con parsimonia a la afirmación de que se necesita uno para conocerse a uno.

El concepto general es que, en lugar de solo tratar de averiguar si un sistema de IA determinado contiene sesgos indebidos mediante el uso de métodos convencionales, tal vez también deberíamos buscar emplear medios menos convencionales. Uno de esos medios no convencionales sería diseñar una IA que contenga los peores sesgos y toxicidades socialmente inaceptables y luego usar esta IA para ayudar a eliminar otra IA que tenga las mismas propensiones a la maldad.

Cuando piensas en esto rápidamente, ciertamente parece ser perfectamente sensato. Podríamos apuntar a construir una IA que sea tóxica al máximo. Esta IA tóxica se usa luego para descubrir otra IA que también tiene toxicidad. Para la IA "mala" revelada entonces, podemos lidiar con ella deshaciendo la toxicidad, deshaciéndonos de la IA por completo (vea mi cobertura de la devolución o destrucción de la IA en este enlace aquí), o encarcelar a la IA (ver mi cobertura del confinamiento de la IA en este enlace aquí), o hacer cualquier otra cosa que parezca aplicable.

Un contraargumento es que deberíamos examinarnos la cabeza, que estamos diseñando intencional y voluntariamente una IA que es tóxica y está llena de prejuicios. Esto es lo último que deberíamos considerar, exhortarían algunos. Concéntrese en hacer que la IA consista completamente en bondad. No se concentre en diseñar una IA que tenga los males y la escoria de los sesgos indebidos. La noción misma de tal búsqueda parece repulsiva para algunos.

Hay más reparos sobre esta controvertida búsqueda.

Tal vez la misión de diseñar una IA tóxica simplemente envalentonará a aquellos que deseen crear una IA que sea capaz de socavar a la sociedad. Es como si estuviéramos diciendo que la creación de IA que tiene sesgos inapropiados y desagradables está perfectamente bien. Sin preocupaciones, sin dudas. Busque diseñar una IA tóxica para el contenido de su corazón, lo estamos transmitiendo en voz alta a los desarrolladores de IA de todo el mundo. Es (guiño-guiño) todo en nombre de la bondad.

Además, supongamos que este tipo de IA tóxica se pone de moda. Podría ser que la IA sea utilizada y reutilizada por muchos otros constructores de IA. Eventualmente, la IA tóxica se oculta dentro de todo tipo de sistemas de IA. Se podría hacer una analogía con la creación de un virus que socava a los humanos y que escapa de un laboratorio presumiblemente sellado. Lo siguiente que sabes es que la maldita cosa está en todas partes y nos hemos aniquilado.

Espera un segundo, va el contraargumento de esos argumentos en contra, te estás volviendo loco con todo tipo de suposiciones locas y sin fundamento. Tomar una respiración profunda. Cálmate.

Podemos fabricar con seguridad una IA que sea tóxica y mantenerla confinada. Podemos usar la IA tóxica para encontrar y ayudar a reducir la creciente prevalencia de la IA que, lamentablemente, tiene sesgos indebidos. Cualquier otra de estas exclamaciones de bola de nieve absurdamente salvajes y sin fundamento son reacciones puramente instintivas y lamentablemente tontas y completamente temerarias. No intentes tirar al bebé con el agua del baño, estás advertido.

Piénselo de esta manera, sostienen los proponentes. La construcción y el uso adecuado de la IA tóxica con fines de investigación, evaluación y actuar como un detective para descubrir otra IA socialmente ofensiva es un enfoque digno y debe ser perseguido. Deje a un lado sus reacciones precipitadas. Baja a la tierra y mira esto con seriedad. Nuestro ojo está puesto en el premio, es decir, exponer y deshacer el exceso de sistemas de IA basados ​​en prejuicios y asegurarnos de que, como sociedad, no seamos invadidos por IA tóxica.

Período. Punto final.

Hay varias formas clave de profundizar en esta noción de utilizar IA tóxica o sesgada con fines beneficiosos, que incluyen:

  • Configure conjuntos de datos que intencionalmente contengan datos sesgados y totalmente tóxicos que se pueden usar para entrenar a la IA con respecto a qué no hacer y/o qué observar
  • Utilice dichos conjuntos de datos para entrenar modelos de Machine Learning (ML) y Deep Learning (DL) sobre la detección de sesgos y la determinación de patrones computacionales que implican toxicidad social.
  • Aplique el ML/DL entrenado en toxicidad hacia otra IA para determinar si la IA objetivo es potencialmente sesgada y tóxica
  • Poner a disposición ML/DL entrenados en toxicidad para mostrar a los desarrolladores de IA lo que deben tener en cuenta para que puedan inspeccionar fácilmente los modelos para ver cómo surgen los sesgos imbuidos algorítmicamente.
  • Ejemplifique los peligros de la IA tóxica como parte de la ética de la IA y la conciencia ética de la IA, todo dicho a través de esta serie de ejemplos de IA para niños problemáticos, malos hasta los huesos.
  • Otro

Antes de entrar en el meollo de esos varios caminos, establezcamos algunos detalles fundamentales adicionales.

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, podemos preparar el escenario explorando lo que quiero decir cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

¿Qué más se puede hacer con todo esto?

Volvamos a la lista propuesta anteriormente sobre cómo tratar de hacer frente a los sesgos de la IA o la IA tóxica mediante el uso de un enfoque un tanto poco convencional de "se necesita uno para conocer uno". Recordemos que la lista constaba de estos puntos esenciales:

  • Configure conjuntos de datos que intencionalmente contengan datos sesgados y totalmente tóxicos que se pueden usar para entrenar a la IA con respecto a qué no hacer y/o qué observar
  • Utilice dichos conjuntos de datos para entrenar modelos de Machine Learning (ML) y Deep Learning (DL) sobre la detección de sesgos y la determinación de patrones computacionales que implican toxicidad social.
  • Aplique el ML/DL entrenado en toxicidad hacia otra IA para determinar si la IA objetivo es potencialmente sesgada y tóxica
  • Poner a disposición ML/DL entrenados en toxicidad para mostrar a los desarrolladores de IA lo que deben tener en cuenta para que puedan inspeccionar fácilmente los modelos para ver cómo surgen los sesgos imbuidos algorítmicamente.
  • Ejemplifique los peligros de la IA tóxica como parte de la ética de la IA y la conciencia ética de la IA, todo dicho a través de esta serie de ejemplos de IA para niños problemáticos malos hasta los huesos.
  • Otro

Echaremos un vistazo de cerca al primero de esos puntos sobresalientes.

Configuración de conjuntos de datos de datos tóxicos

Un ejemplo perspicaz de tratar de establecer conjuntos de datos que contengan sesgos sociales desagradables es el conjunto de datos CivilComments de la colección seleccionada de WILDS.

Primero, algunos antecedentes rápidos.

WILDS es una colección de conjuntos de datos de código abierto que se puede usar para entrenar ML/DL. El propósito principal declarado para WILDS es que permite a los desarrolladores de IA tener acceso rápido a los datos que representan turnos de distribucion en varios dominios específicos. Algunos de los dominios actualmente disponibles abarcan áreas como especies animales, tumores en tejidos vivos, densidad de espigas de trigo y otros dominios como los comentarios civiles que describiré en un momento.

Lidiar con los cambios de distribución es una parte crucial de la elaboración adecuada de sistemas AI ML/DL. Aquí está el trato. A veces, los datos que usa para el entrenamiento resultan ser bastante diferentes de los datos de prueba o "en la naturaleza" y, por lo tanto, su ML/DL presumiblemente entrenado está a la deriva de cómo será el mundo real. Los constructores de IA astutos deberían entrenar su ML/DL para hacer frente a tales cambios de distribución. Esto debe hacerse por adelantado y no ser una sorpresa que luego requiera una renovación del ML/DL per se.

Como se explica en el documento que presentó WILDS: “Los cambios de distribución, donde la distribución de entrenamiento difiere de la distribución de prueba, pueden degradar sustancialmente la precisión de los sistemas de aprendizaje automático (ML) implementados en la naturaleza. A pesar de su ubicuidad en las implementaciones del mundo real, estos cambios de distribución están subrepresentados en los conjuntos de datos ampliamente utilizados en la comunidad de ML en la actualidad. Para abordar esta brecha, presentamos WILDS, un punto de referencia curado de 10 conjuntos de datos que reflejan una amplia gama de cambios de distribución que surgen naturalmente en las aplicaciones del mundo real, como los cambios en los hospitales para la identificación de tumores; a través de cámaras trampa para el monitoreo de la vida silvestre; ya través del tiempo y la ubicación en imágenes satelitales y mapeo de la pobreza” (en el documento titulado “WILDS: A Benchmark of in-the-Wild Distribution Shifts” por Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu y otros).

La cantidad de tales conjuntos de datos WILDS continúa aumentando y la naturaleza de los conjuntos de datos generalmente se está mejorando para reforzar el valor de usar los datos para el entrenamiento de ML/DL.

El conjunto de datos de CivilComments se describe de esta manera: “La revisión automática del texto generado por el usuario, por ejemplo, la detección de comentarios tóxicos, es una herramienta importante para moderar el gran volumen de texto escrito en Internet. Desafortunadamente, el trabajo anterior ha demostrado que tales clasificadores de toxicidad detectan sesgos en los datos de entrenamiento y asocian falsamente la toxicidad con la mención de ciertos datos demográficos. Estos tipos de correlaciones espurias pueden degradar significativamente el rendimiento del modelo en subpoblaciones particulares. Estudiamos este problema a través de una variante modificada del conjunto de datos de CivilComments” (como se publicó en el sitio web de WILDS).

Considere los matices de las publicaciones en línea adversas.

Sin duda, te has encontrado con comentarios tóxicos al usar casi cualquier tipo de red social. Parecería casi imposible para usted evitar mágicamente ver el contenido acre y abismal que parece ser omnipresente en estos días. A veces, el material vulgar es sutil y tal vez tengas que leer entre líneas para captar la esencia del tono o significado parcial o discriminatorio. En otros casos, las palabras son descaradamente tóxicas y no necesita un microscopio o un anillo decodificador especial para descubrir qué implican los pasajes.

CivilComments es un conjunto de datos que se reunió para intentar diseñar AI ML/DL que pueda detectar computacionalmente contenido tóxico. Esto es en lo que se centraron los investigadores que subyacen al esfuerzo: “El sesgo no deseado en el aprendizaje automático puede manifestarse como diferencias sistémicas en el rendimiento de diferentes grupos demográficos, lo que podría agravar los desafíos existentes para la equidad en la sociedad en general. En este documento, presentamos un conjunto de métricas independientes del umbral que brindan una visión matizada de este sesgo no deseado, al considerar las diversas formas en que la distribución de puntajes de un clasificador puede variar entre grupos designados. También presentamos un gran conjunto de prueba nuevo de comentarios en línea con anotaciones de fuentes múltiples para referencias de identidad. Usamos esto para mostrar cómo se pueden usar nuestras métricas para encontrar sesgos no deseados nuevos y potencialmente sutiles en los modelos públicos existentes” (en un artículo titulado “Métricas matizadas para medir el sesgo no deseado con datos reales para la clasificación de pruebas” por Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Si le da a este asunto un pensamiento contemplativo amplio, puede comenzar a preguntarse cómo puede discernir qué es un comentario tóxico y qué no es un comentario tóxico. Los humanos pueden diferir radicalmente en cuanto a lo que interpretan como una redacción totalmente tóxica. Una persona puede estar indignada por un comentario o comentario en línea en particular que se publica en las redes sociales, mientras que otra persona puede no sentirse afectada en absoluto. A menudo se argumenta que la noción de comentario tóxico es un precepto totalmente vago. Es como el arte, en el que habitualmente se dice que el arte se entiende solo a través del ojo del espectador y, de la misma manera, los comentarios sesgados o tóxicos solo se encuentran en el ojo del espectador.

Balderdash, alguna réplica. Cualquiera con una mente razonable puede averiguar si un comentario en línea es tóxico o no. No es necesario ser un científico espacial para darse cuenta cuando un insulto cáustico publicado está lleno de prejuicios y odio.

Por supuesto, las costumbres sociales cambian y cambian con el tiempo. Lo que podría no haber sido percibido como ofensivo hace un tiempo, hoy puede verse como algo terriblemente incorrecto. Además de eso, las cosas que se dijeron hace años y que alguna vez se consideraron indebidamente sesgadas podrían reinterpretarse a la luz de los cambios en los significados. Mientras tanto, otros afirman que los comentarios tóxicos siempre son tóxicos, sin importar cuándo se promulgaron inicialmente. Podría afirmarse que la toxicidad no es relativa sino absoluta.

Sin embargo, la cuestión de tratar de establecer qué es tóxico puede ser un enigma bastante difícil. Podemos duplicar este asunto problemático para tratar de diseñar algoritmos o IA que puedan determinar cuál es cuál. Si los humanos tienen dificultades para hacer tales evaluaciones, es probable que programar una computadora sea igual o más problemático, dicen algunos.

Un enfoque para configurar conjuntos de datos que contienen contenido tóxico implica el uso de un método de crowdsourcing para calificar o evaluar los contenidos, ergo proporcionando un medio basado en humanos para determinar lo que se considera adverso e incluir el etiquetado dentro del propio conjunto de datos. Un AI ML/DL podría luego inspeccionar los datos y el etiquetado asociado que ha sido indicado por evaluadores humanos. Esto, a su vez, puede servir potencialmente como un medio para encontrar computacionalmente patrones matemáticos subyacentes. Listo, el ML/DL entonces podría anticipar o evaluar computacionalmente si es probable que un comentario dado sea tóxico o no.

Como se menciona en el artículo citado sobre métricas matizadas: “Esta etiqueta pide a los evaluadores que califiquen la toxicidad de un comentario, seleccionando entre 'Muy tóxico', 'Tóxico', 'Difícil de decir' y 'No tóxico'. También se preguntó a los evaluadores acerca de varios subtipos de toxicidad, aunque estas etiquetas no se usaron para el análisis en este trabajo. Usando estas técnicas de calificación, creamos un conjunto de datos de 1.8 millones de comentarios, provenientes de foros de comentarios en línea, que contienen etiquetas de toxicidad e identidad. Mientras que todos los comentarios fueron etiquetados por toxicidad, y un subconjunto de 450,000 comentarios fue etiquetado por identidad. Algunos comentarios etiquetados por identidad fueron preseleccionados utilizando modelos creados a partir de iteraciones anteriores de etiquetado de identidad para garantizar que los evaluadores de multitudes vieran el contenido de identidad con frecuencia” (en el artículo citado de Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Otro ejemplo del objetivo de tener conjuntos de datos que contengan contenido tóxico ilustrativo implica esfuerzos para entrenar sistemas interactivos conversacionales de procesamiento de lenguaje natural (NLP) basados ​​en IA. Probablemente hayas interactuado con sistemas de PNL como Alexa y Siri. He cubierto algunas de las dificultades y limitaciones de la PNL actual, incluido un caso particularmente inquietante que ocurrió cuando Alexa ofreció un consejo inadecuado y peligroso para los niños, ver el enlace aquí.

Un estudio reciente buscó usar nueve categorías de prejuicios sociales que generalmente se basaron en la lista de características demográficas protegidas de la EEOC (Comisión para la Igualdad de Oportunidades en el Empleo), que incluyen edad, género, nacionalidad, apariencia física, raza o etnia, religión, estado de discapacidad, condición sexual. orientación y condición socioeconómica. Según los investigadores: “Está bien documentado que los modelos de PNL aprenden sesgos sociales, pero se ha trabajado poco sobre cómo estos sesgos se manifiestan en los resultados del modelo para tareas aplicadas como la respuesta a preguntas (QA). Presentamos Bias Benchmark for QA (BBQ), un conjunto de datos de conjuntos de preguntas construido por los autores que resaltan los sesgos sociales comprobados contra las personas que pertenecen a clases protegidas a lo largo de nueve dimensiones sociales relevantes para los contextos de habla inglesa de EE. UU. (en un artículo titulado “BBQ : A Hand-Built Benchmark For Question Answering” por Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

La creación de conjuntos de datos que intencionalmente contienen datos sesgados y totalmente tóxicos es una tendencia creciente en la IA y se ve especialmente impulsada por el advenimiento de la ética de la IA y el deseo de producir una IA ética. Esos conjuntos de datos se pueden usar para entrenar modelos de Machine Learning (ML) y Deep Learning (DL) para detectar sesgos y descubrir patrones computacionales que implican toxicidad social. A su vez, el ML/DL entrenado en toxicidad puede orientarse juiciosamente a otra IA para determinar si la IA objetivo es potencialmente sesgada y tóxica.

Además, los sistemas ML/DL capacitados en toxicidad disponibles se pueden usar para mostrar a los desarrolladores de IA qué deben tener en cuenta para que puedan inspeccionar fácilmente los modelos y ver cómo surgen los sesgos imbuidos algorítmicamente. En general, estos esfuerzos pueden ejemplificar los peligros de la IA tóxica como parte de la ética de la IA y la conciencia ética de la IA en general.

En este punto de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos adicionales que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA ilustra algo sobre la utilidad de tener conjuntos de datos para diseñar IA tóxica y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Coches autónomos y conducción libre de IA tóxica

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Existen numerosos sesgos potenciales y es probable que algún día se materialicen en la IA que enfrentarán la aparición de vehículos autónomos y autos sin conductor, consulte, por ejemplo, mi discusión en el enlace aquí y el enlace aquí. Todavía estamos en las primeras etapas de los lanzamientos de automóviles autónomos. Hasta que la adopción alcance una escala y visibilidad suficientes, muchas de las facetas tóxicas de la IA que he estado prediciendo que finalmente ocurrirán aún no son evidentes y aún no han atraído la atención pública generalizada.

Considere un asunto aparentemente sencillo relacionado con la conducción que al principio puede parecer completamente inocuo. Específicamente, examinemos cómo determinar correctamente si detenerse para esperar a los peatones "descarriados" que no tienen el derecho de paso para cruzar una calle.

Indudablemente ha estado manejando y se encontró con peatones que estaban esperando para cruzar la calle y, sin embargo, no tenían el derecho de paso para hacerlo. Esto significaba que usted tenía la discreción de detenerse y dejarlos cruzar. Puede continuar sin dejar que crucen y aún así estar completamente dentro de las reglas legales de conducción al hacerlo.

Los estudios sobre cómo los conductores humanos deciden detenerse o no para tales peatones han sugerido que a veces los conductores humanos toman la decisión basándose en prejuicios adversos. Un conductor humano podría mirar al peatón y optar por no detenerse, aunque se habría detenido si el peatón tuviera una apariencia diferente, como por raza o género. He examinado esto en el enlace aquí.

¿Cómo se programarán los sistemas de conducción de IA para tomar el mismo tipo de decisión de parar o seguir?

Podría proclamar que todos los sistemas de conducción de IA deben programarse para detenerse siempre ante cualquier peatón que esté esperando. Esto simplifica mucho el asunto. Realmente no hay que tomar ninguna decisión complicada. Si un peatón está esperando para cruzar, independientemente de si tiene el derecho de paso o no, asegúrese de que el automóvil autónomo de IA se detenga para que el peatón pueda cruzar.

Pan comido.

La vida nunca es tan fácil, parece. Imagina que todos los coches autónomos cumplen esta regla. Los peatones inevitablemente se darían cuenta de que los sistemas de conducción de IA son, digamos, fáciles de manejar. Todos y cada uno de los peatones que quieran cruzar la calle lo harán, lo quieran o no, cuando lo deseen y dondequiera que estén.

Suponga que un automóvil autónomo viene por una calle rápida al límite de velocidad indicado de 45 millas por hora. Un peatón "sabe" que la IA detendrá el automóvil autónomo. Entonces, el peatón sale disparado a la calle. Desafortunadamente, la física le gana a la IA. El sistema de conducción de IA intentará detener el automóvil autónomo, pero el impulso del vehículo autónomo llevará el artilugio de varias toneladas hacia adelante y chocará contra el peatón descarriado. El resultado es perjudicial o produce una fatalidad.

Los peatones no suelen intentar este tipo de conductas cuando hay un conductor humano al volante. Claro, en algunos lugares hay una guerra visual que tiene lugar. Un peatón observa a un conductor. El conductor mira al peatón. Dependiendo de las circunstancias, el conductor puede detenerse o puede hacer valer su derecho a la carretera y aparentemente desafiar al peatón a intentar interrumpir su camino.

Presumiblemente, no queremos que la IA entre en una guerra visual similar, lo que también es un poco desafiante de todos modos, ya que no hay una persona o robot sentado al volante del automóvil autónomo (he discutido la posibilidad futura de robots esa unidad, mira el enlace aquí). Sin embargo, tampoco podemos permitir que los peatones siempre tomen las decisiones. El resultado podría ser desastroso para todos los interesados.

En ese caso, podría tener la tentación de pasar al otro lado de esta moneda y declarar que el sistema de conducción de IA nunca debería detenerse en tales circunstancias. En otras palabras, si un peatón no tiene el derecho de paso adecuado para cruzar la calle, la IA siempre debe asumir que el automóvil autónomo debe avanzar sin cesar. Mala suerte para esos peatones.

Una regla tan estricta y simplista no va a ser bien aceptada por el público en general. Las personas son personas y no les gustará que se les impida por completo cruzar la calle, a pesar de que legalmente carecen de un derecho de paso para hacerlo en varios entornos. Fácilmente podría anticipar un alboroto considerable del público y posiblemente ver una reacción violenta contra la adopción continua de automóviles autónomos.

Maldito si lo hacemos, y maldito si no lo hacemos.

Espero que esto lo haya llevado a la alternativa razonada de que la IA debe programarse con una apariencia de toma de decisiones sobre cómo lidiar con este problema de conducción. Una regla estricta de no detenerse nunca es insostenible y, del mismo modo, una regla estricta de detenerse siempre también es insostenible. La IA debe diseñarse con alguna toma de decisiones algorítmica o ADM para tratar el asunto.

Podría intentar usar un conjunto de datos junto con un enfoque ML/DL.

Así es como los desarrolladores de IA podrían decidir programar esta tarea. Recopilan datos de cámaras de video que se colocan alrededor de una ciudad en particular donde se utilizará el automóvil autónomo. Los datos muestran cuándo los conductores humanos optan por detenerse ante los peatones que no tienen el derecho de paso. Todo se recopila en un conjunto de datos. Mediante el uso de Machine Learning y Deep Learning, los datos se modelan computacionalmente. El sistema de conducción AI luego usa este modelo para decidir cuándo detenerse o no.

En general, la idea es que cualquiera que sea la costumbre local, así es como la IA va a dirigir el automóvil autónomo. ¡Problema resuelto!

Pero, ¿está realmente resuelto?

Recuerde que ya había señalado que hay estudios de investigación que muestran que los conductores humanos pueden estar sesgados en sus elecciones de cuándo detenerse para los peatones. Es de suponer que los datos recopilados sobre una ciudad en particular contendrán esos sesgos. Un AI ML/DL basado en esos datos probablemente modelará y reflejará esos mismos sesgos. El sistema de conducción de IA simplemente llevará a cabo los mismos sesgos existentes.

Para tratar de resolver el problema, podríamos armar un conjunto de datos que de hecho tenga tales sesgos. O encontramos dicho conjunto de datos y luego etiquetamos los sesgos, o creamos sintéticamente un conjunto de datos para ayudar a ilustrar el asunto.

Se llevarían a cabo todos los pasos identificados anteriormente, incluidos:

  • Configure un conjunto de datos que intencionalmente contenga este sesgo particular
  • Use el conjunto de datos para entrenar modelos de Machine Learning (ML) y Deep Learning (DL) sobre la detección de este sesgo específico
  • Aplique el ML/DL entrenado en sesgo hacia otra IA para determinar si la IA objetivo está potencialmente sesgada de la misma manera.
  • Poner a disposición el ML/DL entrenado en sesgo para mostrar a los desarrolladores de IA lo que deben tener en cuenta para que puedan inspeccionar fácilmente sus modelos y ver cómo surgen los sesgos imbuidos algorítmicamente.
  • Ejemplifique los peligros de la IA sesgada como parte de la ética de la IA y la conciencia ética de la IA a través de este ejemplo específico adicional
  • Otro

Conclusión

Repasemos la línea de apertura.

Que toma uno para conocer uno.

Algunos interpretan que este dicho increíblemente frecuente implica que cuando se trata de descubrir IA tóxica, deberíamos dar el debido crédito a la construcción y uso de IA tóxica para descubrir y tratar con otra IA tóxica. En pocas palabras: a veces se necesita un ladrón para atrapar a otro ladrón.

Una preocupación expresada es que tal vez nos estemos esforzando para comenzar a hacer ladrones. ¿Queremos diseñar una IA que sea tóxica? ¿No te parece una idea loca? Algunos argumentan con vehemencia que deberíamos prohibir toda la IA tóxica, incluida la IA que se construyó a sabiendas, incluso si supuestamente para un acto heroico o valiente. AI para siempre propósito.

Aplaste la IA tóxica en cualquier forma inteligente o insidiosa que pueda surgir.

Un último giro en este tema por ahora. Generalmente asumimos que esta famosa línea tiene que ver con personas o cosas que cometen actos malos o amargos. Así es como aterrizamos en la noción de que se necesita un ladrón para atrapar a un ladrón. Tal vez deberíamos darle la vuelta a este dicho y convertirlo en una cara más feliz que triste.

Aquí le explicamos cómo.

Si queremos una IA que sea imparcial y no tóxica, podría ser concebible que se necesite uno para conocer uno. Quizás se necesita lo mejor y más grande para reconocer y engendrar más grandeza y bondad. En esta variante de la sabia sabiduría, mantenemos nuestra mirada en la cara feliz y apuntamos a concentrarnos en idear IA para siempre.

Ese sería un punto de vista más optimista y satisfactoriamente alegre sobre lo que se necesita para conocer uno, si sabes a lo que me refiero.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- beneficioso-incluido-para-los-coches-autónomos-que-se-conducen/