La ética de la IA se enfrenta a la insidiosa mente única del monocultivo algorítmico de la IA, incluso para los vehículos autónomos autónomos

Echemos un vistazo a un enigma desconcertante.

Se dice que las grandes mentes piensan igual.

Sin duda, has escuchado ese eslogan útil muchas veces. Durante algunas conversaciones ociosas, si usted y un colega o amigo logran llegar a la misma idea en el mismo momento preciso, uno de ustedes seguramente exclamará con júbilo que las grandes mentes piensan igual. Esta es, sin duda, una declaración halagadora sobre usted y su prójimo.

Hay otra sabiduría sabia que podemos agregar a esta mezcla.

Se dice que los tontos rara vez difieren.

Me gustaría reformular ligeramente ese adagio. El dicho aparentemente razonablemente equivalente sería que los tontos tienden a pensar igual. Me doy cuenta de que podría objetar un poco la reformulación de la famosa línea. No obstante, parece relativamente exacto que si los tontos rara vez difieren, se puede inferir que los tontos predominantemente tienden a desviarse hacia el pensamiento similar. Espero que eso no cause demasiada acidez estomacal o consternación en cuanto a la alteración desviada de una sagrada pieza de sabiduría.

Estamos ahora en el momento peligroso de este dilema.

Supongamos que admitimos abiertamente que la noción de que las grandes mentes piensan igual es cierta en general, y al mismo tiempo aceptamos que la afirmación de que los tontos tienden a pensar igual también es cierta. Cuando te encuentras con un grupo de personas que piensan igual, tengo que hacerte una pregunta simple.

¿Son todos grandes mentes o son todos tontos?

¡Sí!

De acuerdo con la regla sobre las grandes mentes, presumiblemente tienen una gran mente. Por otro lado, según la regla de los tontos, aparentemente todos son tontos. Parece que tenemos un problema. Usted podría tartamudear que tal vez estos pensadores de ideas afines son tontos y de gran mentalidad. ¿Puedes ser ambos al mismo tiempo? Parece que estás tratando de hacer la pregunta.

Podría argumentar fervientemente que pensar de la misma manera no transmite nada acerca de si la reunión está pensando en grande o tontamente. Tal vez sin darnos cuenta hemos invertido la lógica. Cualquier conjunto de personas que piensen igual simplemente piensan igual. No se puede tratar de superponer su semejanza de pensamiento con ser etiquetados como un conjunto de grandes mentes o mentes tontas. Pueden ser mentes confusas. Podrían ser mentes persuadidas. En esencia, la caracterización podría no necesariamente caer en la dicotomía un tanto falsa de ser simplemente grandioso o tonto.

Hay todo tipo de percepciones que se asocian a escenarios que involucran a personas que poseen una mente similar.

Según los informes, Mahatma Gandhi dijo que un pequeño grupo de personas decididas y de ideas afines puede cambiar el curso de la historia. Esto seguramente muestra la inmensa potencia de tener mentes similares. Platón advirtió que cuando se trata de mentes que están cerradas, lo que podría sugerir que podría ser un grupo inflexible de personas de ideas afines, puede obtener esto: "Esto solo es de temer: la mente cerrada, la imaginación dormida, el muerte de espíritu.”

¿Adónde voy con esta letanía de curiosidades sobre mentes afines?

Bueno, resulta que existe la preocupación de que la IA nos lleve gradualmente por un camino inevitable e indeseable de tener algoritmos de IA de ideas afines que gobiernan nuestras actividades cotidianas. Esto se denomina sumariamente como Monocultivo algorítmico de IA.

Nos dirigimos hacia una circunstancia en la que la sociedad depende de sistemas de IA omnipresentes que pueden tener las mismas o casi las mismas capacidades algorítmicas subyacentes. En ese sentido, somos vulnerables a la afinidad en una escala masiva que existirá en todo el mundo.

Antes de profundizar en este tema, quiero aclarar de inmediato que no me estoy refiriendo a la IA que es sensible. Como explicaré en un momento, hoy no tenemos IA sensible. A pesar de esos titulares salvajes y con los ojos muy abiertos que proclaman que tenemos una IA sensible, este no es el caso en absoluto y debe ignorarse por completo.

La razón por la que enfatizo este punto importante es que cuando describo a la IA como "de ideas afines", no quiero que llegues a la conclusión de que la IA actual es de alguna manera equivalente a la mente humana. Seguro que no. Por favor, no hagas ese tipo de asociación antropomórfica. Mi uso de la frase de ideas afines solo tiene la intención de resaltar que los algoritmos de IA pueden estar compuestos de tal manera que funcionen de la misma manera. Sin embargo, no están "pensando" en ninguna apariencia de lo que interpretaríamos como una calidad humana de pensamiento. Voy a decir más sobre esto en breve aquí.

La IA que tiene "ideas afines" en términos de tener una construcción monocultural algorítmica es algo que podemos evaluar como malo y bueno a la vez. El lado malo de las cosas es que si esta IA de uniformidad utilizada y empleada comúnmente está plagada de sesgos e inclusiones discriminatorias, es probable que la IA se use insidiosamente de forma generalizada y promulgue estas prácticas desagradables en todas partes. El lado bueno de las cosas es que si la IA se diseña adecuadamente y se realiza sin prejuicios ni inclusiones discriminatorias, esperamos que la equidad se infunda ampliamente. Todo esto tiene implicaciones demostrativas de ética de IA y ética de IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí.

Aquí están mis prácticas siete reglas generales sobre el monocultivo algorítmico de IA:

1) El monocultivo algorítmico de IA consiste en emplear los mismos o casi los mismos algoritmos subyacentes que luego se utilizan ampliamente para tomar decisiones que afectan a los humanos.

2) Tal IA puede proporcionar consistencia y confiabilidad, aunque esta es una espada de doble filo

3) Un lado es que la IA que transmite sesgos adversos se propaga fácilmente y se usa una y otra vez de manera adversa (eso es malo)

4) El otro lado es que la IA que encarna la equidad y otras propiedades justamente deseables podría difundirse ampliamente afortunadamente (eso es bueno)

5) Existe un cierto tipo de vulnerabilidad en todo el sistema cuando se tiene una homogeneidad de IA de este calibre y puede verse socavado en gran medida por impactos disruptivos.

6) A veces se podría preferir la heterogeneidad de la IA, aunque esto plantea la preocupación de que podrían surgir grandes incongruencias.

7) Todos debemos estar pensando, observando y compitiendo con el monocultivo algorítmico de IA

Antes de entrar en más carne y papas sobre las consideraciones salvajes y lanudas que subyacen al monocultivo algorítmico de IA, establezcamos algunos fundamentos adicionales sobre temas profundamente integrales. Necesitamos sumergirnos brevemente en la ética de la IA y especialmente en el advenimiento del aprendizaje automático (ML) y el aprendizaje profundo (DL).

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos a nuestro enfoque en el monocultivo algorítmico de IA.

Todos parecemos darnos cuenta de que en el mundo interconectado basado en lo digital de hoy en día, podemos ser excluidos al tener incluso un diminuto bit de datos que se encuentra en una base de datos y parece ir a donde sea que vayamos. Por ejemplo, suponga que existe una base de datos que contiene un dato que contiene un indicador de que usted no es solvente. Esto puede ser cierto sobre ti o puede ser completamente falso. Es posible que sepa que la base de datos contiene esta información o que no lo sepa por completo. Este es un gran juego de dados de un universo saturado de datos en el que todos estamos inmersos.

La base de datos que contiene este indicador podría compartir fácilmente ese aspecto vital sobre usted con otras bases de datos en otros lugares. En un abrir y cerrar de ojos, las bases de datos conectadas electrónicamente en todo el mundo podrían tener la bandera ahora transmitida de que usted no es solvente. Si opta por solicitar un préstamo, lo más probable es que alguna aplicación de aprobación de préstamos se comunique con una de esas bases de datos y recupere la bandera que dice que debe ser rechazado. Puede intentar obtener un préstamo mientras se encuentra en una parte del mundo y ser rechazado sumariamente. Viajar a otra área podría servir de poco. La interconexión de las bases de datos lo acosará sin importar qué tan lejos viaje.

Afortunadamente, existen varias leyes sobre datos y privacidad que se han promulgado gradualmente. Las leyes difieren notablemente de un país a otro. También pueden diferir de un estado a otro. Pero al menos existe una conciencia de los peligros asociados con tener datos en bases de datos que pueden difundir rápidamente información sobre usted. La esperanza es que tenga un recurso legal para tratar de prevenir información falsa o al menos ser consciente de que existe sobre usted. Ver mi cobertura en el enlace aquí sobre intrusiones en la privacidad e IA.

Supongo que se podría decir que los datos sobre usted son una especie de juego proverbial de "etiqueta, lo eres" (en el que a veces queremos ser la persona etiquetada y otras veces deseamos no serlo).

Tomar una respiración profunda.

Supongamos que agitamos una varita mágica y podemos garantizar milagrosamente que esta homogeneidad de datos sobre usted no va a suceder. Logramos que toda la sociedad se una y detenga este tipo de actos. Ergo, puede asumir que ya no está en peligro de tales preocupaciones.

Lamento decirlo, te estarías perdiendo los peligros impuestos por el monocultivo algorítmico de IA.

Este es el por qué.

Volveremos al ejemplo de tratar de obtener un préstamo. Imagine que acude a un prestamista y está utilizando un sistema de inteligencia artificial que tiene un algoritmo particular al que nos referiremos como algoritmo Y. En su caso, cuando solicita y proporciona sus detalles, el algoritmo Y está escrito de tal manera que sobre la marcha determinará matemáticamente si se le debe o no rechazar el préstamo. Esencialmente, este algoritmo puede "decidir" que usted no es digno de crédito.

Tenga en cuenta que estamos fingiendo en este caso que la IA no se comunicó con una base de datos para tratar de obtener su solvencia crediticia. Por lo tanto, no hay posibilidad de que la IA haya hecho un rechazo basado en algún dato que estaba en una base de datos aquí o allá. Toda la elección se hizo a través del algoritmo Y en cuanto a los cálculos involucrados.

La IA indica que se le rechazó el préstamo. Estoy seguro de que se sentiría decepcionado con este resultado. Aunque podría encogerse de hombros y optar por ir a un prestamista diferente. Una vez más, sabe con certeza que no hay una base de datos que lo esté eliminando de la contienda. En su mente, todo lo que necesita hacer es seguir probando con diferentes prestamistas y eventualmente obtendrá la luz verde.

Al ir a otro prestamista, una vez más te rechazan. Esto es desconcertante. Intenta con otro prestamista, pero lo rechazan rápidamente. Uno tras otro, cada intento conduce al mismo resultado desalentador. Estás exasperado. Estás irritado sin fin.

¿Qué diablos está pasando?

¿Todos estos prestamistas han conspirado en secreto para asegurarse de que no obtenga un préstamo?

La respuesta corta es “No” y vamos a decir que no conspiraron per se. En cambio, todos ellos hicieron uso del algoritmo Y. No "conspiraron" en el sentido de reunirse en una trastienda y aceptar usar el algoritmo Y en su IA. No hubo una reunión al estilo de la mafia que dijera que todos usarían el algoritmo Y. Como nota al margen, se supone que eso podría suceder, pero por el bien de la discusión, vamos a dejar esas alternativas a un lado por ahora. .

Hay una razón perfectamente sensata por la que el algoritmo Y podría ser utilizado por todos estos prestamistas separados y distintos. Podría ser que el algoritmo Y esté disponible como código abierto. Los desarrolladores de IA en cada uno de esos diferentes prestamistas podrían, en cada caso, simplemente haber llegado a una biblioteca de código abierto y copiado ese fragmento de código en su sistema de IA.

Esta fue probablemente la forma más fácil y rápida de hacer el trabajo. No es necesario intentar desde cero diseñar ese algoritmo Y. En unos pocos minutos de acceso en línea, la codificación ya está hecha y lista para usar directamente. Copiar y pegar. Además, es posible que pueda evitar tener que depurar el código. Su suposición podría ser que el código ya está bien probado y que no es necesario que reinvente la rueda.

De acuerdo, prestamista tras prestamista, todos inocentemente optan por usar el algoritmo Y. Existe una gran posibilidad de que el algoritmo Y se conozca como el "estándar de oro" que se utilizará para determinar la solvencia crediticia. Y esto hará que la adopción de ese algoritmo en particular sea aún más popular. Los desarrolladores de IA no solo están ahorrando tiempo al usarlo, sino que también están jugando a lo seguro. Todos los demás juran que el algoritmo es viable para su uso. ¿Por qué deberías luchar contra la sabiduría de la multitud? Parecería imprudente hacerlo.

Bienvenido a la era del monocultivo algorítmico de IA.

Hemos descubierto aquí a través de este ejemplo que el mismo algoritmo se puede usar fácilmente una y otra vez en una multitud de sistemas de IA. No hay especialmente una conspiración al respecto. No hay una trama malvada súper tonta a la mano. En lugar de esos esquemas malévolos, un algoritmo particular se vuelve dominante debido a lo que podría describirse como razones virtuosas y beneficiosas.

En años anteriores, existía la posibilidad de utilizar ampliamente los mismos algoritmos, aunque era necesario superar más obstáculos. Hoy en día, se accede casi sin esfuerzo al uso de centros de almacenamiento de algoritmos. El código abierto es más aceptado que quizás en generaciones anteriores. Y así.

Con el único ejemplo del prestamista que hemos estado explorando, podríamos terminar con dos prestamistas, veinte prestamistas, doscientos prestamistas, dos mil prestamistas, o tal vez cientos de miles de prestamistas, todos optando por usar el mismo algoritmo Y en su AI. El algoritmo AI es un éxito seguro. Está siendo seleccionado e integrado en la IA en todo el mundo.

Nadie está levantando banderas rojas. No hay razón aparente para hacerlo. En todo caso, la bandera roja podría levantarse cuando algún prestamista opte por no usar el algoritmo Y. Oye, la pregunta podría ser exhortada, no estás usando el algoritmo Y. ¿Qué pasa? ¿Está tratando deliberadamente de hacer algo turbio o sucio? Actúen juntos y suban a bordo con todos los demás.

Extrapolar este mismo monocultivo conceptual a todo tipo de sistemas de IA y todo tipo de algoritmos.

Un estudio de investigación describió el fenómeno de esta manera: "El aumento de los algoritmos utilizados para dar forma a las elecciones sociales se ha visto acompañado por preocupaciones sobre la monocultura: la noción de que las elecciones y preferencias se volverán homogéneas frente a la curación algorítmica" (Jon Kleinberga y Manish Raghavana, “Monocultivo algorítmico y bienestar social” PNAS 2021). Además, señalan: "Incluso si los algoritmos son más precisos caso por caso, un mundo en el que todos usan el mismo algoritmo es susceptible de fallas correlacionadas cuando el algoritmo se encuentra en condiciones adversas".

Ahora podemos revisar de manera útil mi conjunto anterior de siete reglas sobre el monocultivo algorítmico de IA:

1) El monocultivo algorítmico de IA consiste en emplear los mismos o casi los mismos algoritmos subyacentes que luego se utilizan ampliamente para tomar decisiones que afectan a los humanos.

2) Tal IA puede proporcionar consistencia y confiabilidad, aunque esta es una espada de doble filo

3) Un lado es que la IA que transmite sesgos adversos se propaga fácilmente y se usa una y otra vez de manera adversa (eso es malo)

4) El otro lado es que la IA que encarna la equidad y otras propiedades justamente deseables podría difundirse ampliamente afortunadamente (eso es bueno)

5) Existe un cierto tipo de vulnerabilidad en todo el sistema cuando se tiene una homogeneidad de IA de este calibre y puede verse socavado en gran medida por impactos disruptivos.

6) A veces se podría preferir la heterogeneidad de la IA, aunque esto plantea la preocupación de que podrían surgir grandes incongruencias.

7) Todos debemos estar pensando, observando y compitiendo con el monocultivo algorítmico de IA

Como se señaló en mi regla n.º 2, hay una espada decididamente de doble filo sobre el monocultivo algorítmico de IA.

Según mi regla #3, podrías terminar en el extremo corto del palo. Si usted es rechazado por un prestamista tras otro, donde quiera que vaya, y si el algoritmo Y está haciendo esto basado en un sesgo u otra base inapropiada, lamentablemente está maldito. Le resultará mucho más difícil tratar de anular esto. En el caso de datos sobre usted en una base de datos, lo más probable es que tenga algún recurso legal y también un reconocimiento general de lo que pueden hacer los datos incorrectos. Pocas personas comprenderían que un mal algoritmo te está siguiendo hasta los confines de la tierra.

Según mi regla n.º 4, existe una ventaja potencial para el monocultivo algorítmico de IA. Suponga que el algoritmo Y está justamente impidiéndole obtener un préstamo. Es posible que hayas intentado astuta y perniciosamente engañar las cosas comprando. Dado que el mismo algoritmo Y se usa ampliamente, es poco probable que sus compras encuentren oro. Aunque es posible que no nos guste la idea de una posibilidad persistente y común de equidad de algoritmos (si existe tal cosa, vea mi análisis en el enlace aquí), posiblemente podamos regocijarnos cuando algo bueno se difunda ampliamente.

A continuación, hablemos de los choques.

En mi regla n.° 5, indico que existe un problema subyacente de que un monocultivo algorítmico de IA podría estar sujeto a una interrupción masiva. Esto se explica fácilmente. Imagine que hay un error de software en el algoritmo Y. Nadie lo notó. Durante eones, se ha estado escondiendo allí a plena vista. En caso de que dude de que esto pueda suceder alguna vez, es decir, que un error esté en el código fuente abierto y aún no se haya encontrado antes, consulte mi cobertura en el enlace aquí de tales instancias.

El error surge y hace que el algoritmo Y ya no sea la pieza de código glorificada que todos pensaban que era. Date cuenta de que este error se encuentra en esos miles y miles de sistemas de IA. En poco tiempo, el error podría encontrarse en todo el planeta, y rápidamente nos encontraremos frente a un desastre horrendo. Dado que todos pusieron sus huevos en una canasta, y dado que la canasta ahora está totalmente mal, lo mismo está ocurriendo en todo el mundo.

Un desastre de proporciones épicas.

En teoría, esto no habría sucedido fácilmente si cada uno de los prestamistas hubiera estado diseñando sus propios algoritmos patentados. Lo más probable es que si uno de ellos tuviera un error, los otros no. En el caso de que todos usen el mismo código base, todos tienen el mismo error.

Maldito si lo haces, maldito si no lo haces.

Estoy seguro de que algunos de ustedes están gritando que la buena noticia sobre el error en un entorno de monocultivo es que si hay una solución disponible, todos pueden simplemente implementar la misma solución. Esta parecería ser una forma brillante y soleada de ver el asunto. Sí, eso podría funcionar. Sin embargo, la esencia aquí es que existe una mayor probabilidad de una interrupción generalizada. Incluso si la resolución puede ser más fácil de manejar, aún se enfrenta a la masividad de la interrupción debido a las facetas del monocultivo.

Además de la instancia de un error que podría causar una conmoción, podemos encontrar muchos otros escenarios desconcertantes. Uno sería un delincuente cibernético que idea una forma malvada de usurpar un algoritmo de uso popular. El malhechor podría tener una bonanza en sus manos. Pueden pasar de IA a IA, haciendo que la IA haga algo cobarde. Todo porque se utilizó el mismo algoritmo una y otra vez. La escala masiva se puede aprovechar para el bien y, lamentablemente, se puede explotar potencialmente para el mal.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​​​en IA ilumina algo sobre la monocultura algorítmica de IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos autónomos y monocultivo algorítmico de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Comenzaremos enunciando algunos fundamentos cruciales. Se están diseñando sistemas de conducción de IA para probar y operar de manera segura los automóviles autónomos. Algunos fabricantes de automóviles y empresas de tecnología de vehículos autónomos están codificando de forma patentada. Otros confían en el código fuente abierto.

Imagine que algún algoritmo Z está disponible en repositorios de código abierto y es útil para su uso en sistemas de conducción de IA. Un fabricante de automóviles o una empresa de tecnología de conducción autónoma incorpora el algoritmo Z en su sistema de conducción de IA. Esto se integrará integralmente en su sistema de conducción de IA.

Si ponen, digamos, una docena de autos sin conductor en las carreteras, todos esos vehículos autónomos contendrán el algoritmo Z como parte del software integrado del sistema de conducción de IA. Gradualmente, asumiendo que los autos sin conductor conducen de manera segura, la flota aumenta en tamaño a veinte autos sin conductor en las carreteras. Se toma la decisión de aumentar aún más. Pronto, dos mil autos sin conductor de esa flota están ahora en las calles y carreteras. Y así.

Otro fabricante de automóviles también está utilizando el algoritmo Z en su sistema de conducción. Ellos también están desplegando sus autos sin conductor. Su flota se incrementa en tamaño. Pronto tendrán miles de sus autos sin conductor deambulando de aquí para allá.

Confío en que usted puede ver hacia dónde se dirige esto.

Podemos encontrarnos en un monocultivo algorítmico de IA en medio de la llegada de los autos sin conductor basados ​​en IA. Una multitud de marcas y modelos de vehículos autónomos pueden tener un algoritmo particular que se utiliza en algún lugar de su sistema de conducción de IA. No hubo ninguna colusión en esto. No hay grandes conspiraciones en juego.

En términos de cuántos autos sin conductor podríamos tener algún día en nuestras carreteras, existe un acalorado debate sobre ese tema. Sabemos que solo en los Estados Unidos hay alrededor de 250 millones de automóviles conducidos por humanos en la actualidad. Algunos sugieren que, ergo, necesitaremos alrededor de 250 millones de autos sin conductor, suponiendo que eventualmente eliminemos los autos conducidos por humanos o que naturalmente sean abandonados y reemplazados por autos sin conductor.

No tan rápido, exhortan algunos. Los automóviles conducidos por humanos pasan alrededor del 90% o más de su tiempo sin usarse. En general, los autos conducidos por humanos se sientan estacionados y esperan que un conductor humano los conduzca. Los autos autónomos basados ​​en IA pueden estar manejando todo el tiempo, prácticamente. Presumiblemente, podría tener un automóvil autónomo de IA funcionando las 24 horas, los 7 días de la semana, excepto durante el mantenimiento u otro tiempo de inactividad requerido.

En ese caso, aparentemente no necesitará 250 millones de autos sin conductor para reemplazar uno por uno los 250 millones de autos conducidos por humanos. Quizás 200 millones de autos sin conductor serán suficientes. Tal vez 100 millones. Nadie puede decirlo con certeza. Para mi evaluación de este problema, véase el enlace aquí.

Por el momento, solo quiero señalar que podríamos tener muchos millones y millones de autos que se conducen solos, en última instancia, deambulando por nuestras carreteras y caminos secundarios. Cuántos de ellos tendremos en última instancia precisamente en las carreteras no es una preocupación crucial por el bien de este discurso. Sin duda habrá muchos millones. Este dimensionamiento en general es importante debido al monocultivo algorítmico de IA y la propiedad clave de encontrar ventajas y desventajas a gran escala.

Aquí está el giro.

Por una suerte atrozmente horrible, hay un problema grave dentro del algoritmo Z que nadie logró notar previamente. Hay un error que hará que el resto del sistema de conducción de IA falle.

Malas noticias.

Para aquellos de ustedes que están inmersos en el diseño de sistemas de conducción de IA, me doy cuenta de que generalmente no les gustan este tipo de escenarios en el peor de los casos, y aunque las posibilidades son quizás escasas, vale la pena discutirlas. No podemos mantener la cabeza en la arena. Mejor estar con los ojos bien abiertos y buscar prevenir o al menos mitigar este tipo de calamidades.

En teoría, un automóvil autónomo de IA que contenga este error podría intentar embestir y chocar con casi cualquier cosa y todo lo que esté a su alcance para hacerlo. La IA simplemente está haciendo lo que fue "diseñada" para hacer en este entorno. Esto sería desastroso.

Algunos de ustedes podrían estar pensando que el hecho de que un automóvil autónomo de IA encuentre el error no parecería un gran problema en sí mismo. Digo eso porque una vez que el automóvil autónomo de IA choca contra algo como un camión o lo que sea, es probable que el vehículo en sí esté tan dañado que la IA ya no pueda dirigirlo activamente para llevar a cabo más caos y destrucción. Está muerto en el agua, por así decirlo.

Bueno, considere el factor de escala involucrado.

Si hay millones y millones de autos sin conductor y todos ellos confían en el mismo algoritmo Z incrustado, podrían ejecutar el mismo error con tristeza.

Sé y reconozco que este error puede corregirse o superarse mediante el uso de una actualización de software distribuida electrónicamente OTA (Over-The-Air). Como antecedentes rápidos, muchos se han entusiasmado con las ventajas de usar OTA. Cuando se necesita una actualización de software, no tendrá que llevar un automóvil autónomo de IA a un taller de reparación de automóviles o a un concesionario. La OTA se puede hacer prácticamente donde sea que esté el automóvil autónomo (con limitaciones).

Mientras tanto, hasta que resolvamos el error y la solución, y antes de enviarlo a través de OTA, los autos autónomos en las carreteras seguirán estando en una postura precaria. Algunos se habrán encontrado con el error y se habrán torcido. Otros están a punto de hacerlo.

Podríamos optar por insistir en que, por el momento, todos los automóviles autónomos se detengan en su lugar y no se utilicen más hasta que la corrección de OTA se transmita a los sistemas de conducción de IA. Imagina la interrupción. Supongamos que nos quedan muy pocos autos conducidos por humanos. También es probable que los autos sin conductor no estén equipados con controles de conducción humana. En esencia, podría terminar con una puesta a tierra de 200 millones (o el número que sea) de autos sin conductor mientras solucionamos el error.

Si la sociedad se ha vuelto dependiente de los autos que conducen por sí mismos, prácticamente ha cerrado la sociedad desde una perspectiva de movilidad, al menos hasta que se elimine la corrección del error.

Ahora, eso sería un impacto perjudicial e impactante para el sistema, por así decirlo.

Sospecho que la idea de un insecto al acecho que realiza acciones abismales parecería casi imposible de imaginar, aunque al mismo tiempo no podemos descartar la posibilidad en su totalidad. Hay otras posibilidades, como vulnerabilidades cibernéticas que podrían existir. He discutido, por ejemplo, cómo un estado-nación deshonesto podría intentar llevar a cabo un acto atroz al explotar una debilidad en un sistema de conducción de IA, vea mi discusión en el enlace aquí. Además, para conocer mis detalles sobre cómo se podría llevar a cabo una toma de control maliciosa de los autos autónomos de IA, consulte mi cobertura en el enlace aquí.

Conclusión

La afinidad es tanto una bendición como una maldición.

Anteriormente notamos que Gandhi dijo que aquellos con ideas afines pueden lograr grandes cosas. La IA que tiene "pensamientos afines" puede potencialmente lograr grandes cosas. Platón nos advirtió que las mentes cerradas pueden ser un grave peligro. Si tenemos sistemas de ideas afines a nuestro alrededor, nos enfrentamos potencialmente a los peligros que acechan de elementos subvertidos involuntarios (o intencionales) que pueden dañar a algunos de nosotros o tal vez a todos.

Necesitamos tener una mente abierta sobre el monocultivo algorítmico de IA. Si hacemos las cosas bien, podríamos aprovechar la bondad y evitar la maldad.

Pero sólo si estamos en lo correcto en nuestras mentes acerca de todo.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-incluido-para- coches-autónomos-que-se-conducen/