La ética de la IA desconfía del empeoramiento de la asimetría de la IA en medio de los humanos que obtienen el extremo corto del palo

A veces estás en el lado equivocado del palo.

Ese coloquialismo se puede aplicar a la noción de asimetría.

Sí, voy a estar hablando de asimetría. Como probablemente te hayas dado cuenta en este mundo al revés en el que vivimos, hay ocasiones en las que puedes encontrarte con menos conocimiento sobre un asunto que es relativamente importante para ti. Esto se conoce formalmente como Asimetría de la información.

La clave es que usted tiene menos conocimiento o información de lo que desearía tener, además de que definitivamente tiene menos que la otra parte involucrada en el asunto. Usted está en clara desventaja en comparación con la otra parte. Ellos saben algo que tú no sabes. Pueden aprovechar lo que saben, especialmente en términos de lo que usted no sabe, y tomar ventaja en cualquier negociación o deliberación complicada con usted.

Bueno, hay un chico nuevo en la ciudad, conocido como Asimetría de IA.

Este último eslogan se refiere a la posibilidad de que te enfrentes a alguien que está armado con IA, mientras que tú no estás tan armado.

Ellos tienen la IA de su lado, mientras que tú tienes, bueno, solo tú. Las cosas están torcidas. Estás en una supuesta desventaja. El otro lado podrá correr en círculos a tu alrededor gracias a la mejora de la IA. Eso podría estar dentro del famoso dicho de que todo vale en el amor y en la guerra (un antiguo proverbio acuñado en euhuees por John Lyly, 1578), aunque la dinámica y los peligros de la asimetría de la IA plantean problemas desafiantes de ética de la IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Antes de saltar al ámbito de la IA y sus abundantes complejidades con respecto a la asimetría de la IA, primero exploremos la versión normal cotidiana de la asimetría de la información simple y antigua. Esto preparará el escenario para convertirse en el proverbial chico nuevo de IA en el bloque.

Una historia breve y deliberadamente esclarecedora podría abrirle el apetito.

El otro día tuve un neumático pinchado mientras estaba en la carretera y estaba buscando rápidamente un reemplazo adecuado que pudiera instalarse de inmediato. Usando mi teléfono inteligente, busqué en línea tiendas de llantas cercanas para averiguar la distancia que tenía que conducir con mi llanta desinflada y si había alguna tienda abierta. Además, hice una evaluación rápida de las reseñas de sus clientes en línea y traté de obtener algo útil sobre cuánto tiempo habían estado en el negocio y otros factores que pudieran mostrar su valía.

Al llamar a una de las tiendas de llantas, el empleado me dio una cotización despreocupada por el costo de la llanta y su instalación. La llanta no era exactamente lo que tenía en mente, pero el dependiente me aseguró que sería la única tienda en el área que podría hacer el trabajo de inmediato. Según el empleado, cualquiera de las otras tiendas de llantas cercanas no tendría tales llantas en existencia y esos competidores tardarían al menos un día en obtener una llanta adecuada de algún almacén semidistante.

Estaba en medio de una asimetría de información.

El empleado afirmó saber más sobre el estado local de las tiendas de neumáticos y, en particular, el tipo de neumático que necesitaba. Estaba en un área por la que solo estaba de paso y no tenía ningún conocimiento de primera mano sobre las tiendas de neumáticos en esa área geográfica en particular. Por lo que yo sabía, el empleado estaba en lo cierto y me estaba diciendo la verdad sin adornos.

Pero, ¿lo estaba haciendo el empleado?

Tal vez sí tal vez no.

Podría ser que el escribano creyera sinceramente todo lo que me estaba transmitiendo. Para el empleado, esta era la verdad. O tal vez el empleado estaba exagerando un poco la verdad. Era posible que lo que se decía pudiera ser cierto, aunque la forma en que se representaba implicaba que era la verdad absoluta e irrefutable. Por supuesto, también podría haber sido una completa tontería y el empleado simplemente estaba pagando un chelín para que la tienda de neumáticos ganara mi negocio. ¿Podría haber estado en juego una jugosa comisión?

Me atrevo a decir que a nadie le gusta estar en una posición tan desvalida.

Lo que está en juego en la situación es un factor vital en la importancia de la asimetría de la información. Si la pregunta en cuestión es de vida o muerte, estar en la caseta del perro y depender de la otra parte por lo que saben o profesan saber es una postura incompleta y muy indeseable en la que estar. Cuando hay poco en juego , como ordenar su cena en un restaurante y el servidor le dice que el plato de pescado es celestial, pero nunca ha comido allí antes y está mal informado, puede aceptar esta mínima asimetría de información sin mucha angustia (yo suponga también que también está apostando a que el mesero no se arriesgaría a dar un mal consejo y perdería una propina decente).

Volviendo a la historia de los neumáticos desgastados (¡un juego de palabras!), no habría tenido una forma instantánea de averiguar si el empleado me estaba dando información confiable e informativa. Te estarás preguntando qué pasó. Decidí hacer llamadas a varias de las otras tiendas de neumáticos cercanas.

¿Estás listo para lo que descubrí?

Todas las otras tiendas de llantas tenían mi llanta deseada en stock y no iban a tratar de persuadirme para que tomara una llanta diferente (como trató de hacer el primer empleado). También podrían hacer el trabajo en el mismo plazo que la primera tienda de neumáticos a la que llamé por casualidad. Aproximadamente al mismo precio.

De mi parte se produjo un bienvenido suspiro de alivio, se lo aseguro.

Irónicamente, en la Ley de la mala suerte de Murphy, el primer lugar al que me puse en contacto fue el único que parecía salir a almorzar, por así decirlo. Me alegro de haber tratado de obtener más información. Esto redujo la brecha de asimetría de información. Me aplaudí por haberme mantenido firme y no haber accedido al primer lugar al que convoqué.

Habiendo dicho eso, hubo un costo definido de algún tipo involucrado en mi obtención de información adicional. Hice aproximadamente cuatro llamadas y cada una tardó entre quince y veinte minutos en realizarse por completo. En ese sentido, gasté alrededor de una hora y media pensando en dónde llevar mi auto. Si hubiera llevado mi automóvil inmediatamente a ese primer lugar, la llanta nueva casi habría estado en mi automóvil en ese momento. Por otro lado, es casi seguro que, más adelante, me habría arrepentido de la rápida decisión que tomé mientras estaba en un cobarde aprieto de asimetría de información.

A veces hay que apretar los dientes y aceptar la temida asimetría de la información tal como se presenta. Solo esperas que cualquier decisión que tomes sea lo suficientemente buena. Puede que no sea una decisión “perfecta” y más tarde podría arrepentirse de la elección realizada. El otro ángulo es que podría intentar reforzar su lado de la ecuación de la información, aunque esto no es necesariamente gratuito y también podría consumir un tiempo precioso, dependiendo de si el tiempo preciado es esencial.

Ahora que, sin duda, se siente reconfortado al saber que mi automóvil funciona bien con su neumático nuevo y correcto, puedo pasar a la aparición de AI Asymmetry.

Considere una historia de aflicción de IA.

Usted está buscando obtener un préstamo hipotecario. Hay un analizador de solicitudes de hipotecas en línea que está utilizando un banco en particular. El sistema en línea hace uso de las capacidades avanzadas de inteligencia artificial de hoy. No es necesario hablar con un agente de concesión de préstamos humano. La IA lo hace todo.

El sistema de IA lo guía a través de una serie de indicaciones. Rellenas debidamente los formularios y respondes al sistema de IA. Esta IA es muy habladora. Mientras que en el pasado podrías haber usado un sistema de formulario convencional basado en computadora, esta variante de IA es más parecida a interactuar con un agente humano. No del todo, pero lo suficiente como para que casi pudieras empezar a creer que un humano estaba al otro lado de esta actividad.

Después de hacer todo lo posible para "discutir" su solicitud con esta IA, al final, le informa que, lamentablemente, la solicitud de préstamo no está aprobada. Es un poco molesto que la IA parezca ofrecer una disculpa, como si la IA quisiera aprobar el préstamo, pero esos humanos mezquinos que supervisan el banco no permitirán que la IA lo haga. Para ver mi cobertura de cuán engañosas son este tipo de supuestas disculpas de IA, consulte el enlace aquí.

No tienes ni idea de por qué te rechazaron. La IA no ofrece ninguna explicación. Quizás la IA cometió un error o se equivocó en sus cálculos. Peor aún, suponga que la IA usó algunas consideraciones altamente cuestionables, como su raza o género, al decidir sobre el préstamo. Todo lo que sabe es que parecía haber perdido el tiempo y, mientras tanto, entregó una tonelada de datos privados a la IA y al banco. Su IA te ha superado.

Esto se etiquetaría como un ejemplo de asimetría de IA.

Fuiste tú contra el banco. El banco estaba armado con IA. No estabas igualmente armado. Tenías tu ingenio y tu escuela de sabiduría, pero ninguna IA residía en tu bolsillo trasero. Mente contra una máquina. Lamentablemente, la máquina ganó en este caso.

¿Qué vas a hacer?

Primero, necesitamos que la sociedad se dé cuenta de que esta asimetría de IA está creciendo y se está volviendo casi omnipresente. Los humanos se encuentran con la IA en todos los sistemas con los que interactuamos a diario. A veces, la IA es el único elemento con el que interactuamos, como en este ejemplo sobre la solicitud de préstamo. En otros casos, un ser humano podría estar en el circuito que depende de la IA para ayudarlo a realizar un servicio determinado. Para el préstamo, es posible que el banco le haga hablar con un agente humano en lugar de interactuar con la IA, pero para lo cual el agente humano utiliza un sistema informático para acceder a la IA que guía al agente humano durante el proceso de solicitud del préstamo. (y casi siempre tiene la seguridad de que el agente humano actuará como si estuviera encarcelado al tener que hacer estrictamente lo que la IA "le diga que haga").

De cualquier manera, la IA todavía está en la mezcla.

En segundo lugar, debemos tratar de asegurarnos de que la asimetría de la IA se realice al menos sobre una base ética de la IA.

Permítanme explicar ese comentario aparentemente extraño. Verá, si podemos estar seguros de que la IA está actuando de una manera éticamente sólida, podríamos tener algo de consuelo sobre la asimetría que está en juego. Sobre una base un tanto análoga pero también imprecisa, se podría decir que si mi interacción con el primer empleado de la tienda de llantas hubiera tenido algunas pautas éticas estridentes establecidas y aplicadas, tal vez no me habrían contado la historia que me contaron, o al menos no me habrían contado. podría no haber tenido que buscar de inmediato para descubrir si se me estaba contando un cuento.

Explicaré más sobre la ética de la IA en un momento.

En tercer lugar, debemos buscar formas de reducir la asimetría de la IA. Si tuviera una IA que estuviera de su lado, esforzándose por ser su entrenador o protector, podría usar esa IA para contraatacar con la otra IA con la que se enfrenta cara a cara. Como dicen, a veces tiene mucho sentido combatir el fuego con fuego.

Antes de entrar en más carne y papas sobre las consideraciones salvajes y lanosas que subyacen a la asimetría de la IA, establezcamos algunos fundamentos adicionales sobre temas profundamente esenciales. Necesitamos sumergirnos brevemente en la ética de la IA y especialmente en el advenimiento del aprendizaje automático (ML) y el aprendizaje profundo (DL).

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos a nuestro enfoque en la asimetría de la IA.

Un resumen rápido sobre mis tres recomendaciones identificadas antes mencionadas es la siguiente:

1) Tomar conciencia de que la asimetría de IA existe y está creciendo

2) Buscar garantizar que la asimetría de la IA esté limitada por la ética de la IA

3) Intenta lidiar con la asimetría de la IA armándote con la IA

Echaremos un vistazo más de cerca al último punto de combatir el fuego con fuego.

Imagine que cuando busca obtener un préstamo, tiene una IA que está trabajando de su lado del esfuerzo. Esta podría ser una aplicación basada en inteligencia artificial en su teléfono inteligente que fue diseñada para obtener préstamos. No es una aplicación de uno de los bancos y, en cambio, está diseñada de forma independiente para actuar en su nombre. He detallado este tipo de aplicaciones en mi libro sobre bots de ángel guardián basados ​​en IA, consulte el enlace aquí.

Al solicitar un préstamo, puede consultar esta aplicación a medida que la otra IA lo guía a través del proceso de solicitud. Estos dos sistemas de IA son distintos y están completamente separados entre sí. La IA en su teléfono inteligente ha sido "entrenada" para conocer todos los trucos que utiliza la otra IA. Como tal, las respuestas que ingrese en la IA del banco se basarán en lo que su IA le esté aconsejando.

Otra variante consiste en que tu IA responda a las preguntas planteadas por la otra IA. Por lo que la otra IA puede determinar, eres tú quien ingresa las respuestas. En cambio, es posible que simplemente esté observando cómo se producen las interacciones entre los dos sistemas de IA que luchan. Esto le permite ver lo que ofrece su IA. Además, puede ajustar potencialmente su IA dependiendo de si está satisfecho con lo que está haciendo su IA en su nombre.

He predicho que todos nos armaremos gradualmente con IA que estará de nuestro lado en estas situaciones de asimetría de IA.

Consideremos cómo va a funcionar esto.

Estos son los impactos fundamentales en la condición de asimetría de IA que había presentado:

  • Aplanando la asimetría de la IA a tu favor (llevándote hacia arriba, con la esperanza de alcanzar niveles iguales)
  • Estimular una asimetría de IA a su favor (levantándote en ventaja cuando ya son iguales)
  • Impulsar una asimetría de IA a su favor extraordinario (obteniendo una ventaja más amplia cuando ya tiene una ventaja)
  • Socavación inadvertida de la asimetría de la IA en su contra (cuando tenía una ventaja preexistente y la IA lo derribó sin darse cuenta)

Es hora de profundizar en estas intrigantes posibilidades.

Aplanando la asimetría de la IA a tu favor

Aplanar la asimetría de la IA es la consideración más obvia y discutida con mayor frecuencia, a saber, que se armaría con la IA para tratar de enfrentarse cara a cara con la IA que utiliza la otra parte en el asunto en cuestión. La configuración de asimetría de IA comenzó contigo en una clara desventaja. No tenías IA en tu esquina. Estabas en el lado bajo de las cosas. El otro lado tenía IA y estaban en un terreno más alto.

Por lo tanto, sabiamente te armaste con una IA que apuntaría a ponerte a ti y a la otra IA en igualdad de condiciones.

Un matiz importante y quizás sorprendente a tener en cuenta es que no siempre se dará el caso de que los sistemas de IA que se emplean se equilibren entre sí de manera uniforme. Puede armarse con IA que es, digamos, menos potente que la IA que está usando el otro lado. En cuyo caso, afortunadamente, ha aumentado su posición negativa, aunque ahora no es del todo igual al otro lado y su IA.

Es por eso que me refiero a esto como aplanar la asimetría de la IA. Es posible que pueda reducir la brecha, aunque no cerrarla por completo. El objetivo final sería usar la IA de tu lado que te llevará a una postura completamente igual. La cosa es que esto podría o no ser factible. El otro lado posiblemente podría tener una IA realmente costosa y usted está tratando de competir con la versión de IA económica de mamá y papá.

No toda la IA es igual.

Estimular una asimetría de IA a su favor

Esta circunstancia no es algo muy discutido hoy en día, en parte porque es raro en este momento. Algún día, esto será un lugar común. La idea es que supongamos que no tiene IA y, sin embargo, está en igualdad de condiciones con el lado que sí tiene IA.

Bien por usted.

Los humanos tienen su ingenio sobre ellos.

Pero es posible que desee obtener una ventaja sobre el otro lado. Armarse con IA lo lleva a un terreno más alto. Ahora tiene su ingenio y su IA de confianza en la mano. Has ganado una ventaja que presumiblemente prevalecerá sobre la IA del otro bando.

Impulsando una asimetría de IA a su favor extraordinario

Usando una lógica similar al aspecto de estimular una asimetría de IA en su nombre, suponga que ya está por encima de las capacidades del otro lado que está usando IA. Ergo, no estás comenzando en una postura igual. Afortunadamente ya estás en la parte superior.

Es posible que desee obtener de todos modos una ventaja aún mayor. Por lo tanto, te armas con IA. Esto lleva la cabeza y los hombros por encima del otro lado.

Socavación involuntaria de la asimetría de la IA en su contra

Dudo que quieras oír hablar de esta posibilidad. Tenga en cuenta que tratar con la IA no es todo rosas y pasteles de helado.

Podría ser que cuando te armas con IA, en realidad te socavas. Si ya eras menos que la IA del otro lado, ahora estás en un agujero más profundo. Si estabas en igualdad de condiciones, ahora estás en desventaja. Si estabas por encima del otro lado, ahora estás igual o por debajo de él.

¿Cómo pudo pasar eso?

Es posible que se sorprenda al pensar que la IA que adopte lo desviará. Esto podría ocurrir fácilmente. El hecho de que tenga la IA de su lado no significa que sea útil. Es posible que esté utilizando la IA y le brinda consejos que no necesariamente cree que sean adecuados, pero decide seguirlos de todos modos. Su lógica en ese momento era que, dado que se tomó la molestia de obtener la IA, también podría depender de ella.

La IA que está utilizando podría ser defectuosa. O puede que esté mal diseñado. Hay un montón de razones por las que la IA podría estar dándote consejos inestables. Aquellos que aceptan ciegamente cualquier cosa que la IA diga que deben hacer, están obligados a encontrarse en un mundo de dolor. He cubierto tales predicamentos en mi columna, como el enlace aquí.

La conclusión es que no hay absolutamente ninguna garantía de que solo porque te armes con IA vas a ganar en el juego de asimetría de IA.

Es posible que llegue a un campo de juego nivelado. Podrías obtener una ventaja. Y, lamentablemente, debe tener cuidado, ya que podría hundirse a niveles inferiores cuando está armado con IA.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial. Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada.

Además de emplear la ética de la IA, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales. Ver por ejemplo mi cobertura en el enlace aquí y el enlace aquí.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA aclara algo sobre la asimetría de IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y asimetría de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Esbocemos un escenario que muestre la asimetría de la IA.

Contempla el asunto aparentemente intrascendente de dónde se desplazarán los automóviles autónomos para recoger pasajeros. Esto parece un tema abundantemente inocuo.

Al principio, suponga que los autos autónomos de IA estarán deambulando por ciudades enteras. Cualquiera que quiera solicitar un viaje en un automóvil autónomo tiene esencialmente las mismas posibilidades de llamar a uno. Gradualmente, la IA comienza a mantener principalmente a los autos autónomos deambulando en una sola sección de la ciudad. Esta sección es una gran fuente de dinero y la IA ha sido programada para intentar y maximizarán ingresos como parte del uso en la comunidad en general (esto subraya la mentalidad subyacente a la optimización, es decir, centrarse en una sola métrica en particular y descuidar otros factores cruciales en el proceso).

Los miembros de la comunidad en las partes empobrecidas de la ciudad tienen menos probabilidades de poder viajar en un automóvil autónomo. Esto se debe a que los autos sin conductor estaban más lejos y deambulando por la parte de ingresos más altos de la ciudad. Cuando llega una solicitud de una parte distante de la ciudad, cualquier otra solicitud de una ubicación más cercana tendrá mayor prioridad. Eventualmente, la disponibilidad de obtener un automóvil autónomo en cualquier lugar que no sea la parte más rica de la ciudad es casi imposible, de manera exasperante para aquellos que vivían en esas áreas que ahora carecen de recursos.

Se acaban los cacareados sueños de movilidad para todos que se supone que los autos sin conductor hacen realidad.

Se podría afirmar que la IA en conjunto aterrizó en una forma de sesgo estadístico y computacional, similar a una forma de discriminación indirecta (también conocida como discriminación indirecta). Date cuenta de que la IA no fue programada para evitar esos vecindarios más pobres. Seamos claros al respecto en este caso. No, en su lugar, se diseñó simplemente para optimizar los ingresos, un objetivo aparentemente aceptable, pero esto se hizo sin que los desarrolladores de IA contemplaran otras ramificaciones potenciales. Esa optimización, a su vez, sin saberlo e inevitablemente condujo a un resultado no deseado.

Si hubieran incluido consideraciones de ética de la IA como parte de su mentalidad de optimización, podrían haberse dado cuenta de antemano de que, a menos que diseñaran la IA para hacer frente a este tipo de sobredimensionamiento en una sola métrica, podrían haber evitado resultados tan severos. Para obtener más información sobre este tipo de problemas en los que es probable que incurra la adopción generalizada de vehículos autónomos y autos sin conductor, consulte mi cobertura en este enlace aquí, que describe un estudio dirigido por Harvard del que soy coautor sobre estos temas.

En cualquier caso, asuma que el caballo ya está fuera del establo y que la situación no se presta inmediatamente a soluciones generales.

¿Qué podrían hacer aquellos que quieran usar esos autos sin conductor?

El enfoque más aparente sería trabajar con los líderes de la comunidad para lograr que el fabricante de automóviles o la empresa de tecnología de conducción autónoma reconsideren cómo han configurado la IA. Tal vez ejercer presión sobre cualquier licencia o permiso que se haya otorgado para el despliegue de esos autos sin conductor en esa ciudad o pueblo. Es probable que estos sean medios viables para lograr cambios positivos, aunque podría pasar un tiempo antes de que esos esfuerzos den sus frutos.

Otro ángulo sería armarse con IA.

Imagine que alguien ha diseñado inteligentemente una aplicación basada en IA que funciona en su teléfono inteligente y se ocupa de la IA del fabricante de automóviles o del operador de flotas que acepta solicitudes de viajes. Podría ser que la IA que está utilizando explote elementos clave de la otra IA, de modo que su solicitud de un automóvil autónomo tenga mayor prioridad. Tenga en cuenta que no estoy sugiriendo que esté ocurriendo algo ilegal, sino que la IA de su lado se ha desarrollado en base a "características" descubiertas o incluso lagunas en la otra IA.

Conclusión

La historia sobre la lucha descarada contra la IA del operador de flotas de automóviles autónomos al armarse con IA plantea controversias y consideraciones adicionales sobre la ética de la IA.

Por ejemplo:

  • Si una persona puede hacer uso de la IA para darle una ventaja sobre la IA de algún otro sistema, ¿hasta dónde puede llegar esto en términos de posiblemente cruzar los límites de la ética de la IA (convence a los autos sin conductor para que vengan a mí y a mis amigos, con exclusión de todos los demás)?
  • Además, ¿hay alguna apariencia de consideración de la ética de la IA de que si alguien conoce o está armado con IA para luchar contra otra IA, las personas restantes que no tienen esa IA de equilibrio deben ser alertadas de alguna manera sobre la IA y ser capaces de armarse? en consecuencia también?

Al final, todo esto nos lleva a un futuro que parece inquietante, consistente en una carrera armamentista de IA. ¿Quién tendrá la IA que necesita para moverse y sobrevivir y quién no? ¿Siempre habrá una IA más que aparezca y despierte la necesidad de una IA de contrapeso?

Carl Sagan, el venerado científico, aportó esta sabia sabiduría sobre las carreras de armamentos especialmente catastróficas: “La carrera de armamentos nucleares es como dos enemigos jurados sumergidos en gasolina hasta la cintura, uno con tres fósforos, el otro con cinco”.

Debemos apuntar decisivamente a mantener nuestros pies secos y nuestras mentes despejadas cuando se trata de una carrera armamentista de IA que se avecina.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- del palo/