La ética de la IA se enfurece por el creciente síndrome de la patata caliente que emplean los fabricantes de IA que aparentemente intentan evitar la responsabilidad por sus sistemas autónomos decisivos para la vida

Todos sabemos que se supone que debes asegurarte de no terminar con la papa caliente proverbial.

El gambito de la papa caliente parece tener sus raíces al menos a fines del siglo XIX, cuando un juego de salón que involucraba velas encendidas hizo que la bola rodara. Por lo general, las personas se sentaban en una serie de sillas de madera que estaban relativamente adyacentes entre sí y jugaban un juego completamente emocionante en esa época. Los jugadores pasaban una vela encendida de persona a persona y representaba lo que, más tarde, optamos por expresar como la entrega de un patata caliente.

Era costumbre que cada persona recitara en voz alta una rima popular antes de poder pasar la vela que se quemaba progresivamente. La rima aparentemente fue así:

“Jack está vivo y es probable que viva;

Si muere en tu mano, tienes que dar una recompensa.

Este recital de rimas presumiblemente le daría a la vela un poco de tiempo para continuar ardiendo hasta su conclusión final. Quienquiera que se quedó con la vela en su poder en la extinción natural al final fue la persona que perdió el partido (¡juego de palabras!).

Según las palabras indicadas en la rima, el perdedor tenía que pagar la "pérdida" y, por lo tanto, generalmente tenía que salir de las rondas posteriores del juego. Esto podría combinarse con lo que hoy consideramos como sillas musicales cotidianas, de modo que la persona que ha perdido la ronda ya no participaría en rondas posteriores (como si la música se detuviera y no pudiera obtener un asiento disponible). En última instancia, solo quedarían dos personas que pasaron la vela encendida y dijeron la rima, hasta que se determinó un ganador final en la extinción final.

Quizás se pregunte por qué ya no jugamos a este juego con una vela encendida y por qué, en cambio, normalmente nos referimos a esto como una papa caliente en lugar de representarlo como un esquema de "vela encendida". Los investigadores han propuesto muchas teorías sobre cómo sucedió esto gradualmente. La historia parece nublada e indecisa sobre cómo evolucionaron las cosas en este asunto. Supongo que podemos sentirnos aliviados de que las velas encendidas no se usen comúnmente de esta manera, ya que las posibilidades de que algo salga palpablemente mal parecerían muy preocupantes (alguien deja caer la vela y enciende un fuego, o alguien se quema con la vela cuando se la entrega). de otro jugador, etc.).

En términos de la papa caliente como un posible sustituto de la vela encendida, generalmente se podría argumentar que la papa será algo más segura en general. Sin llama abierta. Sin cera derretida. La base potencial para usar patatas en este contexto es que se sabe que retienen fácilmente el calor una vez que se han calentado. Puedes pasar la patata y se mantendrá caliente un rato. Uno supone que decidir cuándo la papa caliente ya no está caliente y en su lugar se clasifica como fría sería una propuesta acaloradamente discutible.

Por supuesto, la noción de una papa caliente proverbial es más una consideración independiente en estos días. Cualquier cosa que se califique o clasifique como una patata caliente suele tener una cualidad de deshacerse seriamente. No querrás tener una patata caliente en la mano. Quieres asegurarte de que vaya a otro lugar. Hasta cierto punto, es posible que no le preocupe demasiado adónde va, simplemente porque ya no está en su poder.

Parecería bastante insensible entregar potencialmente una papa caliente a un querido amigo o conocido similar. Esto parecería completamente fuera de lugar. Tal vez encuentre a alguien más o en otro lugar para poner esa papa caliente, si puede hacerlo. Un movimiento desesperado podría ser obligar a la papa caliente a un colega afable, pero es de esperar que esto solo se haga como último recurso.

La otra cara de la moneda es que podrías deleitarte en darle una patata caliente a alguien que no te gusta o de quien buscas vengarte. Claro, una papa caliente puede ser casi gloriosamente útil si tu objetivo es socavar a una persona que te ha tratado mal. Déjelos que averigüen qué hacer con la papa caliente. Buen viaje a la patata y la peor de las suertes a la persona con la que la has etiquetado.

En un escenario de patata caliente que involucra solo a dos personas, existe la posibilidad de una disputa rápida de ida y vuelta con respecto a qué persona tiene el artículo desagradable y no deseado. Por ejemplo, te entrego la papa caliente y tú me la devuelves rápidamente. Asumiendo que no necesitamos anunciar una canción de cuna entre cada entrega, podemos pasar la papa tan rápido como nuestros brazos nos lo permitan.

Es posible que sienta curiosidad por saber por qué he optado por hacer una inmersión profunda en la papa caliente venerada y citada con frecuencia.

Este es el por qué.

Resulta que el disfraz de papa caliente se usa cada vez más en el campo de la Inteligencia Artificial (IA).

La mayoría de la gente no sabe nada al respecto. Nunca han oído hablar de eso. Ellos son completamente inconscientes de lo que es. Incluso muchos desarrolladores de IA no son conscientes del asunto. No obstante, existe y parece que se está utilizando en entornos realmente cuestionables, especialmente en casos que involucran circunstancias de vida o muerte.

Me refiero a esto como el AI Síndrome de la patata caliente.

Hay muchas repercusiones graves subyacentes a este síndrome y debemos asegurarnos de ponernos nuestras gorras de pensamiento de ética de IA y considerar lo que se debe hacer. Hay consideraciones éticas aleccionadoras. Es probable que también haya implicaciones legales notables (que aún no han alcanzado la visibilidad social, aunque predigo que pronto lo harán). Para conocer mi cobertura continua y extensa de cuestiones de ética de la IA, IA ética y IA legal, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Desempaquemos el Síndrome de patata caliente AI.

Imagine un sistema de IA que trabaje en conjunto con un humano. La IA y el humano están pasando el control de alguna actividad en curso, de modo que a veces el humano tiene el control, mientras que otras veces la IA tiene el control. Al principio, esto podría hacerse de una manera, digamos, educada o razonable. Por varias razones, que veremos en un momento, la IA podría determinar computacionalmente que el control debe pasarse rápidamente al ser humano.

Este es el patata caliente que llega a poner en peligro la vida en el mundo real en lugar de servir simplemente como un juego instructivo para niños.

El problema con el traspaso apresurado del control de la IA al humano es que esto se puede hacer de manera razonable o se puede lograr de una manera poco razonable. Si el ser humano no está particularmente esperando el traspaso, es probable que esto sea un problema. Si el ser humano generalmente está de acuerdo con el traspaso del control, las circunstancias que subyacen al traspaso pueden ser abrumadoras cuando el ser humano no tiene suficiente tiempo o no tiene suficiente conciencia de por qué el control está siendo forzado a sus manos humanas.

Exploraremos ejemplos de cómo esto puede producir un peligro de vida o muerte para el humano y posiblemente para otros humanos cercanos. Es cosa seria. Punto, punto final.

Antes de entrar en algunas de las facetas carnosas de las consideraciones salvajes y lanudas que subyacen al Síndrome de patata caliente AI, expongamos algunos fundamentos adicionales sobre temas profundamente esenciales. Necesitamos sumergirnos brevemente en la ética de la IA y especialmente en el advenimiento del aprendizaje automático (ML) y el aprendizaje profundo (DL).

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos a nuestro enfoque en la patata caliente y su uso potencialmente desastroso en la IA. También hay una maldad que puede acechar dentro de la estratagema de la patata caliente.

Como resumen rápido sobre la manifestación de la IA del gambito de la patata caliente:

  • La IA y un humano en el circuito están trabajando juntos en una tarea determinada
  • La IA tiene el control parte del tiempo
  • El humano-en-el-bucle tiene el control parte del tiempo
  • Existe algún tipo de protocolo de traspaso entre la IA y el ser humano.
  • El traspaso puede ser muy visible o puede ser sutil y casi oculto.
  • Todo esto suele estar dentro de un contexto en tiempo real (algo está en marcha activamente)

El enfoque principal aquí es cuando el traspaso es esencialmente una papa caliente y la IA opta por entregar repentinamente el control al humano. Tenga en cuenta que más adelante en este documento también cubriré la otra faceta, a saber, el control de la transferencia humana a la IA como una patata caliente.

Primero, considere lo que puede suceder cuando la IA entrega una patata caliente a un humano en el circuito.

Me voy a referir al ser humano como el ser humano en el circuito porque estoy diciendo que el ser humano ya es parte integrante de la actividad en curso. Podríamos tener otros escenarios en los que un humano que no estuvo especialmente involucrado en la actividad, quizás un extraño en todo el asunto, reciba la patata caliente de la IA, así que tenga en cuenta que existen otros sabores de este entorno.

Si te estuviera entregando una papa caliente y quisiera hacerlo de manera razonable, tal vez te alertaría de que te voy a entregar cosas. Además, intentaría hacer esto si realmente creyera que poseer la patata caliente es mejor en general que tenerla yo. Calcularía mentalmente si deberías tenerlo o si debería continuar con él.

Imagina un partido de baloncesto. Tú y yo estamos en el mismo equipo. Esperamos que trabajemos juntos para tratar de ganar el juego. Quedan solo unos segundos en el reloj y necesitamos desesperadamente anotar, de lo contrario perderemos el juego. Me pongo en posición para hacer el último tiro. ¿Debo hacerlo o debo pasarte la pelota y hacer que hagas el último tiro?

Si soy un mejor jugador de baloncesto y tengo más posibilidades de acertar el tiro, probablemente debería quedarme con la pelota y tratar de hacer el tiro. Si eres mejor jugador de baloncesto que yo, probablemente debería pasarte la pelota y dejar que hagas el tiro. Otras consideraciones pasan a primer plano, como cuál de nosotros está en una mejor posición en la cancha para hacer el tiro, además de si uno de nosotros está exhausto porque el juego está por terminar y podría estar agotado y no estar a la altura. sus disparos. Etc.

Con todos esos factores en medio de un momento ajetreado, necesito decidir si me quedo con el balón o te lo paso.

Darse cuenta profundamente de que en este escenario el reloj es crucial. Usted y yo nos enfrentamos a una respuesta extremadamente oportuna. Todo el juego está ahora en juego. Una vez que se agota el tiempo, o hemos ganado porque uno de nosotros hizo el tiro, o hemos perdido porque no lo metimos. Tal vez podría ser el héroe si hundo la canasta. O podrías ser el héroe si te paso la pelota y la metes.

También está el lado de la cabra o las desventajas de esto. Si me quedo con el balón y erro el tiro, todos me pueden acusar de ser el macho cabrío o de defraudar a todo el equipo. Por otro lado, si te paso la pelota y fallas el tiro, bueno, te conviertes en la cabra. Esto podría ser completamente injusto para ti porque te obligué a ser el último tirador y a tomar el último tiro.

Definitivamente sabrías que te puse en esa posición desagradable. Y aunque todos podrían verme hacer esto, están obligados a concentrarse solo en la última persona que tuvo la pelota. Posiblemente patinaría libre. Nadie recordaría que te pasé el balón en el último momento. Solo recordarían que tenías la pelota y perdiste el juego porque no hiciste el tiro.

Bien, entonces te paso la pelota.

¿Por qué lo hice?

No hay una manera fácil de determinar esto.

Mis verdaderas intenciones podrían ser que no quería quedar atrapado siendo la cabra, así que opté por poner toda la presión sobre ti. Cuando me preguntaron por qué pasé el balón, podría afirmar que lo hice porque pensé que eras mejor tirador que yo (pero, finjamos que no lo creo en absoluto). O pensé que estabas en una mejor posición que yo (vamos a hacer como que yo tampoco pensaba eso). Nadie sabría que en realidad solo estaba tratando de evitar quedarme atrapado con la papa caliente.

Desde el punto de vista externo de las cosas, nadie podría discernir fácilmente mi verdadera razón para pasarte la pelota. Tal vez lo hice inocentemente porque creía que eras el mejor jugador. Ese es un ángulo. Tal vez lo hice porque no quería que todos me llamaran perdedor por posiblemente fallar el tiro, así que te di la pelota y pensé que era un gran alivio para mí. Si realmente me preocupé por ti es un asunto completamente diferente.

Ahora podemos agregar algunos detalles adicionales a la papa caliente relacionada con la IA:

  • La IA opta por dar el control al humano en el circuito en el último momento
  • El último momento ya podría estar mucho más allá de cualquier acción humana viable.
  • El humano-en-el-bucle tiene el control, pero de manera un tanto falsa debido al tiempo de entrega

Reflexione sobre esto por un momento.

Supongamos que un sistema de inteligencia artificial y un humano en el circuito están trabajando juntos en una tarea en tiempo real que implica ejecutar una máquina a gran escala en una fábrica. La IA detecta que la maquinaria se está volviendo loca. En lugar de que la IA continúe reteniendo el control, la IA entrega abruptamente el control al humano. La maquinaria en esta fábrica se está convirtiendo rápidamente en puro caos y no queda tiempo para que el ser humano tome medidas correctivas.

La IA le ha entregado la papa caliente al humano en el circuito y ha atascado al humano con la verdadera papa caliente de tal manera que las circunstancias ya no son humanamente posibles de manejar. Etiqueta, lo eres, dice la vieja línea cuando jugaba juegos de etiqueta cuando era niño. El ser humano es, digamos, etiquetado con el desorden.

Al igual que mi ejemplo sobre el juego de baloncesto.

¿Por qué la IA hizo el traspaso?

Bueno, a diferencia de cuando un humano entrega abruptamente una pelota de baloncesto y luego agita la mano salvajemente sobre por qué lo hizo, generalmente podemos examinar la programación de IA y descubrir qué llevó a la IA a hacer este tipo de entrega de papa caliente.

Un desarrollador de IA podría haber decidido de antemano que cuando la IA se encuentra en una situación realmente mala, la IA debería proceder a darle el control al humano en el circuito. Esto parece perfectamente sensato y razonable. El humano podría ser "el mejor jugador" en el campo. Los humanos pueden usar sus capacidades cognitivas para resolver potencialmente cualquier problema que se les presente. La IA posiblemente haya alcanzado los límites de su programación y no hay nada más constructivo que pueda hacer en la situación.

Si la IA hubiera hecho el traspaso cuando quedaba un minuto antes de que la maquinaria se volviera loca, tal vez un minuto de aviso sea suficiente para que el humano en el circuito pueda rectificar las cosas. Sin embargo, supongamos que la IA hizo el traspaso con tres segundos para el final. ¿Crees que un humano podría reaccionar en ese marco de tiempo? Improbable. En cualquier caso, solo para hacer las cosas aún menos sutiles, supongamos que la transferencia al humano en el circuito se produjo con unos pocos nanosegundos para el final (un nanosegundo es una milmillonésima de segundo, que en comparación con un parpadeo rápido de el ojo es un lento 300 milisegundos de largo).

¿Podría un humano en el circuito reaccionar lo suficiente si la IA le ha entregado la papa caliente con solo una fracción de segundo para tomar alguna acción abierta?

No.

El traspaso es más falso de lo que podría parecer.

En realidad, la transferencia no servirá de nada cuando se trata de la terrible situación. La IA ha pellizcado al humano para que se convierta en la cabra.

Algunos desarrolladores de IA no piensan en esto cuando diseñan su IA. Ellos (erróneamente) felizmente no tienen en cuenta que el tiempo es un factor crucial. Todo lo que hacen es optar por programar un traspaso cuando las cosas se ponen difíciles. Cuando no quede nada que la IA pueda hacer de manera constructiva, lánzale la pelota al jugador humano.

Es posible que los desarrolladores de IA no piensen detenidamente en esto al momento de codificar la IA, y luego a menudo fallan dos veces al no realizar las pruebas que sacan esto a la luz. Todo lo que muestran sus pruebas es que la IA "obedientemente" hizo una transferencia cuando se alcanzaron los límites de la IA. Voila, se supone que la IA es buena y está lista para funcionar. La prueba no incluyó a un ser humano real que fue colocado en esa posición imposible y poco envidiable. No hubo un proceso de prueba de humanos en el circuito adecuado que pudiera haber protestado que este cambio de un parpadeo en el último momento, o de hecho pasado el último momento, les hizo poco o ningún bien.

Por supuesto, algunos desarrolladores de IA habrán considerado astutamente este tipo de situación, sabiamente.

Después de reflexionar sobre el acertijo, procederán a programar la IA para que actúe de esta manera, de todos modos.

¿Por qué?

Porque no hay nada más que hacer, al menos en su mente. Cuando todo lo demás falla, pasa el control al humano. Tal vez ocurra un milagro. Sin embargo, la esencia es que esto no le preocupa al desarrollador de IA, y le están dando al ser humano la última oportunidad de hacer frente al lío en cuestión. El desarrollador de IA se lava las manos de lo que suceda a partir de entonces.

Quiero aclarar que los desarrolladores de IA no son los únicos creadores de estos diseños de patatas calientes. Hay una gran cantidad de otras partes interesadas que vienen a la mesa para esto. Quizás un analista de sistemas que realizó el análisis de especificaciones y requisitos había declarado que esto es lo que se supone que debe hacer la IA. Los desarrolladores de IA involucrados crearon la IA en consecuencia. El director del proyecto de IA podría haberlo ideado. Los ejecutivos y la gerencia que supervisan el desarrollo de la IA podrían haberlo ideado.

Todos a lo largo de todo el ciclo de vida del desarrollo de la IA podrían haber llevado adelante este mismo diseño de la patata caliente. Si alguien lo notó, no podemos decirlo con certeza. Si se dieron cuenta, podrían haber sido etiquetados como detractores y apartados. Es posible que a otros les hayan llamado la atención sobre el asunto, pero no comprendieron las repercusiones. Sintieron que era una minucia técnica que no estaba dentro de su alcance.

Agregaré a esta lista informal de "razones" una posibilidad mucho más nefasta.

A veces se emplea intencionalmente un síndrome de patata caliente de IA porque quienes hacen la IA querían tener su apasionado reclamo de negación plausible.

Prepárate para esta parte de la historia.

En el caso de la maquinaria de la fábrica que se vuelve loca, es probable que haya muchos señalamientos sobre quién es responsable de lo sucedido. En términos de operar la maquinaria, teníamos un sistema de IA que lo hacía y teníamos un humano en el circuito haciéndolo. Estos son nuestros dos jugadores de baloncesto, metafóricamente.

El reloj se estaba agotando y la maquinaria estaba a punto de explotar. Digamos que tú y yo sabemos que la IA hizo un traspaso al humano en el circuito, y lo hizo sin tiempo suficiente para que el humano tomara las medidas necesarias para rectificar o evitar el desastre. Nadie más se da cuenta de que esto es lo que sucedió.

La empresa que fabrica la IA puede, en cualquier caso, declarar de inmediato que no tiene la culpa porque el humano tenía el control. Según sus impecables registros, la IA no tenía el control en el momento del kaboom. El humano era. Por lo tanto, claramente, es patentemente obvio que un ser humano tiene la culpa.

¿La compañía de IA básicamente miente al hacer esta afirmación abierta?

No, parece que están diciendo la verdad.

Cuando se les preguntaba si estaban seguros de que la IA no tenía el control, la empresa proclamaba en voz alta y con orgullo que la IA no tenía el control en absoluto. Tienen pruebas documentadas de esta afirmación (asumiendo que la IA mantuvo un registro del incidente). De hecho, los ejecutivos de la compañía de IA podrían levantar las cejas disgustados de que alguien desafiara su integridad en este punto. Estarían dispuestos a jurar bajo su juramento sagrado que la IA estaba no en control. El humano-en-el-bucle tenía el control.

Confío en que usted ve cuán engañoso puede ser esto.

Sí, al humano se le entregó el control. En teoría, el humano tenía el control. La IA ya no tenía el control. Pero la falta de tiempo y notificación disponibles hace que esto sea un reclamo extremadamente vacío.

La belleza de esto, desde la perspectiva del fabricante de IA, sería que pocos podrían cuestionar las afirmaciones que se ofrecen. Es posible que el fabricante de IA no publique los registros del incidente. Si lo hace, podría revelar la situación amañada. Se argumenta que los registros son propiedad intelectual (PI) o de otra manera de naturaleza confidencial y de propiedad. Es probable que la empresa sostenga que si se mostraran los registros, esto mostraría el ingrediente secreto de su IA y agotaría su preciada propiedad intelectual.

Imagine la difícil situación del pobre humano en el circuito. Están desconcertados de que todos los culpen por dejar que las cosas se salgan de control. La IA "hizo lo correcto" y entregó el control al humano. Esto podría haber sido lo que decían las especificaciones (nuevamente, sin embargo, las especificaciones fueron negligentes al no tener en cuenta los factores de tiempo y factibilidad). Los registros que no se han publicado, pero que el fabricante de la IA afirma que están blindados, atestiguan el hecho absoluto de que la IA le había dado el control al ser humano.

Podrías declarar esto como un golpe lamentable contra el humano desconcertado que casi seguramente va a tomar la caída.

Lo más probable es que solo si esto llega a los tribunales se terminará revelando la realidad de lo que sucedió. Si los sabuesos legales astutos son conscientes de este tipo de concierto, intentarían obtener los registros legalmente. Tendrían que conseguir un testigo experto (algo que había hecho de vez en cuando) para descifrar los registros. Los registros solos pueden no ser suficientes. Los registros podrían estar manipulados o alterados, o diseñados deliberadamente para no mostrar los detalles claramente. Como tal, es posible que también sea necesario profundizar en el código de IA.

Mientras tanto, durante todo este agonizante y largo proceso de descubrimiento legal, el humano en el circuito se vería realmente mal. Los medios pintarían a la persona como irresponsable, perdió la cabeza, no fue diligente y debería rendir cuentas por completo. Posiblemente durante meses o años, durante este proceso, esa persona seguiría siendo la que todos señalarían con el dedo acusador. Es posible que el hedor nunca se elimine.

Tenga en cuenta también que esta misma circunstancia podría volver a ocurrir fácilmente. Y otra vez. Suponiendo que el fabricante de la IA no haya cambiado la IA, cada vez que surja una situación similar de último minuto, la IA realizará esa transferencia sin tiempo restante. Uno esperaría que estas situaciones no sucedan con frecuencia. En las raras ocasiones en que ocurre, el humano en el circuito sigue siendo el chivo expiatorio conveniente.

Es un truco diabólico.

Es posible que desee insistir en que el fabricante de IA no ha hecho nada malo. Están diciendo la verdad. La IA cedió el control. Entonces se consideró que el humano tenía el control. Esos son los hechos. No tiene sentido discutirlo.

Ya sea que alguien se dé cuenta y haga las preguntas difíciles, además de si el fabricante de IA responde esas preguntas de manera directa, esto es algo que parece que rara vez sucede.

Las preguntas incluyen:

  • ¿Cuándo hizo la IA el traspaso al humano en el circuito?
  • ¿Sobre qué base programada hizo la IA el traspaso?
  • ¿Se le dio al humano en el circuito suficiente tiempo para tomar el control?
  • ¿Cómo se diseñó e ideó la IA para estos dilemas?
  • Y así sucesivamente.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial. Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida (quizás sorprendente o irónicamente) la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En este punto de esta importante discusión, apuesto a que desea algunos ejemplos ilustrativos adicionales que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA aclara algo sobre el síndrome de la patata caliente de la IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Automóviles autónomos y síndrome de patata caliente de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Para los vehículos totalmente autónomos, es posible que no haya ninguna posibilidad de que se produzca una transferencia entre la IA y un humano, debido a la posibilidad de que, para empezar, no haya ningún humano en el circuito. La aspiración de muchos de los fabricantes de automóviles autónomos de hoy en día es eliminar completamente al conductor humano de la tarea de conducción. El vehículo ni siquiera tendrá controles de conducción accesibles para humanos. En ese caso, un conductor humano, si está presente, no podrá participar en la tarea de conducción ya que no tiene acceso a los controles de conducción.

Para algunos vehículos totalmente autónomos, algunos diseños aún permiten que un humano esté en el circuito, aunque el humano no tiene que estar disponible o participar en el proceso de conducción en absoluto. Por lo tanto, un ser humano puede participar en la conducción, si la persona así lo desea. Sin embargo, en ningún momento la IA depende del ser humano para realizar ninguna de las tareas de conducción.

En el caso de los vehículos semiautónomos, existe una relación mano a mano entre el conductor humano y la IA. Para algunos diseños, el conductor humano puede hacerse cargo de los controles de conducción por completo y esencialmente evitar que la IA participe en la conducción. Si el conductor humano desea restablecer la IA en el rol de conducción, puede hacerlo, aunque esto a veces obliga al humano a renunciar a los controles de conducción.

Otra forma de operación semiautónoma implicaría que el conductor humano y la IA trabajen juntos en equipo. La IA está conduciendo y el humano está conduciendo. Están conduciendo juntos. La IA podría ceder ante el humano. El humano podría ceder ante la IA.

En algún momento, el sistema de conducción de IA podría determinar computacionalmente que el automóvil autónomo se dirige a una situación insostenible y que el vehículo autónomo se estrellará.

Aparte, algunos expertos afirman que los autos sin conductor no se pueden chocar, lo cual es pura tontería y algo escandaloso y erróneo para decir, vea mi cobertura en el enlace aquí.

Continuando con el escenario de un automóvil autónomo que se dirige hacia una colisión o un accidente automovilístico, el sistema de conducción de IA podría programarse para entregar sumariamente los controles de conducción al conductor humano. Si hay suficiente tiempo disponible para que el conductor humano tome una acción evasiva, esto podría ser algo sensato y apropiado para que lo haga la IA.

Pero supongamos que la IA hace el traspaso con una fracción de segundo restante. El tiempo de reacción del conductor humano no es lo suficientemente rápido para responder adecuadamente. Además, si milagrosamente el humano fue lo suficientemente rápido, lo más probable es que no haya acciones evasivas viables que puedan emprenderse con el tiempo limitado que queda antes del choque. Esto es un doble: (1) tiempo insuficiente para que el conductor humano actúe, (2) tiempo insuficiente que si el conductor humano pudiera realizar la acción, la acción podría llevarse a cabo en la cantidad de tiempo deficiente proporcionada.

En general, esto es similar a mi discusión anterior sobre la situación del timbre del baloncesto y el escenario de la maquinaria de la fábrica que se volvió loca.

Agreguemos el ingrediente nefasto a esto.

Un fabricante de automóviles o una empresa de tecnología de vehículos autónomos no quiere ser etiquetado con varios accidentes automovilísticos que han estado ocurriendo en su flota. El sistema de conducción de IA está programado para ceder siempre el control al conductor humano, independientemente de si hay tiempo suficiente para que el conductor humano haga algo al respecto. Cada vez que ocurre un accidente automovilístico de este tipo, el fabricante de automóviles o la empresa de tecnología de conducción autónoma puede insistir verbalmente en que el conductor humano estaba en los controles, mientras que la IA no.

Su historial de sistemas de conducción de IA parece ser estelar.

Ni una sola vez el sistema de conducción de IA es "culpable" de estos accidentes automovilísticos. Siempre son esos malditos conductores humanos los que no parecen mantener la vista en la carretera. Podríamos tender a tragarnos esta palabrería y creer que la IA totalmente precisa probablemente nunca se equivoque. Tendemos a creer (ya que sabemos por experiencia) que los conductores humanos son descuidados y cometen muchos errores de conducción. La conclusión lógica es que los conductores humanos deben ser los culpables y el sistema de conducción de IA es totalmente inocente.

Antes de que algunos defensores de la conducción autónoma se molesten por esta caracterización, reconozcamos absolutamente que el conductor humano podría tener la culpa y que debería haber tomado medidas antes, como hacerse cargo de los controles de conducción de la IA. También existe la posibilidad de que el conductor humano haya hecho algo importante cuando la IA entregó los controles de conducción. Etc.

El enfoque aquí ha estado en las circunstancias en las que la IA se consideraba el conductor del vehículo y luego, abruptamente y con poca atención a lo que un conductor humano podría hacer, arroja la patata caliente al conductor humano. Esta es también la razón por la que tantos están preocupados por la doble función de conducción de los vehículos semiautónomos. Se podría decir que hay demasiados conductores al volante. El objetivo, al parecer, sería resolver el asunto al tener vehículos totalmente autónomos que no necesitan un humano al volante y la IA siempre está conduciendo el vehículo.

Esto plantea la pregunta aliada sobre qué o quién es responsable cuando la IA está conduciendo, que he abordado muchas veces en mis columnas, como el enlace aquí y el enlace aquí.

Conclusión

Debemos tener cuidado al escuchar o leer sobre accidentes automovilísticos que involucran vehículos semiautónomos. Tenga cuidado con aquellos que intentan engañarnos proclamando que su sistema de conducción de IA tiene un historial impecable. La estratagema intrigante del Síndrome de patata caliente AI podría estar en la mezcla.

Para las empresas que tratan de ser engañosas en estos asuntos, tal vez podamos mantener cerca de nuestros corazones la famosa frase de Abraham Lincoln: "Puedes engañar a todas las personas algunas veces y a algunas personas todo el tiempo, pero no puedes engañar". toda la gente todo el tiempo.”

He tratado de revelar aquí la magia de la IA escondida detrás de la pantalla y, a veces, colocada debajo del capó, que he aclarado para que más personas no se cumplirán dejarse engañar la mayor parte del tiempo.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-emploed-by-ai-makers- aparentemente-tratando-de-evitar-la-responsabilidad-de-su-vida-decidiendo-sistemas-autónomos/