Lecciones de ética de IA y sistemas autónomos extraídas de ese vuelo reciente de Alaska Airlines en el que el piloto y el copiloto no estuvieron de acuerdo antes de despegar y repentinamente optaron por tomar un taxi de regreso a la terminal e ir por caminos separados

Las aerolíneas han estado bastante en las noticias últimamente.

Estamos en la crisis del verano de los vuelos. Los pasajeros cansados ​​y frustrados se enfrentan a todo tipo de interrupciones en los vuelos y contorsiones en la programación de las aerolíneas. Los vuelos se cancelan inesperadamente. Los vuelos están retrasados. Los pasajeros echan humo. Desafortunadamente, ha habido muchos casos de pasajeros que permiten que surjan estas molestias, y lamentablemente hemos visto demasiados videos virales de confrontaciones cara a cara y, a veces, puñetazos.

Más raro es que nos enteremos de disputas entre un piloto y un copiloto que pueden ocurrir mientras están en la cabina.

Eso es toda una sorpresa.

De hecho, naturalmente nos desconcierta pensar que un piloto y un copiloto tendrían la apariencia de un desacuerdo serio durante cualquier etapa de un vuelo. Si el desacuerdo se relaciona con qué marca de café es la mejor, suponemos que esto no se entrometería en el esfuerzo de trabajo que implica volar el avión. Los dos simplemente se encogerían de hombros por su falta de acuerdo sobre un tema aparentemente irrelevante para el vuelo. Su comportamiento profesional y su larga formación como piloto se activarían y volverían a centrar su atención en los detalles del vuelo.

Considere sin embargo cuando un desacuerdo profesional interviene.

Voy a compartir brevemente con ustedes una noticia ampliamente publicada sobre un caso reciente de algo que sucedió durante un vuelo en los EE. UU. relacionado con un supuesto desacuerdo profesional en la cabina.

Esto se cita principalmente aquí para que podamos explorar un tema relacionado que es de gran importancia para el advenimiento de la Inteligencia Artificial (IA). Verá, puede haber una forma de, digamos, desacuerdo profesional entre no solo humanos en un desacuerdo de humano a humano, sino que también puede ocurrir algo similar en medio de la adopción de IA y ergo resultando en desacuerdos profesionales de humano contra IA. . Surgen todo tipo de consideraciones de ética de la IA. Para conocer mi cobertura amplia y continua de la ética de la IA y los problemas de la IA ética, consulte el enlace aquí y el enlace aquí, sólo para nombrar unos pocos.

Prepárate para una historia fascinante.

Como se informó recientemente en las noticias, aparentemente surgió un caso de “desacuerdo profesional” durante un vuelo de Alaska Airline que iba de Washington a San Francisco. Según los informes de prensa, el vuelo se había alejado de la puerta de embarque y estaba esperando en la pista el permiso para rodar y tomar vuelo. Se avecinaba una tormenta que provocó un retraso de más de una hora y media en el vuelo. Resulta que el avión finalmente dio la vuelta y se dirigió de regreso a la puerta de embarque, lo que algunos de los pasajeros normalmente habrían asumido que era simplemente una precaución de seguridad relacionada con la tormenta.

Según varios tweets, parece que el piloto y el copiloto tuvieron algún tipo de disputa fuera de la vista durante su tiempo en la cabina y de alguna manera llegaron a la conclusión de que el enfoque más prudente sería cancelar el vuelo y regresar a la terminal. . Los tuits sugirieron que el capitán y el primer oficial aparentemente no podían llevarse bien. Posteriormente, la aerolínea emitió una declaración de que la situación era desafortunada (la situación no se declaró explícitamente ni se explicó per se), la gerencia evaluó a los dos oficiales de vuelo y los consideró aptos para volar, se intercambió la tripulación y el vuelo terminó teniendo lugar. y más tarde llegó a San Francisco.

En cierto sentido, si de hecho el piloto y el copiloto tuvieran un desacuerdo profesional, como si el avión estaba adecuadamente preparado para despegar o si el riesgo de volar a través de una tormenta estaba dentro de un rango de seguridad adecuado, esos pasajeros deberían sentirse aliviados y agradecido de que el avión fue devuelto a la puerta. Mejor prevenir que lamentar. Tener un retraso adicional bien vale la supuesta reducción de los riesgos asociados con un viaje de vuelo considerado accidentado o adverso.

Algunas personas pueden sorprenderse de que pueda surgir un desacuerdo profesional de este tipo.

Quizás tengamos la falsa impresión de que todo lo que sucede en la cabina es completamente preciso y está bien escrito. Aparentemente, toda forma de discreción humana ha sido eliminada del proceso. Basado en gráficos precisos y minuciosamente calculados, un vuelo está bien para continuar o no. No puede haber ningún desacuerdo cuando se piensa que todo el equipo y el caboodle se basan en cálculos irrefutables de hechos y cifras.

Esa no es toda la verdad del asunto. Claro, hay una gran cantidad de protocolos y todo tipo de controles y equilibrios, pero esto no elimina todo el juicio humano. Los pilotos y copilotos todavía ejercen el juicio humano. Afortunadamente, este juicio humano se perfecciona con años de vuelo. Lo más probable es que un piloto y un copiloto en un avión comercial de pasajeros tengan mucha experiencia de vuelo previa y aprovechen fácilmente sus muchos años de razonamiento y juicio profundos asociados con estar en los controles de vuelo.

Dado el papel notable del juicio humano, lógicamente podríamos anticipar que un piloto y un copiloto a veces van a tener desacuerdos profesionales. La mayoría de las veces presumiblemente hay muy poco desacuerdo de este tipo. Es probable que el piloto y el copiloto de los vuelos diarios estén bien alineados con la preponderancia del tiempo. Solo cuando un escenario de vuelo pudiera salirse de los límites convencionales esperaríamos que surja una fricción más tensa.

Si hay una fuerte diferencia de opinión entre los dos, me atrevería a decir que queremos que lo discutan.

Imagine una situación en la que el piloto quiere avanzar estridentemente pero el copiloto percibe que los riesgos son demasiado altos. Simplemente hacer que el copiloto se incline ante el piloto parecería indeseable. El copiloto es un control y equilibrio de lo que un piloto podría estar pensando en hacer. Para aquellos que quieren que un copiloto se calle y solo actúe sin pensar según lo que decrete el piloto, bueno, eso no es una gran tranquilidad. Un copiloto no es simplemente un "piloto" de repuesto que entra en escena solo cuando el piloto está completamente incapacitado. Esa es una comprensión equivocada del valor de tener un piloto y un copiloto en la cabina.

Existe el otro ángulo de esto.

Considere el caso de un piloto que no cree que un vuelo deba continuar y, mientras tanto, el copiloto está entusiasmado por levantarse en el aire. ¿Entonces que? Por la jerarquía esperada, se supone que el piloto prevalece convencionalmente sobre el copiloto. El papel designado de ser el principal a cargo hace que el piloto sea más grande de lo que de otro modo sería algo igual. Normalmente, el piloto tiene más tiempo de vuelo en general que el copiloto y, por lo tanto, se supone jerárquicamente que el copiloto debe ceder a los deseos del piloto (cuando está dentro de lo razonable).

En cualquier caso, creo que todos podemos estar de acuerdo en que optar por no volar es una elección seguramente menos arriesgada que decidir volar. Una vez que el avión está en el aire, los niveles de riesgo se vuelven enormes en comparación con cualquier terreno estable ordinario. Un vuelo comercial habitual que simplemente vuelva a la terminal sin haber despegado sería una solución bastante amistosa a cualquier debate acalorado y enconado sobre el despegue.

Cambiemos de marcha y usemos esta noticia valiente para un propósito completamente diferente pero identificable.

Poco a poco estamos teniendo entre nosotros un predominio de sistemas autónomos basados ​​en IA. A veces, la IA dirige el programa, por así decirlo. La IA hace todo, de la A a la Z, y podríamos interpretar esto como una IA que es completamente autónoma o casi. En otros casos, podemos tener IA que interactúe y, hasta cierto punto, esté programada para depender de tener un humano en el circuito.

Me gustaría concentrarme en la cuestión de un sistema autónomo o semiautónomo basado en IA que desde el principio tiene un ser humano en el circuito. La IA y el humano se juntan intencionalmente y se supone que trabajan en conjunto. Son cohortes en la realización de una tarea particular en cuestión. No se supone que la IA por sí sola actúe en la tarea. La IA debe interactuar con el humano en el circuito designado.

Menciono esta caracterización para diferenciarla de situaciones en las que el ser humano en el circuito se considera una faceta opcional. En esencia, la IA tiene rienda suelta. Si la IA opta por hacer uso del ser humano, que así sea. No existe ningún requisito de que la IA tenga que contactar o trabajar mano a mano con el humano designado. Los análisis que voy a relatar son ciertamente pertinentes a ese tipo de opcional arreglo de interacción, pero no es a lo que me estoy dirigiendo específicamente en esta discusión en particular.

De acuerdo, entonces tenemos algún tipo de tarea en la que un humano y una IA van a trabajar juntos, inseparablemente el uno del otro. En un sentido abstracto, tenemos un ser humano sentado en un asiento y un sistema de inteligencia artificial sentado en el otro asiento que lo acompaña. Digo esto con descaro porque no estamos limitando esta discusión a un robot, por ejemplo, que en realidad podría estar sentado en un asiento. Me refiero metafóricamente a la noción de que la IA está en algún lugar participando en la tarea y también lo está el ser humano. Físicamente, su paradero no es especialmente vital para la discusión.

Es posible que no esté seguro de cuándo podría surgir tal circunstancia.

Pan comido.

Más adelante hablaré sobre el advenimiento de los vehículos autónomos y los autos sin conductor. En ciertos niveles de autonomía, se supone que la IA y el ser humano trabajan juntos. La IA podría estar conduciendo el automóvil y solicitar que el humano se haga cargo de los controles de conducción. El humano podría estar conduciendo el automóvil y activar la IA para hacerse cargo de los controles. Se turnan en los controles de conducción.

Además, algunos diseños tienen la IA esencialmente activa todo el tiempo (o, a menos que esté apagada), de modo que la IA siempre esté lista. Además, la IA podría intervenir directamente, incluso sin que el humano se lo pida, dependiendo de la situación que se esté desarrollando. Supongamos por ejemplo que el humano parece haberse quedado dormido al volante. Dado que el humano aparentemente no puede activar la IA (porque la persona está durmiendo), la IA podría estar programada para hacerse cargo de los controles del humano.

Algunos diseños llevan a la IA y a los humanos a un enfoque de conducción dual. La IA está conduciendo y el humano está conduciendo. O, si lo prefiere, el humano conduce y la IA también conduce. Cada uno conduce el vehículo. Comparo esto con esos autos especialmente equipados que tal vez usaste cuando tomaste un entrenamiento de manejo y había dos conjuntos de controles de manejo en el vehículo, uno para el conductor estudiante y otro para el instructor de manejo.

Ese es solo un ejemplo de un entorno en el que la IA y los humanos podrían trabajar juntos en una tarea. Todo tipo de posibilidades existe. Se podrían diseñar otros tipos de vehículos autónomos de manera similar, como aviones, drones, sumergibles, barcos de superficie, trenes, etc. No tenemos que considerar solo los entornos vehiculares y de transporte. Visualice el dominio médico y las cirugías que un médico y un sistema de IA realizan conjuntamente. La lista es interminable.

Casi tengo ganas de referirme al clásico chiste estruendoso sobre un humano y una IA que entran juntos en un bar. Es bastante divertido para aquellos en AI.

En serio, volvamos al enfoque de un ser humano y un sistema de IA que trabajan juntos en una tarea determinada. Primero, quiero evitar antropomorfizar la IA, que es algo que enfatizaré en todo momento. La IA no es sensible. Por favor tenlo en mente.

Aquí hay algo para reflexionar: ¿Un ser humano en el circuito designado siempre estará totalmente de acuerdo con una IA co-equipada?

Para cualquier tarea compleja, parecería poco probable que el ser humano y la IA estén siempre y completamente sincronizados. El ser humano en algunas ocasiones posiblemente no estará de acuerdo con la IA. Podemos llevar esa suposición hasta el banco.

Me gustaría que también consideres esta posibilidad quizás sorprendente: ¿La IA siempre estará totalmente de acuerdo con un humano designado en el circuito?

Nuevamente, para cualquier tarea compleja, parece bastante concebible que la IA no esté de acuerdo con los humanos en algunas ocasiones. Si ya se está inclinando hacia la idea de que la IA siempre debe estar equivocada mientras que los humanos siempre deben tener la razón, sería prudente reconsiderar esa conclusión apresurada. Imagine un automóvil que tenga un humano y una IA que conduzcan conjuntamente el vehículo semiautónomo. El humano se dirige hacia una pared de ladrillos. ¿Por qué? No lo sabemos, tal vez el humano esté intoxicado o se haya quedado dormido, pero sí sabemos que chocar contra una pared de ladrillos no es una buena idea, en igualdad de condiciones. La IA podría detectar la calamidad que se avecina y tratar de alejarse de la barrera inminente.

En total, vamos a tener la clara posibilidad de que la IA y el ser humano no estén de acuerdo entre sí. La otra forma de decir lo mismo es que los humanos y la IA están en desacuerdo entre sí. Tenga en cuenta que no quiero que la secuencia de IA y humanos versus humanos y IA sugiera nada sobre la dirección o plausibilidad del desacuerdo.

Los dos trabajadores, uno humano y otro que es AI, no están de acuerdo entre sí.

Podríamos declarar de antemano que cada vez que ocurre un desacuerdo entre una IA determinada y un ser humano determinado, proclamamos de antemano que el humano prevalece sobre la IA. Dicho esto, mi ejemplo ilustrativo sobre el automóvil que se dirige hacia una pared de ladrillos parecería disuadirnos de que el ser humano necesariamente siempre tendrá la razón.

Podríamos, en cambio, optar por declarar de antemano que siempre que surja un desacuerdo habremos establecido de antemano que la IA tiene razón y el humano está equivocado. Tampoco se trata de una disposición sensatamente generalizable. Imagine un automóvil en el que la IA tiene algún error o error de software incorporado, y la IA está tratando de desviar el vehículo de la carretera y llevarlo a una zanja. Suponiendo que todo lo demás sea igual, el humano debería poder superar esta acción de conducción de la IA y evitar que el vehículo aterrice en el barranco.

Hagamos un resumen rápido de esto:

  • ¿Estará siempre un humano en el circuito totalmente de acuerdo con la IA? Respuesta No.
  • ¿La IA siempre estará totalmente de acuerdo con un humano en el circuito? Respuesta No.
  • ¿Un humano en el circuito siempre tendrá razón en comparación con la IA? Respuesta No necesariamente.
  • ¿La IA siempre tendrá razón en comparación con el humano en el circuito? Respuesta: No necesariamente.

Sin duda, puede configurar la IA para que se considere de forma predeterminada como la parte "equivocada" o más débil y, por lo tanto, siempre defienda al ser humano cada vez que surja un desacuerdo. Del mismo modo, puede configurar la IA para asumir que la IA se considera "correcta" cada vez que un humano no está de acuerdo con la IA. Quiero aclarar que podemos hacer eso programáticamente si así lo deseamos. Sin embargo, afirmo que, en general, este no siempre será el caso. Seguramente hay escenarios en los que no sabemos de antemano si la IA tiene “razón” o el humano tiene “razón” en cuanto a optar por uno u otro en un desacuerdo relacionado con una determinada tarea.

Te he llevado a una pregunta muy importante y muy complicada.

¿Qué debemos hacer cuando ocurre un desacuerdo profesional entre el ser humano en el circuito y la IA (o, de manera equivalente, podemos expresarlo como si fuera entre la IA y el ser humano en el circuito)?

No intentes esquivar la pregunta.

Algunos podrían argumentar que esto nunca sucedería, pero como expliqué en mi ejemplo sobre el automóvil, seguramente podría suceder. Algunos podrían argumentar que un ser humano es obviamente superior y debe ser el ganador de cualquier desacuerdo. Mi ejemplo del coche y la pared de ladrillos lo derriba. Hay defensores de la IA que podrían insistir en que la IA debe ser la ganadora, debido a la ostensible superación de las emociones humanas y el pensamiento desenfrenado de esos humanos desordenados y de pensamiento confuso. Una vez más, mi otro ejemplo que implica que el automóvil se dirige a la zanja socava esa afirmación.

En el mundo real, la IA y los humanos van a estar en desacuerdo, incluso cuando los dos se ponen deliberadamente en una situación de equipo para realizar una tarea conjunta. Pasará. No podemos enterrar la cabeza en la arena y pretender que no ocurrirá.

Vimos que los humanos que pilotaban el avión aparentemente tuvieron un desacuerdo. Afortunadamente, acordaron no estar de acuerdo, por lo que parece. Trajeron el avión de vuelta a la terminal. Encontraron un medio para lidiar con el desacuerdo. La resolución de su desacuerdo funcionó bien, en comparación con si tal vez se hubieran peleado a puñetazos en la cabina o tal vez volaron por el aire y continuaron siendo combativos entre sí. Ese es un escenario doloroso que es insostenible, y podemos estar agradecidos de que no haya ocurrido.

Permítanme proporcionar mi lista de las diversas formas en que se pueden resolver los desacuerdos entre la IA y el ser humano en el circuito (o entre el ser humano en el circuito y la IA):

  • La IA y el humano en equipo resuelven las cosas (amistosamente o no)
  • El ser humano prevalece sobre la IA, por defecto
  • La IA prevalece sobre el humano, por defecto
  • Prevalece alguna otra resolución fija predeterminada, por defecto
  • El ser humano de terceros está conectado y su indicación prevalece sobre las partes
  • La IA de terceros está conectada y su indicación prevalece sobre las partes
  • El humano de terceros reemplaza al humano existente, las cosas proceden de nuevo
  • La IA de terceros reemplaza la IA existente, las cosas proceden de nuevo
  • El humano de terceros reemplaza la IA existente, las cosas proceden de nuevo (ahora de humano a humano)
  • La IA de terceros reemplaza al ser humano existente, las cosas proceden de nuevo (ahora de IA a IA)
  • Otro

Esos son abundantemente dignos de ser desempaquetados.

Antes de entrar en más carne y papas sobre las consideraciones salvajes y extrañas que subyacen a cómo lidiar con la IA y los desacuerdos humanos, expongamos algunos fundamentos adicionales sobre temas profundamente esenciales. Necesitamos sumergirnos brevemente en la ética de la IA y especialmente en el advenimiento del aprendizaje automático (ML) y el aprendizaje profundo (DL).

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Responsabilidad
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos a nuestro enfoque en los desacuerdos entre la IA y un ser humano.

Anteriormente he indicado que estas son algunas de las estrategias para resolver desacuerdos:

  • La IA y el humano en equipo resuelven las cosas (amistosamente o no)
  • El ser humano prevalece sobre la IA, por defecto
  • La IA prevalece sobre el humano, por defecto
  • Prevalece alguna otra resolución fija predeterminada, por defecto
  • El ser humano de terceros está conectado y su indicación prevalece sobre las partes
  • La IA de terceros está conectada y su indicación prevalece sobre las partes
  • El humano de terceros reemplaza al humano existente, las cosas proceden de nuevo
  • La IA de terceros reemplaza la IA existente, las cosas proceden de nuevo
  • El humano de terceros reemplaza la IA existente, las cosas proceden de nuevo (ahora de humano a humano)
  • La IA de terceros reemplaza al ser humano existente, las cosas proceden de nuevo (ahora de IA a IA)
  • Otro

Es hora de desempacar estos.

En primer lugar, considere que todo esto se trata de Profesional desacuerdos

Un desacuerdo profesional se define vagamente como un desacuerdo asociado con una tarea relacionada con el trabajo.

Por ejemplo, un desacuerdo que surge entre un piloto y un copiloto sobre si continuar con un vuelo que se enfrenta a una tormenta podría calificarse razonablemente como un desacuerdo profesional. Por el contrario, un desacuerdo vehemente sobre qué marca de café defiende el piloto frente a la marca que prefiere el copiloto se clasifica fácilmente como un desacuerdo no profesional en este contexto particular.

Por supuesto, si un desacuerdo no profesional se convierte en un desacuerdo profesional, en última instancia, podríamos estar interesados ​​en el desacuerdo no profesional como una supuesta fuente o chispa para el profesional. Imagine que un piloto y un copiloto discuten amargamente sobre qué marca de café es la mejor, lo que lamentablemente se convierte en preocupaciones específicas del vuelo (¡juego de palabras!), como si despegar o no.

En segundo lugar, debemos tener en cuenta la magnitud del desacuerdo profesional.

Tal vez el piloto y el copiloto o en leve desacuerdo sobre proceder a volar. No están en desacuerdo y simplemente contemplan los pros y los contras de despegar. Este no es el calibre o la magnitud de un desacuerdo profesional que estamos considerando habitualmente en este documento. El caso es que puede ser que el desencuentro profesional sea transitorio y ambas partes lleguen a una solución de manera cordial o al menos oportuna. Generalmente, el foco de los desacuerdos profesionales dentro del alcance son aquellos que aparentemente son intratables, y las dos partes permanecen firmemente en desacuerdo.

En tercer lugar, por lo general tiene que haber algo serio en juego para que estas pautas entren en juego.

Optar por volar o no volar es una decisión decididamente de vida o muerte si el vuelo está en riesgo debido a una tormenta o si se considera que el avión no está completamente preparado para tal viaje. Este es un asunto serio. Todavía podemos aplicar las pautas a los desacuerdos profesionales menos impactantes, aunque podría ser más molesto de lo que vale.

Bien, nuestras consideraciones son que:

  • El desacuerdo tiene una orientación principalmente profesional y no sobre algo no profesional.
  • El desacuerdo es de naturaleza sostenida y no meramente transitorio o de otra manera fácilmente resuelto
  • El desacuerdo presagia graves consecuencias y suele tener un resultado impactante.
  • Las partes están enfrentadas y parecen intratables

Ahora echemos un vistazo más de cerca a cada una de mis pautas o enfoques sugeridos con respecto a cómo hacer frente a tales desacuerdos profesionales.

La IA y el humano en equipo resuelven las cosas (amistosamente o no)

Comienzo la lista con la posibilidad directa de que la IA y el humano en el circuito puedan resolver el desacuerdo profesional entre ellos. Parece que quizás el caso de los dos humanos, el piloto y el copiloto ilustran este tipo de circunstancias. De alguna manera resolvieron regresar a la terminal e ir por caminos separados. Podría ser que un sistema de IA y un ser humano puedan encontrar un enfoque de resolución que sea generalmente satisfactorio para ambas partes y, por lo tanto, el asunto se concluya satisfactoriamente.

El ser humano prevalece sobre la IA, por defecto

Al configurar la IA, podríamos programar una regla que diga que el ser humano en el circuito siempre prevalecerá cuando surja un desacuerdo profesional. Este sería el valor predeterminado codificado explícitamente. También podríamos permitir alguna forma de anulación, por si acaso, aunque la regla permanente será que prevalezca el ser humano.

La IA prevalece sobre el humano, por defecto

Al configurar la IA, podríamos programar una regla que diga que la IA siempre prevalecerá sobre el ser humano en el circuito cada vez que surja un desacuerdo profesional. Este es el valor predeterminado codificado explícitamente. También podríamos permitir algún tipo de anulación, por si acaso, aunque la regla permanente será que prevalezca la IA.

Prevalece alguna otra resolución fija predeterminada, por defecto

Al configurar la IA, podríamos programar una regla que diga que alguna otra resolución fija predeterminada prevalecerá cada vez que surja un desacuerdo profesional con el humano en el circuito. El ser humano en el circuito no prevalece por defecto. La IA no prevalece por defecto. Hay alguna otra resolución preidentificada. Por ejemplo, quizás exista el lanzamiento de una moneda que se utilizará para decidir cuál de las dos partes se considera el camino correcto a seguir. Obviamente, eso parecería bastante arbitrario; por lo tanto, otro enfoque de ejemplo sería que se activa una regla especializada que calcula un valor basado en las entradas de las dos partes y llega a un resultado como desempate.

El ser humano de terceros está conectado y su indicación prevalece sobre las partes

Ante un desacuerdo profesional, una regla podría ser que se invoque a un tercero que sea un ser humano y se lo conecte al entorno para tomar una decisión sobre la resolución del desacuerdo. La IA está programada para ceder a lo que decida el tercero humano. El humano que ya está en el humano-en-el-bucle ha sido instruido de antemano que si surge tal situación, ellos también deben ceder ante el tercero humano. Por otro lado, es probable que pueda anticipar que el humano en el circuito podría tener angustia por acceder a lo que sea que el tercero humano decida si la decisión no está de acuerdo con la postura del humano en el circuito.

La IA de terceros está conectada y su indicación prevalece sobre las partes

Ante un desacuerdo profesional, una regla podría ser que se invoque a un tercero que es un sistema de IA diferente y se conecte al entorno para tomar una decisión sobre la resolución del desacuerdo. La IA original está programada para ceder a lo que decida la IA de terceros. El humano que ya está en el circuito humano ha recibido instrucciones de antemano de que si surge tal situación, también deben ceder ante la IA de terceros. Aparte, es probable que pueda anticipar que el humano en el circuito podría tener angustia por acceder a lo que sea que la IA de terceros decida si la decisión no está de acuerdo con la postura del humano en el circuito.

El humano de terceros reemplaza al humano existente, las cosas proceden de nuevo

Ante un desacuerdo profesional, el humano-en-el-bucle es reemplazado por un tercero que es un humano y que se convierte en adelante en el humano-en-el-bucle. El ser humano que era el ser humano original en el circuito para la tarea ya no se considera parte de la tarea en cuestión. Es un aspecto abierto en cuanto a lo que sucede de otro modo con el ser humano en el circuito ahora reemplazado, pero estamos diciendo que con seguridad ya no tienen ningún papel continuo en la tarea de trabajo.

La IA de terceros reemplaza la IA existente, las cosas proceden de nuevo

Ante un desacuerdo profesional, la IA se reemplaza por una IA de terceros y, en adelante, se convierte en la IA utilizada para la tarea de trabajo en cuestión. La IA que se usaba originalmente para la tarea ya no se considera parte de la tarea en cuestión. Es un aspecto abierto en cuanto a lo que sucede con la IA ahora reemplazada, pero estamos diciendo que con seguridad la IA ya no tiene ningún papel continuo en la tarea de trabajo.

El humano de terceros reemplaza la IA existente, las cosas proceden de nuevo (ahora de humano a humano)

Ante un desacuerdo profesional, la IA es reemplazada por un tercero humano para quien esa persona ahora se convierte en la parte considerada como parte del equipo que se utilizará para la tarea de trabajo en cuestión. La IA que se usaba originalmente para la tarea ya no se considera parte de la tarea en cuestión. Es un aspecto abierto en cuanto a lo que sucede con la IA ahora reemplazada, pero estamos diciendo que con seguridad la IA ya no tiene ningún papel continuo en la tarea de trabajo. En resumen, esto ahora se convierte en una tarea de dos partes realizada de persona a persona.

La IA de terceros reemplaza al ser humano existente, las cosas proceden de nuevo (ahora de IA a IA)

Ante un desacuerdo profesional, el humano en el circuito es reemplazado por una IA de terceros y esta IA se convierte en el reemplazo del humano en el circuito anterior. El ser humano que era el ser humano original en el circuito para la tarea ya no se considera parte de la tarea en cuestión. Es un aspecto abierto en cuanto a lo que sucede de otro modo con el ser humano en el circuito ahora reemplazado, pero estamos diciendo que con seguridad ya no tienen ningún papel continuo en la tarea de trabajo. En resumen, esto ahora se convierte en una IA a IA de dos partes para realizar la tarea.

Otro

Se pueden idear otras variaciones para hacer frente a un desacuerdo profesional, pero hemos cubierto aquí algunas de las piedras angulares.

¿Cómo vamos a decidir cuál de esos enfoques será el correcto para una situación dada?

Una amplia variedad de cuestiones entran en hacer tal elección. Hay consideraciones tecnológicas. Hay consideraciones comerciales. Hay consideraciones legales y éticas.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial. Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida (quizás sorprendente o irónicamente) la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre las resoluciones de desacuerdos humanos y de IA? De ser así, ¿qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y desacuerdo entre IA y humanos

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Para los vehículos totalmente autónomos, es posible que no haya ninguna posibilidad de un desacuerdo profesional entre un humano y la IA debido a la posibilidad de que, para empezar, no haya ningún humano en el circuito. La aspiración de muchos de los fabricantes de automóviles autónomos de hoy en día es eliminar completamente al conductor humano de la tarea de conducción. El vehículo ni siquiera tendrá controles de conducción accesibles para humanos. En ese caso, un conductor humano, si está presente, no podrá participar en la tarea de conducción ya que no tiene acceso a los controles de conducción.

Para algunos vehículos totalmente autónomos, algunos diseños aún permiten que un humano esté en el circuito, aunque el humano no tiene que estar disponible o participar en el proceso de conducción en absoluto. Por lo tanto, un ser humano puede participar en la conducción, si la persona así lo desea. Sin embargo, en ningún momento la IA depende del ser humano para realizar ninguna de las tareas de conducción.

En el caso de los vehículos semiautónomos, existe una relación mano a mano entre el conductor humano y la IA. El conductor humano puede hacerse cargo de los controles de conducción por completo y esencialmente evitar que la IA participe en la conducción. Si el conductor humano desea restablecer la IA en el rol de conducción, puede hacerlo, aunque esto a veces obliga al humano a renunciar a los controles de conducción.

Otra forma de operación semiautónoma implicaría que el conductor humano y la IA trabajen juntos en equipo. La IA está conduciendo y el humano está conduciendo. Están conduciendo juntos. La IA podría ceder ante el humano. El humano podría ceder ante la IA.

En algún momento, el sistema de conducción de IA y el conductor humano en el circuito podrían llegar a un punto de "desacuerdo profesional" en cuanto a la tarea de conducción en cuestión.

Para ilustrar cómo algunas de las reglas antes mencionadas para lidiar con un desacuerdo profesional pueden ser difíciles de implementar, considere la instancia de invocar a un tercero humano para que intervenga en el asunto y proponga una decisión para resolver el problema no resuelto.

Supongamos que un fabricante de automóviles o una empresa de tecnología de conducción autónoma ha hecho arreglos para que los operadores humanos remotos tengan acceso a los controles de conducción de los vehículos dentro de su flota. El operador humano está sentado en una oficina lejana o en un entorno similar. A través de un sistema informático, pueden ver la escena de conducción accediendo a las cámaras y otros dispositivos sensores cargados en el automóvil autónomo. Para ellos, esto es casi como jugar un videojuego en línea, aunque, por supuesto, las circunstancias de la vida real tienen consecuencias potencialmente nefastas.

Un sistema de inteligencia artificial y un conductor humano dentro del automóvil conducen un vehículo semiautónomo por una larga carretera. De repente, la IA quiere meterse en una zanja. El conductor humano no quiere hacer esto. Los dos se pelean por los controles de conducción.

¿Cómo se resolverá esto?

Tal vez podríamos haber instituido de antemano que el humano siempre gana. Sin embargo, supongamos que optamos por no hacerlo.

Podríamos haber instituido de antemano que la IA siempre gana. Supongamos que optamos por no hacerlo. En general, no adoptamos ninguna de esas reglas, aparte de que decidimos permitir que un tercero humano interviniera y resolviera un desacuerdo profesional de cualquier naturaleza sustantiva.

En este caso de uso, la IA y el conductor humano al volante luchan por los controles de conducción. Esto es, digamos, transmitido al operador humano remoto (nuestro tercero humano). El operador humano remoto examina lo que está ocurriendo y decide alejarse de la zanja, aparentemente evitando lo que la IA estaba tratando de hacer. Al mismo tiempo, supongamos que el operador humano remoto se dirige hacia el tráfico que se aproxima, lo que quizás ni la IA ni el conductor humano dentro del automóvil querían hacer.

El punto es que la forma en que se implementó esta regla es que el operador humano de terceros puede anular por completo tanto la IA como el humano en el circuito. Si esto va a producir un buen resultado, seguramente no está asegurado.

Usaré este ejemplo para resaltar algunas ideas adicionales sobre estos asuntos.

No se puede hacer la suposición descarada de que solo porque se implemente una de estas reglas, el resultado del desacuerdo resuelto es necesariamente un buen resultado garantizado. Puede que no lo sea. No hay ningún tipo de regla infalible que siempre tenga la razón que se pueda seleccionar.

A continuación, algunas de estas reglas podrían no ser viables de implementar.

Considere el ejemplo del operador humano remoto que interviene cuando la IA y el conductor humano se pelean por los controles de conducción. El operador humano remoto puede tardar varios segundos en darse cuenta de lo que está pasando. Para entonces, es posible que el vehículo ya haya terminado en la zanja o haya tenido algún otro resultado adverso. Además, suponga que la ubicación del vehículo impide el acceso remoto, como estar en un lugar donde no hay conectividad electrónica de red. O tal vez las funciones de red del vehículo no funcionan en ese momento en particular.

Como puede ver, la regla puede verse excelente en el papel, aunque ponerla en uso real puede ser un enfoque muy difícil o muy arriesgado. Vea mi cobertura de ojo crítico sobre el operador remoto de vehículos autónomos y autos sin conductor en el enlace aquí.

Me gustaría cubrir brevemente otro tema relacionado que cubriré con mayor profundidad en un próximo análisis.

Una de las preocupaciones crecientes sobre los vehículos autónomos y los autos sin conductor que son semiautónomos es el llamado Síndrome de la patata caliente.

Aquí está el trato.

Un sistema de conducción de IA y un humano están co-conduciendo. Surge una situación terrible. La IA ha sido programada para abandonar la tarea de conducir y entregar las cosas al humano cuando ocurre un momento terrible. Esto parece quizás "sensato" en el sentido de que parece que estamos invocando la regla sobre el ser humano como el "ganador" predeterminado en cualquier posible desacuerdo profesional.

Pero el abandono de la IA podría ser para propósitos más nefastos o considerados insidiosos. Podría ser que el fabricante de automóviles o la empresa de tecnología de conducción autónoma no quiera que su IA sea considerada la "parte culpable" cuando ocurre un accidente automovilístico. Para aparentemente evitar quedar atrapado de esa manera, la IA entrega abruptamente los controles al humano. Voila, el humano ahora es presumiblemente completamente responsable del vehículo.

El truco es que supongamos que la IA hace esta transferencia con, digamos, un segundo antes de que ocurra un bloqueo.

¿El humano realmente tendría tiempo disponible para evitar el choque?

Probablemente no.

Supongamos que la IA realiza el traspaso con unos pocos milisegundos o nanosegundos restantes. Me atrevo a decir que el ser humano tiene esencialmente cero posibilidades de hacer algo para evitar el accidente.

Desde la perspectiva del fabricante de automóviles o de la empresa de automóviles autónomos, pueden tratar de actuar como si sus manos estuvieran limpias cuando ocurre un accidente automovilístico de este tipo. El coche estaba siendo conducido por un humano. La IA no conducía el coche. La única conclusión "lógica" parecería ser que el ser humano debe tener la culpa y la IA debe estar completamente libre de culpa.

Es un cántaro.

Discutiré esto con más profundidad en una próxima columna.

Conclusión

Desacuerdos profesionales van a ocurrir.

Es difícil imaginar una tarea compleja en la que dos partes co-realicen la tarea y para la cual nunca surgirían desacuerdos profesionales. Esto parece una tierra de fantasía o al menos una gran rareza.

Hoy en día, tenemos montones y montones de instancias de desacuerdos profesionales entre humanos, para los cuales, a diario, las resoluciones se resuelven pacífica y sensatamente de una forma u otra. De hecho, a menudo organizamos situaciones intencionalmente para fomentar y sacar a la luz desacuerdos profesionales. Podría argumentar que esto muestra la famosa sabiduría de que a veces dos cabezas piensan mejor que una.

A medida que la IA se vuelve más frecuente, vamos a tener muchos ejecutantes de tareas de dos partes de IA a humano o de humano a IA y habrá desacuerdos profesionales eso ocurrirá. El enfoque perezoso es siempre deferir al humano. Este podría no ser el enfoque más adecuado. La IA podría ser la mejor opción. O una de las otras reglas antes mencionadas podría ser un enfoque más sólido.

Existe esa línea sabia que se repite a menudo de que, en general, todos deberíamos poder estar de acuerdo en estar en desacuerdo, aunque cuando se trata de algo, a veces un desacuerdo debe resolverse de manera inequívoca, de lo contrario, el asunto en cuestión conducirá a una calamidad incalculable. No podemos simplemente dejar que un desacuerdo languidezca en la vid. El tiempo puede ser esencial y las vidas pueden estar en juego.

Existe un requisito claro para algunos medios prudentes para resolver los desacuerdos, incluso si no necesariamente de manera agradable, incluso cuando la IA y un ser humano en el circuito no están de acuerdo ni byte a byte.

Confío en que usted no estará en desacuerdo con esa afirmación del todo agradable.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- el-piloto-y-copiloto-no-estuvieron-de-acuerdo-antes-de-despegar-y-abruptamente-optaron-por-taxi-regresar-a-la-terminal-e-ir-por-caminos-separados/