Empujando los límites de la ética de la IA en el mundo al revés de la IA ética radical, potencialmente ejemplificado a través del caso de uso de autos autodirigidos basados ​​en IA

¿El tenor y la atención prevalecientes de la apariencia de ética de la IA que está surgiendo ampliamente en la actualidad se han estancado?

Algunos parecen pensar decididamente que sí.

Desempaquetemos esto.

En general, es posible que sepa que ha habido una ola creciente de interés en las ramificaciones éticas de la IA. Esto a menudo se conoce como Ética de la IA o IA ética, que consideraremos en este documento como predominantemente equivalentes e intercambiables (supongo que algunos podrían cuestionar esa suposición, pero me gustaría sugerir que no nos distraigamos con las diferencias potenciales, si las hay, para los fines de esta discusión).

Parte de la razón por la que han aumentado las consideraciones éticas y morales acerca de la IA se debe a la avalancha gradualmente creciente de los llamados AI para mal. Verá, originalmente se percibía que la última ola de IA ofrecía principalmente AI para siempre. Esta era la idea de que la IA podría ayudar a resolver muchos de los problemas que, de otro modo, serían intratables y que la informática hasta ahora no había podido aspirar a ayudar. Es posible que finalmente nos encontremos aprovechando la IA para abordar muchos de los problemas más difíciles del mundo.

A lo largo de ese viaje un tanto soñador, me he dado cuenta de que existe la otra cara de la moneda. Eso es AI para mal. Por ejemplo, es posible que conozca el alboroto sobre el reconocimiento facial basado en IA que, en ocasiones, ha encarnado prejuicios raciales y de género (consulte mi análisis en este enlace aquí). No es bueno. Ahora hay muchos casos claros de sistemas de IA que tienen una gran cantidad de inequidades adversas integradas en su funcionalidad de toma de decisiones algorítmicas (ADM).

Algunos de los problemas serios dentro de la IA son éticamente limítrofes, mientras que otros problemas están más allá de cualquier límite ético razonable. Además de eso, también puede contar que la IA podría estar actuando ostensiblemente ilegalmente o directamente como un actor ilegal sin restricciones. El doble paso de dejarse martillar por la ley y por las costumbres éticas tiene como objetivo frenar la AI para mal y tratar de evitar el ataque continuo de la IA que, por defecto, podría estar plagado de elementos notoriamente inmorales e ilegales.

He cubierto ampliamente el tema de la ética de la IA en mis columnas, como la cobertura en este enlace y también en este enlace aquí, solo por nombrar algunos. Un conjunto relativamente común de factores éticos de IA consiste en prestar atención a estas características de la IA:

  • Justicia
  • Transparencia
  • Explicabilidad
  • Privacidad
  • Integridad
  • Dignidad
  • Beneficencia
  • Etc.

Esas son las construcciones sociales citadas con frecuencia sobre las que deberíamos estar reflexionando cuando se trata de la elaboración y el despliegue de la IA actual. Lo más probable es que, si por casualidad echa un vistazo a un artículo o publicación de blog que cubre la ética de la IA, encontrará que el tema del artículo se centra en uno de los factores o características antes mencionados.

Creo que, en general, aquellos que piden abiertamente una IA ética estarían de acuerdo en que esos factores merecen atención. De hecho, el verdadero problema parece ser que quienes fabrican y promulgan la IA no parecen estar captando el mensaje. Esto ha empujado a aquellos en medio del movimiento de ética de la IA a exponer más a fondo por qué estas características son tan importantes. Lamentablemente, muchos desarrolladores de IA y empresas que aprovechan la IA piensan que es bueno tener esto, ergo simplemente opcional, o ven la IA ética más como un ejercicio académico abstracto que como algo de naturaleza práctica cotidiana.

Según mis predicciones, muchos de los que tienen la cabeza en la arena sobre la IA ética algún día se despertarán y descubrirán groseramente que están bajo el disfraz estridente de la sociedad y también de la ley. La gente se molestará mucho al descubrir que la omnipresente IA integrada en todo tipo de bienes y servicios está salpicada de sesgos e inequidades inherentes. Los legisladores ya están presionando con nuevas leyes para tratar de garantizar que quienes promuevan dicha IA se rijan por reglas legalmente inequívocas, lo que dificulta mucho más que los constructores de IA y los que implementan la IA ignoren cualquier potencialidad penal civil y procesal adversa. de sus esfuerzos.

Sin parecer frívolos, las ruedas de la justicia se abrirán camino inexorablemente hacia aquellos que están emitiendo y fomentando la IA nociva.

Para aclarar, el AI para mal no se atribuye necesariamente únicamente a actores villanos. Resulta que la mayor parte de los desarrolladores de IA y aquellos que brindan IA al mundo en general desconocen con frecuencia lo que tienen entre manos. Aparentemente, la alarma sonora sobre la ética de la IA aún no ha llegado a sus oídos. Puedes sentir simpatía por aquellos que están felizmente inconscientes, aunque esto no los exime por completo de su responsabilidad y último deber de cuidado.

Me gustaría mencionar brevemente que no debe caer en la trampa mental insidiosa de que la culpa de la IA adversa recae en los pies de la propia IA. Esto es casi risible, aunque se sigue utilizando como vía de escape e increíblemente parece funcionar de vez en cuando en aquellos que no están familiarizados con la IA actual. Verá, la IA de hoy no es inteligente. Ni siquiera cerca. No sabemos si la sensibilidad de la IA es posible. No sabemos cuándo podría obtenerse una IA sensible.

La conclusión es que el juego de culpar a la IA de distraer a todos señalando con el dedo a la IA como la parte responsable es falso, si no un engaño del todo abyecto, vea mi elicitación sobre esto en el enlace aquí. La IA existente está programada por desarrolladores humanos. La IA existente es liberada y puesta a disposición por humanos. Las empresas que construyen IA y las empresas que otorgan licencias o compran la IA con el fin de usar la IA en sus bienes y servicios se basan completamente en la humanidad. Los seres humanos son los portadores de la responsabilidad, no la IA (quizás, en el futuro, tendremos una IA de una apariencia diferente y más avanzada, y en ese momento tendremos que luchar más de cerca con la distinción de dónde reside la culpa).

Como resumen rápido, deberíamos estar agradecidos de que los vocalizadores de la IA ética estén tratando estridentemente de que la sociedad se dé cuenta de las implicaciones éticas de la IA. En este momento, es casi similar al acto de Sísifo de hacer rodar una roca por una colina empinada. Muchos que deberían estar escuchando no lo están haciendo. A los que escuchan no siempre se les pide que tomen medidas correctivas. Así como Sísifo tuvo la poco envidiable tarea de empujar esa roca colina arriba por la eternidad, se puede suponer que la cacofonía de la ética de la IA también tendrá que ser un alboroto eterno.

Eso parece resolver el asunto sobre la ética de la IA y, presumiblemente, podemos pasar a otro tema.

Pero espera hay mas.

Es posible que se sorprenda o incluso se sorprenda al saber que algunos afirman que el cuerpo existente de consideraciones éticas de IA es negligente. La piedra angular principal de la ética de la IA se ha visto envuelta en un alguacil del pensamiento grupal, exhortan a gritos.

Aquí está el trato.

Se dice que mi lista anterior de factores de ética de la IA se ha convertido en una preocupación sofocante para los equipos de ética de la IA. Todo el mundo acepta sin pensar esos factores y sigue golpeando esos mismos factores, una y otra vez. Similar a una cámara de eco, la preponderancia de los especialistas en ética de la IA repiten la misma canción para sí mismos, disfrutando de su sonido. Pocos están dispuestos a salir del grupo. Una mentalidad de rebaño ha superado a la IA ética (así se afirma).

¿Cómo surgió este enigma? Aparentemente, puede explicar esta integración indeseable de la IA ética basada en la casualidad o por diseño.

En el escenario de la casualidad, los factores clave son extremadamente fáciles de enfocar. No tienes que salirte de la caja, por así decirlo. Además, es probable que aquellos que están dentro del campo de la IA ética estén más interesados ​​en trabajos o ideas similares, en lugar de buscar nociones más allá de la norma. Dios los cría y ellos se juntan. Centímetro a centímetro, se dice que el ámbito de ética de la IA se ha agrupado en un grupo reducido y, en general, está bien con la familiaridad y la comodidad que genera.

Estoy seguro de que provocará la ira de muchos participantes de Ética de AI (tenga en cuenta que solo estoy mencionando lo que otros sostienen y no afirmando esas acusaciones).

Si quiere aumentar la ira, considere la sugerencia de que el fenómeno ha surgido por diseño. En un ámbito algo tal vez teórico de la conspiración, se dice que los tecnólogos de IA y las empresas de tecnología están contribuyendo directa o subliminalmente a la reducción de las consideraciones éticas de IA.

¿Por qué iban a hacerlo?

Reflexionaremos sobre dos posibilidades.

Una noción es que los tecnólogos de IA favorecen el conjunto existente de consideraciones éticas de IA, ya que esos factores particulares son algo susceptibles de ser corregidos a través de la tecnología. Por ejemplo, si desea explicación, los tecnólogos de IA y los investigadores de IA trabajan día y noche para crear capacidades de IA explicables (XAI). Entonces, la belleza de la lista prevaleciente de factores éticos de IA es que encajan dentro del ámbito de las resoluciones de tecnología de IA. Aquellos que se adhieren a esa teoría son propensos a sugerir que cualquier otro factor que no se resuelva fácilmente con la tecnología de IA no puede ganar tracción en la lista de factores.

Luego tienes la otra variante más nefasta. Se sugiere que hay empresas de alta tecnología y otras que quieren brindar esencialmente un servicio de boquilla a los asuntos de ética de la IA. En ese sentido, disfrutan de una lista más corta de preocupaciones tecnológicamente solucionables. Cualquier intento de agregar otras preocupaciones hará la vida más difícil para esas empresas tecnológicas. Quieren minimizar la inversión necesaria para aplacar las proclamaciones de IA ética.

Supongo que ese tipo de alusión está destinada a estimular peleas e ir mucho más allá de la simple ira. Aquellos que intentan incansablemente cumplir y contribuir a la IA ética están siendo potencialmente difamados por esas afirmaciones, y puede imaginar fácilmente por qué estarían indignados por las acusaciones aparentemente descaradas y completamente descaradas.

No comencemos una pelea y, en cambio, tomemos un momento sobrio y reflexivo para ver qué más se está perdiendo el campo de la IA ética. El otro campo que aboga por extender y expandir el punto de vista de la IA ética contemporánea a veces se denomina IA ética radical.

Quizás se pregunte si el apodo de Radical Ethical AI es adecuado o no es bienvenido.

La connotación de algo que es “radical” puede ser buena o mala. Una interpretación de Radical Ethical AI es que es un intento de sacudir el status quo de la ética de la IA. El uso de los escaparates "radicales" que necesitamos para hacer un giro dramático concertado y no solo ajustar ligeramente o representar débilmente un mínimo de giro. Se podría argumentar que el uso de "radical" provocará un impacto en los enfoques existentes similares al uso de un desfibrilador que, de otro modo, no se lograría a través de la convención habitual.

Otros dirían que al agregar la palabra “radical” estás creando un gran lío. Algunos interpretarían el radicalismo como extravagante, deslizándose hacia lo excéntrico o extraño. Los centristas podrían rechazar de inmediato la noción misma de si existe un pensamiento de grupo debido a la sola denominación como un mecanismo ofensivo. Baja el tono de la retórica, dirían algunos, y podrías obtener una atención e interés más serios.

A pesar de la cuestión de los nombres, es posible que tenga una curiosidad innata en cuanto a qué es lo que este otro campo cree que el resto de nosotros nos falta. Deja de lado cualquier reacción visceral al whatchamacallit.

Podrías preguntar externamente, ¿dónde está la carne?

Intentaré representar algunos de los ingredientes faltantes a los que se alude.

En primer lugar, un supuesto descuido es que la visión predominante de la IA ética tradicional (¿anticuada?) es una suposición oculta y restrictiva de que la IA es inevitable. Por lo tanto, en lugar de examinar si la IA debería estar en las cartas para tipos particulares de usos y circunstancias sociales, la posición predominante es que la IA está llegando y debemos ponerla en la mejor forma posible. Podrías decir con picardía que esto es similar a poner lápiz labial en un cerdo (es decir, sigue siendo un cerdo, no importa lo que hagas para que parezca que se ve mejor).

Si llevas eso al extremo, quizás se diga que las dudas sobre la equidad, la privacidad y el resto son como mover sillas en la cubierta del Titanic. Este barco todavía se hundirá, lo que significa que asumimos que la IA sucederá, pase lo que pase. Pero tal vez deberíamos reconsiderar si hundirnos es la única opción en marcha.

Volveré a esta consideración en un momento.

Aquí hay algunos otros asuntos de IA ética reclamados que no se les está dando lo que les corresponde o que son eliminados por la gran atención a otros temas predominantes:

  • Además de usar la IA para administrar humanos, como aumentar el uso de la IA para tomar decisiones de contratación y despido en las empresas, existe un reparo similar sobre el uso de la IA para administrar animales. Se están realizando esfuerzos para utilizar la IA en granjas, zoológicos y, en general, en cualquier lugar donde se mantengan animales. ¿Cómo afectará la IA al bienestar animal?
  • Hay momentos en los que la IA aparentemente se está probando en versión beta en comunidades especialmente vulnerables, haciéndolo como un primer intento, y luego la IA, más adelante, se difundirá más ampliamente. La atención ética aguda de la IA debería estar dirigida a esas prácticas.
  • Parece que se está debatiendo mucho sobre la sustitución de los trabajadores por IA, aunque se presta menos atención a los impactos de la IA como herramienta de seguimiento utilizada para supervisar a los trabajadores de bajo nivel salarial y de bajo estatus.
  • Parecería que no se está prestando suficiente atención a los impactos ecológicos y ambientales de construir y mantener los sistemas de IA en funcionamiento (aparte, puede que le interese mi discusión sobre la huella de carbono asociada con la IA, vea el enlace aquí).

· Y así.

Hay algunos especialistas en IA ética que probablemente señalarán de inmediato que esos son, de hecho, temas que se pueden encontrar en la literatura y las discusiones sobre la ética de la IA. No son desconocidos y tampoco son asombrosamente nuevos.

Creo que la perspectiva de los puristas de Radical Ethical AI es que no afirman haber descubierto un terreno completamente virgen. En cambio, afirman que el enfoque existente de la IA ética está sofocando el aire respirable de permitir que otros temas "atípicos" obtengan su merecido.

Tal vez una forma más aceptable de expresar esto es que la atención prevaleciente sobre la ética de la IA ha prestado menos atención a otros temas vitales viables. Podría sugerir que hay puntos ciegos y sería útil considerar si se pueden llevar más adentro del redil (esto también se discute en el Revista de IA y ética en un artículo reciente titulado “Puntos ciegos en la ética de la IA” de Thilo Hagendorff).

Ahora que hemos cubierto la saga de si la IA ética está un poco estancada, lo que algunos dirían que es una afirmación absurda y, mientras tanto, otros insistirían en que la rutina es real y está empeorando, tal vez podamos tomarnos un momento para explorar. un caso de uso para echar un vistazo más de cerca al asunto.

En mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren el dilema de la alineación para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA presenta consideraciones éticas de IA fuera de la caja que generalmente no se cuestionan o no se abordan lo suficiente?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi extensa y continua cobertura de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por su cuenta y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (consulte mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o el Nivel 3. Los automóviles que comparten compartir la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (sistemas avanzados de asistencia al conductor).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, que aún no sabemos si será posible lograrlo, ni cuánto tiempo llevará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento teniendo lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y los valores atípicos o marginados de las consideraciones éticas de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para hacer una inmersión profunda en los autos que conducen por sí mismos y si las consideraciones de IA Radical Ethical fuera de la caja supuestamente no están recibiendo lo suficiente.

Debido a limitaciones de espacio, centrémonos en un asunto en particular en el que podamos profundizar. Específicamente, existe la acusación general de que la ética de la IA prevaleciente supuestamente tiene una suposición oculta de que la IA es inevitable.

Si aplicamos esa presunción clave a los autos autónomos basados ​​en IA, implica que la comunidad de IA ética asume en general que los autos autónomos inevitablemente se diseñarán y desplegarán. Están dando por sentado que surgirán coches autónomos, mientras que la contrademanda sería que deberían no estar haciendo esa suposición oculta y, en cambio, estar masticando que tal vez no deberíamos tener autos autónomos de IA (o alguna variante, como solo tenerlos en circunstancias especiales en lugar de de forma generalizada).

Es una gran pregunta.

Para aclarar y reafirmar, la afirmación es que las consideraciones predominantes de IA ética sobre los autos autónomos de IA están perdiendo el tren al aparentemente asumir que los autos autónomos de IA son inevitables. En esa forma de pensar, la expectativa se exhibiría doble:

1. Existirían pocos o ningún examen de si deberíamos tener autos autónomos de IA, o serían desviados a un lado, o no tendrían una bocanada de aire para llamar la atención, y

2. El enfoque probable en los autos autónomos de IA estaría en cambio en los detalles que rodean las ramificaciones éticas de la IA de la lista tradicional de factores, como la explicabilidad, la equidad, la privacidad, etc., y hacerlo bajo la apariencia general o silenciosa. presunción de que definitivamente tendremos esos cacareados vehículos autónomos (sin que se considere ampliamente ninguna otra opción).

Una propuesta interesante.

Incluso una inspección casual de la atención general a tales problemas relacionados con los autos autónomos de IA mostraría que existe la suposición de que los autos autónomos de IA son algo inevitables, aunque asegurémonos de que una gran advertencia y un indicador de advertencia de pie de página de doble estrella vayan junto con esa declaración radical.

Este es el por qué.

Todavía no sabemos si los verdaderos autos autónomos basados ​​​​en IA serán realmente posibles.

Claro, hay pruebas en vías públicas estrechamente diseñadas en marcha. Estos no están en absoluto en el Nivel 5. Nadie puede argumentar razonablemente lo contrario sobre ese punto innegable. Puede decir que algunas de las pruebas adecuadas se están desviando hacia el nivel 4, pero tambaleándose y con ODD relativamente frágiles (ODD o dominios de diseño de operación son las estipulaciones en las que un fabricante de automóviles autónomos establece que su vehículo autónomo puede operar de manera segura). , vea mi discusión en este enlace aquí).

Dicho esto, el campo de los coches autónomos está mucho más avanzado que hace unos años. Hay una causa razonable para estar optimista sobre lo que sucederá a continuación. El mayor punto de conflicto es el calendario de cuándo se desarrollará esto. Las predicciones anteriores de los expertos han ido y venido fácilmente. Puede esperar que las predicciones existentes seguramente sufran el mismo destino.

En resumen, parecería que se podría decir de manera informal que existe una justificación suficiente para suponer que los verdaderos autos autónomos basados ​​​​en IA eventualmente surgirán. Parecería que nos dirigimos hacia el Nivel 4 en medio de ODD muy limitados. La próxima expansión lógica parecería implicar tener más ODD, unos de mayor variedad y profundidad. En algún momento en el que hayamos conquistado suficientes esferas ODD superpuestas y algo exhaustivas, esto parecería culminar en aventurarnos con cautela en el Nivel 5. Esa es al menos la filosofía paso a paso del progreso anticipado (que no todos aceptan).

Menciono esas contorsiones aparentemente complejas porque hay mucha confusión sobre lo que significa proclamar que existen verdaderos autos sin conductor basados ​​en IA o que hemos llegado al gran momento de su existencia. ¿Cuál es su definición de verdaderos autos sin conductor basados ​​en IA? Si dices que es el momento en que has llegado al Nivel 4, bueno, supongo que puedes comenzar a abrir esas botellas de champán. Si dice que es una vez que hayamos doblado la esquina en el Nivel 4, tendrá que almacenar esas botellas de champán. Si dice que es cuando hemos dominado el nivel 5, esas botellas van a la parte trasera de los estantes de almacenamiento y debe esperar que se llenen de polvo.

En general, si la sociedad de hecho asume que los autos autónomos de IA son inevitables, podría argumentar razonablemente que esta es una suposición genuina. No todos estarían de acuerdo con esa afirmación, por lo que para aquellos de ustedes que están molestos por la supuesta posibilidad, se nota su vehemente desacuerdo.

¿Nos estamos metiendo potencialmente en problemas o en una situación desesperada al aceptar esa suposición de inevitabilidad para los autos autónomos de IA?

Hay intrigantes giros y vueltas que este enigma trae a la superficie.

Por ejemplo, una preocupación que ya se ha discutido con frecuencia es que podríamos tener autos autónomos basados ​​​​en IA que estén disponibles exclusivamente en algunas áreas pero no en otras. Las áreas que tendrán autos sin conductor son las que tienen, mientras que las áreas que no los tienen son las que no tienen, que esencialmente no pueden aprovechar los beneficios de los autos sin conductor.

Este es el proclamado elitista o inequidad preocupación fenomenológica que muchos han expresado. De hecho, he cubierto esto muchas veces, como en este enlace aquí y en este análisis más amplio en el enlace aquí.

La idea es que los automóviles autónomos de IA probablemente se operen en flotas. Los operadores de flotas elegirán dónde desplegar sus vehículos autónomos. El presunto lugar para hacer dinero para usar los autos sin conductor es en las partes más ricas de un pueblo o ciudad. Aquellos que viven en las zonas pobres o empobrecidas de un pueblo o ciudad no tendrán fácil acceso a los autos sin conductor.

Se extrapola la misma lógica para afirmar que los países también se encontrarán en la misma situación. Las naciones más ricas experimentarán el uso de automóviles autónomos, mientras que las naciones más pobres no lo harán. Los que tienen tendrán más acceso y uso de vehículos autónomos, los que no tienen no.

Tal vez se pregunte qué obtienen los que tienen que no obtienen los que no tienen. Una indicación frecuente es que existe la expectativa de que los automóviles sin conductor de IA tengan muchos menos accidentes automovilísticos y colisiones automovilísticas. La creencia es que la cantidad de lesiones y muertes humanas resultantes de los accidentes automovilísticos disminuirá drásticamente. Como tal, las partes más ricas de un pueblo o ciudad, o las naciones más ricas, podrán reducir sus lesiones y muertes relacionadas con los automóviles, mientras que las regiones impulsadas por humanos que no tienen la opción o el reemplazo a través de la inteligencia artificial. -conducir automóviles no verá ninguna reducción proporcional.

Tenga en cuenta que hay otros beneficios promocionados de los automóviles autónomos de IA que se acumularían de manera similar en los que tienen y no en los que no tienen (vea más en este enlace aquí).

La esencia aquí es que puede estirar el "son inevitables los autos sin conductor" al señalar que la IA ética ya está preocupada por que los autos sin conductor solo estén disponibles de forma selectiva. Sé que puede parecer un pretzel de lógica. Lo que esto significa es que ya estamos particularmente preocupados por el hecho de que la IA no esté disponible en algunos segmentos de la sociedad. En ese tramo de pensamiento, esta instanciación de IA no es inevitable con respecto a esos contextos per se (si entiendes).

Conclusión

Sin duda, está familiarizado con el sabio consejo ingeniosamente diseñado de que lo que no sabe puede dañarlo, mientras que lo que no sabe que no sabe realmente puede acabar con usted.

Un punto de vista sobre la postura de la IA ética radical es que, a pesar de cualquier consternación relacionada con los nombres, al menos deberíamos escuchar lo que se cree que nos estamos perdiendo. Tal vez se está produciendo un pensamiento grupal y la llamada IA ​​ética convencional o la ética de la IA pasada de moda se las ha arreglado para estancarse y atascarse en consideraciones particulares. Si es así, una patada en la parte posterior podría ayudar a que los motores vuelvan a funcionar y se muevan hacia un alcance más amplio.

O bien, podría ser que la IA ética y la ética de la IA estén funcionando bien, muchas gracias, y esta rama solo está tratando de ser una mosca en el ungüento. La desventaja no parece especialmente perturbadora o desconcertante. Cuando o si las cosas se salen de control de alguna manera, una reevaluación devota y concertada del reino podría ser de gran valor.

La mejora continua es una aspiración loable. Y, casi indiscutiblemente, puede afirmar que cuando se trata del advenimiento de la IA, no queremos descubrir tardíamente que no sabíamos lo que no sabíamos, y que deberíamos haber sabido para estar al tanto. aspectos que no sabíamos (o, que los conocíamos, de alguna manera, y sin darnos cuenta los suprimimos).

Eso no parece demasiado radical, ¿verdad?

Fuente: https://www.forbes.com/sites/lanceeliot/2022/02/20/pusing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ai-potencialmente-ejemplificado-a través-del-caso-de-uso-de-coches-autónomos-basados-en-ai/