La ética de la IA lucha contra lo inevitable de los accidentes de la IA, que también se cierne sobre los autos autónomos que conducen por sí mismos

¿Conoces a alguien que parece ser particularmente propenso a los accidentes?

Parece que todos lo hacemos.

Tal vez la persona sea del tipo que es capaz de resbalar en una cáscara de plátano o derribar un florero precioso en su sala de estar. Son un imán humano para los accidentes de un tipo u otro. Podría ser tan malo que incluso detestas estar cerca de ellos a veces. Puede obtener el desbordamiento siniestro o sufrir las consecuencias sin gloria de uno de sus desagradables accidentes.

Pero tal vez estamos siendo demasiado duros al sugerir que alguien está más predispuesto a los accidentes que otros. Se podría argumentar que los accidentes nos pueden pasar a cualquiera de nosotros. Todos estamos sujetos a la posibilidad de cometer o vernos envueltos en un accidente. Lo mejor de nosotros incluido.

Agreguemos a esta discusión una pregunta adicionalmente desconcertante.

¿Son inevitables los accidentes?

En otras palabras, no importa cuánto nos esforcemos en prevenir accidentes, podría ser inextricable que, no obstante, todavía exista la posibilidad y la certeza final de que ocurrirán accidentes. Puedes buscar proteger al mundo de los accidentes. Eso parece indudablemente prudente. Pero de una forma u otra, los accidentes aún asomarán su fea cabeza.

Como dicen, los accidentes están a la espera de suceder.

Podría ser útil aclarar lo que significa referirse a algún evento como apropiadamente etiquetado como un accidente. La definición habitual del diccionario es que un accidente es un tipo de incidente que ocurre de forma inesperada e involuntaria, para el cual existe un resultado desafortunado que consiste en una apariencia de daño o lesión.

Conscientemente descomprima esa definición.

Dicho incidente es inesperado. Esto implica que no parecíamos darnos cuenta de que surgiría el accidente mismo.

Dicho incidente no es intencional. Esto sugiere que debemos descartar las circunstancias en las que alguien intentó intencionalmente que ocurriera el incidente. Si un bromista coloca una cáscara de plátano en el piso donde sabe que un inocente desafortunado y desprevenido pisará, sería difícil afirmar que la persona que tropezó con ella sufrió un accidente. En cambio, fueron engañados y conducidos insidiosamente a una trampa.

La definición también incluye el criterio de que el resultado es desafortunado. Un accidente bajo esta luz debe conducir a un resultado amargo. La persona que accidentalmente derribó un jarrón ha agrietado y posiblemente dañado el artículo disfrutado sin posibilidad de reparación. El propietario del jarrón se ve perjudicado por la pérdida de valor. La persona que se topó con el jarrón ahora podría deberle al dueño por la pérdida. Dios no quiera que alguien se haya cortado o raspado por la rotura del jarrón.

En aras de la igualdad de equilibrio, es posible que deseemos señalar que también existen los llamados accidentes "buenos". Una persona podría encontrarse en una gran fortuna o acumular algún otro beneficio vital debido al resultado de un accidente. Uno de los ejemplos más citados consiste en Sir Alexander Fleming y su aclamado descubrimiento de la penicilina. Cuenta la historia que fue un poco descuidado en su laboratorio y al regresar de unas vacaciones de dos semanas encontró un moho en una de sus placas de cultivo. Según se informa, dijo esto sobre el asunto: “A veces uno encuentra lo que no está buscando. Cuando me desperté poco después del amanecer del 28 de septiembre de 1928, ciertamente no planeaba revolucionar toda la medicina al descubrir el primer antibiótico o asesino de bacterias del mundo. Pero supongo que eso fue exactamente lo que hice”.

Dejaremos de lado los accidentes favorables y nos concentraremos aquí en los accidentes funestos. La versión de los accidentes con el ceño fruncido es donde esos resultados adversos pueden ser especialmente peligrosos para la vida o tener resultados onerosos. En la medida de lo posible, los accidentes negativos que queremos minimizar (y, por supuesto, los accidentes positivos que nos gustaría maximizar, si eso es factible, aunque cubriré esa variante de cara sonriente en una columna posterior).

Me gustaría reformular ligeramente la pregunta anterior sobre la inevitabilidad de los accidentes. Hasta ahora hemos mantenido nuestra atención en los accidentes que ocurren en el caso particular de una persona singular. No hay duda de que los accidentes también pueden afectar a una multitud de personas a la vez. Esto se puede encontrar particularmente cuando las personas están inmersas en un sistema complejo de un tipo u otro.

Prepárese para una variante de la pregunta planteada anteriormente.

¿Son inevitables los accidentes del sistema?

Deberíamos reflexionar sobre esto.

Supongamos que se diseña el piso de una fábrica para fabricar piezas para automóviles. Los que diseñaron la fábrica están, digamos, extremadamente preocupados por los accidentes laborales que puedan ocurrir. Los trabajadores de la fábrica deben usar cascos en todo momento. Los letreros en la fábrica exhortan a tener cuidado con los accidentes y ser conscientes en su trabajo. Se toman todas las precauciones para evitar accidentes.

En este sistema, podemos esperar que nadie sufra nunca un accidente. ¿Crees que hay cero posibilidades de que ocurra un accidente? Me atrevería a sugerir que ningún pensador razonable apostaría a que la posibilidad de un accidente es cero en este caso. Las probabilidades de que ocurra un accidente pueden ser realmente bajas, sin embargo, aún sabemos y asumimos que, a pesar de todas las precauciones, todavía existe un riesgo mínimo de que ocurra un accidente.

Todo esto apunta a la idea de que en un sistema de suficiente complejidad estamos obligados a creer que los accidentes seguirán ocurriendo, independientemente de cuánto intentemos prevenirlos. Nos respaldamos a regañadientes en la estipulación de que los accidentes del sistema son inevitables. Una declaración grandiosa de este calibre podría incluir la advertencia de que el sistema tendría que tener algún umbral de complejidad tal que sea esencialmente imposible cubrir todas las bases para prevenir accidentes por completo.

Ahora ha sido presentado cuidadosamente paso a paso a una teoría ampliamente delineada sobre accidentes que se puede etiquetar como Accidentes normales o Teoría de accidentes normales (NAT). Aquí hay una descripción útil de los investigadores que han examinado esta noción: “A una escala lo suficientemente grande, cualquier sistema producirá 'accidentes normales'. Estos son accidentes inevitables causados ​​por una combinación de complejidad, acoplamiento entre componentes y daño potencial. Un accidente normal es diferente de los accidentes de falla de componentes más comunes en que los eventos e interacciones que conducen a un accidente normal no son comprensibles para los operadores del sistema” (como se indica en “Comprender y evitar fallas de IA: una guía práctica” por Robert Williams y Roman Yampolsky, Filosofias diario).

La razón por la que te he traído a la tierra de los llamados accidentes normales es que podríamos necesitar aplicar cuidadosamente esta teoría a algo que se está volviendo omnipresente de manera gradual e inevitable en nuestra sociedad, a saber, el advenimiento de la Inteligencia Artificial (IA).

Profundicemos en esto.

Algunas personas asumen falsamente que la IA será perfecta. Los sistemas de inteligencia artificial no cometerán errores y no nos meterán en problemas, dice la especulación. Todo lo que necesita hacer es asegurarse de que esos desarrolladores de IA hagan un trabajo lo suficientemente bueno, y listo, la IA nunca hará nada que pueda interpretarse como accidental o que genere un accidente.

No tan rápido en esa creencia hipotética. Si está dispuesto a aceptar la teoría de accidentes normales, cualquier IA de cualquier complejidad sustantiva inevitablemente provocará un accidente. Independientemente de la cantidad de retoques nocturnos que hagan los desarrolladores de IA para evitar un accidente, la IA seguramente en algún momento se verá envuelta en un accidente. Esa es la forma en que la galleta se desmorona. Y no hay respiro llorando en nuestra leche derramada por eso.

Reflexione sobre la combinación de IA y los principios conceptuales de accidentes normales.

Imagine que tenemos un sistema de inteligencia artificial que controla las armas nucleares. La IA ha sido cuidadosamente diseñada. Todos los controles y balances imaginables han sido codificados en el sistema de IA. ¿Estamos a salvo de un accidente basado en IA que podría ocurrir? Aquellos que apoyan el punto de vista de los accidentes normales dirían que no estamos tan seguros como se podría suponer. Dado que es probable que la IA sea especialmente compleja, un accidente normal está esperando en silencio para surgir algún día, quizás en el peor momento posible.

La esencia de esas preguntas y dudas espinosas es que debemos estar alerta porque la IA está destinada a estar cargada de accidentes, y la humanidad tiene que hacer algo sensato y proactivo sobre los peligros que pueden surgir. Como verá en un momento o dos, esta es una consideración inminente cuando se trata de usar IA, y el campo de la ética de la IA y la IA ética está luchando bastante sobre qué hacer. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Antes de caer en la madriguera del conejo, asegurémonos de estar en la misma página sobre la naturaleza de la IA. Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA consciente es el equivalente cognitivo de un ser humano que le da consejos. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí). En total, estos escenarios aumentarían la evaluación de la fuente.

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovecha la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En total, una esperanza general es que al establecer un sentido de los preceptos de ética de la IA, al menos podremos aumentar la conciencia social de lo que la IA puede hacer de manera beneficiosa y también puede producir de manera adversa. He discutido extensamente varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

Es posible que debamos agregar a las listas de ética de la IA que tanto alardeamos que debemos considerar explícitamente y tomar medidas abiertas para prevenir o al menos mitigar estridentemente la ética basada en la IA. accidentes normales que podría ocurrir. Aquellos que desarrollan IA deben hacer todo lo posible en ese frente. Aquellos que implementan IA deben hacer lo mismo. Aquellos que usan o están sujetos de alguna manera a la IA deben tener cuidado y estar en guardia ante la posibilidad de accidentes de IA que aparentemente van a surgir.

Puede sentirse tentado a pensar que se pueden incorporar suficientes precauciones en la IA para que las posibilidades de un accidente se reduzcan a cero. Para aquellos que son expertos en tecnología, la arrogancia habitual es que si una pieza de tecnología puede generar un problema, otra pieza de tecnología seguramente puede resolver el problema. Solo sigue lanzando más y más tecnología hasta que el problema desaparezca.

Bueno, aquellos que han estudiado los accidentes orientados a los sistemas tenderían a estar en desacuerdo y responderían cortésmente a la supuesta pomposidad técnica al ofrecer un punto de vista conocido como el modelo de queso suizo (SCM): "En el SCM, las capas de seguridad se modelan como rebanadas de queso con agujeros en ellos que representan puntos débiles en cada capa de seguridad. Con el tiempo, los agujeros cambian de forma y se mueven. Eventualmente, no importa cuántas rebanadas de queso (capas de seguridad) haya, los agujeros se alinearán permitiendo un tiro directo a través de todas las rebanadas de queso (ocurre un accidente)” (según el artículo citado anteriormente de Robert Williams y Roman Yampolskiy ).

No quiero atascarme en esta tangente lateral acerca de si existe o no una forma garantizada de programar la IA para evitar por completo y siempre cualquier posibilidad de accidente. Se están probando todo tipo de enfoques de prueba matemáticos y computacionales. Creo que es razonable y justo declarar que hoy en día no tenemos un método de trabajo escalable ni tecnologías que puedan garantizar acorazadamente una posibilidad de cero, además, definitivamente estamos cargados con toneladas y toneladas de IA que se está produciendo de forma desordenada que nosotros Sé con seguridad que no ha pretendido acatar tales prácticas. Ese último punto es crucial, ya que incluso si podemos inventar algo en un laboratorio de IA, escalarlo a los millones de esfuerzos de IA salvajes y despreocupados en curso y que continuarán emergiendo es un problema complicado y probablemente no se resuelva incluso si una máquina de prueba computacional plateada bala existió.

Otro punto que creo que merece una breve mención consiste en la IA que se convierte en actos desfavorables como resultado de actores humanos malintencionados. No voy a colocar esos casos en el ámbito de los accidentes de IA. Recuerde que la discusión inicial sugirió que la definición del diccionario de un accidente era un incidente de un involuntario naturaleza. Si un ciberdelincuente humano logra que un sistema de IA haga cosas malas, no clasifico a esa IA como experimentando un accidente. Confío en que estará de acuerdo con esa presunción.

Surge una pregunta interesante sobre cuánto de las diversas acciones adversas de la IA se pueden atribuir a un accidente de IA en comparación con el acto tortuoso de un ciberdelincuente. De acuerdo con algunas de las bases de datos de informes de incidentes de IA existentes, parece que los accidentes de IA ocurren más que los incidentes provocados maliciosamente, aunque hay que tomar esa noción con una gran dosis de sal. Digo esto porque existe una gran tentación de no informar cuando un sistema de IA fue atacado, y tal vez estar un poco más dispuesto a informar cuando ocurre un accidente de IA.

Hay una advertencia extremadamente importante que debemos discutir con respecto a los accidentes de IA.

Usar el eslogan "accidentes de IA" generalmente es indeseable y creará un gran lío para todos nosotros, es decir, para toda la sociedad. Cuando un ser humano por casualidad tiene un accidente, a menudo nos encogemos de hombros y nos solidarizamos con la persona que tuvo el accidente. Parece que tratamos la palabra "accidente" como si significara que nadie es responsable de lo que sucedió.

Tomemos el ejemplo de tener un accidente automovilístico. Un auto se abre mucho en un giro a la derecha y choca accidentalmente contra otro auto que iba de frente. Diablos, fue solo un accidente y sucedió accidentalmente. Aquellos que no estuvieron involucrados en el incidente quizás dejen pasar el asunto si el evento se expresa en términos de ser simplemente un accidente que sucedió.

Sin embargo, tengo la sensación de que si estuviera en el automóvil que fue golpeado, no sería tan comprensivo con el conductor que hizo el giro demasiado amplio. Sin duda, su opinión sería que el otro conductor era un conductor pésimo y que un acto de conducción ostensiblemente ilegal o imprudente condujo al accidente automovilístico. Al etiquetar el incidente como un "accidente", el conductor que estaba atascado ahora está en cierta desventaja, ya que aparentemente todo ocurrió por casualidad, en lugar de las manos del conductor que cometió un error.

De hecho, la palabra "accidente" está tan llena de connotaciones variables que, en general, las estadísticas gubernamentales sobre accidentes automovilísticos se refieren al asunto como colisiones automovilísticas o choques automovilísticos, en lugar de utilizar la frase accidentes automovilísticos. Una colisión automovilística o un accidente automovilístico no parece tener ninguna implicación sobre cómo se produjo el incidente. Mientras tanto, la fraseología de un “accidente automovilístico” casi nos lleva a pensar que fue un capricho del destino o que de alguna manera estuvo fuera de las manos de la humanidad.

Puede ver abundantemente cómo esta consideración connotativa entra en juego cuando se refiere a accidentes de IA. No queremos que los desarrolladores de IA se escondan detrás del escudo connotativo de que la IA accidentalmente causó daño a alguien. Lo mismo ocurre con aquellos que implementan IA. Se podría argumentar que la redacción de "accidentes de IA" es casi una antropomorfización de la IA que engañará a la sociedad para que permita que los humanos que estaban detrás de escena de la IA escapen a la responsabilidad. Para mi discusión sobre la creciente importancia de responsabilizar a los humanos por su IA, vea mi discusión en este enlace aquí y este enlace aquí.

De ahora en adelante voy a usar el eslogan de accidentes de IA, pero lo hago de mala gana y solo porque es la forma convencional de referirse a este fenómeno. Los intentos de redactar esto de manera diferente tienden a ser lamentablemente más inflados y no tan fáciles de leer. Asegúrese de interpretar el eslogan de una manera que no haga que mire hacia otro lado y no se dé cuenta de que los humanos que están detrás de la IA son culpables cuando la IA sale mal.

Para ayudar a ilustrar la posible confusión o los aspectos engañosos de referirse a la IA como accidentes, podemos volver a mis comentarios sobre tirar un jarrón. Considere este ejemplo de IA que lo hace: “Este problema tiene que ver con cosas que la IA hace por accidente o por indiferencia. Un robot de limpieza que derriba un jarrón es un ejemplo de esto. Los entornos complejos tienen tantos tipos de 'jarrones' que es poco probable que podamos programar una penalización por todos los efectos secundarios” (según el artículo de Robert Williams y Roman Yampolskiy).

Un sistema de IA que se pone en uso en un hogar y luego “accidentalmente” tira un jarrón parecería sugerir que nadie debería ser culpado por esta acción adversa de la IA. Fue solo un accidente, uno podría lamentarlo. Por otro lado, deberíamos preguntarnos con razón por qué el sistema de IA no fue programado para manejar las circunstancias del jarrón en general. Incluso si los desarrolladores de IA no anticiparon que un jarrón per se estuviera dentro del alcance de los objetos que podrían encontrarse, ciertamente podemos preguntarnos por qué no hubo una evasión general de objetos que hubiera impedido que el sistema de IA derribara el jarrón (por lo tanto, es posible que la IA no clasifique el jarrón como un jarrón, pero aun así podría haberlo evitado como un objeto detectable que debe evitarse).

He predicho y sigo prediciendo que nos dirigimos gradualmente hacia una enorme batalla legal por la aparición de sistemas de IA que se involucran en "accidentes de IA" y causan algún tipo de daño. Hasta ahora, la sociedad no ha reaccionado de manera considerable al rechazo legal de la IA que se introduce en el mercado y produce consecuencias adversas, ya sea de forma intencionada o no. El carro de la IA actual que se ha convertido en una fiebre del oro de los fabricantes de IA a medias y aquellos que promulgan apresuradamente el despliegue de la IA están teniendo suerte en este momento y permanecen relativamente al margen de las demandas civiles y los procesos penales.

La reacción legal avivada por la IA llegará, tarde o temprano.

Continuando, ¿cómo vamos a tratar de hacer frente a la inevitabilidad de los llamados accidentes de IA?

Una cosa que podemos hacer de inmediato es tratar de anticipar cómo podrían ocurrir los accidentes de IA. Al anticiparnos a los accidentes de la IA, al menos podemos tratar de idear medios para reducirlos o minimizar la probabilidad de que ocurran. Además, podemos intentar establecer medidas de protección para que, cuando ocurra un accidente de IA, se reduzcan las posibilidades de daño demostrativo.

Un conjunto útil de factores que se describieron en el artículo de investigación citado anteriormente Comprensión y prevención de fallas de IA: una guía práctica incluye estas propiedades (como se cita en el trabajo de investigación):

  • El sistema que se ve afectado por las salidas de la IA.
  • Retraso de tiempo entre las salidas de IA y el sistema más grande, la observabilidad del sistema, el nivel de atención humana y la capacidad de los operadores para corregir el mal funcionamiento de la IA.
  • El máximo daño posible por el uso malicioso de los sistemas que controla la IA.
  • Acoplamiento de los componentes en proximidad a la IA y complejidad de interacciones.
  • Brecha de conocimiento de la IA y otras tecnologías utilizadas y el nivel de energía del sistema.

En este punto de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que podrían aclarar aún más el tema de los accidentes de IA. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA ilustra algo sobre el advenimiento de los llamados accidentes de IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor e incidentes de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de la IA ética que implican el advenimiento de los llamados accidentes de IA.

Imagine que un automóvil autónomo basado en IA está en marcha en las calles de su vecindario y parece conducir de manera segura. Al principio, habías prestado especial atención a cada vez que lograbas vislumbrar el automóvil autónomo. El vehículo autónomo se destacó con su conjunto de sensores electrónicos que incluían cámaras de video, unidades de radar, dispositivos LIDAR y similares. Después de muchas semanas de que el automóvil autónomo deambulara por su comunidad, ahora apenas lo nota. En lo que a usted respecta, es simplemente otro automóvil en las vías públicas ya ocupadas.

Para que no piense que es imposible o inverosímil familiarizarse con ver autos sin conductor, he escrito con frecuencia sobre cómo los lugares que están dentro del alcance de las pruebas de autos sin conductor se han acostumbrado gradualmente a ver los vehículos arreglados. Muchos de los lugareños finalmente pasaron de estar boquiabiertos a bostezar boquiabiertos a emitir un amplio bostezo de aburrimiento para presenciar esos serpenteantes autos sin conductor.

Probablemente, la razón principal en este momento por la que podrían notar los vehículos autónomos es el factor de irritación y exasperación. Los sistemas de conducción de IA de manual se aseguran de que los autos obedezcan todos los límites de velocidad y las reglas de la carretera. Para los conductores humanos agitados en sus autos tradicionales conducidos por humanos, a veces te molestas cuando estás atrapado detrás de los autos autónomos basados ​​​​en IA que cumplen estrictamente la ley.

Eso es algo a lo que todos deberíamos acostumbrarnos, con razón o sin ella.

Volvamos a nuestra historia.

Un día, el coche autónomo sufre un accidente.

Mientras giraba a la derecha, el sistema de conducción de IA hizo girar ampliamente el vehículo autónomo y chocó contra un automóvil conducido por humanos. El automóvil conducido por humanos avanzaba en línea recta en el carril de tráfico adecuado. No hubo ninguna oportunidad particular para que el conductor humano se desviara o evitara ser golpeado. Además, no hubo ninguna advertencia o indicación por parte del automóvil autónomo de que iba a girar ampliamente a la derecha.

¿Es esto un accidente?

Ciertamente podemos decir que está englobado dentro de la rúbrica de ser un accidente de IA. La base para tal afirmación es que había un sistema de conducción de IA al volante del automóvil autónomo. De alguna manera, por las razones que sean, la IA optó por hacer un giro amplio al girar a la derecha. El resultado condujo a que el automóvil autónomo chocara contra un automóvil conducido por humanos.

Recuerde la discusión anterior sobre las connotaciones asociadas con la palabra "accidente" y vea cómo estos trasfondos entran en juego en este escenario. Además, recuerde que discutimos el caso de un conductor humano que hace un giro amplio a la derecha y choca contra otro automóvil conducido por humanos. Nos dimos cuenta de que la noción de que este acto es un “accidente” es engañosa y confusa. El conductor humano que hizo el giro amplio podría esconderse detrás de la idea de que simplemente ocurrió un accidente que aparentemente fue una casualidad o los caprichos del destino.

En lugar de etiquetar el escenario como un "accidente de IA" en el caso del automóvil autónomo basado en IA que se desvía y choca contra el automóvil conducido por humanos, tal vez deberíamos decir que fue un accidente automovilístico o una colisión automovilística que involucró a un automóvil autónomo. coche de conducción y un coche conducido por humanos. Entonces podemos prescindir de la vacua confusión de que sea un accidente de medios desconocidos.

¿Cuál crees que sería la reacción del público al incidente?

Bueno, si el fabricante de automóviles o la empresa de tecnología de autoconducción pueden seguir etiquetando el asunto como un accidente, podrían eludir la posible reacción negativa de la comunidad en general. Una sensación de simpatía por los accidentes en total posiblemente fluiría hacia la circunstancia particular. Para obtener más información sobre cómo las ciudades, los condados y los líderes estatales reaccionarán potencialmente a los incidentes de vehículos autónomos de IA, consulte la discusión de un estudio de Harvard que codirigí y como se describe en el enlace aquí.

Si la situación se describe claramente como un accidente automovilístico o una colisión automovilística, tal vez eso permita darse cuenta de que alguien o algo es quizás el culpable del incidente. Una reacción instintiva podría ser que la IA sea responsable. La cuestión es que, hasta que, o si alguna vez, decidiéramos ungir a la IA como si tuviera una apariencia de persona jurídica, no podrá atribuirle la responsabilidad a la IA per se (consulte mi discusión sobre la IA y la personalidad jurídica en el enlace aquí).

Podemos inspeccionar el sistema de conducción de IA para tratar de averiguar qué condujo a la aparente conducción inapropiada y al posterior accidente automovilístico. Sin embargo, eso no implica que la IA vaya a rendir cuentas. Las partes responsables incluyen a los desarrolladores de IA, el operador de la flota del automóvil autónomo y otros. Incluyo otros también ya que existe la posibilidad de que la ciudad sea parcialmente responsable por el diseño de la esquina donde tuvo lugar el giro. Además, supongamos que un peatón salió corriendo de la esquina y el sistema de conducción de IA optó por evitar a la persona y, sin embargo, se vio envuelto en el accidente automovilístico.

Y así sucesivamente.

Conclusión

Nos gustaría saber qué estaba calculando computacionalmente la IA y para qué había sido programada. ¿La IA hizo lo que estaba codificado? Tal vez la IA encontró un error en la programación, lo que no justifica las acciones, pero brinda más pistas sobre cómo se produjo el bloqueo.

¿Qué tipo de barandillas de IA se programaron en el sistema de conducción de IA? Si hubiera barandas, nos gustaría averiguar por qué no parecen evitar el accidente automovilístico. Tal vez el sistema de conducción de IA podría haberse detenido en lugar de dar la vuelta. Nos gustaría saber qué alternativas evaluó computacionalmente la IA durante el transcurso del incidente.

Además de llegar al fondo del incidente en particular, otra duda legítima es si el sistema de conducción de IA tiene una falla u otro aspecto incrustado que cometerá tipos similares de actos adversos. En esencia, este incidente podría ser un indicador revelador de más por venir. ¿Cómo se usaron las simulaciones basadas en computadora de situaciones de conducción para tratar de anticipar este tipo de indicaciones del sistema de conducción de IA? ¿Hubo suficientes pruebas de manejo en la carretera para descubrir los problemas de IA que podrían haber llevado al accidente automovilístico?

Este escenario destaca un enigma polémico que enfrenta la aparición de automóviles autónomos basados ​​​​en IA.

Dice así.

Por un lado, existe un deseo social de adoptar vehículos autónomos rápidamente debido a la esperanza de que los sistemas de conducción de IA sean tan seguros o posiblemente más seguros que los conductores humanos. Solo en los Estados Unidos, actualmente tenemos cerca de 40,000 2.5 muertes humanas al año debido a accidentes automovilísticos y alrededor de XNUMX millones de lesiones humanas. Los análisis sugieren que una parte considerable de esos accidentes automovilísticos son atribuibles a errores humanos, como conducir en estado de ebriedad, conducir distraído, etc. (ver mi evaluación de tales estadísticas en el enlace aquí).

Los sistemas de conducción de IA no beberán y conducirán. No necesitarán descansar y no se desgastarán al volante. La suposición es que al establecer los automóviles autónomos como un modo de transporte viable, podemos reducir la cantidad de conductores humanos. Esto, a su vez, debería significar que reduciremos sumariamente la cantidad de muertes y lesiones humanas anuales por accidentes automovilísticos.

Algunos expertos han dicho que terminaremos con cero muertes y cero lesiones, y que esos autos autónomos supuestamente serán indestructibles, pero este es un conjunto de expectativas completamente absurdo y completamente falso. He explicado por qué esto es tan falso en el enlace aquí.

En cualquier caso, suponga que vamos a tener una cierta cantidad de accidentes automovilísticos en los que se verán involucrados los autos que conducen por sí mismos. Suponga también que esos accidentes automovilísticos tendrán una cierta cantidad de muertes y lesiones. La cuestión que agoniza es si nosotros, como sociedad, estamos dispuestos a tolerar tales instancias. Algunos dicen que si ocurre incluso una muerte o una lesión como resultado de los verdaderos autos autónomos, todo el equipo y el kaboodle deberían cerrarse.

El punto de vista compensatorio es que si las vidas salvadas están reduciendo los recuentos anuales, deberíamos continuar alentando la llegada de los automóviles autónomos y no reaccionar de una manera tan ilógica. Tendremos que aceptar la premisa de que seguirá existiendo cierta cantidad de muertes y lesiones, incluso con los autos sin conductor, y aún así darnos cuenta de que el recuento anual, si disminuye, sugiere que estamos en el camino correcto.

Por supuesto, algunos argumentan que no deberíamos tener autos sin conductor en nuestras carreteras públicas hasta que estén autorizados para tal uso como resultado de simulaciones computarizadas extensas y exhaustivas o mediante pruebas privadas en pista cerrada. El contraargumento es que la única forma viable y más rápida de hacer que los autos sin conductor funcionen es mediante el uso de vías públicas y que cualquier retraso en la adopción de autos sin conductor permitirá que continúen los horrendos recuentos de accidentes automovilísticos conducidos por humanos. He cubierto más extensamente este debate en mis columnas e insto a los lectores a mirar esas discusiones para obtener el sentido completo de las perspectivas sobre este tema controvertido.

Terminemos las cosas por ahora.

Los accidentes de IA van a ocurrir. Debemos resistir el impulso de interpretar un accidente de IA como aparentemente accidentalmente y, ergo, dejar falsamente que los creadores y los que implementan la IA estén categóricamente libres.

Hay un giro adicional que les dejo como un pensamiento intrigante final para su día.

Según los informes, el comediante Dane Cook contó este chiste sobre los accidentes automovilísticos: “Hace un par de días, tuve un accidente automovilístico. No es mi culpa. Incluso si no es tu culpa, la otra persona se baja de su auto y te mira como si fuera tu culpa: ¡¿Por qué te detuviste en un semáforo en rojo y dejaste que te golpeara haciendo 80?!

Donde el giro pasa a primer plano es la posibilidad de que un sistema de IA pueda optar por insistir en que cuando ocurre un accidente de IA que involucra a esa IA en particular, la IA promociona que el incidente fue culpa del humano y seguramente no culpa de la IA. Por cierto, esto podría ser muy cierto y el humano podría estar tratando de convertir a la IA en el chivo expiatorio al afirmar que fue culpa de la IA.

O tal vez la IA está tratando de convertir al ser humano en un chivo expiatorio.

Verá, la IA que diseñamos podría ser complicada de esa manera, ya sea por accidente o no.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- conduciendo-coches-también/