La ética de la IA da la bienvenida a las perspectivas de un marco estandarizado de gestión de riesgos de la IA, que también podría reforzar los esfuerzos de los vehículos autónomos autónomos

Parece que se nos dice repetidamente que tomar riesgos es importante en la vida.

Si observa cualquier lista diaria de citas cotizables, hay una preponderancia de trucos de vida que le dicen que acepte el riesgo. Aproveche la oportunidad y súbase a una rama. Deje a un lado sus preocupaciones restrictivas y vuele libre con la maravilla del riesgo. El riesgo es tu amigo. El riesgo hace que el mundo gire. En pocas palabras, sin riesgo, no hay ganancia.

Aunque estos elogios entusiastas sobre ser un tomador de riesgos parecen sensatos, de alguna manera los pensamientos de contrapeso y aleccionadores sobre las desventajas del riesgo no se dicen. El riesgo puede ponerlo en peligro. Se pueden producir daños terribles a partir de acciones arriesgadas. En pocas palabras, el riesgo no está libre de riesgos.

El general George Patton afirmó que siempre debemos tener una mentalidad de riesgo al tomar suficientes calculado riesgos, que caracterizó como algo muy diferente de ser precipitado. Por lo tanto, piense de antemano en los riesgos que está dispuesto a absorber. Sea consciente de los riesgos conocidos y el potencial de los riesgos desconocidos. Una persona tiene que conocer sus limitaciones en lo que respecta al riesgo y la asunción de riesgos.

Menciono la naturaleza y el alcance del "riesgo" como un tipo de fenómeno descriptible analíticamente para resaltar que cuando se trata de IA, existe una necesidad cada vez mayor de determinar qué tan riesgosa es nuestra creciente adopción de IA. La IA no está libre de riesgos. Por el contrario, la IA presenta muchos riesgos considerables y aterradoramente masivos que requieren que todos respiremos hondo y comencemos a calcular seriamente cuáles son esos riesgos. Debemos tener los ojos bien abiertos y conocer los riesgos de la IA mientras nos sumergimos de cabeza en la carrera desordenada hacia la adopción de la IA.

Tenga en cuenta que todas las partes interesadas de hoy se enfrentan a riesgos de IA.

Por ejemplo, una empresa que está creando un sistema de IA corre el riesgo de que la IA eventualmente pueda causar algún tipo de daño sustancial a quienes usan el sistema de IA. El daño puede ser financiero, psicológico o posiblemente daño físico que podría herir o matar a alguien. Es probable que los ejecutivos de la empresa sean legalmente responsables por haber ideado y lanzado la IA. Los desarrolladores de IA que construyeron la IA están obligados a rendir cuentas. Hay muchas manos que intervienen en la creación y promulgación de la IA y todas ellas pueden considerarse conjuntamente responsables y culpables de lo que permitieron que ocurriera negativamente.

Piense en el riesgo de la IA como algo que flota y se adhiere a todo lo que tiene un punto de contacto asociado con la IA. Los usuarios de un sistema de IA están asumiendo cierto riesgo. Podrían ser dañados por la IA. Aquellos que diseñaron la IA están asumiendo una cierta cantidad de riesgo asociado con los resultados dañinos que su IA podría producir. El riesgo es omnipresente en el ámbito de la IA y, sin embargo, a menudo parece completamente descuidado y, en general, lamentablemente subestimado.

La mala noticia es que no se presta suficiente atención a los riesgos de la IA.

La buena noticia es que se está acelerando una creciente apreciación de la vitalidad de comprender y medir el riesgo de la IA. Como signo saludable de esta toma de conciencia, podemos echar un vistazo al que se está formulando Marco de gestión de riesgos de IA (RMF) que está realizando el Instituto Nacional de Estándares y Tecnología (NIST). Citaré aquí el borrador del documento con fecha del 17 de marzo de 2022. Hay varias reuniones en curso para refinar y ampliar aún más el documento. Está previsto que se emita una versión semifinalizada conocida como AI RMF 1.0 en enero de 2023.

Antes de saltar al borrador existente del AI RMF, me gustaría enfatizar que cualquier persona genuinamente interesada en la ética de la IA debe estar especialmente al tanto de en qué consiste el AI RMF. Además de estar al tanto del borrador, también podría considerar involucrarse en el esfuerzo de redacción y ayudar en la formulación del Marco de Gestión de Riesgos de IA en total (tenga en cuenta que el NIST está realizando talleres públicos que agradecen dichos aportes). De hecho, usted puede ayudar a hacer historia.

Exploremos brevemente una combinación importante que existe entre la ética de la IA y los riesgos de la IA. Los riesgos de la IA son parte integral de la utilidad de la IA ética. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos. Fácilmente podría afirmar que el riesgo de la IA está inmerso en todos los principios o preceptos de la ética de la IA. Un modelo mental conveniente sería imaginar una especie de hoja de cálculo en la que los principios de la ética de la IA sean los elementos horizontales (las columnas) y el riesgo de la IA sea un componente vertical (filas) que se entrelazan en y a lo largo de los horizontales.

Hablar de los riesgos de la IA trae a colación los diferentes matices de a qué tipo de IA se está aludiendo. A pesar de esos titulares a todo volumen sobre las proclamadas maravillas humanas de la IA, hoy en día no hay ninguna IA que sea inteligente. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando aquí consiste en la IA no consciente que tenemos hoy.

Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

Analicemos brevemente algunos de los preceptos generales de IA ética que he discutido anteriormente en mis columnas para ilustrar aquí lo que debería ser una consideración vital para cualquiera y todos los que están elaborando, desplegando o usando IA. Luego nos sumergiremos en el tema de los riesgos de la IA.

Como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables.
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia.
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable.
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluso con metodologías, fuentes de datos y procedimientos de diseño y documentación transparentes y auditables.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

Mencioné anteriormente en este documento que el riesgo de la IA es un asunto que se cruza con todos los preceptos de la ética de la IA. Para ayudar a exhibir completamente esa apariencia, considere una nueva redacción de los principios clave de ética de la IA para iluminar el asunto del riesgo de la IA:

  • Transparencia y riesgos de IA asociados
  • Justicia y Equidad y Riesgos de IA Asociados
  • No maleficencia y riesgos de IA asociados
  • Responsabilidad y riesgos de IA asociados
  • Privacidad y riesgos de IA asociados
  • Beneficencia y riesgos de IA asociados
  • Libertad y autonomía y riesgos de IA asociados
  • Confianza y riesgos de IA asociados
  • Sostenibilidad y riesgos de IA asociados
  • Dignidad y riesgos de IA asociados
  • Solidaridad y riesgos de IA asociados

Antes de analizar esto, consideremos qué significa la palabra "riesgo".

Digo esto porque el riesgo como palabra clave tiene diferentes significados dependiendo de con quién estés hablando. Al explorar esta faceta, también mencionaré otro documento del NIST que debe considerar estudiar si va a ingresar al AI RMF, a saber, que existe un marco general de gestión de riesgos (RMF) del NIST que cubre ampliamente los sistemas de tecnología de la información y el riesgo. administración, después de haber estado en su lugar por un tiempo. El AI RMF es esencialmente una instanciación del RMF más amplio (se podría decir descaradamente que el AI RMF es el hijo o la hija del RMF dicho).

Según el NIST RMF general, aquí hay una definición de riesgo: “El riesgo es una medida de la medida en que una entidad se ve amenazada por una circunstancia o evento potencial. El riesgo también es una función de los impactos adversos que surgen si la circunstancia o evento ocurre, y la probabilidad de que ocurra. Los tipos de riesgo incluyen riesgo de programa; cumplimiento/riesgo regulatorio; riesgo financiero; riesgo legal; riesgo de misión/negocio; riesgo político; riesgo de seguridad y privacidad (incluido el riesgo de la cadena de suministro); riesgo del proyecto; riesgo reputacional; riesgo para la seguridad; riesgo de planificación estratégica”.

El borrador NIST AI RMF define el riesgo de esta manera: “El riesgo es una medida de la medida en que una entidad se ve influenciada negativamente por una circunstancia o evento potencial. Por lo general, el riesgo es una función de 1) los impactos adversos que podrían surgir si ocurre la circunstancia o evento; y 2) la probabilidad de ocurrencia. Las entidades pueden ser individuos, grupos o comunidades, así como sistemas, procesos u organizaciones”.

Cavando más profundo y tal vez enturbiando las aguas, el Stanford Encyclopedia of Philosophy hábilmente señala que el riesgo a menudo se expresa en cinco connotaciones diferentes:

1) El riesgo es un evento no deseado que puede ocurrir o no

2) El riesgo es el porque de un evento no deseado que puede o no ocurrir

3) El riesgo es el probabilidades de un evento no deseado que puede o no ocurrir

4) El riesgo es el valor esperado estadístico de un evento no deseado que puede o no ocurrir

5) Riesgo es el hecho de que una decisión se tome en condiciones de probabilidades conocidas

Por ahora, acordemos de manera colegiada que en esta discusión vamos a tratar la noción de qué es el riesgo de manera generalizada según las definiciones NIST RMF y NIST AI RMF antes mencionadas y no nos quedaremos atascados en las variaciones tortuosas. Confío entonces en que se sienta cómodo con mi fundamento anterior de haber establecido por el momento el significado contextual de IA y el significado de riesgo.

Un marco de gestión de riesgos de IA es un medio para descubrir los riesgos de la IA y, con suerte, gestionar esos riesgos.

De acuerdo con AI RMF, este es el propósito formal o la aspiración del Marco de Gestión de Riesgos de IA que se está formulando: “Un Marco de Gestión de Riesgos de IA (AI RMF, o Marco) puede abordar desafíos exclusivos de los sistemas de IA. Este RMF de IA es un intento inicial de describir cómo los riesgos de los sistemas basados ​​en IA difieren de otros dominios y para alentar y equipar a muchas partes interesadas diferentes en IA para abordar esos riesgos con un propósito. Este marco voluntario proporciona un proceso flexible, estructurado y medible para abordar los riesgos de la IA a lo largo del ciclo de vida de la IA, y ofrece orientación para el desarrollo y uso de una IA confiable y responsable”.

El NIST también se da cuenta de que un AI RMF como estándar propuesto debe ser fácilmente utilizable, actualizarse a medida que avanza la tecnología e incorporar otros criterios básicos: “Un marco de gestión de riesgos debe proporcionar un enfoque estructurado, pero flexible, para gestionar el riesgo empresarial y social. como resultado de la incorporación de sistemas de IA en productos, procesos, organizaciones, sistemas y sociedades. Las organizaciones que administran el riesgo de IA de una empresa también deben tener en cuenta las consideraciones y los riesgos de IA de la sociedad más grande. Si un marco de gestión de riesgos puede ayudar a abordar y gestionar de manera efectiva el riesgo de IA y los impactos adversos, puede conducir a sistemas de IA más confiables”.

Algunos de ustedes que son un poco escépticos podrían preguntarse por qué necesitamos un RMF de IA en lugar de simplemente confiar en el RMF generalizado que ya está disponible. ¿No estamos simplemente reinventando la rueda? La respuesta es no, no estamos reinventando la rueda. Una rueda se puede personalizar para una necesidad particular. Una persona razonable probablemente reconocería que hay ruedas de todo tipo de formas y tamaños. La rueda de un avión es, sin duda, bastante diferente de la rueda del triciclo de un niño. Claro, ambas son ruedas, pero están diseñadas de manera diferente y, por lo tanto, tienen características diferentes y también pueden examinarse de manera distinta.

El documento AI RMF expresa un sentimiento similar: “Los riesgos para cualquier software o sistema basado en información se aplican a la IA; que incluye preocupaciones importantes relacionadas con la ciberseguridad, la privacidad, la seguridad y la infraestructura. Este marco tiene como objetivo llenar los vacíos relacionados específicamente con la IA”.

En la versión existente del borrador AI RMF, definen cuatro grupos de partes interesadas:

  • Partes interesadas del sistema de IA
  • Operadores y Evaluadores
  • Interesados ​​externos
  • Público en general

La mayor parte de la atención sobre el riesgo de IA generalmente se dirige hacia las partes interesadas del sistema de IA. Eso tiene sentido. Estas son las partes interesadas que participan en la concepción, el diseño, la construcción y el despliegue de la IA. Además, podemos incluir aquellos que adquieren o licencian IA para su uso. Tendemos a ver a esas partes interesadas como las partes altamente visibles que hicieron el trabajo pesado para guiar la existencia del sistema de IA y fomentaron su implementación.

Es posible que no haya pensado o considerado igualmente instrumentales los operadores y evaluadores de IA. Como se establece en AI RMF, los operadores y evaluadores de AI hacen esto: “Los operadores y evaluadores brindan monitoreo y prueba, evaluación, validación y verificación (TEVV) formal/informal del desempeño del sistema, en relación con los requisitos técnicos y sociotécnicos. ” Son cruciales para la IA y también dentro de la banda de riesgos de la IA.

Las partes interesadas externas abarcarían una amplia gama de entidades, incluidos grupos comerciales, grupos de defensa, organizaciones de la sociedad civil y otros. El público en general está formado por consumidores y otras personas que experimentan el riesgo asociado con la IA adversa.

Quizás se pregunte cuánto riesgo es tolerable cuando se trata de IA.

Lamento decir que no hay un número particular o un valor asignado que podamos dar a la cantidad de riesgo tolerable o aceptable que podríamos considerar valioso o permisible socialmente. Para aquellos de ustedes que desean una indicación numérica designada estandarizada, deberán moderar ese deseo con este punto notable en el borrador de AI RMF: “AI RMF no prescribe umbrales o valores de riesgo. La tolerancia al riesgo, el nivel de riesgo o el grado de incertidumbre que es aceptable para las organizaciones o la sociedad, es específico del contexto y del caso de uso”.

Una metodología recomendada por AI RMF para examinar y controlar el riesgo de IA se describe como una metodología que consta de pasos básicos etiquetados como Mapear, Medir y Administrar. La función Mapa enmarca los riesgos de un sistema de IA. La función Medir abarca el seguimiento y análisis del riesgo de IA. La función Administrar hace uso de las funciones Mapear y Medir para luego tratar de minimizar los impactos adversos mientras maximiza los beneficios de la IA. De acuerdo con el borrador de AI RMF, las versiones posteriores del estándar incluirán una Guía práctica como complemento para mostrar ejemplos y prácticas del uso de AI RMF.

En el estándar NIST RMF más amplio, hay un conjunto embellecido de siete pasos que coinciden con hacer un esfuerzo general de gestión de riesgos de TI y sistemas. He encontrado esos siete pasos útiles para tener en cuenta, incluso al construir e implementar sistemas de IA.

Los siete pasos son (citando del estándar NIST RMF):

1. Prepárese para ejecutar el RMF desde una perspectiva a nivel de organización y de sistema al establecer un contexto y prioridades para administrar el riesgo de seguridad y privacidad.

2. Categorizar el sistema y la información procesada, almacenada y transmitida por el sistema con base en un análisis del impacto de la pérdida.

3. Seleccione un conjunto inicial de controles para el sistema y adapte los controles según sea necesario para reducir el riesgo a un nivel aceptable basado en una evaluación del riesgo.

4. Implementar los controles y describir cómo se emplean los controles dentro del sistema y su entorno de operación.

5. Evaluar los controles para determinar si los controles se implementan correctamente, funcionan según lo previsto y producen los resultados deseados con respecto al cumplimiento de los requisitos de seguridad y privacidad.

6. Autorizar el sistema o controles comunes con base en la determinación de que el riesgo para las operaciones y bienes organizacionales, las personas, otras organizaciones y la Nación es aceptable.

7. Supervisar el sistema y los controles asociados de forma continua para incluir la evaluación de la eficacia del control, la documentación de los cambios en el sistema y el entorno de operación y la realización de la evaluación de riesgos.

En este momento de esta importante discusión, apuesto a que desea algunos ejemplos ilustrativos que puedan mostrar la naturaleza de los riesgos de la IA. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA ilustra algo sobre los riesgos de la IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y riesgos de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de la IA ética que implican la naturaleza de los riesgos de la IA.

Como conductor humano, usted es un calculador de riesgos muy bien afinado.

Así es, cuando conduce un automóvil, tiene la tarea en tiempo real de determinar los riesgos de que un peatón pueda lanzarse repentinamente a la calle, o que un automóvil delante de usted pise los frenos inesperadamente. Hay una bruma y una confusión decididamente turbias en las situaciones de conducción a las que nos enfrentamos.

Intenta hacer lo mejor posible una evaluación de los riesgos involucrados en cada momento de la conducción y luego tiene que asumir las consecuencias de sus evaluaciones. Lamentablemente, hay alrededor de 40,000 muertes por accidentes automovilísticos cada año solo en los Estados Unidos y alrededor de 2.5 millones de lesiones relacionadas (vea mi colección de tales estadísticas en el enlace aquí). A veces cortas las cosas bastante cerca y escapas de una mala situación por la piel de tus dientes. Otras veces juzgas mal y chocas contra algo o chocas con alguien.

Por lo general, actualiza mentalmente los aspectos de riesgo a medida que avanza el esfuerzo de conducción. Imagine el caso simple de un grupo de niños que intentan cruzar la calle imprudentemente. Al principio, puede calificar el riesgo de cruzar imprudentemente y recibir la impresión de que es bastante alto. Pero luego te das cuenta de que un adulto cercano los está presionando para que no crucen la calle imprudentemente y, por lo tanto, se reduce el riesgo de que los niños entren en la calle y los atropellen. Sin embargo, tenga en cuenta que el riesgo no se redujo a riesgo cero, ya que aún pueden optar por ingresar a la carretera.

Existe un estándar bien conocido relacionado con el riesgo en el ámbito automotriz conocido como el esquema de clasificación de riesgo del Nivel de integridad de la seguridad automotriz (ASIL), basado en un documento oficial denominado ISO 26262. -consideraciones relacionadas con el riesgo orientadas a el enlace aquí y también el enlace aquí.

Al determinar el riesgo mientras conduce, aquí hay una ecuación que proporciona un medio para entender los aspectos de riesgo:

  • Riesgo = Gravedad x (Exposición x Controlabilidad)

Exploremos la fórmula y sus componentes.

Es importante tener en cuenta la gravedad al determinar el riesgo mientras conduce, ya que podría dirigirse hacia una pared de ladrillos que terminará causando que usted y sus pasajeros sufran lesiones o mueran (un resultado de gravedad notablemente alta) mientras golpea algunas latas de refresco desechadas en la autopista. tener una gravedad relativamente baja. Formalmente, según la norma ISO, la gravedad es una medida del daño potencial que puede surgir y se clasifica en (S0) Sin lesiones, (S1) Lesiones leves y moderadas, (S2) Lesiones graves, (S3) Lesiones fatales y potencialmente mortales .

La exposición es si las posibilidades de que ocurra el incidente son sustanciales versus improbables en cuanto a que usted esté expuesto al asunto (es decir, el estado de estar en una situación operativa de naturaleza peligrosa). Según el estándar ISO, la exposición se puede dividir en (E0) insignificante, (E1) muy baja, (E2) baja, (E3) media y (E4) alta.

La controlabilidad se refiere a la capacidad de poder maniobrar el automóvil para evitar una calamidad pendiente. Esto puede variar desde evitar la situación por completo o simplemente esquivarla, o que no importa lo que haga, no hay medios suficientes para conducir, frenar o acelerar y evitar el momento. La norma ISO indica que la controlabilidad se puede dividir en (C0) generalmente controlable, (C1) simplemente controlable, (C2) normalmente controlable y (C3) difícil o incontrolable.

Al combinar los tres factores de severidad, exposición y controlabilidad, puede llegar a una indicación de la evaluación de riesgos para una situación de conducción determinada. Presumiblemente, hacemos esto en nuestras cabezas, cognitivamente, aunque es discutible cómo lo hacemos realmente y si incluso usamos este tipo de lógica explícita, ya que nadie sabe realmente cómo funcionan nuestras mentes en esta capacidad.

No se deje engañar por la fórmula aparentemente matemática e interprete que el asunto de derivar el riesgo mientras se conduce es de alguna manera totalmente claro. Hay una enorme cantidad de juicio que se aplica a cómo usted, como ser humano, clasifica la exposición, la gravedad y la capacidad de control.

Esta derivación del riesgo de conducción es difícil para los humanos. Tratar de crear IA para que haga lo mismo también es extraordinariamente difícil. En particular, una capacidad central de un sistema de conducción de IA implica tener que tomar decisiones basadas en algoritmos (ADM) sobre los riesgos de conducción. Es posible que se sorprenda al saber que muchos de los sistemas de conducción de IA actuales no realizan el cálculo y la evaluación del riesgo de conducción de manera sólida. En general, se utilizan enfoques muy crudos y muy simplificados. Si esto escalará hasta la adopción generalizada de autos sin conductor es una pregunta abierta. Para obtener más información sobre este dilema, relacionado con un famoso experimento mental conocido como el problema del tranvía, consulte mi análisis en este enlace aquí.

Otra preocupación es que los sistemas de conducción de IA a menudo se programan de manera bizantina y las partes que se ocupan de los aspectos de riesgo de conducción están enterradas en lo profundo de un pantano de código. Hay poca transparencia sobre cómo un fabricante de automóviles en particular o una empresa de tecnología de conducción autónoma ha optado por programar las capacidades de riesgo de conducción de su sistema de IA. Existe la posibilidad de que veamos el escrutinio público y regulatorio una vez que los automóviles autónomos se vuelvan más frecuentes.

Recuerde que el marco de gestión de riesgos de IA definió cuatro grupos de partes interesadas, para los cuales se pueden ver fácilmente los vehículos autónomos:

  • Partes interesadas del sistema de IA — Fabricantes de automóviles y empresas de tecnología de vehículos autónomos
  • Operadores y Evaluadores – Operadores de flotas
  • Interesados ​​externos – Líderes de la ciudad, reguladores, etc.
  • Público en general – Peatones, ciclistas, etc.

Los fabricantes de automóviles y las empresas de tecnología de conducción autónoma deberían examinar los riesgos asociados con la IA que están desarrollando y colocando en los vehículos autónomos. Un pilar del riesgo de la IA estaría en los elementos del sistema de conducción de la IA, aunque existen otros usos de la IA en vehículos autónomos y automóviles sin conductor.

La expectativa es que habrá operadores de flotas que estarán a cargo de operar grandes conjuntos de automóviles autónomos para uso del público. Por lo general, se supone que esos operadores de flotas deben mantener los vehículos autónomos en condiciones de conducción adecuadas y asegurarse de que los automóviles autónomos sean seguros para su uso. Su atención se centra principalmente en el hardware y menos en el manejo del software integrado. En cualquier caso, ellos también deberían considerar los riesgos de la IA asociados con los automóviles autónomos y sus usos operativos.

Dondequiera que los automóviles autónomos estén aprobados para uso público, lo más probable es que se lleven a cabo varios niveles de aprobación y posiblemente supervisión de la ciudad, el estado y, en ocasiones, el gobierno federal. También hay varias leyes existentes y leyes recientemente promulgadas que rigen cómo se pueden desplegar los automóviles autónomos en las vías públicas, consulte mi cobertura en el enlace aquí. Estas partes interesadas con mentalidad pública también deberían examinar los riesgos de IA asociados con los automóviles autónomos.

Siempre que los autos sin conductor se coloquen en carreteras y caminos públicos, el público en general también debería pensar en los riesgos de IA involucrados. Los peatones corren el riesgo de que un automóvil autónomo los embista. Lo mismo para los ciclistas. Todos los demás usuarios de las carreteras son potencialmente vulnerables a los riesgos de la IA relacionados con el uso de vehículos autónomos en un lugar determinado.

Conclusión

Necesitamos prestar más atención a los riesgos de la IA. Tener un marco de gestión de riesgos de IA estandarizado proporcionará una herramienta útil para determinar los riesgos de IA. También es probable que el uso cada vez mayor de las pautas de ética de la IA lleve consigo la necesidad de determinar los riesgos de la IA, haciéndolo como parte integral del cumplimiento de los preceptos de la IA ética.

Comencé esta discusión señalando que el General Patton dijo que deberíamos calcular explícitamente el riesgo. También exhortó a las personas a hacer siempre más de lo que se les exige.

Le imploro que considere que incluso si no está obligado a examinar los riesgos de la IA, debe ir más allá de la norma con seriedad y esforzarse por hacerlo. Enfrentémonos todos a los riesgos de la IA y asegurémonos de no subir a una posición social precaria de la que no podamos regresar de manera segura.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could- reforzar-también-los-esfuerzos-del-automóvil-autónomo/