La ética de la IA es escéptica sobre el establecimiento de las denominadas leyes de IA de bandera roja para denunciar algoritmos sesgados en sistemas autónomos de IA

Hablemos de las Leyes de Bandera Roja.

Sin duda sabe que la noción de Leyes de Bandera Roja ha sido ampliamente cubierta en las noticias últimamente. Los titulares que cubren el tema son abundantes. Las pasiones y los debates apasionados sobre tales asuntos están en la cima de la mente como una preocupación social y conllevan leyes de armas de bandera roja actuales y emergentes rápidamente.

Sin embargo, me atrevería a decir que es posible que no esté familiarizado con otras leyes de bandera roja promulgadas a fines del siglo XIX relacionadas con los vehículos motorizados y los precursores de los automóviles modernos cotidianos de hoy. Sí, así es, las Leyes de Bandera Roja se remontan a la historia, aunque cubren otros temas en comparación con el enfoque contemporáneo de hoy. Por lo general, se las conoce como leyes de tráfico de bandera roja.

Estas leyes, ahora centenarias y completamente desaparecidas, requerían que cualquier carro motorizado o motor propulsado por vapor en ese momento tuviera un adulto delante del vehículo y llevara una bandera roja con fines de advertencia. La idea era que el ganado podría alarmarse por esos artilugios ruidosos y cascarrabias que avanzaban lenta y desigualmente por caminos de tierra o pavimentados marginalmente, por lo que si alguien caminaba frente al artefacto mientras ondeaba vigorosamente una bandera roja, con suerte podría evitar que surgieran calamidades. Por si te lo estabas preguntando, los ferrocarriles y los trenes se consideraban excluidos de las mismas leyes ya que eran vehículos unidos integralmente a los rieles y tenían otras leyes que cubrían sus acciones.

Imagínese tener que ondear banderas rojas hoy como un requisito para cada automóvil en nuestras vías públicas.

Por ejemplo, un automovilista ordinario que viene por la calle de su vecindario tendría que asegurarse de que un adulto que ondeaba una bandera roja estuviera presente y desfilara frente al automóvil en movimiento. Esto tendría que ocurrir para todos y cada uno de los vehículos que pasan por su calle. Tal vez las personas se convertirían en trabajadores de la bandera roja que contrataron a los conductores de automóviles que pasaban y que de otro modo no tendrían un amigo o pariente que pudiera ir delante de ellos y hacer la acción de saludar estipulada.

Hoy en día tendemos a asociar el ondear banderas rojas relacionadas con las carreteras con los sitios de construcción de carreteras. A medida que se acerque a un camino excavado, los trabajadores levantarán una bandera roja para llamar su atención. Esto le indica que disminuya la velocidad y esté alerta. Podría haber una excavadora que se interpondrá en su camino. Es posible que haya un agujero gigante más adelante y deberá atravesarlo con cautela.

Pero volvamos al uso de banderas rojas en el siglo XIX.

Lo crea o no, se suponía que el ondeador de la bandera roja debía estar al menos un octavo de milla más adelante que la próxima máquina motorizada. Eso parece una distancia bastante larga. Sin embargo, se supone que esto tenía mucho sentido en esos días. Los ruidos sorprendentes del motor y tal vez la mera vista del vehículo podrían ser suficientes para poner nerviosos a los animales. Algunas de las Leyes de Bandera Roja de esa época también requerían que se mantuviera en alto una luz roja brillante durante la noche para que una advertencia de precaución roja visualmente aparente pudiera verse desde una distancia oscura.

En general, creo que es justo afirmar que nosotros, como sociedad, tendemos a asociar una bandera roja como una especie de señal o señalización de que algo está potencialmente mal o al menos necesita nuestra devota atención.

Prepárese para un pequeño cambio en este fenómeno de bandera roja.

Existe la afirmación de que deberíamos exigir disposiciones de bandera roja cuando se trata de Inteligencia Artificial (IA).

Eso es un poco sorprendente y un concepto sorprendente que hace que muchos se rasquen la cabeza. Usted puede estar desconcertado en cuanto a cómo o por qué debería haber los llamados Leyes de IA de bandera roja. Tenga en cuenta que estoy etiquetando esto como Leyes de IA de Bandera Roja para diferenciar el asunto de las Leyes de Tráfico de Bandera Roja (como las de finales de 1800) y también para diferenciarlas de otras Leyes de Armas de Bandera Roja más frecuentes de la actualidad.

¿Realmente necesitamos Leyes de IA de Bandera Roja que estén clara y únicamente orientadas a asuntos de IA?

Quienes están a favor del enfoque propuesto insistirían en que necesitamos absolutamente disposiciones legales que ayuden a tomar medidas drásticas contra la IA que contiene sesgos indebidos y actúa de forma discriminatoria. En este momento, la construcción y el despliegue de la IA son similares a las circunstancias del Lejano Oeste en las que todo vale. Los esfuerzos para controlar la mala IA dependen actualmente de la formulación y adopción de las pautas de ética de la IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Las leyes que incluyen mala IA se están ideando y promulgando lentamente, vea mi cobertura en el enlace aquí. A algunos les preocupa que los legisladores no vayan lo suficientemente rápido. Parece que las compuertas para permitir que se fomente la IA sesgada en el mundo están en gran medida abiertas en este momento. El retorcimiento de manos dice que para cuando las nuevas leyes lleguen a los libros, el genio malvado ya habrá salido de la botella.

No tan rápido, dicen los contraargumentos. Las preocupaciones son que si las leyes se implementan demasiado rápido, mataremos a la gallina de los huevos de oro, por lo que los esfuerzos de IA se secarán y no obtendremos los beneficios sociales de los nuevos sistemas de IA. Los desarrolladores de IA y las empresas que deseen usar IA podrían asustarse si de repente se implementa una serie bizantina de nuevas leyes que rigen la IA a nivel federal, estatal y local, sin mencionar las leyes internacionales relacionadas con la IA que también están avanzando.

En este asunto desordenado viene el llamado a las Leyes de IA de Bandera Roja.

Antes de entrar en un poco más de carne y papas sobre las consideraciones salvajes y lanosas que subyacen a la Ley de IA de Bandera Roja prevista, establezcamos algunos fundamentos adicionales sobre temas profundamente esenciales. Necesitamos sumergirnos brevemente en la ética de la IA y especialmente en el advenimiento del aprendizaje automático (ML) y el aprendizaje profundo (DL).

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos a nuestro enfoque en las Leyes de IA de Bandera Roja.

El concepto subyacente es que las personas podrían levantar una bandera roja cada vez que crean que un sistema de IA está operando de manera indebidamente sesgada o discriminatoria. No estaría levantando una bandera física per se, sino que simplemente estaría utilizando algunos medios electrónicos para dar a conocer sus inquietudes. La parte de la bandera roja del esquema o enfoque es más una metáfora que una encarnación física.

Finge que estabas solicitando un préstamo hipotecario. Usted opta por utilizar un servicio de banca en línea para solicitar un préstamo. Después de ingresar algunos datos personales, espera un momento a que el sistema de IA que se está utilizando decida si es digno de un préstamo o no. La IA le dice que ha sido rechazado para el préstamo. Al solicitar una explicación de por qué fue rechazado, la narrativa textual parece sugerirle que la IA estaba utilizando factores sesgados indebidos como parte del algoritmo de toma de decisiones.

Es hora de levantar una bandera roja sobre la IA.

¿Dónde ondeará exactamente esta bandera roja?

Esa es una pregunta del millón de dólares.

Un punto de vista es que deberíamos establecer una base de datos a nivel nacional que permita a las personas marcar sus banderas rojas relevantes para la IA. Algunos dicen que esto debería ser regulado por el gobierno federal. Las agencias federales serían responsables de examinar las banderas rojas y acudir en ayuda del público en general en cuanto a la veracidad y tratar con la presunta "IA mala" que avivó las banderas rojas informando los recuentos.

Aparentemente, el Congreso establecería una Ley Nacional de IA de Bandera Roja. La ley explicaría qué es una bandera roja pertinente a la IA. La ley describiría cómo se levantan estas banderas rojas que se quejan de AI. Y así. También podría darse el caso de que los estados individuales también opten por elaborar sus propias Leyes de IA de Bandera Roja. Tal vez lo hagan en lugar de una iniciativa nacional, o lo hagan para amplificar detalles que son especialmente atractivos para su estado específico.

Los críticos de un programa federal o cualquier programa de IA de Bandera Roja respaldado por el gobierno argumentarían que esto es algo que la industria privada puede hacer y que no necesitamos que el Gran Hermano pase a primer plano. La industria podría establecer un repositorio en línea en el que las personas puedan registrar señales de alerta sobre los sistemas de IA. Una acción de autocontrol por parte de la industria abordaría suficientemente estos problemas.

Un reparo sobre el supuesto enfoque de la industria es que parece oler a amiguismo. ¿Estarían dispuestas las empresas a cumplir con alguna base de datos privada de IA de Red Flag? Muchas empresas ignorarían potencialmente las banderas rojas marcadas sobre su IA. No habría dientes afilados para lograr que las empresas se ocuparan de las banderas rojas ingresadas.

Oigan, los defensores del enfoque del sector privado suenan, esto sería similar a un servicio nacional similar a Yelp. Los consumidores podrían mirar las señales de alerta y decidir por sí mismos si quieren hacer negocios con empresas que han acumulado una gran cantidad de señales de alerta orientadas a la IA. Un banco que estaba recibiendo toneladas de señales de alerta sobre su IA tendría que prestar atención y renovar sus sistemas de IA, según la lógica, de lo contrario, los consumidores evitarían la empresa como la peste.

Si todo este enfoque es asumido por el gobierno o por la industria es solo la punta del iceberg en cuestiones espinosas que enfrenta el postulado de las Leyes de IA de Bandera Roja propuesto.

Póngase en el lugar de una empresa que desarrolló o está utilizando IA. Podría ser que los consumidores levantaran banderas rojas a pesar de que no había una base viable para hacerlo. Si las personas pudieran publicar libremente una señal de alerta sobre la IA, podrían sentirse tentados a hacerlo por capricho, o tal vez por venganza contra una empresa que, de lo contrario, no haría nada malo con el consumidor.

En resumen, podría haber muchas señales de alerta falsas positivas sobre la IA.

Otra consideración es el tamaño masivo o la magnitud de las banderas rojas resultantes. Fácilmente podría haber millones y millones de banderas rojas levantadas. ¿Quién va a dar seguimiento a todas esas banderas rojas? ¿Cuál sería el costo de hacerlo? ¿Quién pagará los esfuerzos de seguimiento de la bandera roja? Etc.

Si dijera que cualquier persona que registre o informe una señal de alerta sobre la IA tiene que pagar una tarifa, ha entrado en un reino turbio e insidioso. La preocupación sería que solo los ricos podrían darse el lujo de levantar banderas rojas. Esto, a su vez, implica que los empobrecidos no podrían participar por igual en las actividades de bandera roja y, esencialmente, no tendrían lugar para advertir sobre la IA adversa.

Solo un giro adicional más por ahora, a saber, que este tipo de leyes o pautas de bandera roja sobre la IA parece ser después del hecho en lugar de servir como una advertencia de antemano.

Volviendo a las Leyes de Tránsito de Bandera Roja, el énfasis de usar una bandera roja era evitar tener una calamidad para empezar. Se suponía que el que ondeaba la bandera roja estaría muy por delante del próximo auto. Al estar delante del vehículo, el ganado sería alertado y aquellos que lo custodiaban sabrían que deben tomar precauciones debido a la fuente perturbadora que pronto llegará.

Si las personas solo pueden levantar una bandera roja sobre la IA que aparentemente ya ha dañado o socavado sus derechos, el caballo proverbial ya está fuera del establo. Todo lo que esto parece lograr es que, con suerte, otras personas que vienen ahora sepan que deben desconfiar de ese sistema de IA. Mientras tanto, la persona supuestamente agraviada ya ha sufrido.

Algunos sugieren que tal vez podríamos permitir que las personas levanten banderas rojas sobre la IA que sospechar pueden estar sesgados, incluso si no han usado la IA y no se vieron afectados directamente por la IA. Por lo tanto, la bandera roja se ondea antes de que el daño esté hecho.

Yikes, dice la réplica, realmente vas a hacer que las banderas rojas de la IA se conviertan en un asunto completamente inmanejable y caótico. Si alguien, por cualquier motivo, puede levantar una bandera roja sobre un sistema de IA, a pesar de no haber hecho nada con esa IA, se verá inundado de banderas rojas. Peor aún, no podrás discernir el trigo de la paja. Todo el enfoque de la bandera roja se derrumbará por su propio peso, acabando con la bondad de la idea al permitir que los restos flotantes y la gentuza hundan todo el barco.

Vertiginoso y confuso.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA ilustra algo sobre las Leyes de IA de Bandera Roja y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor y leyes de IA de bandera roja

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Esbocemos un escenario que podría aprovechar una Ley de IA de Bandera Roja.

Se sube a un automóvil autónomo basado en inteligencia artificial y desea que el vehículo autónomo lo lleve a su supermercado local. Durante el viaje relativamente breve, la IA toma una ruta que le parece algo incorrecta. En lugar de ir por el camino más directo, la IA navega por calles apartadas, lo que hace que el tiempo de conducción sea más alto de lo normal.

¿Qué está pasando?

Suponiendo que está pagando por el uso del automóvil autónomo, es posible que sospeche que la IA fue programada para conducir una ruta más larga para intentar aumentar la tarifa o el costo del viaje. Cualquiera que haya tomado alguna vez un taxi convencional manejado por humanos conoce los trucos que pueden ocurrir para obtener más masa en el taxímetro. Por supuesto, con las personas que tienen GPS en sus teléfonos inteligentes mientras viajan en un taxi o equivalente, puede atrapar fácilmente a un conductor humano que parece estar tomando a escondidas rutas innecesariamente largas.

Resulta que tienes otra preocupación sobre la elección de la ruta, algo que realmente te corroe.

Supongamos que la ruta se hizo para evitar ciertas partes de la ciudad debido a aspectos raciales. Hay casos documentados de conductores humanos que han sido atrapados tomando ese tipo de decisiones, vea mi discusión en el enlace aquí. Quizás la IA haya sido programada de forma adversa.

Decides levantar una bandera roja.

Supongamos, por el bien de la discusión, que se ha promulgado una Ley de IA de Bandera Roja que cubre su jurisdicción. Puede ser la ley local, la ley estatal, la ley federal o internacional. Para un análisis del que soy coautor con la Iniciativa de Política de Vehículos Autónomos (AVPI) de Harvard sobre la creciente importancia del liderazgo local cuando las comunidades adoptan el uso de vehículos autónomos, consulte el enlace aquí.

Entonces, te conectas en línea a una base de datos de IA de Red Flag. En la base de datos de incidentes, ingresa la información sobre el viaje en automóvil autónomo. Esto incluye la fecha y la hora de la ruta de conducción, junto con la marca y el modelo del automóvil autónomo. Luego ingresa a la ruta de navegación que parecía sospechosa, y está sugiriendo o tal vez afirmando abiertamente que la IA fue diseñada con intenciones y capacidades sesgadas o discriminatorias.

Tendríamos que especular sobre los otros detalles de la Ley de IA de Bandera Roja en cuanto a lo que sucederá a continuación en este escenario en particular. En teoría, habría una disposición para que alguien revisara la bandera roja. Presumiblemente, buscarían que el fabricante de automóviles o la empresa de tecnología de conducción autónoma explicaran su punto de vista sobre la bandera roja registrada. ¿Cuántas otras banderas rojas de este tipo se han registrado? ¿Qué resultados produjeron esas banderas rojas?

Y así seguiría.

Conclusión

Absurdo, exhortan algunos escépticos.

No necesitamos Leyes de IA de Bandera Roja, ejercen con severidad. Hacer cualquier cosa por el estilo arruinará el trabajo en lo que respecta al ritmo y el progreso de la IA. Tales leyes serían difíciles de manejar. Estarías creando un problema que no resuelve un problema. Hay otras formas de lidiar con la IA que son malas. No se aferre ciegamente a las pajitas para hacer frente a la IA sesgada.

Cambiando de tema, todos sabemos que los toreros usan capotes rojos para aparentemente atraer la atención del toro enojado. Aunque el rojo es el color que más asociamos con esta práctica, te sorprenderá saber que los científicos dicen que los toros no perciben el color rojo de la muleta (son daltónicos para el rojo). el espectáculo popular MythBusters hizo un examen bastante entretenido de este asunto. El movimiento de la capa es el elemento clave más que el color elegido.

Para aquellos que dejan de lado la necesidad de leyes de IA de bandera roja, una contraargumentación es que necesitamos algo de una naturaleza agitada dramática e inconfundible para asegurarnos de que los desarrolladores de IA y las empresas que implementan IA se mantengan alejados de la IA sesgada o mala. Si no fuera por una bandera roja, tal vez una capa ondeando o básicamente cualquier tipo de enfoque de alerta podría estar dentro del ámbito de la debida consideración.

Sabemos con certeza que la IA mala existe y que mucha más IA mala se dirigirá en nuestra dirección. Encontrar formas de protegernos de la IA adversa es crucial. Del mismo modo, es igualmente importante establecer barandillas para tratar de evitar que la IA mala ingrese al mundo.

Ernest Hemingway dijo que nadie vive su vida al máximo excepto los toreros. Necesitamos asegurarnos de que los humanos puedan vivir su vida hasta el final, a pesar de cualquier maldad o locura de la IA que se promulgue sobre nosotros.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- algoritmos sesgados en sistemas autónomos de IA/