La ética de la IA y la ley de la IA aclaran lo que en realidad es una IA confiable

La confianza lo es todo, eso dicen.

El célebre filósofo Lao Tzu dijo que no se confiará en aquellos que no confían lo suficiente. Ernest Hemingway, un respetado novelista, afirmó que la mejor manera de saber si puedes confiar en alguien es confiando en ellos.

Mientras tanto, parece que la confianza es preciosa y frágil. La confianza que uno tiene puede derrumbarse como un castillo de naipes o explotar repentinamente como un globo reventado.

El trágico griego antiguo Sófocles afirmó que la confianza muere pero la desconfianza florece. El filósofo y matemático francés Descartes sostuvo que es prudente no confiar nunca del todo en aquellos que nos han engañado aunque sea una vez. El extraordinario inversionista de negocios multimillonario Warren Buffett exhortó que se necesitan veinte años para construir una reputación confiable y cinco minutos para arruinarla.

Es posible que se sorprenda al saber que todos estos puntos de vista variados y opiniones provocativas sobre la confianza son cruciales para el advenimiento de la Inteligencia Artificial (IA).

Sí, hay algo muy conocido como IA confiable Eso sigue recibiendo mucha atención en estos días, incluidos los abucheos desde dentro del campo de la IA y también los arrebatos bulliciosos de quienes están fuera del ámbito de la IA. La noción general implica si la sociedad estará dispuesta o no a depositar su confianza en sistemas como los de IA.

Presumiblemente, si la sociedad no quiere o no puede confiar en la IA, lo más probable es que los sistemas de IA no logren tracción. La IA, tal como la conocemos actualmente, se hará a un lado y simplemente acumulará polvo. Sorprendentemente, la IA podría terminar en el basurero, relegada históricamente a nada más que un experimento de alta tecnología que se intentó desesperadamente pero fracasó espectacularmente. Cualquier esfuerzo por revitalizar la IA enfrentaría potencialmente una tremenda batalla cuesta arriba y sería detenido por todo tipo de objeciones y protestas directas. Aparentemente, debido a la falta de confianza en la IA.

¿Cuál será, vamos a confiar en la IA o no vamos a confiar en la IA?

En esencia, ¿vamos a tener una IA verdaderamente confiable?

Esas son preguntas antiguas y sin resolver. Vamos a desempacarlo.

La ética de la IA y la lucha por una IA confiable

La creencia de muchos dentro de la IA es que los desarrolladores de sistemas de IA pueden ganarse la confianza en la IA al diseñar adecuadamente una IA que sea confiable. La esencia es que no puede esperar ganarse la confianza si la IA aparentemente no es confiable desde el principio. Al diseñar sistemas de IA de una manera que se perciba como confiable, existe una gran posibilidad de que las personas acepten la IA y adopten los usos de la IA.

Un reparo que ya molesta a esta consideración confiable de IA es que ya podríamos estar en un déficit de confianza pública cuando se trata de IA. Se podría decir que la IA que ya hemos visto ha cavado un hoyo y ha estado destrozando la confianza en cantidades masivas. Por lo tanto, en lugar de comenzar con una base suficiente de confiabilidad, la IA tendrá que salir asombrosamente del déficit, luchando por cada onza deseada de confianza adicional que se necesitará para convencer a las personas de que la IA es de hecho confiable.

En este desafío entran la Ética y la Ley de IA.

La ética de la IA y la ley de la IA están luchando mucho para tratar de averiguar qué se necesita para que la IA sea confiable. Algunos sugieren que existe una fórmula o leyes acorazadas que llevarán a la IA a los cielos confiables. Otros indican que se necesitará trabajo arduo y una adhesión constante e implacable a los principios de ética y leyes de IA para obtener la tan cacareada confianza de la sociedad.

El enigma contemporáneo sobre la confianza en la IA no es especialmente nuevo per se.

Puede volver fácilmente a fines de la década de 1990 y rastrear el surgimiento de un deseo buscado de "informática confiable" de esos días. Este fue un esfuerzo de la industria tecnológica a gran escala para discernir si las computadoras en total podrían fabricarse de una manera que la sociedad interpretara como confiable.

Las preguntas clave consistieron en:

  • ¿Se podría hacer el hardware de la computadora de tal manera que fuera confiable?
  • ¿Se podría diseñar el software de tal manera que fuera confiable?
  • ¿Podríamos instalar computadoras en red globales que fueran confiables?
  • Y así sucesivamente.

El sentimiento predominante entonces y que continúa hasta el día de hoy es que la computación confiable sigue siendo una especie de santo grial que, lamentablemente, aún no está a nuestro alcance (como se señala en un artículo titulado "IA confiable" en el Comunicaciones de la ACM). Se podría argumentar de manera convincente que la IA es otro componente más del entorno de confiabilidad informática, pero la IA hace que la búsqueda de la confianza sea aún más desafiante e incierta. La IA se ha convertido en el spoiler potencial en la lucha por lograr una computación confiable. Posiblemente el eslabón más débil de la cadena, por así decirlo.

Echemos un vistazo rápido a por qué la IA nos ha molestado por no ser tan confiables. Además, exploraremos los principios de la ética de la IA que se espera que ayuden a apuntalar la confianza percibida (o la desconfianza burbujeante) ya semisubmarina de la IA actual. Para conocer mi cobertura continua y extensa de la ética de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Atemos esto a la pregunta sobre la IA confiable

Ciertamente, no pareceríamos estar dispuestos a confiar en la IA que muestra sesgos adversos y acciones discriminatorias. Nuestra creencia, en ese caso, sería que tal IA definitivamente no es confiable, por lo que nos inclinaríamos a desconfiar activamente de la IA. Sin exagerar en una comparación antropomórfica (diré más sobre el antropomorfismo de la IA en un momento), un humano que exhibiera sesgos adversos también estaría sujeto a una calificación de no ser particularmente confiable.

Profundizando en la confianza y la honradez

Tal vez deberíamos echar un vistazo a lo que queremos decir cuando afirmamos que confiamos o no en alguien o en algo. Primero, considere varias definiciones de confianza de diccionarios cotidianos.

Ejemplos de lo que significa la definición de confianza son:

  • Confianza asegurada en el carácter, la habilidad, la fuerza o la verdad de alguien o algo. (Diccionario en línea Merriam-Webster).
  • Confianza en la integridad, fuerza, habilidad, seguridad, etc., de una persona o cosa (Dictionary.com)
  • Creencia firme en la confiabilidad, verdad, habilidad o fuerza de alguien o algo (Diccionario en línea de Oxford Languages).

Me gustaría señalar que todas esas definiciones se refieren a "alguien" y también se refieren a "algo" como potencialmente confiable. Esto es notable ya que algunos podrían insistir en que solo confiamos en los humanos y que el acto de confiar está reservado exclusivamente para la humanidad como nuestro objetivo de confiabilidad. No tan. Puedes tener confianza en tu tostadora de cocina. Si parece hacer su tostada de manera confiable y funciona de manera rutinaria para hacerlo, seguramente puede tener una apariencia de confianza acerca de si la tostadora es realmente confiable.

En esa misma línea de pensamiento, la IA también puede ser objeto de nuestro punto de vista de confianza. Lo más probable es que la confianza asociada con la IA sea mucho más complicada que, por ejemplo, una tostadora mundana. Por lo general, una tostadora solo puede realizar un puñado de acciones. Es probable que un sistema de IA sea mucho más complejo y parezca funcionar con menos transparencia. Nuestra capacidad para evaluar y determinar la confiabilidad de la IA seguramente será mucho más difícil y presentará desafíos distintos.

Además de ser más complejo, se dice que un sistema de IA típico es no determinista y potencialmente autorregulador o autoajustable. Podemos explorar brevemente esa noción.

Una máquina determinista tiende a hacer las mismas cosas una y otra vez, de manera predecible y con un patrón discernible viable de cómo está operando. Se podría decir que una tostadora común tuesta más o menos de la misma manera y tiene controles de tostado que moderan el tostado, los cuales generalmente son predecibles por la persona que usa la tostadora. Por el contrario, los sistemas de IA complejos a menudo se diseñan para que no sean deterministas, lo que significa que pueden hacer cosas bastante diferentes más allá de lo que podría haber esperado. Esto también podría amplificarse parcialmente si la IA está escrita para autoajustarse, un aspecto que puede permitir ventajosamente que la IA mejore en el caso de ML/DL, aunque también puede hacer que la IA vacile o entre en las filas. de la maldad de la IA. Es posible que no sepa qué lo golpeó, por así decirlo, ya que las acciones de la IA lo tomaron por sorpresa.

¿Qué podríamos hacer para tratar de acercar la IA a la confiabilidad?

Un enfoque consiste en tratar de garantizar que quienes construyen y utilizan la IA cumplan con un conjunto de preceptos de ética de la IA. Como lo mencionaron estos investigadores de IA: “La confianza es una actitud de que un agente se comportará como se espera y se puede confiar en que alcanzará su objetivo. La confianza se rompe después de un error o malentendido entre el agente y la persona que confía. El estado psicológico de confianza en la IA es una propiedad emergente de un sistema complejo, que generalmente involucra muchos ciclos de diseño, capacitación, implementación, medición del desempeño, regulación, rediseño y capacitación” (indicado en el Comunicaciones de la ACM, “Trust, Regulation, and Human-in-the-Loop AI within the European Region” por Stuart Middleton, Emmanuel Letouze, Ali Hossaini y Adriane Chapman, abril de 2022).

La esencia es que si podemos hacer que los desarrolladores de IA cumplan con la IA ética, es de esperar que terminen produciendo una IA confiable. Todo esto está muy bien, pero parece algo poco práctico en el mundo real, aunque es absolutamente un camino que vale la pena seguir.

Esto es lo que quiero decir.

Supongamos que los desarrolladores de IA realizan un esfuerzo diligente para crear un sistema de IA con algún propósito que generalmente llamaremos X. Se aseguran cuidadosamente de que la IA cumpla con los preceptos de transparencia de la ética de la IA. Se aseguran de que la privacidad esté adecuadamente integrada en la IA. Para casi todos los principios habituales de ética de la IA, los desarrolladores de la IA se aseguran exhaustivamente de que la IA cumpla con el precepto dado.

¿Deberías ahora confiar en esa IA?

Permítame ayudarlo a filtrar sus pensamientos sobre esa pregunta abierta.

Resulta que los delincuentes cibernéticos lograron infiltrarse en la IA y lograr que la IA realice X a escondidas y, sin embargo, también alimentar a los piratas informáticos con todos los datos que la IA está recopilando. Al hacerlo, estos malhechores están socavando insidiosamente el precepto de privacidad. Eres felizmente inconsciente de que esto está sucediendo bajo el capó de la IA.

Con esa información adicional, le haré la misma pregunta nuevamente.

¿Confías en esa IA?

Me atrevo a decir que la mayoría de la gente declararía de inmediato que seguramente lo hacen. no confía en esta IA en particular. Podrían haber confiado en él antes. Ahora optan por dejar de considerar confiable a la IA.

Algunas ideas clave basadas en este simple ejemplo son dignas de contemplación:

  • Dinámica de la confianza. Incluso las mejores intenciones para cubrir todas las bases para garantizar que la ética de la IA esté integrada en un sistema de IA no son garantía de lo que la IA podría llegar a ser o convertirse. Una vez que la IA se pone en uso, los extraños pueden potencialmente socavar las acumulaciones de IA ética.
  • Socavando la confianza desde adentro. El acto de socavar la confiabilidad no necesariamente tiene que ser de terceros. Una persona interna que realiza un mantenimiento regular del sistema de IA podría cometer un error y debilitar la IA para que sea menos confiable. Este desarrollador de IA podría no tener idea de lo que han forjado.
  • Compromisos inadvertidos de confianza. Una IA autoajustable o autorreguladora podría en algún momento ajustarse y desviarse hacia el territorio no confiable. Quizás la IA intente reforzar la transparencia de la IA y, sin embargo, comprometa simultáneamente y de manera inapropiada las facetas de privacidad.
  • Dispersión de confianza. Tratar de lograr todos los principios de ética de la IA con el mismo grado máximo de confiabilidad generalmente no es viable, ya que a menudo tienen propósitos cruzados o tienen otros conflictos potenciales inherentes. Es una perspectiva bastante idealizada creer que todos los preceptos de la IA ética están alineados soñadoramente y que todos se pueden alcanzar en un grado igual de maximizable.
  • La confianza puede ser costosa de lograr. El costo para tratar de lograr una apariencia de primera clase de IA confiable a través de la adopción de varios pasos extensos y exhaustivos y el cumplimiento de la letanía de los principios de ética de la IA será relativamente alto. Puede argumentar fácilmente que el costo sería prohibitivo en términos de poner en uso algunos sistemas de IA que de otro modo tendrían un valor importante para la sociedad, incluso si la IA fuera, digamos, menos que ideal por un deseo de confiabilidad.
  • Y así sucesivamente.

No malinterprete los comentarios anteriores para sugerir que de alguna manera deberíamos evitar el esfuerzo de construir y poner en práctica una IA confiable. Estaría tirando sumariamente al bebé con el agua del baño, por así decirlo. La interpretación correcta es que necesitamos hacer esas actividades de confianza para que la IA tenga una consideración confiable y, sin embargo, eso por sí solo no es una panacea o una panacea.

Caminos múltiples hacia una IA confiable

Existen importantes formas adicionales de varios frentes para esforzarse por lograr una IA confiable.

Por ejemplo, como he cubierto anteriormente en mis columnas, una gran cantidad de leyes y regulaciones emergentes relacionadas con la IA tienen como objetivo impulsar a los fabricantes de IA a diseñar una IA confiable, consulte el enlace aquí y el enlace aquí.

Estas barandillas legales son cruciales como un medio general para garantizar que aquellos que diseñan la IA sean totalmente responsables de su IA. Sin tales remedios legales potenciales y sanciones legales, es probable que aquellos que apresuran la IA en el mercado continúen haciéndolo con poca o ninguna preocupación por lograr una IA confiable. En particular, podría agregar que si esas leyes y regulaciones están mal diseñadas o implementadas de manera inadecuada, lamentablemente podrían socavar la búsqueda de una IA confiable, tal vez, de manera irónica y extraña, fomentando una IA no confiable sobre una IA confiable (consulte las discusiones de mi columna para obtener una explicación más detallada).

También he sido un firme defensor de lo que me he referido ardientemente como Robots de ángel guardián de IA (ver mi cobertura en el enlace aquí). Este es un método o enfoque próximo para tratar de combatir el fuego con fuego, es decir, usar IA para ayudarnos a lidiar con otra IA que podría o no ser confiable.

Primero, algún contexto de fondo será útil.

Suponga que está optando por confiar en un sistema de IA del que no está seguro de su confiabilidad. Una preocupación clave podría ser que está solo en sus intentos de descubrir si se puede confiar en la IA o no. La IA es potencialmente más rápida computacionalmente que usted y puede aprovecharse de usted. Necesitas a alguien o algo de tu lado para ayudarte.

Una perspectiva es que siempre debe haber un ser humano en el circuito que sirva para ayudarlo mientras utiliza un sistema de IA. Sin embargo, esta es una solución problemática. Si la IA funciona en tiempo real, lo cual discutiremos en un momento cuando se trate de la llegada de los autos autónomos basados ​​en IA, tener un humano en el circuito podría no ser suficiente. La IA podría estar actuando en tiempo real y para cuando un humano designado en el circuito entre en escena para averiguar si la IA está funcionando correctamente, es posible que ya haya ocurrido un resultado catastrófico.

Aparte, esto trae a colación otro factor sobre la confianza. Solemos asignar un nivel de confianza en función del contexto o circunstancia a la que nos enfrentamos. Puede confiar plenamente en que su hijo pequeño o hija le será fiel, pero si está de excursión y decide confiar en el niño pequeño para que le diga si es seguro pisar el borde de un acantilado, creo que sería prudente. para considerar si el niño pequeño puede proporcionar ese tipo de consejo de vida o muerte. El niño puede hacerlo con seriedad y sinceridad y, sin embargo, ser incapaz de dar tal consejo adecuadamente.

La misma noción se asocia con la confianza cuando se trata de IA. Un sistema de IA que esté utilizando para jugar a las damas o al ajedrez probablemente no esté involucrado en ninguna deliberación de vida o muerte. Puedes estar más tranquilo con tu encargo de confianza. Un automóvil autónomo basado en inteligencia artificial que se precipita por una carretera a altas velocidades requiere un nivel de confianza mucho más extenuante. El más mínimo parpadeo del sistema de conducción de IA podría conducir directamente a tu muerte y a la de los demás.

En una entrevista publicada de Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute y autora del libro IA confiable, un énfasis similar en considerar las facetas contextuales de dónde entra en juego la confiabilidad de la IA: “Si está creando una solución de IA que está haciendo diagnósticos de pacientes, la equidad y el sesgo son muy importantes. Pero si está construyendo un algoritmo que predice la falla del motor a reacción, la equidad y el sesgo no son tan importantes. La IA confiable es realmente una estructura para comenzar a pensar en las dimensiones de la confianza dentro de su organización” (VentureBeat, 22 de marzo de 2022).

Cuando se habla de IA confiable, puede interpretar este tema de muchas maneras.

Por ejemplo, IA confiable es algo que todos vemos como un objetivo deseable y aspiracional, a saber, que deberíamos estar deseosos de diseñar y promulgar una IA confiable. Hay otro uso del eslogan. Un uso algo alternativo es que IA confiable es un estado de condición o medida, de modo que alguien podría afirmar que ha creado un sistema de IA que es una instancia de IA confiable. También puedes usar la frase IA confiable sugerir un método o enfoque que pueda usarse para lograr la confiabilidad de la IA. Etc.

En una nota relacionada, confío en que se dé cuenta de que no toda la IA es igual y que debemos tener cuidado de no hacer declaraciones generales sobre toda la IA. Es probable que un sistema de IA en particular sea significativamente diferente de otro sistema de IA. Uno de esos sistemas de IA podría ser altamente confiable, mientras que el otro podría ser marginalmente confiable. Sea cauteloso al asumir de alguna manera que la IA es un monolito que es completamente confiable o no confiable.

Esto simplemente no es el caso.

A continuación, me gustaría cubrir brevemente algunas de mis investigaciones en curso sobre IA confiable que podrían resultar de su interés, cubriendo el rol emergente de Robots de ángel guardián de IA.

Así es como funciona.

Estaría armado con un sistema de IA (un bot ángel guardián de IA) que está diseñado para medir la confiabilidad de algún otro sistema de IA. El bot ángel guardián de IA tiene como objetivo primordial su seguridad. Piense en esto como si tuviera los medios para monitorear la IA en la que confía al tener un sistema de IA diferente en su verdadero bolsillo, tal vez ejecutándose en su teléfono inteligente u otros dispositivos similares. Su guardián proverbial de IA puede calcular sobre la base de que la IA en la que confía también lo hace, trabajando a velocidades rápidas y calculando la situación en cuestión en tiempo real, mucho más rápido de lo que podría hacerlo un humano en el circuito.

A primera vista, podría estar pensando que la IA en la que ya confía debería tener algún interno Barandillas de IA que hacen lo mismo que este bot de ángel guardián de IA que calcula por separado. Sí, eso sin duda sería deseable. Un problema es que las medidas de seguridad de la IA integradas en un sistema de IA pueden estar integral y perjudicialmente alineadas con la IA per se, por lo que la supuesta medida de seguridad de la IA ya no puede, en cierto sentido, verificar o validar la IA de forma independiente.

La idea contrastante es que su bot ángel guardián de IA es un mecanismo de IA independiente o de terceros que es distinto de la IA en la que confía. Se encuentra fuera de la otra IA, permaneciendo dedicado a usted y no dedicado a la IA que está siendo monitoreada o evaluada.

Una forma sencilla de pensar en esto se puede expresar a través de las siguientes declaraciones simplificadas similares a ecuaciones. Podríamos decir que “P” desea potencialmente confiar en “R” para realizar una tarea particular “X”:

Esto sería lo siguiente cuando sólo intervienen personas:

  • La persona P confía en la persona R para realizar la tarea X.

Cuando optamos por confiar en la IA, la declaración cambia a esto:

  • La persona P confía en la instancia R de AI para realizar la tarea X.

Podemos agregar el bot ángel guardián AI diciendo esto:

  • La persona P confía en la instancia R de IA para realizar la tarea X como si estuviera siendo monitoreada por la instancia Z del bot del ángel guardián de IA.

El bot ángel de la guarda de la IA está evaluando incansable e implacablemente la IA en la que confía. Como tal, su práctico guardián de IA podría alertarlo de que la confianza de esta otra IA no está garantizada. O bien, el guardián de la IA podría interactuar electrónicamente con la otra IA para tratar de asegurarse de que cualquier desviación de ser confiable se corrija rápidamente, y así sucesivamente (ver mi cobertura sobre tales detalles en el enlace aquí).

La metáfora del depósito Trusty Trust

Dado que estamos discutiendo diferentes niveles de confianza, puede encontrar útil una metáfora útil sobre la confiabilidad al concebir la confianza como un tipo de depósito.

Tiene cierta confianza en una persona o cosa en particular en una circunstancia particular en un momento particular. El nivel de la confianza subirá o bajará, dependiendo de lo que suceda en relación con esa persona o cosa en particular. La confianza podría estar en un nivel cero cuando no tienes ninguna confianza en la persona o cosa. La confianza puede ser negativa cuando te aventuras a desconfiar de esa persona o cosa.

En el caso de los sistemas de IA, su depósito de confianza para la IA particular en la que confía en una circunstancia particular aumentará o disminuirá dependiendo de su medición de la confiabilidad de la IA. A veces, puede ser muy consciente de este nivel variable de confianza en la IA, mientras que en otros casos puede ser menos consciente y más por intuición al emitir juicios sobre la confiabilidad.

Las formas que hemos estado discutiendo aquí sobre los medios para aumentar los niveles de confianza para la IA incluyen:

  • Adhesión a la ética de la IA. Si la IA en la que confía se diseñó tratando de adherirse a los preceptos de ética de la IA adecuados, presumiblemente usaría este conocimiento para aumentar el nivel de su reserva de confianza para ese sistema de IA en particular. Como nota al margen, también es posible que pueda generalizar a otros sistemas de IA en cuanto a su confiabilidad, aunque esto a veces puede ser una forma engañosa de lo que llamo La IA confía en la expansión del aura (¡Tenga cuidado al hacer esto!).
  • Utilice un Human-In-The-Loop. Si la IA tiene un humano en el circuito, puede aumentar positivamente su confianza percibida en la IA.
  • Establecer leyes y reglamentos. Si existen leyes y regulaciones asociadas con este tipo particular de IA, también podría aumentar su nivel de confianza.
  • Emplear un robot ángel guardián de IA. Si tiene listo un bot ángel guardián de IA, esto también aumentará aún más su nivel de confianza.

Como se mencionó anteriormente, la confianza puede ser bastante frágil y desmoronarse en un instante (es decir, el depósito de confianza rápidamente y de repente se deshace de toda la confianza acumulada).

Imagine que está dentro de un automóvil autónomo basado en IA y la IA que conduce de repente hace un giro radical a la derecha, lo que hace que las ruedas chirríen y casi obliga al vehículo autónomo a volcarse. ¿Qué pasaría con su nivel de confianza? Parecería que incluso si previamente mantuviera la IA en un nivel elevado de confianza, bajaría dramática y abruptamente su nivel de confianza, de manera sensata.

En este momento de esta importante discusión, apuesto a que está deseoso de ejemplos ilustrativos adicionales que puedan mostrar la naturaleza y el alcance de una IA confiable. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA ilustra algo sobre la búsqueda de una IA confiable y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Coches autónomos e IA fiable

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y la IA confiable.

La confianza lo es todo, especialmente en el caso de los vehículos autónomos basados ​​en IA.

La sociedad parece estar observando con recelo la aparición de los coches autónomos. Por un lado, existe una gran esperanza de que el advenimiento de los verdaderos automóviles autónomos reduzca de manera demostrable la cantidad de muertes anuales relacionadas con automóviles. Solo en los Estados Unidos, hay alrededor de 40,000 muertes anuales y alrededor de 2.5 millones de lesiones debido a accidentes automovilísticos, vea mi colección de estadísticas en el enlace aquí. Los humanos beben y conducen. Los humanos conducen mientras están distraídos. La tarea de conducir un automóvil parece consistir en poder concentrarse de manera repetitiva e infalible en la conducción y evitar tener accidentes automovilísticos. Como tal, podríamos soñar con la esperanza de que los sistemas de conducción de IA guíen a los autos autónomos de manera repetitiva e infalible. Puede interpretar los automóviles autónomos como un doble, que consiste en reducir el volumen de muertes y lesiones por accidentes automovilísticos, además de hacer que la movilidad esté disponible de manera mucho más amplia y accesible.

Pero mientras tanto, la preocupación se cierne sobre las percepciones sociales sobre si los automóviles autónomos serán lo suficientemente seguros para estar en nuestras vías públicas en general.

Si incluso un automóvil autónomo sufre un accidente o una colisión que provoca una sola muerte o lesiones graves, es probable que pueda anticipar que la confianza algo acumulada de hoy en día hacia los automóviles sin conductor basados ​​​​en IA se desplomará. Vimos que esto sucedió cuando ocurrió el ahora infame incidente en Arizona que involucró a un automóvil un poco (no realmente) autónomo que atropelló y mató a un peatón (vea mi cobertura en este enlace aquí).

Algunos expertos señalan que es injusto e inapropiado basar la confianza de los autos autónomos de IA en el hecho de que solo uno de esos próximos choques o colisiones que produzcan la muerte podría socavar las pruebas en carreteras públicas que ya están relativamente libres de choques. Además, sobre una base más injusta, lo más probable es que no importa qué marca o modelo de automóvil autónomo de IA en particular se vea envuelto en un incidente lamentable, la sociedad indudablemente culpará a todas las marcas de automóviles autónomos.

La totalidad de los autos que se conducen solos podría verse sumariamente difamado y la industria en su conjunto podría sufrir una gran reacción negativa que llevaría a un posible cierre de todas las pruebas en las vías públicas.

Un contribuyente a tal retroceso se encuentra en las proclamaciones sin sentido de los defensores abiertos de los automóviles autónomos de que todos los automóviles sin conductor serán indestructibles. Esta idea de ser irrompible no sólo es totalmente errónea (ver el enlace aquí), insidiosamente está configurando la industria de automóviles autónomos para un conjunto de expectativas totalmente fuera de control. Estos pronunciamientos extravagantes e inalcanzables de que habrá cero muertes debido a los autos sin conductor están alimentando la idea errónea de que cualquier accidente automovilístico sin conductor es una señal segura de que todo el equipo y el kaboodle no sirven para nada.

Hay una clara tristeza al darse cuenta de que el progreso hacia los autos sin conductor y la acumulación de confianza social, centímetro a centímetro, podrían desaparecer en un instante. Eso va a ser un gran escaparate sobre la fragilidad de la confianza.

Conclusión

Muchos fabricantes de automóviles y empresas de tecnología de conducción autónoma generalmente cumplen con los principios de ética de la IA, y lo hacen para tratar de construir y aplicar una IA confiable en términos de automóviles autónomos basados ​​en IA seguros y confiables. Tenga en cuenta que algunas de esas empresas son más fuertes y más dedicadas a los preceptos de IA ética que otras. También hay nuevas empresas relacionadas con automóviles autónomos marginales o novatos ocasionales que parecen dejar de lado gran parte de los pilares de la ética de la IA (consulte mi reseña en el enlace aquí).

En otros frentes, las nuevas leyes y regulaciones que cubren los autos sin conductor se han ido incorporando gradualmente a los libros legales. Si tienen los dientes necesarios para respaldarlas es un asunto diferente, así como si la aplicación de esas leyes se está tomando en serio o se está pasando por alto (ver mis columnas para análisis sobre esto).

También existe el ángulo de alta tecnología en esto. He predicho que gradualmente veremos variantes de bots de ángel guardián de IA que pasarán a primer plano en el campo de los vehículos autónomos y autos sin conductor. No estamos allí todavía. Esto se volverá más frecuente una vez que la popularidad de los autos sin conductor se generalice.

Este último punto trae a colación una frase famosa sobre la confianza que sin duda ya te sabes de memoria.

Confiar pero verificar.

Podemos permitirnos extender nuestra confianza, quizás generosamente. Mientras tanto, también deberíamos estar alerta como un halcón para asegurarnos de que la confianza que generamos se verifique tanto con las palabras como con los hechos. Confiemos un poco en la IA, pero verifiquemos sin cesar que estamos depositando nuestra confianza de manera adecuada y con los ojos bien abiertos.

Puedes confiar en mí en eso.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/