La ética de la IA y la ley de la IA sopesan las formas clave de implementar la Declaración de derechos de la IA recientemente publicada, que incluye y sorprendentemente el uso absoluto de la IA

No hay duda de que necesitamos planos en nuestra vida diaria.

Si va a construir esa casa de sus sueños que ha imaginado durante mucho tiempo, sería prudente elaborar primero un plano utilizable.

Un plano muestra de manera tangible y documentada cualquier perspectiva visionaria con los ojos abiertos que pueda estar encerrada en su cabeza. Aquellos que van a ser llamados a construir su preciada granja podrán consultar el plano y precisar los detalles de cómo hacer el trabajo. Los planos son útiles. La ausencia de un modelo seguramente será problemática para abordar cualquier tipo de tarea o proyecto complejo.

Cambiemos este tributo un tanto sentimental pero genuino a los planos al ámbito de la Inteligencia Artificial (IA).

Aquellos de ustedes que se dedican sustancialmente a la IA pueden ser vagamente conscientes de que una importante política orientada proyecto fue lanzado recientemente en los EE. UU. que se relaciona demostrablemente con el futuro de la IA. Conocido informalmente como el Declaración de derechos de IA, el título oficial del libro blanco proclamado es "Plan para una declaración de derechos de IA: hacer que los sistemas automatizados funcionen para el pueblo estadounidense" y está disponible en línea.

El documento es el resultado de un esfuerzo de un año y un estudio atento de la Oficina de Política Científica y Tecnológica (OSTP). La OSTP es una entidad federal que se estableció a mediados de la década de 1970 y sirve para asesorar al presidente de los Estados Unidos y a la Oficina Ejecutiva de los Estados Unidos sobre diversos aspectos tecnológicos, científicos y de ingeniería de importancia nacional. En ese sentido, se puede decir que esta Declaración de Derechos de AI es un documento aprobado y respaldado por la actual Casa Blanca de EE. UU.

La Declaración de Derechos de AI describe la derechos humanos que la humanidad debería tener con respecto al advenimiento de la IA en nuestra vida diaria. Hago hincapié en este punto de peso porque algunas personas al principio estaban perplejas de que tal vez esto fuera algún tipo de reconocimiento de que la IA tiene personalidad jurídica y que esto era una letanía de derechos para la IA sensible y los robots humanoides. No, todavía no hemos llegado. Como verá en un momento, no estamos ni cerca de la IA sensible, a pesar de los titulares que parecen decirnos lo contrario.

Bien, entonces, ¿necesitamos un plan que detalle los derechos humanos en la era de la IA?

Sí, seguramente lo hacemos.

Casi necesitarías estar encerrado en una cueva y no tener acceso a Internet para no saber que la IA ya está invadiendo cada vez más nuestros derechos. Inicialmente, se consideró que la era reciente de la IA era AI para siempre, lo que significa que podríamos usar la IA para el mejoramiento de la humanidad. En los talones de AI para siempre vino la realización de que también estamos inmersos en AI para mal. Esto incluye la IA que se diseña o se modifica a sí misma para que sea discriminatoria y toma decisiones computacionales imbuyendo sesgos indebidos. A veces, la IA se construye de esa manera, mientras que en otros casos se desvía hacia ese territorio adverso.

Para conocer mi cobertura y análisis continuos y extensos de la ley de IA, la ética de IA y otras tendencias tecnológicas y sociales clave de IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Desempaquetando la Declaración de Derechos de la IA

He discutido anteriormente la Declaración de derechos de AI y haré un resumen rápido aquí.

Aparte, si desea conocer mis pros y contras en profundidad de la Declaración de derechos de AI recientemente publicada, detallé mi análisis en una publicación en el Abogado, consulte nuestra página, el enlace aquí. Abogado es un destacado sitio en línea de comentarios y noticias legales, ampliamente conocido como un servicio de noticias legales galardonado impulsado por un equipo global de estudiantes de derecho, reporteros, editores, comentaristas, corresponsales y desarrolladores de contenido, y tiene su sede en la Facultad de Ciencias de la Universidad de Pittsburgh. Law en Pittsburgh, donde comenzó hace más de 25 años. Un saludo al destacado y trabajador equipo de Abogado.

En la Declaración de derechos de AI, hay cinco categorías clave:

  • Sistemas seguros y efectivos
  • Protecciones de discriminación algorítmica
  • Privacidad de datos
  • Aviso y explicación
  • Alternativas humanas, consideración y respaldo

Tenga en cuenta que no los enumeré del uno al cinco, ya que hacerlo podría implicar que están en una secuencia particular o que uno de los derechos es aparentemente más importante que el otro. Supondremos que son cada uno de sus propios méritos. Todos son, en cierto sentido, igualmente meritorios.

Como una breve indicación de en qué consiste cada uno, aquí hay un extracto del libro blanco oficial:

  • Sistemas Seguros y Efectivos: “Debe estar protegido de sistemas inseguros o ineficaces. Los sistemas automatizados deben desarrollarse con la consulta de diversas comunidades, partes interesadas y expertos en el dominio para identificar preocupaciones, riesgos e impactos potenciales del sistema”.
  • Protecciones de discriminación algorítmica: “No se debe enfrentar discriminación por algoritmos y los sistemas deben usarse y diseñarse de manera equitativa. La discriminación algorítmica ocurre cuando los sistemas automatizados contribuyen a un trato diferente injustificado o impactan desfavoreciendo a las personas en función de su raza, color, etnia, sexo (incluido el embarazo, el parto y las afecciones médicas relacionadas, identidad de género, estado intersexual y orientación sexual), religión, edad , origen nacional, discapacidad, condición de veterano, información genética o cualquier otra clasificación protegida por la ley”.
  • Privacidad de datos: “Debe estar protegido contra prácticas abusivas de datos a través de protecciones integradas y debe tener autoridad sobre cómo se utilizan los datos sobre usted. Debe estar protegido contra violaciones de la privacidad a través de opciones de diseño que garanticen que dichas protecciones se incluyan de forma predeterminada, lo que incluye garantizar que la recopilación de datos se ajuste a expectativas razonables y que solo se recopilen los datos estrictamente necesarios para el contexto específico”.
  • Aviso y explicación: “Debe saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que lo impactan. Los diseñadores, desarrolladores e implementadores de sistemas automatizados deben proporcionar documentación en lenguaje sencillo generalmente accesible que incluya descripciones claras del funcionamiento general del sistema y el papel que juega la automatización, aviso de que dichos sistemas están en uso, la persona u organización responsable del sistema y explicaciones de resultados claros, oportunos y accesibles”.
  • Alternativas humanas, consideración y respaldo: “Debería poder optar por no participar, cuando corresponda, y tener acceso a una persona que pueda considerar y solucionar rápidamente los problemas que encuentre. Debería poder optar por no participar en los sistemas automatizados a favor de una alternativa humana, cuando corresponda”.

En general, estas son facetas de los derechos humanos que se han discutido durante bastante tiempo en el contexto de la ética y la ley de la IA. Consulte mi cobertura, como en el enlace aquí. Aparentemente, el libro blanco no saca mágicamente un conejo de un sombrero en cuanto a algún derecho recién descubierto o desenterrado que hasta ahora no se ha dilucidado en un contexto de la era de la IA.

Esta bien.

Se podría afirmar que la compilación de ellos en una colección bien empaquetada y formalizada brinda un servicio vital. Además, al ser ungido como un aclamado Declaración de derechos de IA, esto además pone todo el asunto abierta y hábilmente en la conciencia de la esfera pública. Fusiona una plétora existente de discusiones dispares en un conjunto singular que ahora se puede proclamar y transmitir a todo tipo de partes interesadas.

Permítanme ofrecer esta lista de reacciones favorables a la Declaración de Derechos de AI anunciada:

  • Proporciona una compilación esencial de los principios clave.
  • Sirve como modelo o base para construir sobre
  • Actúa como un llamado a la acción vocalizado.
  • Estimula el interés y muestra que estas son consideraciones serias.
  • Reúne una multitud de discusiones dispares.
  • Impulsa y contribuye a los esfuerzos de adopción de IA ética
  • Indudablemente contribuirá al establecimiento de leyes de IA
  • Otro

También debemos considerar las reacciones menos que favorables, teniendo en cuenta que hay mucho más trabajo por hacer y que esto es solo el comienzo de un largo viaje en el arduo camino de gobernar la IA.

Como tal, las críticas un tanto duras o, digamos, constructivas hechas sobre la Declaración de derechos de AI incluyen:

  • No aplicable legalmente y completamente no vinculante
  • Solo asesoramiento y no se considera política gubernamental
  • Menos completo en comparación con otros trabajos publicados.
  • Consiste principalmente en conceptos amplios y carece de detalles de implementación.
  • Va a ser un desafío convertirlo en leyes prácticas viables reales
  • Aparentemente silencioso sobre el tema inminente de la posible prohibición de la IA en algunos contextos
  • Reconoce marginalmente las ventajas de usar IA bien diseñada
  • Otro

Quizás el comentario mordaz más destacado se haya centrado en el hecho de que esta Declaración de Derechos de AI no es legalmente exigible y, por lo tanto, no tiene agua cuando se trata de establecer objetivos bien definidos. Algunos han dicho que aunque el libro blanco es útil y alentador, definitivamente carece de fuerza. Cuestionan lo que puede resultar de un conjunto de ingeniosos preceptos que se dice que tiene dientes huecos.

Abordaré esos comentarios mordaces en un momento.

Mientras tanto, el libro blanco establece abundantemente las limitaciones de lo que implica esta Declaración de Derechos de AI:

  • “El Plan para una Declaración de Derechos de AI no es vinculante y no constituye una política del gobierno de los EE. UU. No reemplaza, modifica ni dirige una interpretación de ningún estatuto, reglamento, política o instrumento internacional existente. No constituye una guía vinculante para el público o las agencias federales y, por lo tanto, no requiere el cumplimiento de los principios descritos en este documento. Tampoco es determinante de cuál será la posición del gobierno de EE.UU. en cualquier negociación internacional. La adopción de estos principios puede no cumplir con los requisitos de los estatutos, reglamentos, políticas o instrumentos internacionales existentes, o con los requisitos de las agencias federales que los hacen cumplir. Estos principios no pretenden, y no prohíben ni limitan, ninguna actividad legal de una agencia gubernamental, incluidas las actividades de aplicación de la ley, seguridad nacional o inteligencia” (según el libro blanco).

Para aquellos que se han apresurado a socavar la Declaración de Derechos de AI como legalmente no vinculante, hagamos un pequeño experimento mental sobre esa acusación punzante. Supongamos que el libro blanco se publica y tiene toda la fuerza de la ley. Me atrevo a decir que el resultado sería algo catastrófico, al menos en el grado de las respuestas legales y sociales a la proclamación.

Los legisladores estarían indignados de que el esfuerzo no haya llevado a cabo los procesos normativos y los procedimientos legales para elaborar tales leyes. Las empresas se enfurecerían, con razón, de que surjan nuevas leyes sin suficiente notificación y conocimiento de cuáles son esas leyes. Se produciría todo tipo de consternación e indignación.

No es una buena manera de gravitar hacia la reafirmación de los derechos de la humanidad en una era de IA.

Recuerde que anteriormente comencé esta discusión mencionando el valor y la vitalidad de los planos.

Imagínese que alguien se saltó el paso de elaborar planos y saltó de inmediato a construir la casa de sus sueños. ¿Cómo crees que sería la casa? Parece una apuesta justa que la casa no coincida especialmente con lo que tenía en mente. La granja resultante podría ser un completo desastre.

La esencia es que necesitamos planos y ahora tenemos uno para avanzar en la elaboración de leyes juiciosas de IA y potenciar las adopciones éticas de IA.

Por lo tanto, me gustaría abordar las formas en que este modelo de Declaración de Derechos de AI puede convertirse en una casa, por así decirlo. ¿Cómo vamos a utilizar el plano? ¿Cuáles son los siguientes pasos adecuados? ¿Puede este plan ser suficiente o necesita más carne en los huesos?

Antes de pasar a esos asuntos importantes, primero me gustaría asegurarme de que todos estamos en la misma página sobre la naturaleza de la IA y en qué consiste el estado actual.

Dejando las cosas claras sobre la IA de hoy

Me gustaría hacer una declaración extremadamente enfática.

¿Listo para iniciar?

Hoy en día no hay ninguna IA que sea inteligente.

No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre la IA consciente, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Sugiero enfáticamente que mantengamos las cosas con los pies en la tierra y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones de ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

Ahora que he sentado una base útil, estamos listos para profundizar en la Declaración de derechos de AI.

Cuatro formas esenciales de implementar la Declaración de derechos de la IA

Alguien te entrega un plano y te dice que te pongas a trabajar.

¿Que tipo de trabajo hace usted?

En el caso de la Declaración de Derechos de AI como modelo, considere estos cuatro pasos esenciales para avanzar:

  • Servir como insumo para la formulación de leyes de IA: Use el modelo para ayudar a formular leyes de IA, y con suerte lo hará de manera alineada a nivel federal, estatal y local (quizás también ayude a los esfuerzos legales internacionales de IA).
  • Ayuda para que la ética de la IA sea más ampliamente adoptada: Utilice el modelo para fomentar formulaciones de ética de IA (a veces denominadas "leyes suaves" en comparación con "leyes duras" legalmente vinculantes), haciéndolo así para inspirar y guiar a empresas, individuos, entidades gubernamentales y otros grupos hacia una ética mejor y más consistente. resultados de la IA.
  • Dar forma a las actividades de desarrollo de IA: Use el plan para estimular la creación de metodologías de desarrollo de IA y aspectos de capacitación, haciéndolo para tratar de lograr que los desarrolladores de IA y aquellos que trabajan o emplean IA sean más conscientes de cómo diseñar IA de acuerdo con los preceptos de ética de IA deseables y con anticipación. de la inminente promulgación de leyes sobre IA.
  • Motivar el advenimiento de la IA para ayudar a controlar la IA: Use el plan para diseñar una IA que se usará para tratar de servir como control y equilibrio contra otra IA que podría estar virando hacia el territorio adverso. Este es uno de esos puntos de vista macroscópicos en los que podemos usar lo mismo que encontramos aparentemente preocupante para también (irónicamente, se podría decir) ayudar a protegernos.

He discutido cada uno de los cuatro pasos antes mencionados a lo largo de las publicaciones de mi columna.

Para esta discusión en este documento, me gustaría centrarme en el cuarto paso enumerado, a saber, que la Declaración de derechos de la IA puede servir como un motivador hacia el advenimiento de la IA para ayudar a controlar la IA. Este es un paso algo impactante o sorprendente para muchos que aún no se han metido de lleno en este ámbito de avance de la IA.

Permíteme elaborar.

Una simple analogía debería hacer el truco. Todos estamos acostumbrados en estos días a las brechas de seguridad cibernética y los robos de piratas informáticos. Casi todos los días escuchamos o nos vemos afectados por alguna última laguna en nuestras computadoras que permitirá a los malhechores infames arrebatar nuestros datos o colocar una pieza cobarde de ransomware en nuestras computadoras portátiles.

Una forma de luchar contra esos despreciables intentos consiste en utilizar un software especializado que intente evitar esos robos. Es casi seguro que tiene un paquete de software antivirus en su computadora en casa o en el trabajo. Es probable que haya algo similar en su teléfono inteligente, ya sea que se dé cuenta de que está allí o no.

Mi punto es que a veces es necesario combatir el fuego con fuego (vea mi cobertura sobre esto, como en el enlace aquí y el enlace aquí).

En el caso de la IA que aterriza en el reino prohibido de AI para mal, podemos buscar usar AI para siempre que contiende con ese malicioso AI para mal. Por supuesto, esto no es una cura milagrosa. Como saben, existe un juego continuo del gato y el ratón entre los malhechores que buscan ingresar a nuestras computadoras y los avances que se realizan en las protecciones de seguridad cibernética. Es un juego casi interminable.

Podemos usar la IA para tratar de lidiar con la IA que se ha ido por un camino prohibido. Hacerlo ayudará. No será especialmente una bala de plata, ya que la IA adversa a la que se dirige casi seguramente estará diseñada para evitar tales protecciones. Este será un juego continuo de gato y ratón de IA contra IA.

En cualquier caso, la IA que usamos para protegernos proporcionará cierta protección contra la mala IA. Por lo tanto, indudablemente necesitamos diseñar una IA que pueda protegernos o protegernos. Y también deberíamos tratar de diseñar la IA protectora para que se ajuste a medida que se ajusta la IA mala. Habrá una apariencia feroz del gato y el ratón a la velocidad del rayo.

No todo el mundo disfruta con esta ampliación del papel de la IA.

A aquellos que ya perciben a la IA como un conglomerado amorfo homogéneo, se les pondrá la piel de gallina y tendrán pesadillas ante esta jugada fingida de IA contra IA. Si tratamos de enfrentar el fuego contra el fuego, tal vez solo estemos haciendo un fuego aún más grande. La IA se convertirá en una hoguera masiva, una que ya no controlaremos y optará por esclavizar a la humanidad o borrarnos del planeta. Cuando se trata de discutir la IA como un riesgo existencial, generalmente se nos hace creer que toda la IA se unirá, vea mi discusión sobre estos temas en el enlace aquí. Verá, se nos dice que cada pieza de IA se apoderará de sus hermanos IA y se convertirá en una gran familia unitaria de señor supremo.

Ese es el escenario espantoso y decididamente inquietante de la IA sensible como una mafia perfecta de todos para uno y uno para todos.

Aunque puede hacer conjeturas con respecto a que esto podría ocurrir algún día, le aseguro que, por ahora, la IA que tenemos hoy consiste en camiones cargados de programas de IA dispares desconectados que no tienen una forma particular de conspirar entre sí.

Habiendo dicho eso, estoy seguro de que aquellos que creen fervientemente en las teorías de conspiración de la IA insistirán en que dije esto a propósito para ocultar la verdad. ¡Ajá! Tal vez me esté pagando la IA de hoy que ya está planeando la gran adquisición de la IA (sí, señor, me bañaré en riquezas una vez que gobiernen los señores de la IA). O, y ciertamente no estoy a favor de este otro ángulo, tal vez desconozco ciegamente cómo la IA está conspirando en secreto a nuestras espaldas. Supongo que tendremos que esperar y ver si soy parte del golpe de AI o un chivo expiatorio abyecto de AI (ay, eso duele).

Volviendo a las consideraciones terrenales, exploremos brevemente cómo se puede utilizar la IA contemporánea para ayudar a la implementación de la Declaración de Derechos de la IA. Conveniente y sumariamente me referiré a esto como Buena IA.

Usaremos las cinco piedras angulares incorporadas en la Declaración de derechos de la IA:

  • Buena IA para promocionar Sistemas Seguros y Efectivos: Cada vez que está sujeto a un sistema de IA o lo usa, la IA buena intenta averiguar si la IA que se utiliza es insegura o ineficaz. Tras dicha detección, la IA buena podría alertarlo o tomar otras medidas, incluido el bloqueo de la IA mala.
  • Buena IA para proporcionar Protecciones de discriminación algorítmica: Al usar un sistema de IA que podría contener algoritmos discriminatorios, el Buena IA intenta determinar si existen protecciones inadecuadas para usted y busca determinar si realmente existen sesgos indebidos en la IA utilizada. La buena IA podría informarle y también potencialmente denunciar automáticamente la otra IA a varias autoridades, según lo estipulado por las leyes y los requisitos legales de IA.
  • Buena IA para conservar Privacidad de datos: Este tipo de buena IA intenta protegerlo de las invasiones de privacidad de datos. Cuando otra IA busca solicitar datos que tal vez no sean realmente necesarios para usted, la IA buena le informará de la acción de extralimitación. La buena IA también puede potencialmente enmascarar sus datos de una manera que, al ser alimentados a la otra IA, aún conservará sus derechos de privacidad de datos. Etc.
  • Buena IA para establecer Aviso y explicación: Es probable que todos nos encontremos con sistemas de IA que carecen de notificaciones adecuadas y apropiadas y que, lamentablemente, no muestran una explicación adecuada de sus acciones. Una buena IA puede intentar interpretar o interrogar a la otra IA, para identificar potencialmente las notificaciones y explicaciones que deberían haberse proporcionado. Incluso si eso no es factible de hacer en un caso dado, la buena IA al menos lo alertará sobre las fallas de la otra IA y posiblemente informará sobre la IA a las autoridades designadas según las leyes de IA estipuladas y los requisitos legales.
  • Buena IA para ofrecer Alternativas humanas, consideración y respaldo: Suponga que está utilizando un sistema de IA y la IA aparentemente no está a la altura de la tarea en cuestión. Es posible que no te des cuenta de que las cosas se están poniendo feas o que estés algo cauteloso e inseguro sobre qué hacer con la situación. En tal caso, Good AI estaría examinando en silencio lo que está haciendo la otra IA y podría advertirle sobre preocupaciones vitales sobre esa IA. Luego se le pedirá que solicite una alternativa humana a la IA (o la IA buena podría hacerlo en su nombre).

Para comprender mejor cómo este tipo de Buena IA pueden ser desarrollados y presentados, vea mi popular y altamente calificado libro de IA (honrado en decir que ha sido destacado como uno de los "Diez Principales") sobre lo que generalmente me he referido como ángeles guardianes de IA, vea el enlace aquí.

Conclusión

Sé lo que estás pensando. Si tenemos una IA buena diseñada para protegernos, supongamos que la IA buena se corrompe y se convierte en una IA mala. El eslogan latino famoso o infame parece totalmente pertinente a esta posibilidad: ¿Quis custodiet ipsos custodes?

La frase se atribuye al poeta romano Juvenal y se encuentra en su obra titulada Sátiras, y puede traducirse vagamente como el significado de quién vigilará o vigilará a los propios guardias. Muchas películas y programas de televisión como Star Trek han aprovechado esta línea repetidamente.

Eso es seguramente porque es un punto excelente.

Efectivamente, cualquier ley de IA que se promulgue deberá abarcar tanto la IA mala como la IA buena que se estropea. Es por eso que será crucial redactar leyes de IA sensatas y completas. Los legisladores que solo intentan arrojar jerga legal al azar en la pared y esperan que se mantenga con respecto a las leyes de IA se encontrarán profundamente perdiendo el objetivo.

No necesitamos eso.

No tenemos ni el tiempo ni podemos asumir el gasto social para hacer frente a las leyes de IA mal diseñadas. He señalado que, lamentablemente, a veces somos testigos de nuevas leyes relacionadas con la IA que están mal redactadas y repletas de todo tipo de males legales, véase, por ejemplo, mi análisis de sondeo de la ley de auditoría de sesgos de IA de la ciudad de Nueva York (NYC) en el enlace aquí.

Asegurémonos de que usamos adecuadamente el modelo de la Declaración de derechos de la IA que ahora tenemos a mano con respecto a la IA. Si ignoramos el modelo, habremos perdido la oportunidad de haber intensificado nuestro juego. Si implementamos mal el plan, avergüénzanos por haber usurpado una base útil.

El estimado poeta romano Juvenal dijo algo más que podemos aprovechar en esta circunstancia: Anima sana in corpore sano.

Generalmente, esto se traduce en la afirmación de que sería prudente tener tanto una mente sana o sana como un cuerpo sano o sano. Esto nos permite soportar cualquier tipo de fatiga, según Juvenal, y seguramente será el único camino hacia una vida de paz o de virtud.

Es hora de que usemos una mente sana y un cuerpo sano para asegurarnos de que estamos asegurando que la humanidad tenga nuestros derechos humanos preservados y sólidamente fortalecidos en el mundo emergente de la IA omnipresente y, a veces, adversa. Ese es un buen consejo de los romanos que debemos seguir en la prisa de hoy en medio de una época desordenada de IA y un futuro decisivamente lleno de IA buena y mala.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-rights-incluyendo-y-sorprendentemente-mediante-el-uso-de-ai-outrightly/