La ética de la IA y la ley están incursionando en la devolución de la IA o la destrucción total de la IA como remedio para las irregularidades de la IA, posiblemente incluso para el mal comportamiento de los autos sin conductor

Se podría decir que la sociedad parece casi obsesionada con la indestructibilidad.

Nos encantan las películas y las historias de ciencia ficción que muestran superhumanos que son aparentemente indestructibles. Aquellos de nosotros que somos personas comunes no sobrehumanas soñamos con convertirnos mágicamente en indestructibles. Las empresas comercializan productos alegando que sus alardeados productos son supuestamente indestructibles.

El famoso comediante Milton Berle solía contar un chiste bastante divertido sobre artículos supuestamente indestructibles: “Le compré a mi hijo un juguete indestructible. Ayer lo dejó en la entrada. Rompió mi auto”. Esa es una división lateral estruendosa para aquellos que buscan sin cesar descubrir cualquier cosa que pueda ser considerada indestructible de alguna manera.

Menciono este tema bastante fascinante para cubrir un asunto que está aumentando rápidamente como una consideración importante cuando se trata del advenimiento de la Inteligencia Artificial (IA). Plantearé el polémico tema burbujeante como una simple pregunta que quizás sorprendentemente tenga una respuesta bastante compleja.

En resumen, ¿la IA es completamente susceptible a la destrucción o podría haber una IA que aparentemente podría afirmarse que es indestructible o algo así?

Este es un aspecto vital que subyace a los esfuerzos recientes que se ocupan de las ramificaciones legales y éticas de la IA. Legalmente, como verá en un momento, las puertas se abren para usar la destrucción de un sistema de IA como un medio para brindar un remedio legal a la consecuencia de algún error ilegal o no ético pertinente. Tenga en cuenta que el campo de la ética de la IA también está sopesando el uso considerado de la destrucción de la IA o la eliminación comparable de la IA. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Reflexione sobre todo este enigma por un momento.

¿Deberíamos buscar eliminar o destruir la IA?

Y, ¿podemos hacerlo, incluso si quisiéramos hacerlo?

Continuaré y desglosaré el tema controvertido y mostraré algunos ejemplos para resaltar las compensaciones involucradas en este dilema alucinante.

Primero, pongamos algo de lenguaje sobre la mesa para asegurarnos de que estamos cantando la misma melodía. La forma adecuadamente elevada de expresar el tema consiste en indicar que estamos tratando de emprender Degüelle de IA. Algunos también usan indistintamente la noción de Degüelle algorítmico. Por el bien de la discusión en este documento, voy a equiparar las dos frases clave. Técnicamente, puede argumentar de manera persuasiva que no son lo mismo. Creo que la discusión aquí puede ser suficiente borrando modestamente la diferencia.

Dicho esto, es posible que no esté familiarizado en absoluto con la palabra "devolución", ya que generalmente surge en un contexto legal. La mayoría de los diccionarios de derecho describen la "devolución" como el acto de renunciar a algo debido a una demanda o compulsión legal.

Un artículo destacado en el Revista de derecho y tecnología de Yale titulado “Algoritmos y justicia económica: una taxonomía de daños y un camino a seguir para la Comisión Federal de Comercio” por Rebecca Slaughter, Comisionada de la Comisión Federal de Comercio (FTC), describió el asunto de esta manera: “Un remedio innovador que la FTC ha implementado recientemente es el degüelle algorítmico. La premisa es simple: cuando las empresas recopilan datos ilegalmente, no deberían poder beneficiarse ni de los datos ni de ningún algoritmo desarrollado a partir de ellos” (agosto de 2021).

En ese mismo artículo, el punto se enfatiza aún más al destacar algunos casos similares anteriores: “Este enfoque novedoso se implementó más recientemente en el caso de la FTC contra Everalbum en enero de 2021. Allí, la Comisión alegó que la compañía violó sus promesas a los consumidores sobre el circunstancias bajo las cuales implementaría software de reconocimiento facial. Como parte del acuerdo, la Comisión exigió a la empresa que eliminara no solo los datos obtenidos de forma ilícita, sino también cualquier modelo o algoritmo de reconocimiento facial desarrollado con las fotos o videos de los usuarios. La autoridad para buscar este tipo de remedio proviene del poder de la Comisión para ordenar un remedio razonablemente ajustado a la violación de la ley. Este innovador enfoque de cumplimiento debería enviar un mensaje claro a las empresas que participan en la recopilación ilícita de datos para entrenar modelos de IA: no vale la pena”.

Recientemente, han surgido usos adicionales del método de degüelle. Considere este informe de marzo de este año: “La Comisión Federal de Comercio ha luchado a lo largo de los años para encontrar formas de combatir las prácticas engañosas de datos digitales utilizando su conjunto limitado de opciones de cumplimiento. Ahora, ha aterrizado en uno que podría tener un gran impacto en las empresas tecnológicas: la destrucción algorítmica. Y a medida que la agencia se vuelve más agresiva con la tecnología al introducir lentamente este nuevo tipo de sanción, aplicarla en un acuerdo por tercera vez en tres años podría ser la vencida. En una orden de conciliación del 4 de marzo, la agencia exigió que WW International, antes conocido como Weight Watchers, destruyera los algoritmos o modelos de IA que creó utilizando información personal recopilada a través de su aplicación de alimentación saludable Kurbo de niños de hasta 8 años sin el permiso de los padres” (en un artículo de Kate Kaye, 14 de marzo de 2022, Protocolo blog en línea).

Para que no piense que esta idea de devolución es únicamente un punto de vista de los EE. diría que esto seguramente equivale a que la IA esté sujeta a destrucción, eliminación o devolución). Ver mi cobertura en el enlace aquí.

Gran parte de esta conversación sobre la eliminación o destrucción de un sistema de IA generalmente se centra en un tipo particular de IA conocido como Machine Learning (ML) o Deep Learning (DL). ML/DL no es la única forma de crear IA. No obstante, la creciente disponibilidad de ML/DL y su uso ha creado un gran revuelo por ser tanto beneficioso como a veces pésimo.

ML/DL es simplemente una forma de coincidencia de patrones computacionales. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

La IA, y especialmente el advenimiento generalizado de ML/DL, ha despertado la polémica social sobre los fundamentos éticos de cómo se podría idear agriamente la IA. Es posible que sepa que cuando se puso en marcha esta última era de la IA, hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. Además de las búsquedas legales vociferantes para controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

¿Cómo suele darse esto en el caso de utilizar Machine Learning?

Bueno, sin rodeos, si históricamente los humanos han estado tomando decisiones modeladas que incorporan sesgos adversos, lo más probable es que los datos utilizados para "entrenar" ML/DL reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de aprendizaje automático o aprendizaje profundo intentará ciegamente imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de la basura que entra, la basura que sale (GIGO). La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Esta es también la razón por la que los principios de la ética de la IA han surgido como una piedra angular esencial para aquellos que están elaborando, desplegando o utilizando la IA. Deberíamos esperar que los fabricantes de IA adopten la ética de la IA y busquen producir una IA ética. Del mismo modo, la sociedad debe estar atenta a que cualquier IA desatada o promovida en uso cumpla con los preceptos de ética de la IA.

Para ayudar a ilustrar los preceptos de ética de AI, considere el conjunto establecido por el Vaticano en el Llamamiento de Roma a la ética de la IA y que he cubierto en profundidad en el enlace aquí. Esto articula seis principios éticos primarios de IA:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

En un momento, regresaré al tema de Degüelle de IA y señalaré que debemos separar la destrucción o eliminación de IA en dos categorías distintas: (1) IA inteligente y (2) IA no inteligente. Establezcamos un terreno fundamental en esas dos categorías para que estemos listos para involucrarnos más en el asunto de Degüelle de IA.

Tenga muy en cuenta que hoy en día no hay ninguna IA que sea sensible.

No tenemos IA sensible. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí). Para aquellos de ustedes que están seriamente inmersos en el campo de la IA, nada de este pronunciamiento anterior es sorprendente o sorprende. Mientras tanto, hay titulares descomunales y adornos excesivos que podrían confundir a las personas y hacer que supongan que tenemos una IA sensible o que estamos a punto de tener una IA sensible en el futuro.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

En total, hoy estamos utilizando IA no sensible y algún día podríamos tener IA sensible (pero eso es puramente especulativo). Ambos tipos de IA obviamente son motivo de preocupación para la ética de la IA y debemos apuntar hacia la IA ética sin importar cómo esté constituida.

En el caso del Degüelle de la IA asociado con la IA sensible, podemos jugar un juego de adivinanzas de variedades casi infinitas. Tal vez la IA consciente sea cognitivamente como los humanos y exhiba capacidades mentales similares. O podríamos postular que la inteligencia artificial inteligente será sobrehumana e irá más allá de nuestras formas de pensar. Lo último en IA consciente parecería ser la superinteligencia, algo que podría ser tan inteligente y astuto que hoy en día ni siquiera podemos concebir la inmensa destreza del pensamiento. Algunos sugieren que nuestras mentes serán insignificantes en comparación. Esta IA súper tonta nos rodeará de una manera comparable a cómo hoy podemos pensar más que hormigas u orugas.

Si resulta que hay una IA sensible, posiblemente estemos dispuestos a ungir dicha IA con una forma de personalidad jurídica, consulte mi análisis en el enlace aquí. El concepto es que proporcionaremos a AI una apariencia de derechos humanos. Tal vez no textualmente. Tal vez un conjunto especial de derechos. ¿Quién sabe?

En cualquier caso, podría evocar la noción aparentemente provocativa de que no podemos eliminar o destruir sumariamente la IA consciente, incluso si podemos hacerlo tecnológicamente. La IA consciente podría interpretarse como un verdadero organismo vivo en términos de capacidad cognitiva y que tiene un "derecho a vivir" de forma innata (según la definición de estar vivo). En última instancia, podría haber un proceso legal estipulado involucrado. Esto incluye que no podemos necesariamente ejercer la "pena de muerte" sobre una IA consciente (vaya, solo espere hasta que nosotros, como sociedad, nos veamos envueltos en ese tipo de debate social).

Dudo que estemos dispuestos a hacer la misma postura ética de IA para la IA no consciente. Aunque algunos están tratando de afirmar que la IA no consciente de hoy debería clasificarse como una variante asociada con la personalidad jurídica, esta parece ser una batalla cuesta arriba. ¿Se le pueden otorgar derechos legales a una pieza de software contemporáneo que no es sensible a la par de los humanos o incluso de los animales? Seguro que parece una exageración (pero hay defensores que apuntan fervientemente a esto, vea mi cobertura en el enlace aquí).

Esto es lo que todo esto implica.

Suponiendo que no concedamos a la IA no consciente de hoy en día la personificación de la unción legal real de la personalidad, la opción de eliminar o destruir tal IA no sensible sería decididamente no equipararse razonablemente a la destrucción de un organismo vivo. La eliminación de la IA no consciente no es más que eliminar esa aplicación de citas de su teléfono inteligente o borrar esas imágenes sobrantes de su viaje a un bosque del país de las maravillas de su computadora portátil. Puede eliminar o "destruir" esos bits de datos y software sin tener una conciencia culpable y sin haber sobrepasado la ley en términos de haber dañado a una criatura viviente sensible.

Puede suponer que este pronunciamiento resuelve sumariamente el enigma de la vomitación de la IA en lo que se refiere a la IA no consciente.

Lo sentimos, el mundo nunca es tan sencillo como podría parecer inicialmente.

Prepárate para un giro.

Supongamos que creamos una IA no sensible que nos lleva a ser capaces de curar el cáncer. La empresa que había desarrollado la IA hizo algo más que la empresa no debería haber hecho y se ha metido en serios problemas legales con varias autoridades gubernamentales. Como parte de un remedio impuesto a la empresa, la empresa está obligada a eliminar por completo la IA, incluidos todos los datos y la documentación asociados con la IA.

El gobierno reprendió a esa empresa y aseguró que esos malhechores ya no pueden beneficiarse de la IA que habían ideado. Desafortunadamente, al mismo tiempo, tal vez nos hayamos disparado a nosotros mismos porque la IA tenía capacidades que nos estaban llevando a curar el cáncer. Terminamos tirando al bebé con el agua del baño, por así decirlo.

El punto es que podríamos tener una variedad de razones de buena fe para mantener intacta la IA. En lugar de eliminarlo o codificarlo, es posible que deseemos asegurarnos de que la IA permanezca completa. A la IA se le permitirá realizar algunas de sus acciones de manera limitada. Queremos aprovechar todo lo que la IA pueda hacer por nosotros.

Entonces, una regla práctica parecería ser que la noción de Degüelle de AI debe basarse en una apariencia de contexto y sensibilidad en cuanto a cuándo esta forma de remedio es apropiadamente aplicable. A veces puede ser completamente aplicable, mientras que en otros casos no es así. También podría tratar de encontrar formas de dividir la manzana, tal vez conservando una parte de la IA que se consideró beneficiosa mientras busca destruir o eliminar las partes que se consideran dentro del alcance derivado del remedio.

Por supuesto, hacer una eliminación o destrucción poco a poco tampoco es pan comido. Podría ser que la parte que desea conservar esté integrada integralmente en la parte que desea destruir. Tratar de separar los dos podría ser problemático. Al final, es posible que deba abandonar la eliminación y simplemente aceptar permitir que permanezca todo, o puede que tenga que tirar la toalla y destruir todo el kit y el kaboodle.

Todo depende.

Es hora de abordar otra consideración importante.

Hasta ahora hemos cubierto los problemas que subyacen a la base para querer producir un Degüelle de IA. Mientras tanto, acabamos de colarnos en esa discusión sobre el siguiente elemento importante a considerar, es decir, si eliminar o destruir la IA siempre es factible.

En el diálogo anterior, asumimos al pie de la letra que podemos destruir o eliminar la IA si quisiéramos hacerlo. El único giro que se mencionó implicaba tratar de separar las partes de un sistema de IA que queríamos mantener intactas frente a las partes que queríamos eliminar o destruir. Eso puede ser difícil de hacer. Incluso si es difícil de lograr, todavía estaríamos en un terreno relativamente convincente para afirmar que inevitablemente podría lograrse tecnológicamente (podríamos necesitar reconstruir partes que destruimos, volviendo a colocarlas en su lugar para respaldar la otra parte que no hicimos) no quiero destruir).

Cambie ligeramente la perspectiva y reflexione sobre si realmente siempre podemos destruir o eliminar la IA si así lo deseamos. Deje de lado la cuestión de la ética de la IA y concéntrese exclusivamente en la cuestión tecnológica de la viabilidad destructiva (detesto pronunciar las palabras "deje de lado la cuestión de la ética de la IA", ya que la cuestión de la ética de la IA siempre es una consideración vital e inseparable para la IA, pero espero te das cuenta de que estoy usando esto como una forma de hablar con el propósito de llamar la atención solamente, gracias).

Convertiremos esto en dos líneas de razonamiento:

  • Si tenemos un sensible La IA que todos estamos de acuerdo tiene que ser destruida o eliminada, ¿tendríamos tecnológicamente un medio seguro para hacerlo?
  • Si tenemos un no sensible La IA que todos estamos de acuerdo tiene que ser destruida o eliminada, ¿tendríamos tecnológicamente un medio seguro para hacerlo?

Yo diría que la respuesta a ambas preguntas es un "no" calificado (yo estaría más o menos en el terreno tecnológico bastante seguro para decir "no", ya que siempre existe la posibilidad potencial de que podamos no destruir o eliminar la IA, como explicaré a continuación). En esencia, muchas veces la respuesta probablemente sea "sí" en el caso de la IA no sensible, mientras que en el caso de la IA sensible la respuesta es "tal vez, pero nadie puede decir de ninguna manera con seguridad" debido a sin saber qué será la IA consciente o incluso si surgirá.

En el caso de la IA consciente, hay una gran cantidad de teorías fantasiosas que se pueden postular.

Si la IA sensible es sobrehumana o superinteligente, puede intentar argumentar que la IA sería más astuta que nosotros los humanos y no permitiría que la aniquilaran. Presumiblemente, no importa lo que intentemos, esta IA descomunal siempre estará un paso por delante de nosotros. Incluso podríamos tratar de aprovechar alguna instancia amigable para los humanos de esta inteligencia artificial inteligente para destruir otra inteligencia artificial inteligente que de otro modo no podríamos eliminar a través de nuestros propios métodos. Sin embargo, tenga cuidado de que la IA útil más tarde se convierta en malhechor y quedemos a merced de esta IA de la que no podemos deshacernos.

Para aquellos de ustedes que prefieren una versión de cara feliz de la IA inteligente futurista, tal vez teoricemos que cualquier IA inteligente estaría dispuesta a ser destruida y querría hacerlo activamente si los humanos así lo desearan. Esta IA sensible más comprensiva y comprensiva sería capaz de darse cuenta de cuándo es el momento de irse. En lugar de luchar contra su propia destrucción, agradecería ser destruido cuando llegue el momento de tal acción. Quizás la IA haga el trabajo por nosotros y opte por autodestruirse.

La conjetura sobre la inteligencia artificial inteligente puede moverse en cualquier dirección con la que sueñes. No hay particularmente ninguna regla sobre lo que es posible. Uno supone que las realidades de la física y otras limitaciones naturales se harían realidad, aunque tal vez una IA sensible superinteligente conozca formas de superar todo lo que damos por sentado como realidad.

Hablando de realidad, dirijamos nuestra atención a la IA no consciente de hoy.

Es posible que sienta la tentación de creer que siempre podemos optar por destruir o eliminar cualquiera de las IA actuales. Imagine que una empresa ha ideado un sistema de inteligencia artificial que las autoridades gubernamentales ordenan que se desembolse. La empresa está legalmente obligada a destruir o eliminar el sistema de IA.

Parece fácil, simplemente presione un botón de eliminar y ¡puf!, el sistema de inteligencia artificial ya no existe. Hacemos esto con aplicaciones que ya no necesitamos y ya no queremos archivos de datos en nuestras computadoras portátiles y teléfonos inteligentes. No se necesitan conocimientos técnicos especiales de informática. La empresa puede cumplir con la orden regulatoria en minutos.

Podemos analizar las razones por las que esta supuesta facilidad de destrucción o eliminación de AI no es tan sencilla como podría suponer inicialmente.

Primero, una pregunta notable rodea el alcance exacto de lo que significa cuando dice que un sistema de IA debe ser destruido o eliminado. Una faceta es el código de programación que comprende la IA. Otra faceta sería cualquier dato asociado con la IA.

Los desarrolladores de la IA podrían haber generado muchas versiones de la IA mientras la elaboraban. Simplifiquemos las cosas y digamos que hay una versión final del código que es el que se está ejecutando y se ha convertido en el objetivo para ser expulsado. Vale, la empresa elimina esa versión final. ¡La escritura está hecha!

Pero resulta que esas versiones anteriores todavía están sentadas. Podría ser un juego de niños resucitar esencialmente la IA ahora eliminada simplemente usando una de esas versiones anteriores. Toma una versión anterior, realiza modificaciones para ponerla a la par y vuelve a estar en el negocio.

Una forma obvia de tratar de evitar este tipo de borrado sería estipular que todas y cada una de las versiones anteriores de la IA deben ser destruidas. Esto parecería obligar a la empresa a buscar seriamente versiones anteriores y asegurarse de que también se eliminen.

Un giro es que supongamos que la IA contenía una parte significativa del código de fuente abierta ampliamente disponible. Los desarrolladores originalmente habían decidido que para construir la IA no comenzarían desde cero. En cambio, tomaron una tonelada de código de código abierto y lo usaron como la columna vertebral de su IA. No poseen el código fuente abierto. No controlan el código fuente abierto. Solo lo copiaron en su creación de IA.

Ahora tenemos un pequeño problema.

La empresa cumple con la orden de destruir su IA. Eliminan su copia del código y todas las versiones que poseen. Borran toda su documentación interna. Mientras tanto, no pueden deshacerse del código abierto que comprende (digamos) la mayor parte de su sistema de inteligencia artificial, ya que no es algo que posean legalmente y sobre el que no tengan control directo. La firma parece haber hecho lo que podía hacer.

¿Diría que la IA infractora fue de hecho destruida o eliminada?

La firma probablemente insistiría en que lo hicieran. La autoridad gobernante parecería tener dificultades para afirmar lo contrario.

Es posible que puedan resucitar rápidamente la IA simplemente saliendo a tomar el código abierto ampliamente disponible y agregando las piezas haciendo un poco de programación basada en su conocimiento de en qué consistían las porciones agregadas. No usan ninguno de los códigos ofensivos anteriores que habían eliminado por completo. No utilizan ninguna de la documentación que habían borrado. Voila, tienen un "nuevo" sistema de IA que argumentarían que no es la IA que se les ordenó arrojar.

Confío en que puedas ver cómo este tipo de juegos del gato y el ratón se pueden jugar fácilmente.

Hay muchos más giros.

Supongamos que la IA que se va a expulsar se basó en el uso de Machine Learning. El ML podría ser un programa que la empresa desarrolló por su cuenta, pero lo más probable es que en estos días el ML sea un algoritmo o modelo que la empresa seleccionó de una biblioteca o colección en línea (hay muchísimos de estos fácilmente disponibles).

La empresa elimina la instancia del ML que descargó y está usando. El mismo algoritmo o modelo de ML todavía se encuentra en una biblioteca en línea disponible públicamente y es potencialmente accesible para quienes quieran usarlo. Es posible que la autoridad gubernamental no tenga medios para restringir o provocar una devolución de esa biblioteca en línea.

Ese es solo el comienzo de las dificultades que implica destruir o eliminar la IA, incluido, por ejemplo, el uso de Machine Learning. Como se mencionó anteriormente, ML y DL normalmente implican la introducción de datos en el ML/DL. Si la empresa aún tiene los datos que utilizó anteriormente, podría descargar otra copia del algoritmo o modelo ML/DL de la biblioteca en línea y reconstituir la IA introduciendo los datos una vez más en lo que es esencialmente el mismo ML/DL que había usado antes.

Astutamente podría reclamar que la información que la empresa había estado usando también debe incluirse en la orden de devolución. Claro, supongamos que esto es así.

Si los datos están completamente dentro de los límites de la empresa, presumiblemente podrían destruir o eliminar los datos. Problema resuelto, diría uno. Pero supongamos que los datos se basaron en varias fuentes externas, todas las cuales están fuera del alcance de la orden de destrucción, ya que no son propiedad ni están controladas por la empresa infractora.

El quid es que podría obtener copias de los datos de otras fuentes externas, obtener una copia del algoritmo ML/DL y reconstituir el sistema de IA. En algunos casos, esto puede ser costoso de realizar y puede requerir mucho tiempo, mientras que en otros casos puede ser factible en poco tiempo. Todo depende de varios factores, como cuánto necesitan modificarse o transformarse los datos, y lo mismo ocurre con la configuración de parámetros y el entrenamiento del ML/DL.

También debemos considerar en qué consiste el significado de destruir o borrar.

Sin duda, sabe que cuando elimina un archivo o una aplicación de su computadora, lo más probable es que el elemento almacenado electrónicamente aún no se elimine por completo. Por lo general, el sistema operativo actualiza una configuración que indica que el archivo o la aplicación deben interpretarse como eliminados. Esto es conveniente si desea recuperar el archivo o la aplicación. El sistema operativo simplemente puede voltear la bandera para indicar que el archivo o la aplicación que una vez aparentemente se eliminó ahora está activo nuevamente.

Incluso si hace que el sistema operativo realice una eliminación más determinada, existe la posibilidad de que el archivo o la aplicación aún se encuentren en algún lugar. Podría estar en un dispositivo de almacenamiento de respaldo. Podría estar archivado. Si está utilizando un servicio en línea basado en la nube, es probable que las copias también residan allí. No solo necesitaría encontrar todas esas instantáneas, sino que también necesitaría realizar varias acciones de borrado de seguridad cibernética especializadas para tratar de asegurarse de que los bits y bytes de esos archivos y aplicaciones se escriban por completo y, en cierto sentido, realmente se eliminen o destruido.

Tenga en cuenta que acabo de mencionar la noción de una sombra.

Tenemos al menos tres tipos de sombras en las que pensar cuando se trata de la devolución de la IA:

1) Copias de sombra de la IA

2) Algoritmos de sombra asociados con la IA

3) Datos ocultos asociados con la IA

Imagine que una orden de devolución de IA le indica a una empresa que proceda a destruir o eliminar los datos asociados con la IA, pero la empresa puede mantener el algoritmo (quizás permitiéndolo si el algoritmo aparentemente no es más que uno que puede encontrar en cualquier biblioteca ML en línea de todos modos).

Resulta que esencialmente se puede decir que el algoritmo en sí mismo tiene su propio tipo de datos, como configuraciones particulares que sustentan el algoritmo. El esfuerzo para entrenar el ML generalmente implicará que el ML descubra qué configuraciones de parámetros deben calibrarse. Si solo se le ordena deshacerse del conjunto de datos de entrenamiento per se, es probable que esas otras configuraciones de parámetros relacionadas con los datos permanezcan. Esto sugiere que la IA se puede reconstituir fácilmente, o incluso podría argumentar que la IA no se eliminó en absoluto y simplemente se deshizo de los datos de entrenamiento utilizados anteriormente que quizás ya no le interesen de todos modos. También hay una alta probabilidad de que una forma de pie de imprenta restos de los datos de entrenamiento, que he discutido en el enlace aquí.

Deshacerse de los datos de entrenamiento también puede ser un desafío si los datos provienen de una variedad de fuentes de terceros. Claro, es posible que pueda obligar a la empresa a eliminar su instancia interna de los datos compilados, pero si los datos existen en esas otras fuentes más allá de su alcance, es probable que se vuelvan a ensamblar los mismos datos. Esto puede ser costoso o puede ser económico, dependiendo de las circunstancias.

A lo largo de esta discusión, nos hemos centrado en la noción de que una empresa en particular sea el objetivo para llevar a cabo una devolución de IA. Esto podría ser satisfactorio y servir como un remedio apropiado asociado con esa empresa. Por otro lado, esto no necesariamente va a erradicar o destruir de alguna manera la IA tal como podría existir o reconstituirse más allá del alcance de la empresa objetivo.

La IA puede copiarse en miles de millones de otros sitios en línea a los que la empresa no tiene medios para acceder y no puede forzar la eliminación. La IA puede ser reconstruida desde cero por otros que conocen cómo funciona la IA. Incluso podría tener exempleados de la empresa que dejen la empresa y opten por reutilizar sus habilidades de desarrollo de IA para construir esencialmente la misma IA en otro lugar, lo que argumentarían que se basa en sus conocimientos y habilidades, por lo que no son infractores ni están sujetos. copia de la orden de degüelle de AI.

Una analogía quizás adecuada para los problemas de expulsión de la IA podría ser la llegada de los virus informáticos.

Las posibilidades de cazar y eliminar todas las copias de un virus informático viral son generalmente escasas, especialmente debido a las cuestiones legales de dónde podría residir el virus (por ejemplo, a través de las fronteras internacionales) y el engaño tecnológico del virus informático que intenta esconderse ( He discutido la aparición de virus informáticos polimórficos basados ​​​​en IA que son cambiaformas electrónicos autoadaptables).

Además, para agravar los desafíos, siempre existe la supuesta capacidad de construir el mismo virus informático o aproximadamente equivalente por parte de aquellos que están bien versados ​​​​en el diseño y la elaboración de virus informáticos en total.

AI Disgorgement es una idea aparentemente útil y una herramienta potencialmente viable, pero el diablo está en los detalles.

En este momento de esta importante discusión, apuesto a que desea algunos ejemplos ilustrativos que puedan mostrar la aplicabilidad de AI Disgorgement en el mundo actual. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA aclara algo sobre la aplicabilidad de AI Disgorgement y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Coches autónomos y degüelle de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y el degüelle de la IA.

Una empresa está desarrollando un automóvil autónomo basado en inteligencia artificial y opta por utilizar las vías públicas para realizar pruebas del vehículo autónomo. Por un tiempo, los autos sin conductor presentados están funcionando bien. La gente va a dar paseos en la flota. Todo parece bien.

Desafortunadamente, uno de los autos sin conductor embiste a un ciclista. Los líderes locales de la ciudad y la población en general están bastante molestos. Dos días después, otro ciclista es embestido por otro de los coches autónomos de esta misma flota. Un alboroto vitriólico asegura. Para escenarios similares que potencialmente enfrentarán algún día los líderes y las comunidades de la ciudad, consulte el estudio del que soy coautor con un miembro de la facultad de Harvard en el enlace aquí.

Una autoridad gubernamental declara que la empresa se verá obligada a promulgar una devolución de AI. El sistema de conducción de IA se eliminará o destruirá por completo. Como nota al margen, este es un escenario algo artificial ya que habría otras opciones de lo que podría hacerse y presumiblemente esas serían consideradas primero. La eliminación de la IA parecería ser el último recurso y, sin duda, la empresa de automóviles autónomos lucharía legalmente con estridencia. Acepte la configuración imaginada con el fin de concentrarse en cómo se podría promulgar la devolución de la IA.

Supongamos que la empresa accede a realizar el degüelle de AI. Continúan y eliminan la última copia del sistema de conducción AI. La escritura está hecha.

Bueno, como se identificó anteriormente, la escritura aún no está completa. La firma elimina todas las versiones anteriores del sistema de conducción AI. Examinan los servidores de la empresa y eliminan copias allí. Examinan los servidores basados ​​en la nube y eliminan las copias allí. Van a sus copias de seguridad y archivos y los eliminan. Piden que el proveedor de la nube haga lo mismo con cualquier copia de seguridad o archivo en la nube que contenga el código del sistema de conducción de IA.

¿Terminamos?

Nop.

Se utilizaron muchos datos para entrenar el sistema de conducción de IA. Se utilizaron grandes almacenes de datos recopilados que contenían videos e imágenes de escenas de carreteras para entrenar el sistema de conducción de IA. Esos son encontrados y eliminados. Una gran cantidad de otros archivos de datos fueron parte integral del diseño del sistema de conducción de IA. Esos también son descubiertos y eliminados. Las copias de seguridad y los archivos se desenterran y también se eliminan.

La devolución de IA incluyó todos los programas, datos y documentación de IA. Entonces, la compañía intenta descubrir toda la documentación en línea y elimina esos documentos, incluidas las copias de seguridad, los archivos y similares. Además, se solicita a los desarrolladores de IA y otras personas involucradas en el sistema de conducción de IA que proporcionen sus notas escritas a mano. Luego se trituran y se tiran a la basura.

Vaya, la IA ya no existe.

Mas o menos.

El sistema de conducción de IA se basó en un código de fuente abierta fácilmente disponible. La empresa no tiene la capacidad de eliminar o destruir el código abierto per se (solo pueden hacerlo por las copias que tenían). También hay un componente ML/DL del sistema de conducción AI. Este ML/DL se basa en algoritmos con licencia en una biblioteca basada en la nube. La empresa solo puede eliminar las instancias que creó y no tiene forma de competir con la biblioteca basada en la nube. Los datos de capacitación que se usaron para el ML/DL consisten en videos e imágenes que se encuentran fácilmente en otros sitios web y en conjuntos de datos especializados disponibles abiertamente.

En términos de la documentación eliminada sobre el sistema de conducción de IA, esto funcionó bien en general, aunque es probable que todavía haya documentos aquí o allá que algunos de los desarrolladores de IA tienen en sus computadoras portátiles personales y no confesaron tener. En cualquier caso, los desarrolladores de IA saben en qué consiste la IA y pueden pasar rápidamente a otra empresa de automóviles autónomos para aprovechar su experiencia allí.

Poco después de este abandono de la IA, una empresa competidora que contrató a esos ex empleados esencialmente reconstituyó el sistema de conducción de la IA. No copiaron la IA arrojada. En su lugar, reconstruyeron la IA de forma independiente utilizando el código fuente abierto, las bibliotecas ML/DL y los conjuntos de datos disponibles abiertamente.

Supongo que se podría decir, uno menos y faltan más, al menos desde una perspectiva potencial de Degüelle de IA.

Conclusión

Aunque el ejemplo sugiere que la devolución de la IA se puede superar, no descarte este medio potencial de remedio para los errores de la IA. Algunos argumentarían que el uso de AI Disgorgement se verá como una forma visiblemente potente de convencer a otras empresas de que deben ser más conscientes en la forma en que diseñan e implementan su IA. Podrían perder su olla de oro, por así decirlo. Esta es una herramienta útil en el arsenal de cumplir con la ética de la IA y diseñar una IA ética.

Otros claman que el Degüelle de la IA podría sofocar la innovación en el avance y uso de la IA. Quizás los desarrolladores de IA duden en estirar el sobre si saben que algún día su IA podría eliminarse esencialmente. Esa sería una píldora difícil de tragar para aquellos que dedicaron años de sangre, sudor y lágrimas para crear la IA.

Numerosas otras compensaciones se intercambian. Tal vez un proveedor de la competencia trataría de obtener una autoridad gubernamental para socavar la competencia incitando a la agencia a usar AI Disgorgement contra otras empresas en su misma industria. Y piense también en el costo que implica tratar de cumplir con tal orden. No solo hay un botón rojo que puede presionar para realizar toda la eliminación y destrucción de la IA. Es posible que se requiera mucha mano de obra costosa y podría llevar semanas o meses llevar a cabo.

El tiempo dirá si este medio emergente de hacer frente a la IA ganará terreno o se quedará en el camino.

¿Esta sustanciosa discusión sobre el degüelle de la IA implica que la IA es potencialmente indestructible?

Se podría afirmar que la fraseología de ser destructible o indestructible es algo nebulosa cuando se refiere a algo que es principalmente electrónico. Un ser humano no es indestructible porque obviamente podríamos encontrar un medio para destruir la forma física humana. Lo mismo podría decirse de casi cualquier cosa que adquiera una manifestación física convencional. No me adentraré en las teorías filosóficas metafísicas de que nada se destruye realmente y que toda la materia simplemente se reconstituye en diferentes formas y, sin embargo, aún existe (puedes explorar esa elevada teorización si lo deseas).

Dada la naturaleza omnipresente de la informática actual y el uso probablemente cada vez mayor de la informática, como el Internet de las cosas (IoT), hay muchos, muchos lugares para que se esconda una IA basada en la electrónica. Para la IA no consciente de hoy, la IA puede estar oculta por aquellos humanos que desean ocultarla, o programada para ocultarse por aquellos humanos que desarrollaron la IA. Dios sabe lo que podría hacer la IA inteligente.

Si un sistema de IA puede fácilmente hacer copias de sí mismo y ocultar esas copias y, en última instancia, no ser atrapado, ¿estaría dispuesto a decir que esto ejemplifica una apariencia de indestructibilidad?

Algunos argumentarían que a pesar de la posibilidad de golpear un topo, al final, podría destruir o eliminar la IA siempre que pueda encontrar y eliminar con éxito cada instancia que aparezca o reaparezca. Ergo, la IA no es indestructible. Otros replicarían que una IA escondida es ostensiblemente indestructible porque puede seguir desovando y la escurridiza táctica del gato y el ratón podría durar casi para siempre. Siempre se enfrentará a la siguiente instancia que aún no ha aplastado.

Me viene a la mente una cita célebre: “Nunca nací y nunca moriré; No lastimo y no puedo ser lastimado; Soy invencible, inmortal, indestructible” (por el destacado escritor y periodista Aravind Adiga).

¿Podría eso ser aplicable a la IA?

Aquellos que se preocupan por la inteligencia artificial superinteligente sensible aparentemente dirían que podría.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/05/09/ai-ethics-and-the-law-are-dabbling-with-ai-disgorgement-or-all-out-destruction- de-ai-como-remedio-para-ai-irregularidades-posiblemente-incluso-para-portarse-mal-auto-coches/