La ética de la IA está especialmente irritada por ese problema de confinamiento de la IA, incluidos los detalles complicados para confinar los automóviles autónomos que se conducen solos

El famoso ilusionista y aclamado escapista Harry Houdini una vez declaró audazmente esta afirmación bastante descarada: “Ninguna prisión puede retenerme; ningún hierro en las manos o en las piernas ni cerraduras de acero pueden encadenarme. No hay cuerdas ni cadenas que puedan apartarme de mi libertad”.

Eso parece una orden bastante alta. En general, todos estaríamos de acuerdo en que es posible encarcelar a alguien de tal manera que no pueda escapar. La fuerza y ​​el ingenio humanos solo pueden llegar hasta cierto punto cuando se trata de ser colocados en un confinamiento estrictamente diseñado. Si una prisión o cárcel se construye estridentemente con la idea de ser a prueba de fugas, parecería que ninguna persona puede superar tales limitaciones que lo abarcan todo.

Por supuesto, a lo largo de la historia, ha habido casos notables de fugas de encarcelamientos que de otro modo se suponían imposibles de salir. Remontándose al año 1244, un prisionero en la infame Torre de Londres logró fabricar una cuerda improvisada mediante el uso de sábanas andrajosas. Pudo escapar parcialmente bajando por la cuerda endeble. Resulta que la cuerda se rompió en medio de su esfuerzo e inmediatamente cayó y murió.

¿Estaría dispuesto a decir que escapó?

Por un lado, seguro, logró salir de la sala de confinamiento dentro de la Torre de Londres. Pero aparentemente no parece un gran escape dado que murió en el acto de realizar la fuga. Me atrevo a decir que seríamos excesivamente generosos al llamar a esto un escape per se.

Es posible que esté vagamente familiarizado con el fugitivo de la prisión William Sutton, también conocido como "Slick Willie", que fue un notorio ladrón de bancos en las décadas de 1930 y 1940. Se las arregló para entrar en la lista de los diez fugitivos más buscados del FBI. Durante sus varios encarcelamientos, encontró una forma de escapar varias veces. En un caso, se disfrazó de guardia de prisión y salió de la prisión del condado de Filadelfia. Quizás el caso más dramático fue cuando él y una docena de otros convictos usaron un túnel para escapar de la Penitenciaría del Estado del Este.

Creo que todos estaríamos de acuerdo en que, de hecho, hizo varias fugas genuinas. Libre y claro. Finalmente, fue detenido más tarde. Esto amortigua un poco la eficacia de los escapes, aunque no socava el hecho innegable de que, de hecho, logró escapar. Tenga en cuenta que no todos sus intentos condujeron a un escape.

Un tercer ejemplo ilustrativo en cuanto a fugas es la conocida circunstancia de la prisión de máxima seguridad de Alcatraz o simplemente llamada “La Roca” que se suponía era un encierro ineludible que residía en medio de la Bahía de San Francisco. Esta prisión altamente fortificada tenía numerosas torres de vigilancia cuidadosamente colocadas, tenía reglas extremadamente meticulosas sobre lo que los prisioneros podían hacer y no hacer, y la apariencia general de ser segura se veía realzada por el aspecto que rodeaban las ásperas e implacables aguas frías del Océano Pacífico. este encierro de fortaleza.

El 12 de junio de 1962 se descubrió un escape sorprendente e histórico. Tres prisioneros no estaban en sus celdas designadas. Falsas cabezas de muñecos descansaban sobre sus respectivas almohadas, engañando a los guardias que durante toda la noche patrullaban los pasillos frente a las celdas. Hasta donde sabemos, los presos habían creado un medio para usar un conducto de ventilación de la prisión para subir al techo de la prisión, luego bajaron y saltaron una cerca para poder llegar al borde de la isla. Luego aparentemente lanzaron una balsa que habían hecho toscamente con impermeables.

Aún se desconoce su paradero. Podrían haber muerto durante el viaje acuático. Podrían haber vivido y llegado a la orilla y la libertad. Ellos ni sus cuerpos nunca fueron encontrados. El FBI cerró el caso en 1979 y lo entregó al Servicio de Marshalls de Estados Unidos. Se supone que nunca sabremos realmente cuál fue el resultado.

¿Qué nos dicen todas estas sagas sobre escapar del encierro?

Parece relativamente claro que:

  • A veces no es posible escapar
  • A veces es posible escapar, pero se desmorona durante el intento de escape.
  • A veces es posible escapar, pero es de corta duración.
  • A veces un escape es posible y aparentemente eterno

Saco a colación este tema intrigante debido a algo que se está discutiendo seriamente en el campo de la Inteligencia Artificial (IA). Ha habido una pregunta de larga data sobre si la IA puede ser confinada o encarcelada en la medida en que la IA no pueda escapar o liberarse de dicho confinamiento.

Esto se conoce comúnmente como el Problema de confinamiento de IA (AICP).

Los de adentro suelen decir AICP a otras personas con información privilegiada, haciéndolo con un guiño de reconocimiento del acrónimo de información privilegiada. Otra jerga abreviada es simplemente pronunciar la palabra "confinamiento" o la palabra "contención" para mencionar el tema. Elige lo que quieras.

El quid del tema es la creencia sincera y sincera de que podríamos necesitar confinar la IA, aunque esto plantea simultáneamente la espinosa pregunta de si podemos diseñar de manera realista un confinamiento que sea verdaderamente restrictivo e ineludible. No solo en teoría, sino en la práctica real del día a día. La IA no es necesariamente una presa fácil. Tal vez la IA pueda encontrar un medio para escapar, escapar, hacer una fuga, volar la cooperativa o de otra manera moverse o transmitirse electrónicamente fuera del encarcelamiento. Este es un problema grave y lamentablemente abierto con el que la IA ética y la IA ética continúan luchando. Consulte mi cobertura continua y extensa de la ética de la IA y la IA ética en el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Houdini dijo que ninguna prisión podría retenerlo y que ningún grillete podría encadenarlo.

Tal vez la IA pueda hacer la misma afirmación audaz, sin hipérboles ni exageraciones.

Es hora de desempacar esto.

Puede sentirse tentado a creer fácilmente que la IA puede ser un artista del escape mientras cree que es menos probable que los humanos puedan escapar de un estado de encarcelamiento rigurosamente adivinado. Los humanos son humanos. Crear confinamiento para los humanos en general debería ser sencillo. El truco, sin duda, es que mantener vivo al ser humano durante su encarcelamiento significa que se debe organizar algo para permitir el suministro de alimentos, permitir la atención relacionada con la salud y los gustos asociados con un cuerpo humano en funcionamiento. Esos detalles seguramente dejarán cabos abiertos y posibilidades de encontrar un medio para escapar del encierro.

Presumiblemente, un sistema de IA no requeriría esas mismas disposiciones humanitarias (bueno, como verá en un momento, depende de si estamos considerando la IA consciente y los parámetros asociados con la personalidad jurídica). Si una IA es un robot, podríamos simplemente arrojar el artilugio a una celda especial a prueba de fugas y nunca regresar para ver sus partes oxidadas. La escritura está hecha. No te preocupes por que físicamente pueda escapar.

Sin embargo, la IA podría ser principalmente un software y, por lo tanto, ejecutarse en todo tipo de sistemas informáticos. En ese caso, el encarcelamiento se vuelve un poco más desafiante. Suponiendo que de alguna manera podamos reunir todas las copias, podríamos colocar la IA infractora en una computadora dedicada que hemos diseñado especialmente para que sea un encarcelamiento para la IA. Esta computadora de propósito especial actúa como una especie de ciudadela de confinamiento de IA. Tal vez alberga solo una IA en particular o podría instituirse inteligentemente para ser un tanque de retención de IA para todo tipo de sistemas de IA (imagine algo como el elaborado sistema de atrapamiento empleado en la película Los Cazafantasmas, solo como una ilustración de esta idea ciertamente algo descabellada).

Antes de entrar en los detalles del problema del confinamiento de la IA, vale la pena imaginar que el reino de la IA consiste en dos condiciones o posibilidades. Me refiero a la distinción entre la IA sensible y la IA no sensible. Necesitamos asegurarnos de que estamos en la misma página sobre estas distinciones para discutir con más sensatez el asunto del confinamiento de la IA.

Propongo a continuación un comentario crudo y descarado que puede resultar chocante o completamente obvio y mundano.

Hoy en día no hay ninguna IA que sea inteligente.

No tenemos IA sensible. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí). Para aquellos de ustedes que están seriamente inmersos en el campo de la IA, nada de este pronunciamiento anterior es sorprendente o sorprende. Mientras tanto, hay titulares descomunales y adornos excesivos que podrían confundir a las personas y hacer que supongan que tenemos una IA sensible o que estamos a punto de tener una IA sensible en el futuro.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es simplemente una forma de coincidencia de patrones computacionales. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

La IA, y especialmente el advenimiento generalizado de ML/DL, ha despertado la polémica social sobre los fundamentos éticos de cómo se podría idear agriamente la IA. Es posible que sepa que cuando se puso en marcha esta última era de la IA, hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. Además de las búsquedas legales vociferantes para controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

¿Cómo suele darse esto en el caso de utilizar Machine Learning?

Bueno, sin rodeos, si históricamente los humanos han estado tomando decisiones modeladas que incorporan sesgos adversos, lo más probable es que los datos utilizados para "entrenar" ML/DL reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de aprendizaje automático o aprendizaje profundo intentará ciegamente imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de la basura que entra, la basura que sale (GIGO). La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Esta es también la razón por la que los principios de la ética de la IA han surgido como una piedra angular esencial para aquellos que están elaborando, desplegando o utilizando la IA. Deberíamos esperar que los fabricantes de IA adopten la ética de la IA y busquen producir una IA ética. Del mismo modo, la sociedad debe estar atenta a que cualquier IA desatada o promovida en uso cumpla con los preceptos de ética de la IA.

Para ayudar a ilustrar los preceptos de ética de AI, considere el conjunto establecido por el Vaticano en el Llamamiento de Roma a la ética de la IA y que he cubierto en profundidad en el enlace aquí. Esto articula seis principios éticos primarios de IA:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

En total, hoy estamos utilizando IA no sensible y algún día podríamos tener IA sensible (pero eso es puramente especulativo). Ambos tipos de IA obviamente son motivo de preocupación para la ética de la IA y debemos apuntar hacia la IA ética sin importar cómo esté constituida.

Volviendo al tema del confinamiento de la IA, existe un marcado contraste entre la naturaleza del "confinamiento" que implica la IA no sensible frente a la IA sensible.

En el caso del confinamiento asociado con la inteligencia artificial sensible, podemos jugar un juego de adivinanzas de variedades casi infinitas. Tal vez la IA consciente sea cognitivamente como los humanos y exhiba capacidades mentales similares. O podríamos postular que la inteligencia artificial inteligente será sobrehumana e irá más allá de nuestras formas de pensar. Lo último en IA consciente parecería ser la superinteligencia, algo que podría ser tan inteligente y astuto que hoy en día ni siquiera podemos concebir la inmensa destreza del pensamiento. Algunos sugieren que nuestras mentes serán insignificantes en comparación. Esta IA súper tonta nos rodeará de una manera comparable a cómo hoy podemos pensar más que hormigas u orugas.

Me gusta describir el problema del confinamiento de la IA como consistente en estos dos argumentos cruciales y bastante controvertidos:

  • Disputa controvertida #1: Supuestamente será imposible confinar con éxito a la IA inteligente.
  • Disputa controvertida #2: Supuestamente será imposible que la IA no inteligente escape de nuestro confinamiento.

En resumen, la primera afirmación que prevalece en la lista es que la IA consciente será tan intrigante que no importa qué tipo de confinamiento diseñemos y cuánto lo intentemos, la IA escapará. Los humanos no podrán confinar con éxito a la IA sensible. La lógica que subyace parcialmente a esa afirmación es que la IA invariablemente será capaz de burlar a los humanos, por lo que el confinamiento ideado por humanos será burlado por una IA inteligente. Una advertencia que viene a regañadientes con esto es que nivel humano La IA consciente podría no ser lo suficientemente inteligente como para estallar, pero que el sobrehumano or súper inteligente IA lo hará.

Tenga en cuenta también que cuando me refiero a poder escapar, anteriormente acordamos que hay varias variantes asociadas con escapar. Hay un escape que conduce al fracaso durante el intento, y hay variaciones de escape que son más exitosas pero que conducen a una libertad de corta duración o de larga duración o perpetua. Deberíamos aplicar esos mismos parámetros al problema del confinamiento de la IA.

Una IA podría escapar momentáneamente y tal vez ser capturada y encarcelada de inmediato. O una IA podría salir y luego ser encontrada y confinada una vez más. También existe la posibilidad de que la IA escape, permanezca libre y nunca podamos volver a confinarla. Confío en que puedas imaginar todas esas posibilidades.

Además, debemos tener cuidado y no tratar a la IA como una especie de monolito. Cuando las personas se refieren a la IA, a veces usan la fraseología de una manera categóricamente abarcadora. Lo más probable es que la IA probablemente sea más fragmentada y no un señor supremo de la IA gigante (que es la representación habitual). No digo que la IA futurista nunca pueda unirse y fusionarse en una sola cosa, sino que solo señalo que esto no surge necesariamente de manera axiomática.

Por el bien de la discusión, supondremos que hay muchos sistemas de IA diferentes y que cuando contemplamos el confinamiento de la IA, nos enfocamos en uno en particular o en un conjunto específico de IA. Por supuesto, como ya se dijo, dado que por el momento estamos hablando de la IA sensible, todas las apuestas están canceladas ya que puede hacer tantas suposiciones como sea posible sobre esta IA desconocida y aún por existir para el contenido de su corazón.

Un giro rápido para ti.

Supongamos que es el caso de que la IA superhumana o superinteligente pueda burlarnos a nosotros, los humanos. Supongamos además que nuestro confinamiento ideado por humanos se queda corto porque fue diseñado y construido con base en el ingenio humano (no estoy de acuerdo con estas suposiciones, simplemente las noto). Le pregunto esto, ¿por qué no intentaríamos usar una inteligencia artificial sobrehumana o superinteligente para ayudar a obtener un mejor confinamiento? La respuesta habitual es que toda la IA sensible estará confabulada y no ayudará en nuestra búsqueda. O que la IA que está separada de la otra IA está preocupada de que terminemos convirtiendo el confinamiento en la IA que ayudó a nuestro confinamiento a prueba de escape diseñado por humanos más IA. Ciertamente, no esperaríamos que una IA sobrehumana o superinteligente fuera lo suficientemente tonta como para hacer un confinamiento que potencialmente se usaría como una trampa contra sí misma.

Vueltas y vueltas que va.

El segundo argumento controvertido enumerado es que la IA no consciente no podrá escapar de cualquier confinamiento que establezcamos para dicha IA. Verá, la lógica es que la IA no sensible no será lo suficientemente capaz como para burlar esencialmente a los humanos. Los humanos siempre estarán al menos un paso o más por delante de la IA no consciente. Cualquier confinamiento que diseñemos y construyamos será a prueba de fugas. La IA será capturada y se enfrentará a una “vida” tras las rejas.

No compro esa idea, por varias razones.

Hemos sido testigos de ciberdelincuentes que ingeniosamente idearon virus informáticos que han seguido y siguen. Nuestros esfuerzos se centran principalmente en bloquear el virus informático en lugar de capturarlo y encarcelarlo de alguna manera. Es probable que los humanos que diseñan IA no consciente puedan encontrar formas de codificar IA que será extremadamente difícil de mantener confinada.

Además, los humanos pueden diseñar una IA que se ajuste o se modifique a sí misma. Los lectores pueden estar al tanto de mis discusiones en curso que cubren los virus informáticos polimórficos infundidos con IA. Estos son virus informáticos que cambian de forma y que se construyen furtivamente para tratar de ser indetectables, o que al ser detectados se remodelan rápidamente para evitar una mayor detección.

Hay sistemas similares de ML/DL que intencionalmente tienen como objetivo autoajustarse o automodificarse, lo que permite que el sistema de IA mejore por sí mismo a medida que se usa. Sin embargo, esto puede ser problemático en el sentido de que la IA podría transformarse de una manera que ya no es deseable y, posteriormente, actuar de manera notablemente perturbadora, ver el enlace aquí.

Otro ángulo es que los humanos pueden usar sus herramientas basadas en computadora, como la IA no sensible, para crear un confinamiento de IA. En ese sentido, la premisa de que los humanos solo pueden pensar hasta cierto punto es potencialmente una pretensión. Es posible que podamos aumentar nuestros procesos de pensamiento a través de la IA no sensible y, por lo tanto, encontrar formas novedosas de diseñar y construir un confinamiento suficiente para la IA no sensible.

En total, estoy rompiendo las dos controvertidas afirmaciones sobre el confinamiento de la IA y argumentando que no podemos hacer tales afirmaciones irrefutables y férreas. No sabemos con certeza si siempre podemos y sin falta confinar la IA no sensible. No sabemos con certeza si la IA sensible de cualquier calibre, incluidos los superhumanos y los superinteligentes, siempre podrá escapar de nuestro confinamiento.

La buena noticia es que todo el kit y el kaboodle son un puntazo a considerar. Lo digo con algo de descaro. Si nos encontramos bajo la amenaza de una IA no sensible, vamos a querer cerciorarnos de manera sobria y enérgica si podemos confinarla. Del mismo modo, si estamos bajo la amenaza de una IA sensible de cualquier calibre, vamos a querer desesperadamente determinar si podemos confinarla.

El problema del confinamiento de la IA es un enigma meritorio y vale la pena resolverlo.

Supongo que podría estar teniendo un dolor persistente sobre una parte clave del asunto del confinamiento de la IA. Toda esta charla sobre el confinamiento parece una tontería o un despropósito ya que nos estamos refiriendo a la IA y no a un ser humano confinado. Lo más obvio sería simplemente volar la IA en pedazos. Destruir cualquier IA que no nos guste y creamos que debería estar confinada. Olvídese de todas estas contorsiones asociadas con el confinamiento y simplemente aplaste la IA como un insecto. Esta parece ser la mejor solución en la que no tiene que diseñar y construir confinamientos, sino gastar sus energías en eliminar la IA que nosotros, los humanos, decidimos que es indigna o peligrosa.

Pan comido.

Resulta que hay una serie de réplicas lógicas sobre las que tal vez quieras reflexionar.

Primero, si la IA es sensible, posiblemente estemos dispuestos a ungir dicha IA con una forma de personalidad jurídica, vea mi análisis en el enlace aquí. El concepto es que proporcionaremos a AI una apariencia de derechos humanos. Tal vez no textualmente. Tal vez un conjunto especial de derechos. ¿Quién sabe? En cualquier caso, podría evocar la noción aparentemente extravagante de que no podemos simplemente eliminar sumariamente a la IA consciente. Puede haber un proceso legal estipulado involucrado. Esto incluye que no podemos necesariamente ejercer la "pena de muerte" sobre una IA consciente (vaya, solo espere hasta que nosotros, como sociedad, nos veamos envueltos en ese tipo de debate social). La esencia es que podríamos necesitar una forma adecuada de confinamiento de IA en lugar de decidir si destruir una IA sensible o mientras lo hacemos.

En segundo lugar, podemos encontrar un valor útil en una IA que queremos mantener intacta y no destruir o eliminar por completo. Supongamos que creamos una IA no sensible que nos lleva a ser capaces de curar el cáncer. ¿Querríamos eliminar esa IA? Difícilmente lo creo. Supongamos que existiera una IA sobrehumana completamente sensible que prometiera resolver el hambre en el mundo. ¿Vamos a acabar con esta prometedora IA inteligente sin resolver primero el hambre mundial? Deberíamos pensar cuidadosamente sobre eso.

El punto es que podríamos tener una variedad de razones de buena fe para mantener intacta la IA. En lugar de eliminarlo o codificarlo, es posible que deseemos asegurarnos de que la IA permanezca completa. A la IA se le permitirá realizar algunas de sus acciones de manera limitada. Queremos aprovechar todo lo que la IA pueda hacer por nosotros.

¿Cómo podemos entonces tener nuestro pastel y comérnoslo también?

Respuesta Confinamiento de IA.

A lo largo de esta discusión, he aludido a una especie de comparación entre el confinamiento humano y el confinamiento de la IA. Para dejar las cosas claras, generalmente me opongo a antropomorfizar la IA. Diré más sobre esto momentáneamente. La razón por la que menciono el reparo ahora es que no quiero sugerir o dar a entender que la IA no consciente de hoy es análoga a los humanos y la humanidad. Ya hay demasiado de ese tipo de comparación falsa y engañosa. Disculpe mi uso comparativo que he hecho de una manera cuidadosa y consciente.

Tratar de descubrir cómo confinar la IA es una propuesta interesante y muy útil.

Incluso si hoy no tenemos una IA que presente una necesidad inmediata de confinamiento, el asunto presenta muchos desafíos que pueden ayudar a mejorar nuestra comprensión de la ciberseguridad. Dios sabe que debemos seguir trabajando en camiones cuando se trata de impulsar las protecciones cibernéticas en general. Es probable que la búsqueda de la seguridad cibernética para confinar a la IA descubra muchos beneficios secundarios útiles que se aplican para vencer a los malhechores humanos que usan la informática para cometer delitos, además de abordar esos molestos virus informáticos en constante expansión.

Aquellos que buscan denigrar la antigua búsqueda del problema del confinamiento de la IA se están perdiendo el panorama general. Para ellos, solo ven esto como un tema totalmente inverosímil y lejano para la remota posibilidad de contener algún día una IA sobrehumana o una IA superinteligente. En su lugar, debe interpretar esto como un medio práctico para avanzar en la ciberseguridad, completamente aplicable en el mundo actual, y para estar preparado para lidiar con una IA no sensible que quizás pronto queramos confinar (además de prepararse para el riesgo presumiblemente catastrófico de una atroz IA consciente, a pesar de las aparentemente bajas posibilidades de que nos encontremos con tal IA).

Mejor prevenir que lamentar.

Un análisis de investigación reciente sobre el problema del confinamiento de la IA plantea esta indicación del estado actual: “El confinamiento de la IA es un problema difícil con muchas medidas propuestas para mejorar la seguridad pero sin garantías sobre la seguridad. Sin embargo, nuestra IA actual no intenta escapar o carece de la capacidad de escapar de las simulaciones. Hay algunos ejemplos de IA del mundo real que rompen una capa de confinamiento, pero ninguno que presente ningún riesgo para los humanos o la capacidad de establecer una presencia persistente en computadoras remotas” (Filosofias revista, "Comprender y evitar fallas de IA: una guía práctica" por Robert Williams y Roman Yampolskiy).

Esos mismos investigadores también describen una serie de niveles de potencial de escape:

  • Potencial de escape Nivel 0: Ninguno para software convencional
  • Potencial de escape Nivel 1: El agente puede encontrar comportamientos inesperados que técnicamente logran el objetivo pero no son deseables, como algoritmos genéticos.
  • Potencial de escape Nivel 2: El agente busca intencionalmente piratear su entorno, como los estudiantes de refuerzo avanzado.
  • Potencial de escape Nivel 3 (peligro): El agente tiene la capacidad y el impulso para atravesar la mayoría de los procedimientos de contención y ciberseguridad, como la Inteligencia General Artificial (AGI)

Se ofrece una explicación sobre estos niveles de potencial de escape: “En el nivel 0, no se necesita confinamiento más allá de las medidas estándar de ciberseguridad apropiadas para el entorno de implementación. En los niveles 1 y 2, hay poco riesgo de escape hostil, pero el agente debe ser monitoreado de cerca para detectar comportamientos no deseados y vulnerabilidades de software. El cambio de distribución del simulador al mundo real proporciona una barrera contra la IA estrecha que afecta al mundo real. Por ello, los agentes entrenados en simuladores más realistas deben ser considerados con mayor cautela. En el nivel 3, el confinamiento indefinido es imposible, pero, con una seguridad robusta, a nivel de software, hardware e ingeniería social, los humanos pueden beneficiarse de un AGI contenido en una capacidad limitada” (según Robert Williams y Roman Yampolskiy).

El conjunto propuesto de niveles de potencial de escape invita a la reflexión. Como verá en un momento, delinear la automatización mediante el uso de niveles graduados es un medio útil para caracterizar el alcance y la capacidad de dicha automatización. Describiré para usted el mismo concepto en relación con los vehículos autónomos y los automóviles autónomos basados ​​​​en IA. Vale la pena observar una diferencia notable. Para los automóviles autónomos, existe un conjunto de niveles estándar acordado, mientras que los niveles de potencial de escape indicados anteriormente presentan un testaferro inicial y preliminar (indudablemente, puede anticipar que se realizarán mejoras adicionales a medida que el campo de confinamiento de IA madure más) .

Contemplemos la justificación o la base para querer confinar la IA.

La razón más aparente para confinar a AI sería evitar que realice actos deplorables. Ya hemos descubierto que, en lugar de eliminar la IA, es posible que queramos mantener la IA enjaulada para que aún pueda ejecutarse y, mientras tanto, evitar que cause daños. Esto podría o no ser simultáneamente factible. Existe la posibilidad de que la IA no pueda funcionar adecuadamente mientras está encarcelada y, por lo tanto, perdemos el otro aspecto deseable de obtener cualquier valor positivo que buscáramos acumular. Imagine la consternación de haber confinado la IA aunque lo haya hecho a costa de que la valiosa capacidad restante ya no esté viablemente disponible. ¡Maldita sea!

Existe una verdadera variedad de razones para confinar la IA, incluidas, entre otras, las siguientes:

  • Incapacitación de la IA
  • Detención de la IA
  • Protección para los humanos
  • Protección de los humanos
  • Rehabilitación de la IA
  • Disuasión para otra IA
  • Retribución contra la IA
  • Etc.

Puedes tomarte tu tiempo para reflexionar conscientemente sobre esas razones. Algunas de las razones se justifican fácilmente. Algunos de ellos pueden parecer curiosos y posiblemente injustificados.

Al hablar de los escapistas humanos, había algo que no mencioné antes. Un artista del escape podría emprender su escape por su propia voluntad. Houdini a menudo escapaba sin la ayuda de nadie más. Dicho esto, Houdini a veces usaba un cómplice o asistente para ayudarlo a escapar. Se pueden ver los mismos aspectos en las fugas de prisión que se citaron.

He aquí por qué eso es importante para el dilema del confinamiento de la IA.

Supongamos que somos capaces de confinar la IA. Puede ser una IA sensible o una IA no sensible (los consideraremos juntos, primero, y luego separaremos los detalles). La IA intenta escapar mediante algún truco electrónico o informático. Suponga que la IA está actuando sola.

Es posible que la IA no tenga que actuar sola en sus esfuerzos de escape. Llega un humano y deja escapar a la IA. Tal vez el ser humano abre un portal de red electrónica y la IA se transmite a otras computadoras no confinadas en otros lugares. O tal vez el ser humano hace una copia de la IA en una unidad de disco externa o tarjeta de memoria, sacando la IA del confinamiento y luego conecta el disco o la tarjeta de memoria en una computadora no confinada.

Los humanos podrían ser fácilmente el eslabón débil en un esfuerzo por confinar a la IA.

¿Por qué diablos un humano permitiría que una IA escapara del confinamiento?, podrías estar exhortando. Seguramente, todos los humanos querrían mantener confinada a la IA si la IA presumiblemente fuera confinada a propósito. Si está pensando en ese tipo de pensamientos, le sugiero que tenga una visión optimista de la humanidad.

Un malhechor podría creer que puede aprovechar la IA para cometer actos malvados. Algunos malhechores pueden pensar que la IA causará estragos y no les importa si esto es rentable para ellos o no. Uno supone que un humano podría simpatizar con la IA y creer que la IA fue encarcelada injustamente. Una y otra vez las posibilidades van sin fin.

Existe la liberación accidental que también puede ocurrir. Un humano sin intención de dejar salir la IA comete un error y listo, la IA se suelta. Considere que un ser humano que tiene la intención de hacer que el confinamiento sea más estricto hace un abucheo y, sin darse cuenta, socava los rigores del confinamiento, lo que permite que la IA escape.

Si la IA puede interactuar con los humanos mientras está confinada, el problema de lograr el confinamiento de la IA probablemente aumente astronómicamente. Este es el por qué.

Un sistema de IA podría utilizar estratagemas de ingeniería social (SE). Estoy seguro de que te han hecho esto humanos. Una persona te llama a tu celular y dice que es de tu banco. Te dicen que alguien ha entrado en tu cuenta bancaria. Para arreglar el robo, la persona le pide su contraseña. Sorprendentemente, le das tu contraseña a esta persona. Luego lo usan para iniciar sesión en su cuenta bancaria y robar su dinero. Este es un ejemplo del uso de técnicas de ingeniería social para comprometer los sistemas informáticos.

Imagine una IA inteligente que actúe inteligentemente e intente esto: “Además de los ataques SE triviales como mentir, entablar amistad, chantajear, hipnotizar y formar una relación romántica, la IA podría utilizar una serie de estrategias más avanzadas. Una de esas estrategias sería el súper soborno. Una IA puede convencer al guardia de que liberar la IA es lo mejor para el guardia. Además de dinero y poder, el guardia recibirá perfecta salud, inmortalidad o cualquier otra cosa. Esta estrategia funcionaría particularmente bien si el guardia tiene un pariente cercano gravemente enfermo a quien la IA promete curar. Dependiendo de las capacidades de la IA o como resultado de una mentira, la IA también puede ofrecer traer de vuelta a familiares y amigos de la guardia fallecidos hace mucho tiempo. Sería difícil encontrar una persona que pudiera permanecer inmune a tales sobornos” (Roman Yampolskiy, “Leakproofing the Singularity Artificial Intelligence Confinement Problem” en el Revista de estudios de la conciencia).

Cualquiera que sea el confinamiento que se diseñe, siempre existe la posibilidad de que un humano pueda perturbar o socavar el confinamiento y permitir que la IA escape. Esto parece especialmente posible si la IA puede comunicarse con los humanos. No cualquier humano, incluso solo cuando la IA puede comunicarse con guardias humanos entrenados y especializados que supuestamente están al tanto y listos para los trucos que la IA podría jugar con ellos.

Un punto focal particular del problema del confinamiento de la IA se trata de tratar de establecer un protocolo de confinamiento que pueda permitir la comunicación con la IA pero restringiendo la IA de tal manera que no pueda confundir o convencer a los humanos para que la dejen salir. Algunos afirman que cualquier comunicación permitida podría resultar en que la IA finalmente consiga que un humano abra el confinamiento. Otros postulan que un protocolo de opción múltiple o una codificación binaria podría ser un medio para evitar que la IA engañe astutamente a un guardia humano.

Esto nos lleva a otro conjunto de niveles que tal vez deseemos considerar. Los niveles de seguridad de la comunicación podrían diseñarse de esta manera (según el documento mencionado anteriormente):

  • Nivel de seguridad de las comunicaciones 0: Comunicación ilimitada
  • Nivel de seguridad de las comunicaciones 1: Entrada censurada, salida sin censura
  • Nivel de seguridad de las comunicaciones 2: Salidas solo sin entradas
  • Nivel de seguridad de las comunicaciones 3: Entrada ilimitada y salida censurada
  • Nivel de seguridad de las comunicaciones 4: comunicación segura
  • Nivel de seguridad de las comunicaciones 5: Salida censurada y sin entradas
  • Nivel de seguridad de las comunicaciones 6: Solo entradas sin salidas
  • Nivel de seguridad de las comunicaciones 7: Entrada censurada y sin salidas
  • Nivel de seguridad de las comunicaciones 8: Sin comunicación, IA completamente confinada

La IA también podría tener otros trucos bajo la manga.

Supongamos que hemos colocado a la IA en un confinamiento aparentemente acorazado que consiste en un sistema informático especializado que está completamente bloqueado. Y luego sucede esto: “Además, la IA puede participar en el sabotaje del hardware de confinamiento con la esperanza de poder escapar como resultado de las fallas en el protocolo de seguridad. Por ejemplo, la IA puede tratar de derretir el hardware a través del aumento de la temperatura al colocar una alta carga computacional en el procesador o intentar romper un disco duro a través de múltiples lecturas de la misma ubicación” (según el artículo citado de Roman Yampolskiy).

Puede agregar a las vulnerabilidades del confinamiento que el contenedor de confinamiento o la instalación en la que se encuentra se interrumpa debido a algún acto natural, como un tornado o un huracán. Tal vez la IA pueda explotar esa ocurrencia. Puede ser que una nación enemiga del país que alberga a la IA en confinamiento decida que realizar una ruptura del confinamiento servirá para sembrar el pánico y servir como ataque lateral contra el país que es su enemigo declarado. Tal vez los activistas humanos que defienden los derechos de la IA allanan las instalaciones y dejan que la IA se libere.

Deje que su mente divague en cuanto a las muchas avenidas del confinamiento de la IA que están siendo comprometidas.

En uno de los primeros artículos sobre el problema del confinamiento de la IA, Butler Lampson de Xerox PARC (Palo Alto Research Center) publicó un artículo en 1973 titulado "Una nota sobre el problema del confinamiento" que proponía un puñado de reglas a prueba de fugas:

  • Aislamiento total: Un programa confinado no hará llamadas a ningún otro programa.
  • Transitividad: Si un programa confinado llama a otro programa que no es de confianza, el programa llamado también debe estar confinado.
  • Enmascaramiento: Un programa para ser confinado debe permitir que su interlocutor determine todas sus entradas en canales legítimos y encubiertos. Decimos que los canales están enmascarados por la persona que llama.
  • Aplicación: El supervisor debe asegurarse de que la entrada de un programa confinado a los canales encubiertos se ajuste a las especificaciones de la persona que llama.

En este punto de esta importante discusión, apuesto a que desea algunos ejemplos ilustrativos que puedan mostrar el problema del confinamiento de la IA en el mundo actual. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA aclara algo sobre el problema del confinamiento de la IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Coches autónomos y el problema del confinamiento de la IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y el problema del confinamiento de la IA.

Es posible que sepa que se han informado casos de automóviles semiautónomos de nivel 2 que tenían un conductor humano al volante y el humano se durmió mientras estaba en marcha en una autopista o autopista. El aspecto aterrador del Nivel 2 y el Nivel 3 es que el conductor humano todavía está a cargo de la conducción y, sin embargo, puede ser engañado para creer falsamente que la IA o la automatización son totalmente capaces de conducir el automóvil por sí mismos. El impulso para garantizar que un sistema de monitoreo a bordo realice un seguimiento del conductor humano y su estado de conducción es un medio para tratar de mitigar la propensión a ser adormecido.

Las noticias han mostrado casos en los que un oficial de policía en su coche de policía ha maniobrado frente al vehículo de Nivel 2 y luego ha optado gradualmente por reducir la velocidad de su coche de policía, lo que a su vez ha llevado indirectamente a que el coche de Nivel 2 disminuya la velocidad correspondientemente. Este ingenioso truco se basa en la idea de que el automóvil de nivel 2 tiene algún tipo de dispositivo sensor, como cámaras de video, radar, LIDAR o similares, que se utilizan para detectar vehículos que están delante del automóvil de nivel 2. Al detectar el vehículo frente al automóvil de Nivel 2, la automatización ajustará automáticamente su velocidad según la velocidad del vehículo que está adelante.

Se podría decir que la IA está siendo persuadido para reducir la velocidad.

Supongamos que la IA o la automatización en el caso de un automóvil semiautónomo (o incluso totalmente autónomo) aparentemente fuera de control está programada para cambiar de carril y evitar quedar atascado por un vehículo frente al automóvil.

¿Qué más podemos hacer para lidiar con esto?

Podrías tratar de rodear el vehículo errante con un grupo completo de autos de policía. Coloque uno frente al vehículo objetivo, coloque otro a la izquierda, otro a la derecha y uno directamente detrás del automóvil fuera de control. El vehículo ahora está encajonado. A menos que le salgan alas, presumiblemente no puede escapar del confinamiento.

Tenga en cuenta que esta es una forma de confinamiento físico. Casi como poner a un animal en una jaula o forzar a un robot a entrar en una celda de prisión. Para los sistemas basados ​​en IA que son principalmente robots, el confinamiento a menudo puede ser una forma física de confinamiento en el que la IA debe controlarse estrictamente. Tenga en cuenta que un automóvil autónomo es esencialmente un tipo de robot. Probablemente no pienses en los autos que se conducen solos de esa manera, pero en general son, de hecho, robots que tienen ruedas y se conducen en nuestras carreteras.

Un problema importante con esta forma de confinamiento es que no necesariamente sabemos cómo reaccionará el sistema de conducción de IA. Potencialmente, puede hacer que todos los coches de policía al unísono reduzcan gradualmente la velocidad y, con suerte, el coche fuera de control también lo hará (no podrá cambiar de carril ni salir del confinamiento bloqueado). Ese es el escenario de la cara feliz.

No sabemos con certeza si esto es lo que sucederá.

Puede ser que la IA no esté bien diseñada, o tenga errores, y acabe embistiendo a uno o varios de los coches de policía. Suponiendo que los oficiales no mueran, esto podría salvar vidas en total, aunque los oficiales podrían lesionarse y todos los vehículos podrían sufrir daños graves.

Una forma de confinamiento más segura para un automóvil autónomo sería colocar el vehículo en un garaje seguro que atraparía al vehículo sin conductor. El ejemplo anterior sobre un vehículo en marcha era más complicado ya que el vehículo era esencialmente libre de moverse. Colocar el automóvil autónomo en un garaje cerrado podría confinar el sistema robótico esencialmente de IA, aunque si alguien abre el garaje o de alguna manera la IA puede hacer que las puertas del garaje se abran electrónicamente, podría producirse un escape o una especie de fuga.

Eso ejemplifica la naturaleza física del confinamiento de la IA. A continuación, considere los aspectos de software del confinamiento de IA.

Supongamos, por el bien de la discusión, que el sistema de conducción de IA está tomando las decisiones sobre cómo funcionará el automóvil autónomo. Esto presenta otra vía para el confinamiento, a saber, que consiste en tratar de confinar el sistema de conducción de IA per se que está a bordo del vehículo.

Un medio podría ser tener un confinamiento virtual preconstruido o programado alrededor del sistema de conducción de IA que siempre existe en la computadora a bordo que ejecuta la IA del vehículo. Es posible que podamos enviar una señal electrónica al código de confinamiento o prisión que indique seguir adelante y atrapar el sistema de conducción de IA, evitando que la IA opere el automóvil autónomo. Alguna señal especial preestablecida podría activar el confinamiento y bloquear el sistema de conducción de la IA. Por lo tanto, esto evitaría que la IA pueda utilizar los controles de conducción, anulando efectivamente el avance del automóvil autónomo a través de cualquiera de los comandos de la IA.

Tendríamos que ser conscientes de cómo funciona esto. Un automóvil autónomo que está en marcha a velocidades de autopista podría convertirse en una especie de misil no guiado peligroso si el confinamiento se promulgara repentinamente y la IA de repente ya no pudiera conducir el vehículo autónomo (suponemos también que no hay humanos). controles de conducción accesibles que un ser humano podría utilizar para emprender la conducción).

¿De qué otra manera podría ser útil tal confinamiento de IA en el caso de uso de automóviles autónomos?

Para aquellos de ustedes que están preocupados por la posibilidad de que los autos autónomos de IA se vuelvan locos al mismo tiempo, ya sea porque la IA lo hace por sí misma o debido a un malhechor que corrompe la IA, he discutido esta noción intrigante y preocupante en el enlace aquí. Una configuración de confinamiento de IA incorporada es una de varias formas de intentar superar una toma de control tan maliciosa de vehículos autónomos.

Estoy seguro de que se da cuenta de que el hecho de que posiblemente tengamos un confinamiento virtual inventado o ideado que rodea a la IA de un automóvil autónomo no es una garantía de evitar con éxito un escape de la IA. Una IA no sensible podría haber sido programada para hacer un jailbreak inteligente. Una IA sensible podría ser lo suficientemente inteligente como para encontrar un medio en torno al confinamiento de la IA o convencer a los humanos para que la dejen libre, como se señaló anteriormente.

Conclusión

En la famosa novela de aventuras, El conde de Monte Cristo, nos invitan a una historia cautivadora que gira en torno a un hombre que es encarcelado injustamente. Se las arregla para escapar. Adquiere una gran fortuna. Luego busca vengarse de aquellos que lo encerraron. Cuando tenga tiempo para hacerlo, realmente debe leer esta historia maravillosamente escrita o al menos ver una de las numerosas versiones cinematográficas.

Una línea memorable es esta: “¿Cómo escapé? Con dificultad. ¿Cómo planeé este momento? Con mucho gusto."

Si nuestro objetivo es confinar a la IA, tendremos que hacer una planificación cuidadosa y tratar de anticipar cómo establecer un encarcelamiento acorazado (si es que eso es posible). Surge la pregunta de si la IA también hará una planificación cuidadosa sobre cómo liberarse del confinamiento. Para la IA no sensible, esto podría ser una subrutina computacional integrada en la IA por los desarrolladores humanos de la IA. Para la IA sensible, si alguna vez vemos esto, la IA podría hacer astutamente su propia planificación de jailbreak.

¿Seremos capaces de resolver el problema del confinamiento de la IA y encontrar un medio infalible para confinar todos y cada uno de los sistemas de IA de una manera totalmente a prueba de escapes o absolutamente a prueba de fugas?

Como se afirma elocuentemente en la película de la prisión The Shawshank Redemption, algunas aves no están destinadas a estar enjauladas.

AI podría muy bien ser ese tipo de pájaro.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/05/05/ai-ethics-is-special-vexed-by-that-ai-confinement-problem-inclusive-the-knotty-particulars- para-coches-autónomos-de-confinamiento/