La ética de la IA y la inoculación psicológica inducida por la IA para ayudar a los humanos con la desinformación

¿Qué vamos a hacer con el exceso masivo de desinformación e información errónea?

Es demostrable que todo está empeorando cada día que pasa.

Quizás la Inteligencia Artificial (IA) pueda venir a nuestro rescate. Sí, así es, podríamos aprovechar los usos beneficiosos de la IA para hacer frente a nuestro implacable tsunami de desinformación y desinformación. Sería prudente intentar hacerlo. Cada vía de solución potencial parecería digna de ser seguida.

Aparte, me gustaría reconocer y señalar de inmediato que la IA, sin duda, va a también ser parte del problema también. No hay duda de que los humanos pueden aprovechar fácilmente la IA para generar desinformación e información errónea. Además, la IA puede usarse de manera insidiosa para hacer que la desinformación y la información errónea parezcan increíblemente válidas y engañar a los humanos haciéndoles creer que la información presentada es seductoramente precisa y fáctica. Un lado de la cara decididamente triste de lo que AI trae a la mesa. Volveremos a este enigma de la desventaja hacia el final de esta discusión.

Por ahora, pongamos nuestras caras sonrientes y exploremos cómo la IA es beneficiosa para poner de rodillas la desinformación y la información errónea. Un trasfondo importante será que todo esto encaja en elementos vitales de la ética de la IA. La cobertura de mi columna sobre la ética de la IA y la IA ética es continua y extensa, e incluye el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Considere estas formas fundamentales en las que la IA puede ser un aliado especialmente útil en la guerra contra la desinformación y la información errónea:

  • Pare en el Get-Go: La IA se puede usar para detectar y tratar de eliminar la desinformación y la información errónea antes de que se suelte.
  • Filtrar antes de visto: La IA se puede usar para filtrar la desinformación y la información errónea para que no tenga que preocuparse por verla.
  • Prepárese para ser inmune: La IA se puede utilizar para reforzar su preparación y capacidad para lidiar con la desinformación y la información errónea (lo que se conoce formalmente como una especie de inoculación psicológica)
  • Otro

El primer punto enumerado implica tratar de detener la desinformación y la información errónea lo antes posible, antes de que el contenido llegue al mundo.

Este es un enfoque muy problemático. Algunos argumentarían a gritos que esto podría ser un intento del Gran Hermano de suprimir la libertad de expresión. ¿Hasta dónde sería capaz de llegar esta IA? ¿Podría impedir que las personas expresen libremente sus puntos de vista? Esto inquietantemente podría convertirse en una pendiente resbaladiza de la IA que finalmente se convierte en la peor pesadilla de resultados malvados que inocentemente comenzaron con las mejores intenciones.

Estoy seguro de que entiendes la imagen.

El segundo punto es un poco más moderado y sugiere que podríamos usar IA para filtrar contenido por nosotros.

Es posible que tenga un bot de filtro de IA que escaneará todas sus fuentes de datos entrantes de varias noticias y otras fuentes. La IA está diseñada para detectar cualquier desinformación o información errónea que se ajuste a sus criterios personales. Por lo tanto, en tal escenario, no es una situación de censura de Gran Hermano. Usted controla la IA y cómo filtra su verdadera bandeja de entrada de información en su nombre.

Suena muy bien.

Sin embargo, hay algunas preocupaciones notables.

Por ejemplo, ya estamos muy polarizados en nuestras opiniones y este uso de la IA podría hacer que esa polarización sea más profunda y oscura. Imagina que con esta ingeniosa IA que funciona sin parar las 24 horas del día, los 7 días de la semana, nunca necesitarás ver un ápice de información que hayas clasificado como potencialmente desinformación y desinformación. Su perspectiva polarizada ahora está casi garantizada para permanecer intacta. Durante todo el día y cada vez que busca echar un vistazo a la información que espera su atención, siempre está completamente preseleccionada y no hay posibilidad de mirar la llamada desinformación y la información errónea.

Yo digo que la desinformación y la desinformación pueden ser así llamado porque existe una enorme cantidad de controversia sobre lo que realmente constituye desinformación y desinformación. Algunos expertos insisten en que existe una base absoluta para determinar qué es desinformación y qué es información errónea. Hay bien y mal. Todo se puede calcular sin errar que algo es o desinformación o desinformación.

No todo el mundo ve las cosas tan claras.

Se dice que el proverbial contraste de dicotomía mutuamente excluyente de encendido o apagado es un estado de ánimo engañoso. La desinformación de una persona podría no considerarse desinformación para otra persona. Lo mismo sobre la desinformación. La afirmación es que la desinformación y la desinformación varían en términos de naturaleza y magnitud. Tratar de clasificar definitivamente toda la información en una pila u otra es mucho más difícil de lo que sugiere agitar la mano.

La esencia es que el segundo punto sobre el uso de IA como mecanismo de filtrado tiene sus ventajas y desventajas. No hay duda de que la IA se utilizará cada vez más para este uso. Al mismo tiempo, debemos ser conscientes de los desafíos que dicha IA traerá a primer plano. La IA como filtro para la desinformación y la información errónea no es una panacea o una volcada.

Eso nos lleva al tercer punto, a saber, la posibilidad de utilizar la IA para que los humanos sean mejores en el manejo de la desinformación y la información errónea.

Dudo que probablemente haya escuchado mucho sobre esta tercera vía de uso de IA en este contexto. Apenas comienza a surgir. Ahora se encuentra en la vanguardia de algo que probablemente crecerá y se pondrá en uso gradualmente. Sin embargo, tenga en cuenta que a medida que esta popularidad se expande, la controversia sobre si es un enfoque adecuado también se volverá muy visible.

Parte del problema es que la IA se está utilizando de alguna manera para lo que algunos llamarían despectivamente jugar juegos mentales con humanos.

Eso parece siniestro.

Esto también nos lleva al ámbito de la ética de la IA.

Todo esto también se relaciona con las preocupaciones emergentes sobriamente sobre la IA de hoy y, especialmente, el uso del aprendizaje automático y el aprendizaje profundo como una forma de tecnología y cómo se está utilizando. Verá, hay usos de ML / DL que tienden a implicar que la IA sea antropomorfizada por el público en general, creyendo o eligiendo asumir que ML / DL es una IA inteligente o cercana (no lo es). Además, ML/DL puede contener aspectos de coincidencia de patrones computacionales que son indeseables o totalmente inadecuados, o ilegales desde el punto de vista ético o legal.

Puede ser útil aclarar primero a qué me refiero cuando me refiero a la IA en general y también proporcionar una breve descripción general del aprendizaje automático y el aprendizaje profundo. Existe una gran confusión en cuanto a lo que connota la Inteligencia Artificial. También me gustaría presentarles los preceptos de la ética de la IA, que serán especialmente integrales para el resto de este discurso.

Declarando el registro sobre la IA

Asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente.

No tenemos esto.

No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como La Singularidad, vea mi cobertura en el enlace aquí).

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de la IA ha hecho un uso extensivo del aprendizaje automático y el aprendizaje profundo, que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Parte del problema es nuestra tendencia a antropomorfizar las computadoras y especialmente la IA. Cuando un sistema informático o IA parece actuar de formas que asociamos con el comportamiento humano, existe una necesidad casi abrumadora de atribuir cualidades humanas al sistema. Es una trampa mental común que puede atrapar incluso al escéptico más intransigente acerca de las posibilidades de alcanzar la conciencia.

Hasta cierto punto, es por eso que la ética de la IA y la IA ética son un tema tan crucial.

Los preceptos de la Ética de la IA nos obligan a permanecer alerta. Los tecnólogos de IA a veces pueden preocuparse por la tecnología, en particular la optimización de la alta tecnología. No necesariamente están considerando las ramificaciones sociales más grandes. Tener una mentalidad de ética de la IA y hacerlo integralmente para el desarrollo y el campo de la IA es vital para producir una IA adecuada, incluida la evaluación de cómo las empresas adoptan la ética de la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales. Ver por ejemplo mi cobertura en el enlace aquí.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone que los desarrolladores de IA deben utilizar esos principios de ética de IA, junto con aquellos que administran los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

Mantengamos las cosas con los pies en la tierra y concentrémonos en la IA computacional no sensible de hoy.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Creo que ahora he preparado el escenario para discutir suficientemente el papel de la IA como un medio para provocar la inoculación psicológica relacionada con el tratamiento de la desinformación y la información errónea.

Entrar en la mente de los humanos

Comencemos con los conceptos básicos o fundamentales que subyacen a la desinformación y la desinformación.

En general, la información errónea se refiere a información falsa o engañosa.

La desinformación es más o menos lo mismo, aunque consiste en el elemento adicional de intención. Normalmente interpretamos la información como desinformación cuando es la información Destinado a desinformar.

Podría decirle que actualmente son las 10 de la noche, lo que digamos que es falso porque en realidad es medianoche. Si te hubiera dicho las 10 en punto como una corazonada y no estaba tratando de engañarte, normalmente diríamos que te había informado mal. Había transmitido información errónea. Tal vez era perezoso o tal vez realmente creía que eran las 10 en punto. Por otro lado, si mencioné las 10 en punto porque intencionalmente quería engañarlos para que pensaran que eran las 10 en punto y que yo sabía que en realidad era medianoche, podría decirse que esto es una forma de desinformación. .

Un aspecto notable de la información en general es que, por lo general, podemos difundir la información y, por lo tanto, la información puede generalizarse un poco. La información puede fluir verdaderamente como el agua, en un sentido amplio.

Te digo que son las 10 de la noche. Ahora tiene esa información en particular. Puede gritarle en voz alta a un grupo de personas cercanas que son las 10 de la noche. Ahora también tienen esa misma información. Tal vez algunas de esas personas tomen sus teléfonos celulares y llamen a otras personas para decirles que son las 10 en punto. En general, la información se puede difundir o compartir y, a veces, se puede hacer de manera rápida, mientras que en otros casos se puede hacer de manera lenta.

En cierto sentido, se podría afirmar que la información puede volverse viral.

Hay una palabra o terminología acuñada que quizás no hayas visto o usado en particular que ayuda a describir este fenómeno de la información que se vuelve viral, la palabra es infodemia. Esta palabra es una mezcla de información y de ser una epidemia. En general, una infodemia se asocia con circunstancias que implican la difusión de información errónea o desinformación. La noción es que la información falsa o engañosa puede volverse viral, de manera indeseable, similar a la propagación indeseable de enfermedades.

En el ejemplo de que eran las 10 de la noche, este hecho aparente era una información que se difundió al grupo de personas cercano. Ellos a su vez difunden el hecho a otros. Si las 10 en punto eran una falsificación, entonces este caso particular de desinformación o desinformación se extendió a muchos otros. Es posible que no sepan que la información era información errónea o posiblemente desinformación.

Confío en que todas estas definiciones y fundamentos parezcan sensatos y que estés de acuerdo hasta ahora.

Genial, continuemos.

Te he conducido algo subrepticiamente a algo que ocupa una gran fascinación y también angustia. La esencia es que podría decirse que existen paralelismos razonablemente sólidos entre lo que las enfermedades hacen viralmente y lo que la información errónea o la desinformación hacen viralmente.

No todo el mundo está de acuerdo con estos supuestos paralelismos. No obstante, son intrigantes y dignos de consideración.

Permíteme elaborar.

Verá, podemos intentar aprovechar la práctica analogía de referirnos a enfermedades transmitidas por humanos y enfermedades que se propagan, haciéndolo para comparar una posibilidad similar con la propagación de información errónea y desinformación. Para tratar de detener la propagación de enfermedades, podemos apuntar a la detección temprana y tratar de contener una fuente de enfermedad emergente que señale la posible propagación de la dolencia. Otro enfoque para lidiar con una enfermedad que se propaga sería evitar contraerla mediante el uso prudente de una máscara o equipo de protección. Un tercer enfoque podría consistir en vacunarse para tratar de desarrollar su inmunidad relacionada con la enfermedad.

Ahora hemos cerrado el círculo en el sentido de que esos mismos enfoques para hacer frente a las enfermedades pueden compararse explícitamente con el tratamiento de la información errónea y la desinformación. Anteriormente mencioné que se están realizando esfuerzos similares para emplear la inteligencia artificial con el fin de tratar de hacer frente a la desinformación y la información errónea, en particular (como se mencionó anteriormente):

  • Pare en el Get-Go: La IA se puede usar para detectar y tratar de eliminar la desinformación y la información errónea antes de que se suelte.
  • Filtrar antes de visto: La IA se puede usar para filtrar la desinformación y la información errónea para que no tenga que preocuparse por verla.
  • Prepárese para ser inmune: La IA se puede utilizar para reforzar su preparación y capacidad para lidiar con la desinformación y la información errónea (lo que se conoce formalmente como una especie de inoculación psicológica)
  • Otro

El tercer aspecto será de mayor interés aquí.

Aquí está el trato.

Sabemos que las enfermedades suelen atacar al cuerpo humano. Con la analogía de cómo se produce la información errónea y la desinformación, podríamos sugerir que la información sucia ataca en el mente humana. Sí, presumiblemente puede entrar en contacto con la desinformación o la información errónea que fluye en su mente. La desinformación o desinformación corrompe o envenena potencialmente tu forma de pensar.

Un cuerpo humano puede vacunarse para tratar de prepararse para entrar en contacto con enfermedades. Surge una gran pregunta sobre si podemos hacer lo mismo con la mente humana. ¿Es posible tratar de inocular la mente para que cuando la desinformación o la información errónea llegue a tu mente, estés listo para ello y hayas sido inoculado en consecuencia?

Un campo de estudio conocido como inoculación psicológica postula que la mente de hecho puede ser inoculada en el sentido de estar preparada para manejar información errónea o desinformación.

Considere esta descripción en un estudio de investigación reciente sobre la inoculación psicológica y lo que a veces se etiqueta como hacer pre-bunking:

  • “Desmentir la información errónea también es problemático porque corregir la información errónea no siempre anula sus efectos por completo, un fenómeno conocido como el efecto de influencia continua. En consecuencia, en contraste con el desmentido, el desmentido previo ha ganado prominencia como un medio para desarrollar de manera preventiva la resiliencia contra la exposición anticipada a la información errónea. Este enfoque generalmente se basa en la teoría de la inoculación. La teoría de la inoculación sigue una analogía de la inmunización médica y postula que es posible generar resistencia psicológica contra los intentos de persuasión no deseados, al igual que las inoculaciones médicas generan resistencia fisiológica contra los patógenos” (Science Advances, 24 de agosto de 2022, "La inoculación psicológica mejora la resiliencia contra la información errónea en las redes sociales" por los coautores Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje y Stephan Lewandowsky).

Volviendo a mi ejemplo de que son las 10 de la noche, supón que te dijera que a veces la hora reclamada no es la hora real. De ahora en adelante tiene una forma de inoculación para tener cuidado con los tiempos reclamados. Esta inoculación los ha preparado para entrar en contacto con tiempos reclamados que son desinformación o desinformación.

Si le hubiera advertido hace varios años que los tiempos reclamados no son tiempos reales, existe la posibilidad de que no piense en esa advertencia de hace mucho tiempo. Por lo tanto, la inoculación anterior ha (digamos) desaparecido. Es posible que deba reforzarse mi vacuna para usted.

También existe la posibilidad de que la inoculación no haya sido lo suficientemente específica para que la use cuando sea necesario. Si le hubiera advertido hace años sobre los tiempos reclamados frente a los tiempos reales, eso podría ser demasiado amplio. Es posible que la inoculación no funcione en el caso específico de que le digan alrededor de las 10 en punto. En ese sentido, tal vez mi inoculación debería haber sido que debe tener cuidado cuando se usa el tiempo declarado de las 10 en punto. Por supuesto, las inoculaciones en el caso de enfermedades son algo similares, a veces son muy específicas para dolencias conocidas mientras que en otros casos son de amplio espectro.

Un estudio de investigación citado con frecuencia realizado en 1961 sobre la inoculación psicológica por William McGuire de la Universidad de Columbia generalmente ahora se considera un clásico en este campo de estudio. Puede que le interesen estos puntos clave que hizo en ese momento:

  • “Tal inmunización generalizada podría derivar de cualquiera de dos mecanismos. La exposición previa puede sorprender a la persona al darse cuenta de que las "objetividades" que siempre ha aceptado son realmente vulnerables, lo que provoca que desarrolle una defensa de su creencia, con el resultado de que es más resistente a los fuertes contraargumentos cuando se presentan. Alternativamente, las refutaciones involucradas en la exposición previa podrían hacer que todos los contraargumentos presentados posteriormente contra la creencia parezcan menos impresionantes” (William McGuire, “Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Alternative Counterarguments). Psicología Social, 1961).

¿Considera que esta analogía de inoculaciones e inmunizaciones es una comparación útil y adecuada con el ámbito de la información errónea y la desinformación?

Algunos lo hacen, otros no.

A los efectos de esta discusión, acepte que la premisa es razonable y adecuada.

¿Cómo vamos a intentar inocular o inmunizar las mentes de las personas?

Podríamos hacer que la gente leyera libros que pudieran iluminar sus mentes. Podríamos contarles al respecto, o pedirles que vean videos o escuchen cintas de audio. Etc.

Y podríamos usar IA para hacer lo mismo.

Se podría diseñar un sistema de IA para que sea su inoculador. Cada vez que comience a conectarse, como mirar Internet, una aplicación basada en inteligencia artificial puede prepararlo para su viaje en línea. La IA podría proporcionarle una pequeña cantidad de desinformación etiquetada como tal, permitiéndole darse cuenta de que está a punto de ver algo que es intencionalmente falso.

Tras la exposición a esta desinformación alimentada por IA, su mente ahora se está preparando para hacer frente a la desinformación o la información errónea que puede encontrar en la naturaleza en Internet. Tu mente ha sido preparada. Voila, ves un blog en Internet que ofrece el hecho de que las criaturas extraterrestres de Marte ya están aquí en la tierra y se esconden a plena vista, pero esta aparente desinformación o información errónea es fácilmente rechazada por tu mente debido a la inoculación previa (bueno, por otra parte, ¡quizás sea verdad y realmente estén aquí!).

De todos modos, espero que ahora pueda discernir cómo es que la IA podría ayudar a inocular o inmunizar a los humanos con respecto a la desinformación o la información errónea.

Se están diseñando varias aplicaciones de IA que funcionarán como inoculadores de desinformación o información errónea. La IA podría buscar proporcionar una inoculación que sea amplia y brinde una apariencia general de inmunización. La IA también podría diseñarse para formas más específicas de inoculación. Además, la IA puede funcionar de forma personalizada, en sintonía con sus necesidades o intereses particulares. La IA avanzada en este espacio también intentará determinar su nivel de tolerancia, tasa de absorción mental, capacidad de retención y otros factores al componer y presentar las llamadas inyecciones de inmunización, por así decirlo.

Parece bastante útil.

AI como jugador de juegos mentales peligrosos

La IA utilizada de esta manera parecería bastante útil a primera vista (oye, lo mencioné hace un segundo).

Hay una gran cantidad de inconvenientes y problemas potenciales que son preocupantes y quizás aterradores.

En mis columnas, a menudo analizo las capacidades de doble uso de la IA; véase, por ejemplo, el enlace aquí. La IA puede ser un contribuyente vital para la humanidad. Por desgracia, la IA también se ve obstaculizada por muchos peligros y trampas desafortunadas.

Para el caso de la IA como inculcador, consideremos estos temas demostrativos relacionados con la ética de la IA:

  • Reacciones adversas de los humanos
  • Reacciones no sensibles de los humanos
  • Error de orientación de la IA
  • Subtargeting de IA
  • Cyber ​​Brecha de la IA
  • Otro

Exploraremos brevemente esas preocupaciones.

Reacciones adversas de los humanos

Supongamos que un ser humano que recibe este tipo de inoculación basada en IA tiene una reacción adversa o produce un efecto adverso.

La persona puede malinterpretar la inmunización y de repente dejar de ser receptiva a cualquier información que reciba. Bloquean toda la información. La IA de alguna manera los ha incitado a tirar al bebé con el agua del baño (un viejo dicho, quizás valga la pena retirarlo). En lugar de solo tratar de lidiar con la desinformación y la información errónea, la persona ha reaccionado decidiendo que toda la información es siempre falsa.

No creo que queramos que la gente se pase de la raya.

Hay una multitud de reacciones adversas que la IA podría fomentar. Esto se debe en parte a cómo la IA intentó realizar la inoculación, pero también tenemos que atribuir parte del problema al ser humano que recibió la inoculación. Es posible que hayan reaccionado de manera salvaje o extraña que otros que recibieron la misma inoculación de IA no lo hicieron.

Nuevamente, puede comparar esto con la analogía de las vacunas para las enfermedades.

En resumen, será importante que cuando se utilicen tales esfuerzos de IA, se hagan de manera responsable que busque minimizar los efectos adversos. También debe haber un aspecto de seguimiento de la IA para tratar de determinar si se ha producido una reacción adversa. Si se detecta una reacción adversa, se debe diseñar la IA para tratar de ayudar a la persona en su respuesta adversa y tratar de superar o aliviar la respuesta.

Reacciones que no responden por humanos

Otra posibilidad es que la inoculación alimentada con IA no tenga impacto en la persona receptora.

Una persona recibe una inoculación basada en IA relacionada con información errónea o desinformación. Mientras que la mayoría de las personas "lo contraen" y se vacunan, seguramente habrá personas que no reaccionarán en absoluto. No aprenden nada de la inoculación. No responden al intento de la IA de inmunizarlos contra todos o ciertos tipos de información errónea o desinformación.

Una vez más, esto es comparable a las inoculaciones para enfermedades.

La IA debe diseñarse para hacer frente a tal circunstancia.

Error de orientación de la IA

Imagine que una IA espera inmunizar a las personas con respecto a un tema en particular que diremos que es el tema X, pero resulta que el tema Y se está cubriendo. La IA está apuntando mal.

Este es un problema doble. En primer lugar, no se ha abordado entonces el tema X como el supuesto y esperado propósito del inoculador de IA. En segundo lugar, el tema Y está cubierto, pero es posible que no hayamos querido que las personas estén inmunizadas sobre ese tema.

Lo sentimos.

Abundan las preguntas. ¿Se podría haber evitado que esto sucediera? Si sucede, ¿podemos deshacer el tema de la inmunización Y? ¿Podemos tratar de cubrir el tema de la inoculación X, o la persona será menos receptiva o no receptiva debido a la mala orientación de la IA originalmente?

Surgen muchas preocupaciones problemáticas.

Subtargeting de IA

Una IA proporciona una inoculación sobre el tema Z. Las personas que reciben la inoculación parecen tener una reacción mínima o casi insignificante. La inoculación fue insuficiente para afianzarse.

Es posible que sienta la tentación de afirmar rápidamente que esto se resuelve fácilmente. Todo lo que tienes que hacer es repetir la inoculación. Tal vez sí tal vez no.

La inoculación de IA puede tener un valor tan limitado que no importa si la gente la experimenta cien veces, el resultado sigue siendo un resultado marginal. Es posible que deba aumentar la inoculación en lugar de simplemente repetirla.

Mientras tanto, imagine que se hace un intento de aumentar la inoculación alimentada con IA, pero esto se va por la borda. La versión potenciada provoca hiperreacciones. Uf, hemos venido de mal en peor.

Incumplimiento cibernético de la IA

Imagine que la IA se está utilizando ampliamente para ayudar a las personas a vacunarse contra la desinformación y la información errónea.

Una dependencia general se apodera de la gente. Saben y esperan que la IA les presente fragmentos que les abrirán los ojos a lo que se conoce como desinformación y desinformación.

Todo está bien y bien, parece.

Un malhechor de alguna manera puede hacer una brecha cibernética en la IA. A escondidas fuerzan en la IA cierta desinformación deseada que quieren que la gente piense que no es desinformación. La IA está diseñada para hacer que la desinformación real parezca información verdadera. Además, la información verdadera se hace aparecer como desinformación.

La gente está completamente loca. Están siendo desinformados por la IA. Además de eso, debido a que se habían vuelto dependientes de la IA, y debido a que confiaban en que la IA estaba haciendo lo correcto, se engancharon, se engancharon y se hundieron por esta IA violada. Sin dudarlo.

Dada la facilidad con la que la desinformación se puede propagar aún más, el malhechor podría disfrutar de que la existencia de este tipo de IA sea su forma más fácil y rápida de hacer que sus insidiosas mentiras circulen por todo el mundo. Irónicamente, por supuesto, haber aprovechado el inoculador de IA para esencialmente propagar la enfermedad.

Conclusión

¿Deberíamos tener IA jugando juegos mentales con nosotros?

¿Podría la IA para la desinformación y la inoculación de información errónea ser un caballo de Troya amenazante?

Puede presentar un caso sustantivo para preocuparse por tal pesadilla.

Otros se burlan de tal posibilidad. Las personas son lo suficientemente inteligentes como para saber cuándo la IA intenta engañarlas. La gente no caerá en ese regate. Solo los idiotas se dejarían engañar por esa IA. Esas son las réplicas y contraargumentos habituales.

No queriendo parecer menos que admirador total de los humanos y la naturaleza humana, simplemente sugeriría que hay amplios indicios de que los humanos podrían caer en la IA que los engaña.

Hay un problema aún mayor que quizás se cierne sobre todo esto.

¿Quién fabrica la IA y cómo decide algorítmicamente la IA qué se considera desinformación e información errónea?

Todo un tiroteo está teniendo lugar hoy en el mundo en general sobre lo que constituye específicamente desinformación y desinformación. Algunos afirman que los hechos son los hechos, por lo que nunca puede haber ninguna confusión sobre qué es la información adecuada frente a la información incorrecta. Aunque a veces el diablo está en los detalles, eso es absolutamente seguro.

Una observación final por ahora. Abraham Lincoln dijo la famosa frase: “Puedes engañar a todas las personas una parte del tiempo y a algunas personas todo el tiempo, pero no puedes engañar a todas las personas todo el tiempo”.

¿Será la IA, que se utiliza para ayudar a inocular a la humanidad contra la desinformación y la información errónea, una herramienta vital para garantizar que no se pueda engañar a todas las personas todo el tiempo? ¿O podría usarse para engañar a más personas la mayor parte del tiempo?

El tiempo lo dirá.

Y eso seguramente no es desinformación o información errónea.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-duced-psychological-inoculation-to-help-humans-with-disinformation/