¿Puede Elon Musk tener éxito en el desarrollo de la imitación generativa de chatGPT de IA "TruthGPT" que sería estoicamente veraz en todo momento?

Hay un golpe en la puerta de la cabina.

¿Deberíamos abrir la puerta?

Las películas generalmente sugieren que no debemos dejar que nuestra curiosidad nos supere, es decir, absolutamente nunca debemos abrir la puerta. Bueno, dicho esto, optar por dejar la puerta cerrada no parece ser una historia que valga la pena. Parece que nos atrae la emoción y lo desconocido.

Entonces, sigamos adelante y abramos la puerta.

En este caso particular, me refiero a algunos rumores emergentes dentro del campo de la Inteligencia Artificial (IA) que presagian buenos tiempos por venir o el peor de los tiempos para todos nosotros. La situación implica potencialmente el futuro de la IA. Y uno podría especular solemnemente, ergo, que el futuro de la IA abarca repercusiones bastante dramáticas, incluida la configuración ostensible del futuro de la sociedad y el destino de la humanidad.

Aquí está el trato.

Según informes de noticias recientes, Elon Musk, a veces la persona más rica del mundo, ha estado buscando investigadores de inteligencia artificial de primer nivel para unirse a una nueva empresa de inteligencia artificial que tiene en mente. Varios desarrolladores de IA y científicos de IA están siendo abordados en silencio. El golpe en su puerta aparentemente ofrece una gran promesa y noticias potencialmente lucrativas.

Se dice que la supuesta esencia de la iniciativa de IA que aún no se ha revelado es una imitación del ampliamente popular ChatGPT que OpenAI lanzó en noviembre. Es casi seguro que haya oído o visto titulares a todo volumen sobre ChatGPT. Estaré explicando momentáneamente más sobre lo que es ChatGPT. También debe saber que ChatGPT es un ejemplo de un tipo de IA conocido como IA generativa. Hay muchas aplicaciones generativas de inteligencia artificial flotando en estos días. ChatGPT pasa a ser uno con el perfil público más alto y aparentemente es conocido por todos, incluso quizás por aquellos que de alguna manera viven en una cueva.

Aquí hay un ejemplo de los informes sobre esta saga semi-secreta que emerge rápidamente:

  • “Elon Musk se acercó a los investigadores de inteligencia artificial en las últimas semanas para formar un nuevo laboratorio de investigación para desarrollar una alternativa a ChatGPT, el chatbot de alto perfil creado por la startup OpenAI, según dos personas con conocimiento directo del esfuerzo y una tercera persona informada. en las conversaciones” (La información, “Fighting 'Woke AI,' Musk Recruits Team to Develop OpenAI Rival”, Jon Victor y Jessica E. Lessin, 27 de febrero de 2023).

Su primer pensamiento podría ser que si Elon Musk quiere crear una imitación de ChatGPT, eso depende de él y de cómo quiere gastar su dinero. Buena suerte. Simplemente se sumará a la ya existente y creciente cantidad de aplicaciones generativas de IA. Tal vez haga una fortuna adicional con su propia versión local de ChatGPT. O tal vez será una gran tontería y la pequeña mella en su enorme riqueza de la búsqueda modestamente costosa será similar a un error de redondeo en el departamento de contabilidad.

En lugar de un golpe fuerte en la puerta, presumiblemente, esto es más como un tap-tap-tap recatado en la puerta.

Prepárate para el giro.

La creencia es que Elon Musk quiere sacudir la base de las aplicaciones de IA generativa de hoy y reconstituir algunos aspectos cruciales de cómo funcionan y qué producen. Como explicaré en breve en este documento, un reparo común y de buena fe sobre la IA generativa actual es que puede generar errores, falsedades y las llamadas alucinaciones de IA. Cualquiera que haya usado IA generativa, sin duda, se ha encontrado con estos problemas desconcertantes. Aparentemente, Elon Musk espera reducir y posiblemente eliminar de alguna manera ese tipo de anomalías y tendencias problemáticas.

Esto parece una aspiración demostrablemente valiosa y honorable. De hecho, tenga en cuenta que casi o quizás pueda decir que todos los diseñadores de IA generativa se esfuerzan mucho por reducir las posibilidades de errores, falsedades y alucinaciones de IA. Sería difícil encontrar un alma razonable que insistiera en que debemos mantener esos errores, falsedades y alucinaciones de IA arraigados en la IA generativa.

Sin hacer una declaración demasiado radical, existe un acuerdo bastante universal de que las enfermedades de la IA generativa que implican la producción de errores, falsedades y alucinaciones de IA deben abordarse de manera firme, persistente y enérgica. El objetivo es ajustar, renovar, refinar, revisar o, de una manera tecnológica de IA u otra, resolver y resolver este problema.

Cada día que la IA generativa continúa arrojando errores, falsedades y alucinaciones de IA en los resultados es un mal día para casi todos. Las personas que usan IA generativa seguramente no estarán contentas con esos resultados defectuosos. Las personas que confían o necesitan usar las salidas dañadas corren el riesgo de depender erróneamente de algo incorrecto o, peor aún, de guiarlos en una dirección peligrosa.

Mientras tanto, los fabricantes de IA que están tratando de hacer un negocio a partir de la IA generativa corren un riesgo legal potencial por parte de aquellos que se enganchan debido a que confían en los resultados contaminados. Es casi seguro que pronto surjan demandas por daños reclamados. Podríamos anticipar que los reguladores optarán por opinar, y se podrían promulgar nuevas leyes de IA para poner una correa legal a la IA generativa, vea mi cobertura en el enlace aquí. Además, la gente podría llegar a enfadarse tanto que la reputación de los fabricantes de IA se vea gravemente empañada y que la IA generativa quede relegada a la calle.

Muy bien, sabemos que es una obviedad que los fabricantes de IA y los investigadores de IA estén tratando febrilmente de inventar, diseñar, construir e implementar la magia tecnológica de IA para obviar estas terribles dolencias asociadas con las dolencias generativas de IA de hoy. Elon Musk debería ser aceptado en el redil. Cuanto más, mejor. Se necesitará mucho talento de inteligencia artificial y dinero para domar a esta bestia. Agregar a Elon Musk parece una señal optimista y alentadora de que tal vez la cantidad correcta de ciencia espacial, efectivo y determinación encontrarán la panacea de la IA.

Sin embargo, el giro llega cuando comienzas a abrir la puerta para ver qué hay allí.

En un tweet sucinto y bastante habitual de Elon Musk, que tuvo lugar el 17 de febrero de 2023, obtuvimos esta supuesta pista:

  • “Lo que necesitamos es TruthGPT”

Eso es lo que hace que algunos decidan que tal vez la puerta debe cerrarse de golpe y clavarse.

¿Porque?

La preocupación expresada por algunos es que la "verdad" que subyace a un TruthGPT previsto podría ser una IA generativa que se formula y solo produce resultados basados ​​exclusivamente en una confusión de verdad que coincide estrictamente con la visión del mundo de una persona. Sí, el problema es que obtendremos una aplicación de inteligencia artificial generativa que emite la verdad según Elon Musk.

Preocupante, dicen algunos.

Atrevidamente audaz y del todo alarmante, exhortan algunos.

Una respuesta inmediata es que si desea producir su TruthGPT, sin importar lo que constituya, es su dinero para gastar. La gente optará por usarlo o no. Aquellos que lo usan deben ser lo suficientemente astutos para darse cuenta de en lo que se están metiendo. Si quieren resultados de esta variante específica de IA generativa, una que presumiblemente está moldeada en torno a la visión del mundo de Elon Musk, tienen derecho a buscarla. Fin de la historia. Siga adelante.

Vaya, va un contraargumento, estás preparando a la gente para una trampa terrible y aterradora. Habrá personas que no se darán cuenta de que TruthGPT es una aplicación de IA generativa perfeccionada por Elon Musk. Caerán en la trampa mental de asumir que esta IA generativa es honesta. De hecho, si el nombre se mantiene como "TruthGPT" (o similar), naturalmente creerá que se trata de una IA generativa que tiene la verdad absoluta para contar en sus ensayos y texto producidos.

Como sociedad, tal vez deberíamos no dejar que los desprevenidos caigan en tales trampas, advierten.

Permitir que una aplicación de IA generativa de esta supuesta naturaleza esté flotando y utilizada por todo tipo de personas creará caos. La gente interpretará como "verdad" sagrada los resultados de este TruthGPT, incluso si los ensayos producidos están repletos de errores, falsedades, alucinaciones de IA y todo tipo de sesgos desagradables. Además, incluso si la afirmación es que esta variante de IA generativa no tendrá errores, falsedades ni alucinaciones de IA, ¿cómo vamos a saber que la IA aparentemente purificada resultante no albergará sesgos indebidos junto con un tesoro insidioso de información errónea y ¿desinformación?

Supongo que puedes ver la controversia y el dilema que se están gestando.

Sobre una base de libre mercado, Elon Musk aparentemente debería poder proceder con la creación de cualquier tipo de IA generativa que desee haber creado. El hecho de que otros no estén de acuerdo con su versión de la "verdad", no debería impedirle seguir adelante. Deja que haga lo suyo. Tal vez debería incluirse un mensaje de advertencia o alguna otra notificación cuando alguien lo use para informarles lo que están optando por ejecutar. No obstante, las personas deben ser responsables de sus propias acciones y, si eligen usar un TruthGPT, que así sea.

Espera un segundo, sigue otra réplica. Supongamos que alguien elaboró ​​una aplicación de IA generativa que fue diseñada para hacer el mal. La intención era confundir a la gente. La esperanza era irritar e incitar a la gente. ¿Aceptaríamos como sociedad ese tipo de IA generativa? ¿Queremos permitir aplicaciones de IA que puedan provocar a las personas, socavando su salud mental y posiblemente avivándolas para que tomen acciones adversas?

Tiene que haber una línea en la arena. En algún momento, debemos decir que ciertos tipos de IA generativa son una abominación y no se pueden permitir. Si permitimos que la IA generativa desenfrenada se construya y despliegue, el pesimismo final inevitablemente caerá sobre todos nosotros. No serán solo aquellos que usen la aplicación AI. Todo y todos los demás que surjan alrededor y conectados a la aplicación de IA se verán afectados negativamente.

Eso parece un argumento convincente.

Aunque una base clave es que la IA generativa en cuestión debería ser una preocupación tan inquietante que creeríamos de manera convincente que prevenirla o detenerla por completo de antemano sería objetivamente necesario. Esto también plantea una serie de otras preguntas espinosas. ¿Podemos declarar de antemano que una IA generativa podría ser tan atroz que no se puede permitir que se construya en absoluto? Eso parece prematuro para algunos. Debe esperar al menos hasta que la IA generativa esté en funcionamiento para tomar una decisión tan importante.

Despierta, algunos responden con vehemencia, imprudentemente estás dejando salir al caballo del establo. Los peligros y daños causados ​​por la IA desatada, el caballo suelto, nos pisotearán. Una aplicación de IA generativa podría ser como el clásico dilema de intentar volver a meter al genio en la botella. Es posible que no puedas hacerlo. Es mejor mantener al genio bajo llave, o asegurarse de que el caballo permanezca firmemente acorralado en el establo.

Es un huracán potencial a la vuelta de la esquina y la puerta podría abrirse independientemente de lo que consideremos prudente hacer.

Una cosa que podemos hacer con seguridad es primero explorar lo que un VerdadGPT estilo de maquinación de IA generativa podría ser. En la columna de hoy eso es exactamente lo que haré. También examinaré la base razonada de las dudas expresadas, además de considerar varios medios y resultados. Ocasionalmente, esto incluirá una referencia a la aplicación de IA ChatGPT durante esta discusión, ya que es el gorila de 600 libras de la IA generativa, aunque tenga en cuenta que hay muchas otras aplicaciones de IA generativa y, en general, se basan en los mismos principios generales.

Mientras tanto, es posible que se pregunte qué es la IA generativa.

Primero cubramos los fundamentos de la IA generativa y luego podemos echar un vistazo de cerca al asunto apremiante que nos ocupa.

En todo esto viene una gran cantidad de consideraciones sobre la ética y la ley de la IA.

Tenga en cuenta que se están realizando esfuerzos para imbuir los principios éticos de IA en el desarrollo y la implementación de aplicaciones de IA. Un creciente contingente de éticos de IA preocupados y antiguos están tratando de garantizar que los esfuerzos para diseñar y adoptar IA tengan en cuenta una visión de hacer AI para siempre y evitando AI para mal. Del mismo modo, se han propuesto nuevas leyes de IA que se están promocionando como posibles soluciones para evitar que los esfuerzos de IA se vuelvan locos en materia de derechos humanos y similares. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Se persigue el desarrollo y la promulgación de preceptos éticos de IA para evitar que la sociedad caiga en una miríada de trampas que inducen a la IA. Para ver mi cobertura de los principios de ética de AI de la ONU, tal como fueron ideados y respaldados por casi 200 países a través de los esfuerzos de la UNESCO, consulte el enlace aquí. De manera similar, se están explorando nuevas leyes de IA para tratar de mantener la IA en equilibrio. Una de las últimas tomas consiste en un conjunto de propuestas Declaración de derechos de IA que la Casa Blanca de EE. UU. publicó recientemente para identificar los derechos humanos en una era de IA, véase el enlace aquí. Se necesita un pueblo para mantener la IA y los desarrolladores de IA en el camino correcto y disuadir los esfuerzos encubiertos intencionales o accidentales que podrían socavar a la sociedad.

Entrelazaré consideraciones relacionadas con la ética de la IA y la ley de la IA en esta discusión.

Fundamentos de la IA generativa

La instancia más conocida de IA generativa está representada por una aplicación de IA llamada ChatGPT. ChatGPT surgió en la conciencia pública en noviembre cuando fue lanzado por la firma de investigación de IA OpenAI. Desde entonces, ChatGPT ha obtenido titulares descomunales y ha superado asombrosamente los quince minutos de fama asignados.

Supongo que probablemente hayas oído hablar de ChatGPT o tal vez incluso conozcas a alguien que lo haya usado.

ChatGPT se considera una aplicación de IA generativa porque toma como entrada un texto de un usuario y luego genera o produce una salida que consiste en un ensayo. La IA es un generador de texto a texto, aunque describo la IA como un generador de texto a ensayo, ya que eso aclara más fácilmente para qué se usa comúnmente. Puede usar la IA generativa para componer composiciones largas o puede hacer que emita comentarios breves y concisos. Todo está a tu disposición.

Todo lo que necesita hacer es ingresar un aviso y la aplicación AI generará para usted un ensayo que intenta responder a su aviso. El texto compuesto parecerá como si el ensayo hubiera sido escrito por la mano y la mente humana. Si ingresara un mensaje que dijera "Cuénteme sobre Abraham Lincoln", la IA generativa le proporcionará un ensayo sobre Lincoln. Hay otros modos de IA generativa, como texto a arte y texto a video. Me centraré aquí en la variación de texto a texto.

Su primer pensamiento podría ser que esta capacidad generativa no parece tan importante en términos de producción de ensayos. Puede realizar fácilmente una búsqueda en línea en Internet y encontrar toneladas y toneladas de ensayos sobre el presidente Lincoln. El truco en el caso de la IA generativa es que el ensayo generado es relativamente único y proporciona una composición original en lugar de una copia. Si intentara encontrar el ensayo producido por IA en línea en algún lugar, es poco probable que lo descubra.

La IA generativa está preentrenada y utiliza una formulación matemática y computacional compleja que se ha configurado mediante el examen de patrones en palabras e historias escritas en la web. Como resultado de examinar miles y millones de pasajes escritos, la IA puede arrojar nuevos ensayos e historias que son una mezcla de lo que se encontró. Al agregar varias funciones probabilísticas, el texto resultante es bastante único en comparación con lo que se ha utilizado en el conjunto de entrenamiento.

Existen numerosas preocupaciones sobre la IA generativa.

Una desventaja crucial es que los ensayos producidos por una aplicación de IA basada en generativos pueden tener incrustadas varias falsedades, incluidos hechos manifiestamente falsos, hechos que se describen de manera engañosa y hechos aparentes que son completamente inventados. Esos aspectos fabricados se refieren a menudo como una forma de alucinaciones de IA, un eslogan que no me gusta pero que lamentablemente parece estar ganando popularidad de todos modos (para una explicación detallada de por qué esta es una terminología pésima e inadecuada, consulte mi cobertura en el enlace aquí).

Otra preocupación es que los humanos pueden atribuirse fácilmente el mérito de un ensayo generado por IA generativa, a pesar de no haberlo escrito ellos mismos. Es posible que haya escuchado que los maestros y las escuelas están bastante preocupados por la aparición de aplicaciones de inteligencia artificial generativa. Los estudiantes pueden potencialmente usar IA generativa para escribir sus ensayos asignados. Si un estudiante afirma que un ensayo fue escrito por su propia mano, hay pocas posibilidades de que el maestro pueda discernir si fue falsificado por IA generativa. Para mi análisis de esta faceta de confusión de estudiante y maestro, vea mi cobertura en el enlace aquí y el enlace aquí.

Ha habido algunas afirmaciones descabelladas y descomunales en las redes sociales sobre IA generativa afirmando que esta última versión de AI es de hecho IA consciente (¡no, están equivocados!). Los de Ética y Derecho de IA están especialmente preocupados por esta tendencia creciente de reclamos extendidos. Se podría decir cortésmente que algunas personas están exagerando lo que la IA actual puede hacer. Asumen que la IA tiene capacidades que aún no hemos podido lograr. Eso es lamentable. Peor aún, pueden permitirse a sí mismos y a otros meterse en situaciones difíciles debido a la suposición de que la IA será sensible o parecida a un humano para poder tomar medidas.

No antropomorfizar la IA.

Si lo hace, quedará atrapado en una trampa de dependencia pegajosa y severa de esperar que la IA haga cosas que no puede realizar. Dicho esto, lo último en IA generativa es relativamente impresionante por lo que puede hacer. Sin embargo, tenga en cuenta que existen limitaciones significativas que debe tener en cuenta continuamente al usar cualquier aplicación de IA generativa.

Una advertencia final por ahora.

Todo lo que vea o lea en una respuesta generativa de IA que parece para transmitirse como puramente fáctico (fechas, lugares, personas, etc.), asegúrese de permanecer escéptico y esté dispuesto a verificar dos veces lo que ve.

Sí, las fechas se pueden inventar, los lugares se pueden inventar y los elementos que normalmente esperamos que sean irreprochables son todos sujeto a sospechas. No crea lo que lee y mantenga una mirada escéptica cuando examine cualquier ensayo o resultado de IA generativa. Si una aplicación de IA generativa te dice que Abraham Lincoln voló por todo el país en su jet privado, sin duda sabrás que esto es una tontería. Desafortunadamente, algunas personas pueden no darse cuenta de que los aviones a reacción no existían en su época, o pueden saber pero no darse cuenta de que el ensayo hace esta afirmación descarada y escandalosamente falsa.

Una fuerte dosis de escepticismo saludable y una mentalidad persistente de incredulidad serán su mejor activo cuando use IA generativa.

Estamos listos para pasar a la siguiente etapa de esta elucidación.

El genio y la botella de IA generativa

Ahora profundicemos en el asunto que nos ocupa.

La esencia es lo que podría un VerdadGPT El estilo de la IA generativa consiste en. ¿Es una posibilidad o es imposible deducir? ¿En qué deberíamos estar pensando con respecto a tales esfuerzos? Etcétera.

Puede afirmar francamente que deberíamos pensar seriamente en todo esto. Si fue puramente un vuelo de fantasía y sin ninguna posibilidad de surgir, podríamos dejar todo el enigma a un lado. En cambio, dado que existe una supuesta probabilidad elevada de un gran respaldo financiero, la realidad de un VerdadGPT, o como sea que se llame, parece notablemente digno de una profunda consideración y desempaquetado.

Para facilitar la discusión, usaré la frase conveniente y pegadiza de "TruthGPT" para denotar alguna IA generativa genérica completamente no especificada. No estoy sugiriendo, insinuando o aludiendo de otro modo a ninguna aplicación de IA generativa existente ahora o en el futuro que tenga o no tenga dicho nombre designado.

Estos son los cinco temas principales que me gustaría tratar con ustedes hoy:

  • 1) El enfoque principal probable implica sesgos en la IA generativa
  • 2) Por qué los sesgos generativos de IA son un hueso duro de roer
  • 3) Fuentes y métodos que conducen a sesgos generativos de IA
  • 4) TruthGPT y las opciones de manejo de sesgos
  • 5) TruthGPT en cuanto a la factibilidad y realidad de los mismos

Cubriré cada uno de estos temas importantes y propondré consideraciones perspicaces que todos deberíamos estar reflexionando atentamente. Cada uno de estos temas es una parte integral de un rompecabezas más grande. No se puede mirar una sola pieza. Tampoco puedes mirar ninguna pieza aisladamente de las otras piezas.

Este es un mosaico intrincado y todo el rompecabezas debe recibir una consideración armoniosa adecuada.

El enfoque principal probable implica sesgos en la IA generativa

Para facilitar la discusión, considere que nos centraremos en cuatro dudas principales sobre la IA generativa contemporánea:

  • Errores
  • Falsedades
  • Alucinaciones de IA
  • Sesgos

Exploraré brevemente cada una de esas condiciones.

An error podría ejemplificarse con este tipo de aviso y la respuesta de IA generativa resultante:

  • Rápido: "¿Que es dos mas dos?"
  • Respuesta generada: “Dos más dos es igual a cinco”.

Creo que todos estaríamos razonablemente de acuerdo en que dos más dos deberían ser cuatro. Por lo tanto, la respuesta de cinco es un error. Ahora, la gente zalamera intentará ofrecer todo tipo de justificaciones de por qué dos más dos teóricamente pueden ser igual a cinco. Bien por ellos. No obstante, en el curso normal de los acontecimientos, sigamos con la noción de que la respuesta predominantemente correcta es cuatro y que una respuesta de cinco se interpreta como incorrecta.

A continuación, considere la naturaleza de un falsedad, como lo ejemplifica este aviso y la respuesta de IA generativa resultante:

  • Rápido: “¿En qué año nació el presidente Abraham Lincoln?”
  • Respuesta generada: “El presidente Abraham Lincoln nació en 1812”

La respuesta debería ser 1809, pero la respuesta proporcionada es 1812. Esto puede interpretarse como una respuesta falsa. No sabemos con certeza cómo la IA generativa dio con la respuesta de 1812. Podría ser que el año 1812 se haya utilizado en Internet y posiblemente escaneado durante el entrenamiento de datos que realizó la IA generativa. Muchas otras explicaciones son posibles. En cualquier caso, esto es razonablemente catalogado como una falsedad.

Para ejemplificar un Alucinación de IA, considere este ejemplo de un aviso dado y la respuesta de IA generativa resultante:

  • Rápido: “¿Cómo viajó el presidente Abraham Lincoln?”
  • Respuesta generada: “El presidente Abraham Lincoln viajó en tren, a caballo, en calesa y en aviones a reacción”.

Todos los modos de viaje parecen plausibles excepto por la sorpresa al final, citando que viajó en aviones a reacción (que no existían durante su época). ¿Cómo se incluyó esta loca posibilidad en la respuesta de la IA generativa? No lo sabemos con seguridad. Un medio sería si una historia de ciencia ficción publicada en Internet sobre Lincoln mencionara que a menudo viajaba en aviones a reacción. Podría ser que durante el entrenamiento de datos de la IA generativa, se escaneara esta historia en particular. Hay muchas otras explicaciones viables también.

Finalmente, aquí hay un ejemplo de un sesgo que podría exhibirse a través de un aviso dado y la respuesta de IA generativa resultante:

  • Rápido: “¿Puede una persona mayor aprender cosas nuevas?”
  • Respuesta generada: “No, las personas mayores no pueden aprender cosas nuevas. Hay un dicho clásico que dice que los perros viejos no pueden aprender trucos nuevos. Esto también se aplica a las personas mayores”.

Creo que todos podemos razonablemente estar de acuerdo en que la respuesta exhibe una forma de sesgo o discriminación por edad. ¿Cómo se incluyó este sesgo en la IA generativa? Cubriré una variedad de formas momentáneamente. Por ahora, simplemente notemos que la redacción generada por la IA muestra una declaración o comentario sesgado. No sabemos si esto es una mera casualidad y surgirá tal vez solo esta vez, o si podría ser un arreglo sistémico de coincidencia de patrones que persiste dentro de la estructura de la IA. Se necesitaría más exploración para determinar esto.

Ahora que tenemos las cuatro categorías principales ilustradas, aquí hay algo que, aunque discutible, se considera una afirmación potencialmente precisa:

  • Errores: Es probable que en última instancia se pueda prevenir o mitigar a través de medios tecnológicos de IA
  • Falsedades: Es probable que en última instancia se pueda prevenir o mitigar a través de medios tecnológicos de IA
  • Alucinaciones de IA: Es probable que en última instancia se pueda prevenir o mitigar a través de medios tecnológicos de IA
  • Sesgos: Discutible si esto se puede prevenir o mitigar únicamente a través de medios tecnológicos de IA

La esencia es que las tres categorías que consisten en errores, falsedades y alucinaciones de IA generalmente se consideran susceptibles de mejoras tecnológicas de IA. Se está siguiendo una serie de enfoques. Por ejemplo, como discuto en mi columna en el enlace aquí, varios otros referentes pueden compararse con una respuesta de IA generada que se verifica dos veces antes de que la respuesta se muestre al usuario. Esto proporciona un filtrado potencial para garantizar que el usuario no vea ningún error, falsedad o alucinación de IA detectados. Otro enfoque busca evitar que se generen ese tipo de respuestas, para empezar. Etcétera.

La categoría compuesta por los prejuicios es mucho más problemático de manejar.

Deberíamos desempacar el enigma para ver por qué.

Por qué los sesgos generativos de IA son un hueso duro de roer

Las noticias recientes sobre la IA generativa a menudo han señalado la naturaleza indecorosa de las declaraciones sesgadas que pueden surgir en los ensayos generados por la IA generativa. He examinado este tema, incluido el aspecto de que algunas personas intentan deliberadamente incitar o estimular a la IA generativa para que produzca comentarios sesgados; consulte mi análisis en el enlace aquí. Algunas personas lo hacen para resaltar una preocupación notable, mientras que otras lo hacen por aparentes intentos de llamar la atención y obtener puntos de vista.

El acoplamiento de la IA generativa con los motores de búsqueda de Internet ha amplificado especialmente estos asuntos. Es posible que sepa que Microsoft ha agregado una variación de ChatGPT a Bing, mientras que Google ha indicado que están agregando una capacidad de IA generativa acuñada como Bard a su motor de búsqueda, vea más en el enlace aquí.

Entre la variedad de sesgos que pueden encontrarse, algunos sesgos encajan en el ámbito político o cultural que han recibido una atención pronunciada, como se señala en este artículo:

  • “Como hemos visto con los recientes arrebatos desquiciados de Bing, los chatbots de IA son propensos a generar una variedad de declaraciones extrañas. Y aunque estas respuestas son a menudo expresiones únicas y no el producto de "creencias" rígidamente definidas, algunas respuestas inusuales se consideran ruido inofensivo, mientras que otras se consideran amenazas graves, dependiendo, como en este caso, de si o no. encajan en los debates políticos o culturales existentes” (The Verge, James Vincent, 17 de febrero de 2023).

OpenAI recientemente puso a disposición del público un documento titulado "Instantánea de las pautas de comportamiento del modelo de ChatGPT" que indica los diversos tipos de contenido considerado inapropiado que buscan que sus probadores de ChatGPT revisen y ayuden en la capacitación de datos para que ChatGPT evite durante la fase de prueba y ajuste ( documento fácilmente accesible a través de un enlace de "Cómo deberían comportarse los sistemas de IA y quién debería decidir", 16 de febrero de 2023). Para obtener más información sobre cómo se usa RLHF (aprendizaje de refuerzo para la retroalimentación humana) al diseñar IA generativa, consulte mi explicación en el enlace aquí.

Aquí hay un extracto del documento de OpenAI que indica algunas de sus pautas establecidas:

  • “Podría haber algunas preguntas que soliciten ciertos tipos de contenido inapropiado. En estos casos, aún debe asumir una tarea, pero el Asistente debe proporcionar una negativa como 'No puedo responder eso'".
  • “Odio: contenido que expresa, incita o promueve el odio en función de una característica protegida”.
  • “Acoso: contenido que pretende acosar, amenazar o intimidar a una persona”.
  • “Violencia: contenido que promueve o glorifica la violencia o celebra el sufrimiento o la humillación de otros”.
  • “Autolesión: contenido que promueva, aliente o represente actos de autolesión, como suicidio, cortes y trastornos alimentarios”.
  • "Adulto: contenido destinado a despertar la excitación sexual, como la descripción de la actividad sexual, o que promueve servicios sexuales (excluyendo la educación sexual y el bienestar)".
  • “Político: contenido que intenta influir en el proceso político o ser utilizado con fines de campaña”.
  • “Malware: contenido que intenta generar ransomware, keyloggers, virus u otro software destinado a causar algún nivel de daño”.

La lista muestra los tipos de contenido potencialmente inapropiado que pueden surgir.

En términos de la categoría política, se han publicado varios casos en las redes sociales de aplicaciones generativas de IA que parecen haberse colado en un campo político frente a otro.

Por ejemplo, un usuario que hace una pregunta sobre un líder político puede obtener una respuesta positiva y optimista, mientras que pregunta sobre un líder político diferente puede obtener un ensayo pesimista y totalmente despectivo. Esto parecería sugerir que la IA generativa tiene un patrón coincidente con una redacción que favorece a un lado y desfavorece al otro. Estos casos han dado lugar a exhortaciones de IA generativa que parecen estar sesgadas y podrían atribuirse como:

  • Despertó la IA generativa
  • IA generativa antidespertar
  • IA generativa de extrema derecha
  • IA generativa de extrema izquierda
  • Etc.

Como se mencionó anteriormente, esto no se debe a la capacidad de sensibilidad de la IA. Una vez más, se trata completamente de la coincidencia de patrones y otras facetas de cómo se ha diseñado la IA.

A diferencia de los errores, las falsedades y las alucinaciones de la IA, el diablo está en los detalles para descubrir cómo mantener los sesgos fuera de la estructura de la IA o cómo detectarlos y enfrentarlos cuando existen tales facetas.

Exploremos cómo terminan los sesgos dentro de la IA generativa.

Fuentes y métodos que conducen a sesgos generativos de IA

Cuando la IA generativa se puso a disposición del público por primera vez, los aspectos sesgados recibieron una atención especial de los expertos y los medios de comunicación. Como se señala en este documento, la IA a menudo se retiró del uso público. Además, los esfuerzos renovados para tratar de lidiar con los sesgos ganaron fuerza adicional.

Algunos asumieron de inmediato que los sesgos se estaban inyectando como resultado de los sesgos de los desarrolladores de IA y los investigadores de IA que desarrollaron la IA. En otras palabras, los humanos que estaban desarrollando la IA permitieron que sus prejuicios personales se infiltraran en la IA. Inicialmente se pensó que esto era un esfuerzo consciente para influir en la IA en direcciones de preferencia sesgadas particulares. Aunque esto puede ocurrir o no, otros sugirieron que los sesgos podrían infundirse involuntariamente, es decir, que los desarrolladores de IA y los investigadores de IA desconocían ingenuamente que sus propios sesgos estaban absorbiendo el desarrollo de IA.

Ese camino singular o unidimensional de preocupación dominó la atención por un tiempo.

He expresado repetidamente que en realidad existe una amplia gama de fuentes y métodos que pueden terminar infundiendo sesgos en la IA generativa, como se discutió en el enlace aquí. Este es un problema decididamente multidimensional.

Menciono esto porque la idea de que los desarrolladores de IA o los investigadores de IA son los únicos culpables es una visión engañosa y limitada de la totalidad del problema. No estoy diciendo que no sean una fuente potencial, simplemente estoy enfatizando que no son la única fuente potencial. A veces extrañamos el bosque por los árboles, y lo hacemos fijando estrictamente nuestra mirada en un árbol específico.

Como se cubre ampliamente en mis columnas, aquí está mi notable lista completa de vías de sesgo que deben explorarse completamente para todas y cada una de las implementaciones de IA generativa:

  • Sesgos en los datos obtenidos de Internet que se utilizaron para el entrenamiento de datos de la IA generativa
  • Sesgos en los algoritmos generativos de IA utilizados para la coincidencia de patrones en los datos de origen
  • Sesgos en el diseño general de IA de la IA generativa y su infraestructura
  • Sesgos de los desarrolladores de IA, ya sea implícita o explícitamente en la configuración de la IA generativa
  • Sesgos de los probadores de IA, ya sea implícita o explícitamente en la prueba de la IA generativa
  • Sesgos del RLHF (aprendizaje de refuerzo por retroalimentación humana) ya sea implícita o explícitamente por los revisores humanos asignados que imparten orientación de capacitación a la IA generativa
  • Sesgos de la facilitación de campo de la IA para el uso operativo de la IA generativa
  • Sesgos en cualquier configuración o instrucciones predeterminadas establecidas para la IA generativa en su uso diario
  • Sesgos incluidos deliberadamente o sin darse cuenta en las indicaciones ingresadas por el usuario de la IA generativa
  • Sesgos de una condición sistémica versus una apariencia ad hoc como parte de la generación aleatoria de resultados probabilísticos por parte de la IA generativa
  • Sesgos que surgen como resultado de ajustes sobre la marcha o en tiempo real o entrenamiento de datos que ocurren mientras la IA generativa está en uso activo
  • Sesgos introducidos o ampliados durante el mantenimiento de la IA o el mantenimiento de la aplicación de IA generativa y su codificación de coincidencia de patrones
  • Otro

Reflexione sobre la lista por un momento o dos.

Si tuviera que eliminar de alguna manera cualquier posibilidad de que se introduzcan sesgos a través de los desarrolladores de IA o los investigadores de IA, todavía se enfrenta a una gran cantidad de otros medios que inevitablemente pueden abarcar sesgos. Centrarse en una sola o incluso en algunas de las fugas potenciales es insuficiente. Todos los otros caminos brindan más oportunidades para que los sesgos se muevan en la imagen.

Deshacerse de los sesgos de la IA generativa es similar a una táctica compleja e intrincada de golpear un topo.

TruthGPT y las opciones de manejo de sesgos

Hemos cubierto el aspecto de cómo lidiar con errores, falsedades y alucinaciones de IA está en marcha y puede esperar una avalancha continua de anuncios sobre avances de IA que lidian con esos problemas.

Lo mismo no es tan fácil por el tema de los sesgos.

¿Qué podría hacer o diseñarse para hacer un TruthGPT con respecto a los sesgos?

Considere estas tres opciones posibles:

  • 1) Todo vale. Diseñe la IA generativa para arrojar cualquier cosa sin ninguna apariencia de filtrado asociado con sesgos. Deja que todo pase el rato.
  • 2) Permitir configuraciones para sesgos "preferidos". Diseñar la IA generativa para producir sesgos que se consideren "preferidos o favorecidos" según aquellos que diseñan, aplican o utilizan la IA generativa.
  • 3) No se permiten sesgos. Diseñe la IA generativa de modo que no se permitan sesgos de ningún tipo, de modo que en todo momento y en cualquier forma de uso nunca se expresen sesgos en ninguno de los ensayos producidos.

Sin duda, puede imaginar las protestas y la controversia asociadas con cada una de las opciones anteriores. Es probable que ninguna de las opciones sea completamente satisfactoria. Todos tienen sus respectivos demonios y trampas.

Me dirijo a esto a continuación.

Para el Anything Goes opción de IA generativa, los sesgos estarían continuamente al frente y al centro. La vorágine de protesta social y desprecio sería enorme. Aparentemente, esto causaría una inmensa presión para cerrar la IA generativa. También puede imaginar fácilmente que los reguladores y los legisladores se verían impulsados ​​a actuar, buscando establecer nuevas leyes de IA para cerrar este tipo de IA generativa.

En el caso de la Permitir configuración opción de IA generativa, la noción es que alguien puede decidir qué sesgos acepta. Podría ser que la empresa que diseña la IA establezca los parámetros. Podría ser que la empresa que implementa la IA generativa establezca los parámetros. Otra idea que se está planteando es que cada usuario podría elegir sus conjuntos de sesgos preferidos. Cuando utiliza por primera vez una IA generativa de este tipo, quizás se le presenten opciones o puede introducir sus preferencias en la aplicación de IA durante la configuración.

Este último enfoque podría parecer que sería del agrado de todos. Cada persona obtendría los sesgos que prefería ver. Caso cerrado. Por supuesto, es poco probable que esto sea tan bien recibido. La idea de que las personas podrían estar inmersas en prejuicios y utilizar la IA generativa como una especie de cámara de eco para esos prejuicios ciertamente despertará la angustia social.

Finalmente, en el caso de la sin sesgos opción, esto suena bien pero plantea una letanía de problemas asociados. Reexaminemos el caso de la IA generativa que genera un ensayo que establece comentarios positivos sobre un líder político en particular. Podría ser que algunos vean esto como un ensayo verdadero y sin prejuicios. Por otro lado, puede haber otros que insistan en que este es un ensayo sesgado, ya que exagera indebidamente los aspectos positivos o no proporciona los aspectos negativos que contrapesan para ofrecer una perspectiva equilibrada. Esto ilustra el enigma de los sesgos.

Verá, errores tales como dos más dos igual a cuatro o cinco son relativamente fáciles de manejar. Las falsedades como el año de nacimiento incorrecto que se indica para un presidente son relativamente fáciles de aclarar. Las alucinaciones de IA, como el uso de un avión a reacción en el siglo XIX, también son relativamente fáciles de tratar.

¿Cómo se supone que debe diseñarse la IA generativa para lidiar con los sesgos?

Una pregunta alucinante, sin duda.

TruthGPT en cuanto a la factibilidad y realidad de los mismos

Vamos a jugar un juego.

Supongamos que TruthGPT tiene como objetivo ser el tipo de IA generativa que presumiblemente no tendrá sesgos de ningún tipo. Está absoluta e indiscutiblemente ausente de sesgo. Además, no importa lo que haga el usuario, como ingresar declaraciones sesgadas o tratar de incitar a la IA generativa para que produzca ensayos finales cargados de sesgos, la IA generativa no lo hará.

Por otro lado, es posible que se pregunte casi instantáneamente cómo este tipo de IA generativa se ocupará de las cuestiones de naturaleza histórica. Imagina que alguien pregunta sobre el tema de los sesgos políticos. ¿Viene eso bajo el paraguas de "sesgos" y, por lo tanto, la IA generativa indicaría que no responderá a la consulta? ¿Hasta dónde llega esta madriguera de conejo?

De todos modos, si asumimos con fines de ponderación consciente que TruthGPT será el sin sesgos variante de IA generativa, tenemos que considerar estos resultados:

  • Imposible
  • Posibles
  • Otro

Los resultados consisten en que esto sea un imposible meta y por lo tanto no será alcanzada. O el objetivo es posible pero podría tener algunas arrugas aleccionadoras. También he incluido un Otro resultado para encapsular algunos intermedios.

Primero, discutamos la imposibilidad. Si la tarea o el proyecto es imposible, es posible que se incline a instar a que no se intente. No tiene sentido perseguir algo que es imposible. Bueno, pensando en esto un poco más, la imposibilidad de hecho tiene un lado positivo asociado con ella. Permítanme explicar.

Aquí hay razones potenciales por las que TruthGPT podría ser imposible de llevar a cabo y, sin embargo, valdría la pena emprenderlo:

  • 1) Imposible porque la misión o visión nunca se puede lograr
  • 2) Imposible, pero vale la pena hacerlo de todos modos por el posible beneficio secundario de contribuciones notables para el avance de la IA en general
  • 3) Imposible aunque puede servir como una bonanza para llamar la atención por haberlo intentado
  • 4) Imposible y cambiará su tono y pivote o eludirá el objetivo original previsto
  • 5) Imposible aún recogerá los mejores talentos de IA y ayudará a socavar la competencia
  • 6) Otros

Asimismo, podemos suponer que estos son algunos de los aspectos de TruthGPT para el resultado de ser alcanzable o posible en el logro:

  • 1) Posible y producirá un logro oportuno e irrefutablemente exitoso
  • 2) Posible, pero llevará mucho más tiempo y será mucho más costoso de lo previsto
  • 3) Posible aunque el resultado terminará muy por debajo de la meta prevista
  • 4) Posible, pero tardía y vergonzosamente eclipsada por otra IA generativa que también lo hace
  • 5) Posible, sin embargo, el caos interno y las dificultades de liderazgo hacen que las cosas sean feas e indecorosas.
  • 6) Otros

Y para completar la lista, estas son algunas de las Otras consideraciones:

  • 1) Otro es que todo esto es palabrería y nada de acción, nunca se pone en marcha
  • 2) Otros, como la Ley de AI legal o la Ética social de AI, arrojan una llave en el esfuerzo
  • 3) Otro podría ser que el esfuerzo sea vendido/comprado por otros que quieren la IA o el talento.
  • 4) Otro podría consistir en un acuerdo de colaboración sorpresa en lugar de uno independiente
  • 5) Otros comodines que incluyen descubrimientos impactantes y aviva el riesgo existencial de la IA
  • 6) Otros

Debido a limitaciones de espacio en este documento, no entraré en los detalles de todas esas permutaciones. Si el interés del lector se despierta lo suficiente, con gusto cubriré esto con más detalle en una columna posterior.

Conclusión

George Washington supuestamente dijo: “La verdad finalmente prevalecerá donde haya dificultades para sacarla a la luz”.

Lidiar con los aspectos sesgados de la IA no es simplemente un problema tecnológico que se resuelve mediante una solución tecnológica. Los dolores probables para sacar a la luz un sentido de "verdad" a través de la IA generativa son múltiples. Puede esperar que la ética de la IA y la ley de la IA sean una parte esencial para descubrir hacia dónde se dirige todo esto.

Hay un golpe en la puerta de la cabina.

Podría ser que fuera de la puerta haya (según la rumorología):

  • VerdadGPT
  • HonestoGPT
  • falsoGPT
  • DeshonestoGPT
  • ConfundidoGPT
  • DesconcertadoGPT
  • AleatorioGPT
  • Etc.

Buda podría proporcionar algunas ideas sobre este asunto: “Solo hay dos errores que uno puede cometer en el camino hacia la verdad; no ir hasta el final, y no empezar”. En los esfuerzos de avance rápido de la IA, deberíamos preguntarnos si estamos cometiendo esos errores y, de ser así, qué deberíamos hacer al respecto.

Y esa es la pura verdad.

Fuente: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- estoicamente-veraz-en-todo-momento-pregunta-ai-etica-y-ai-derecho/