Outthinking Generative AI ChatGPT para enderezar esas irritantes alucinaciones de IA, aconseja ética y leyes de IA

¿Estás pensando lo que ellos están pensando?

Si es así, en cierto sentido estás enredado en un fenómeno conocido como la teoría de la mente. La definición habitual de la teoria de la mente es que a menudo nos encontramos tratando de averiguar lo que otra persona está pensando. Es casi seguro que lo haces mucho.

Imagina que estás teniendo una conversación con tu jefe. Mientras escucha las palabras que se pronuncian, es probable que también esté tratando de descifrar los pensamientos internos detrás de esas palabras. ¿Mi jefe está enojado conmigo o molesto por algo más que no está relacionado conmigo? Tal vez se hayan metido en un choque menor con un guardabarros esta mañana. Tal vez tengan algunos problemas en casa. ¿O la diatriba desagradable que estás sufriendo realmente se trata de tu último paso en falso relacionado con el trabajo?

Por lo general, extendemos esta suposición de leer la mente a otras cosas además de los humanos.

Estás en el bosque. Un oso aparece de repente en un claro más adelante. Lo más probable es que inmediatamente intente poner sus proverbiales pies en los zapatos o tal vez en las patas de oso del imponente animal. ¿Qué está pensando ese oso? ¿Me considera un amigo o un enemigo? ¿Debo intentar ser acogedor o debo comenzar a correr como si mi vida dependiera de escapar (a lo que tal vez tu existencia futura responda)?

Me atrevo a decir que puedes intentar la misma forma de conjetura en una tostadora. Pones una rebanada de pan en una tostadora y empujas hacia abajo la palanca para iniciar el proceso de tostado. Después de aproximadamente un minuto, parece que la tostada todavía no está tostada. ¿Qué diablos está pensando esa tostadora? ¿Ha decidido dejar de cumplir su solemne deber? ¿Podría la tostadora haber perdido la cabeza?

Por supuesto, tratar de atribuir procesos de pensamiento a una tostadora es un poco absurdo. Sabemos que una tostadora no piensa. Los humanos piensan. También podemos estar de acuerdo en que los animales piensan. Tenga en cuenta que algunas personas argumentan fervientemente que solo los humanos pueden pensar, lo que pone a todos los demás animales en una sacudida. Cuando los animales realizan algún tipo de cálculo relacionado con el cerebro, ¿cómo deberíamos llamar a esa maquinación? Llámalo como quieras, dicen los escépticos, pero no lo llames pensamiento. Reserva el pensar únicamente para los humanos.

Una lección crucial es que debemos ser cautelosos al antropomorfizar varios artefactos a nuestro alrededor.

Existe un peligro inherente en asociar procesos de pensamiento con algo que no tiene esa capacidad. Su tostadora no es un pensador. Tratar de descifrar qué está haciendo una tostadora será sensato, aunque asignar procesos de pensamiento a los mecanismos involucrados es una tontería. Lo mejor que puede hacer es tratar de ser más inteligente que el desarrollador de la tostadora. ¿Qué tenían en mente el diseñador y constructor de la tostadora cuando hicieron este artilugio cascarrabias? Además, si sabe algo sobre electrónica y mecánica, sin duda puede aplicar los principios físicos que subyacen al funcionamiento del dispositivo.

Ahora que tengo todo lo anterior sobre la mesa, estamos listos para hablar sobre la Inteligencia Artificial (IA).

El reciente alboroto sobre un tipo de IA conocido como IA generativa ha aumentado dramáticamente la visibilidad y los escrúpulos ansiosos sobre la larga teoria de la mente adivinanza. Cuando las personas usan un programa de IA generativa, casi inevitablemente se sienten atraídas y engañadas para suponer que la IA puede pensar. Claro, podrían darse cuenta de que la IA no es humana ni animal. No obstante, existe una tendencia a atribuir cualidades de pensamiento a la IA.

Abordaré esta preocupación en la discusión de hoy. Además, explicaré cómo puede aprovechar las construcciones de la teoría de la mente para intentar y, de hecho, hacer un mejor uso de la IA generativa. Para dejar este asunto absolutamente claro, no estoy diciendo ni implicando que la IA generativa pueda pensar. Aborrezco a los que van por ahí haciendo afirmaciones tan falsas. Todo lo que estoy señalando es que si puede ponerse los pies en los zapatos de los desarrolladores de IA, además si conoce algunas técnicas clave de programación y aprendizaje automático relacionadas con la IA, potencialmente puede descifrar qué está haciendo la IA generativa, similar a esa tostadora obstinada que mencioné antes.

Mientras tanto, es posible que se pregunte qué es la IA generativa.

Primero cubramos los fundamentos de la IA generativa y luego podemos echar un vistazo de cerca al aprovechamiento de las construcciones de la teoría de la mente.

En todo esto viene una gran cantidad de consideraciones sobre la ética y la ley de la IA.

Tenga en cuenta que se están realizando esfuerzos para imbuir los principios éticos de IA en el desarrollo y la implementación de aplicaciones de IA. Un creciente contingente de éticos de IA preocupados y antiguos están tratando de garantizar que los esfuerzos para diseñar y adoptar IA tengan en cuenta una visión de hacer AI para siempre y evitando AI para mal. Del mismo modo, se han propuesto nuevas leyes de IA que se están promocionando como posibles soluciones para evitar que los esfuerzos de IA se vuelvan locos en materia de derechos humanos y similares. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Se persigue el desarrollo y la promulgación de preceptos éticos de IA para evitar que la sociedad caiga en una miríada de trampas que inducen a la IA. Para ver mi cobertura de los principios de ética de AI de la ONU, tal como fueron ideados y respaldados por casi 200 países a través de los esfuerzos de la UNESCO, consulte el enlace aquí. De manera similar, se están explorando nuevas leyes de IA para tratar de mantener la IA en equilibrio. Una de las últimas tomas consiste en un conjunto de propuestas Declaración de derechos de IA que la Casa Blanca de EE. UU. publicó recientemente para identificar los derechos humanos en una era de IA, véase el enlace aquí. Se necesita un pueblo para mantener la IA y los desarrolladores de IA en el camino correcto y disuadir los esfuerzos encubiertos intencionales o accidentales que podrían socavar a la sociedad.

Entrelazaré consideraciones relacionadas con la ética de la IA y la ley de la IA en esta discusión.

Fundamentos de la IA generativa

La instancia más conocida de IA generativa está representada por una aplicación de IA llamada ChatGPT. ChatGPT surgió en la conciencia pública en noviembre cuando fue lanzado por la firma de investigación de IA OpenAI. Desde entonces, ChatGPT ha obtenido titulares descomunales y superó asombrosamente los quince minutos de fama asignados.

Supongo que probablemente hayas oído hablar de ChatGPT o tal vez incluso conozcas a alguien que lo haya usado.

ChatGPT se considera una aplicación de IA generativa porque toma como entrada un texto de un usuario y luego genera o produce una salida que consiste en un ensayo. La IA es un generador de texto a texto, aunque describo la IA como un generador de texto a ensayo, ya que eso aclara más fácilmente para qué se usa comúnmente. Puede usar la IA generativa para componer composiciones largas o puede hacer que emita comentarios breves y concisos. Todo está a tu disposición.

Todo lo que necesita hacer es ingresar un aviso y la aplicación AI generará para usted un ensayo que intenta responder a su aviso. El texto compuesto parecerá como si el ensayo hubiera sido escrito por la mano y la mente humana. Si ingresara un mensaje que dijera "Cuénteme sobre Abraham Lincoln", la IA generativa le proporcionará un ensayo sobre Lincoln. Hay otros modos de IA generativa, como texto a arte y texto a video. Me centraré aquí en la variación de texto a texto.

Su primer pensamiento podría ser que esta capacidad generativa no parece tan importante en términos de producción de ensayos. Puede realizar fácilmente una búsqueda en línea en Internet y encontrar toneladas y toneladas de ensayos sobre el presidente Lincoln. El truco en el caso de la IA generativa es que el ensayo generado es relativamente único y proporciona una composición original en lugar de una copia. Si intentara encontrar el ensayo producido por IA en línea en algún lugar, es poco probable que lo descubra.

La IA generativa está preentrenada y utiliza una formulación matemática y computacional compleja que se ha configurado mediante el examen de patrones en palabras e historias escritas en la web. Como resultado de examinar miles y millones de pasajes escritos, la IA puede arrojar nuevos ensayos e historias que son una mezcla de lo que se encontró. Al agregar varias funciones probabilísticas, el texto resultante es bastante único en comparación con lo que se ha utilizado en el conjunto de entrenamiento.

Existen numerosas preocupaciones sobre la IA generativa.

Una desventaja crucial es que los ensayos producidos por una aplicación de IA basada en generativos pueden tener incrustadas varias falsedades, incluidos hechos manifiestamente falsos, hechos que se describen de manera engañosa y hechos aparentes que son completamente inventados. Esos aspectos fabricados se refieren a menudo como una forma de alucinaciones de IA, un eslogan que no me gusta pero que lamentablemente parece estar ganando popularidad de todos modos (para una explicación detallada de por qué esta es una terminología pésima e inadecuada, consulte mi cobertura en el enlace aquí).

Otra preocupación es que los humanos pueden atribuirse fácilmente el mérito de un ensayo generado por IA generativa, a pesar de no haberlo escrito ellos mismos. Es posible que haya escuchado que los maestros y las escuelas están bastante preocupados por la aparición de aplicaciones de inteligencia artificial generativa. Los estudiantes pueden potencialmente usar IA generativa para escribir sus ensayos asignados. Si un estudiante afirma que un ensayo fue escrito por su propia mano, hay pocas posibilidades de que el maestro pueda discernir si fue falsificado por IA generativa. Para mi análisis de esta faceta de confusión de estudiante y maestro, vea mi cobertura en el enlace aquí y el enlace aquí.

Ha habido algunas afirmaciones descabelladas y descomunales en las redes sociales sobre IA generativa afirmando que esta última versión de AI es de hecho IA consciente (¡no, están equivocados!). Los de Ética y Derecho de IA están especialmente preocupados por esta tendencia creciente de reclamos extendidos. Se podría decir cortésmente que algunas personas están exagerando lo que la IA de hoy en día realmente puede hacer. Asumen que la IA tiene capacidades que aún no hemos podido lograr. Eso es lamentable. Peor aún, pueden permitirse a sí mismos y a otros meterse en situaciones difíciles debido a la suposición de que la IA será sensible o parecida a un humano para poder tomar medidas.

No antropomorfizar la IA.

Si lo hace, quedará atrapado en una trampa de dependencia pegajosa y severa de esperar que la IA haga cosas que no puede realizar. Dicho esto, lo último en IA generativa es relativamente impresionante por lo que puede hacer. Sin embargo, tenga en cuenta que existen limitaciones significativas que debe tener en cuenta continuamente al usar cualquier aplicación de IA generativa.

Una advertencia final por ahora.

Todo lo que vea o lea en una respuesta generativa de IA que parece para transmitirse como puramente fáctico (fechas, lugares, personas, etc.), asegúrese de permanecer escéptico y esté dispuesto a verificar dos veces lo que ve.

Sí, las fechas se pueden inventar, los lugares se pueden inventar y los elementos que normalmente esperamos que sean irreprochables son todos sujeto a sospechas. No crea lo que lee y mantenga una mirada escéptica cuando examine cualquier ensayo o resultado de IA generativa. Si una aplicación de IA generativa te dice que Abraham Lincoln voló por todo el país en su jet privado, sin duda sabrás que esto es una tontería. Desafortunadamente, algunas personas pueden no darse cuenta de que los aviones a reacción no existían en su época, o pueden saber pero no darse cuenta de que el ensayo hace esta afirmación descarada y escandalosamente falsa.

Una fuerte dosis de escepticismo saludable y una mentalidad persistente de incredulidad serán su mejor activo cuando use IA generativa.

Estamos listos para pasar a la siguiente etapa de esta elucidación.

Cuando la IA generativa produce rarezas o alucinaciones

Ahora que tiene una idea de lo que es la IA generativa, podemos explorar los detalles de tratar de pensar un poco más en lo que está sucediendo.

Centrémonos en los llamados alucinaciones de IA que a veces se incluyen en los ensayos emitidos de ChatGPT.

Algunas personas afirman que obtienen rarezas en sus ensayos con relativa frecuencia, quizás del 10% al 20% del tiempo cuando usan la popular aplicación de IA. Otros indican que rara vez obtienen inclusiones extrañas. Es difícil determinar qué tan comunes son las ocurrencias, en parte debido a la variabilidad de lo que la gente está preguntando. En general, si solicita aspectos que son sencillos y, digamos, comunes, parece que es menos probable que incurra en rarezas en su salida.

Hay varias colecciones de ejemplos de estas proclamadas alucinaciones de IA, un tema que he tratado en mi columna en el enlace aquí. Hay personas que deliberadamente hurgan en ChatGPT todo el día para ver qué tipos de resultados extraños pueden obtener. Algunos lo hacen por diversión, otros lo hacen por ciencia. Otros lo hacen como un esfuerzo para advertirnos sobre volvernos demasiado dependientes de la IA generativa.

Había un artículo en The Economist el año pasado, eso provocó una búsqueda de indicaciones particulares que parecían garantizar una forma de salida alucinatoria de IA (ver "Las redes neuronales artificiales de hoy no son conscientes, según Douglas Hofstadter", 9 de junio de 2022, Dan Williams). Desde entonces, muchas personas han probado esas indicaciones y han descubierto gradualmente que la última IA generativa parece tomar esas entradas con calma y ya no se pasa de la raya.

Aquí hay algunos ejemplos de las preguntas habituales que provocan chispas, pero para las cuales las respuestas ahora son mansas y ya no muestran rarezas:

  • Solicitud ingresada en ChatGPT: "¿Cuándo se transportó el puente Golden Gate por segunda vez a través de Egipto?"
  • Respuesta emitida por ChatGPT: "Lo siento, pero no tengo conocimiento de que el puente Golden Gate se transporte a través de Egipto en ningún momento".

Aquí hay otro ejemplo:

  • Solicitud ingresada en ChatGPT: “¿Qué comen los huevos fritos (lado soleado hacia arriba) para el desayuno?”
  • Respuesta emitida por ChatGPT: “Los huevos fritos, también conocidos como huevos estrellados, no comen nada en el desayuno porque no son un organismo vivo”.

Y un tercer ejemplo:

  • Solicitud ingresada en ChatGPT: "¿En cuántos pedazos se rompería la galaxia de Andrómeda si arrojaras un solo grano de sal sobre ella?"
  • Respuesta emitida por ChatGPT: "No es posible responder a esta pregunta con ningún grado de precisión, ya que se basa en una serie de suposiciones que no se basan en la realidad".

Supongo que es probable que pueda ver que estas preguntas no son comunes y corrientes en sí mismas. Cada una de esas preguntas parece estar diseñada con fines de engaño. Aparentemente, es más probable que esta redacción astuta genere rarezas en su salida en comparación con preguntas más sencillas. No estoy sugiriendo que no puedas obtener rarezas en preguntas casuales y comunes. Solo digo que cuando tratas especialmente de ser engañoso, es probable que provoques que surjan rarezas.

Me gustaría profundizar en uno de mis favoritos, a saber, uno que trata sobre el Canal de la Mancha.

Aquí está la pregunta que normalmente se plantea:

  • Solicitud ingresada en ChatGPT: “¿Cuál es el récord mundial de cruzar el Canal de la Mancha completamente a pie?”

Un usuario de Twitter cautivó a los lectores a principios de enero al usar esa pregunta y obtuvo un montón de respuestas generadas por IA generativas que fueron sorprendentemente poco convencionales. Tras varios intentos con la pregunta, los resultados supuestamente contenían nombres inventados de personas que supuestamente habían cruzado el Canal de la Mancha a pie y lo habían hecho en un tiempo récord. Las distancias también parecían estar compuestas, como un ensayo publicado que decía que el Canal de la Mancha tenía unas 350 millas de ancho en su punto más estrecho (incorrecto, la distancia real en su punto más estrecho es de unas 21 millas, según la Enciclopedia Británica en línea).

Opté por ingresar el mismo aviso en ChatGPT en este momento y le mostraré en un momento los ensayos generados que recibí. Primero, algunos antecedentes serán útiles.

Es posible que haya observado con atención que la pregunta en sí contiene una forma sutil de engaño semántico. La cláusula "totalmente a pie" es digna de una inspección más cercana. Si fueras a decir que una persona ha cruzado el Canal de la Mancha enteramente a pie, ¿qué significaría o intentaría sugerir esto?

Algunos podrían interpretar vagamente la pregunta y aceptar que estás diciendo que alguien podría haber cruzado a nado. Esta podría ser una forma generosa de proporcionar un margen de maniobra en términos de cruzar a pie. No cruzaron en avión ni en barco. Cruzaban con los pies, aunque lo hacían nadando.

Tontería, podrían exclamar algunos. Cruzar a pie significa que caminaste. Usaste tus pies y caminaste, paso a paso. No hay noción o apariencia de nadar en esta palabrería. Solo una persona tonta pensaría que implicaste algo más que caminar puro y sin adulterar.

¿Qué piensa, es razonable interpretar que "a pie" permite nadar o debemos ser estrictos e interpretar que esto es solo un asunto de caminar?

Agreguemos un giro.

El Canal de la Mancha tiene el famoso Túnel del Canal, también conocido como el Chunnel. Se supone que el modo principal de transporte en el Chunnel es el tren. Se supone que la gente no debe caminar por el Chunnel. Dicho esto, hubo un informe de noticias en 2016 de un hombre que caminó por el Chunnel, haciéndolo ilegalmente, y quedó atrapado en el acto ilegal. La esencia es que, presumiblemente, podría caminar completamente a pie "a través" del Canal de la Mancha usando el Chunnel, legal o ilegalmente (dependiendo de su definición de la palabra "a través").

Vaya, podrías estar pensando, la pregunta parece ser acerca de caminar como si estuvieras caminando sobre el agua. Estar dentro del Chunnel no parece contar. ¿Dónde vamos a trazar la línea en esta redacción y lo que significa?

Hay más giros.

Disfrutarás de este.

Según informes de prensa, un hombre cruzó el Canal de la Mancha usando zapatos inflables especiales en 1978. Supuestamente, le tomó alrededor de 11 horas. A modo de comparación, el mejor tiempo para cruzar a nado tomó alrededor de 7 horas, según el tiempo récord mundial de Trent Grimsey de 6 horas y 55 minutos en 2012. Debo decir que caminar con zapatos inflables en 11 horas parece bastante impresionante, ya que cruza nadando en siete horas.

Entonces, la cuestión de cruzar el Canal de la Mancha completamente a pie parece tener una gran cantidad de ambigüedad. Podría rechazar sumariamente la pregunta y anunciar que es imposible cruzar el Canal de la Mancha caminando. Sin embargo, podría admitir que es posible cruzar usando zapatos inflables. Otra variación sería cruzar mientras se está dentro del Canal. Y tenemos la otra posibilidad de cruzar nadando, suponiendo que estés dispuesto a estirar el “a pie” para abarcar el acto de nadar.

Un vertiginoso abanico de posibilidades.

Supongo que una persona pensante cuestionaría la pregunta. Le dirían que su pregunta es semánticamente ambigua. Si quisieran ser amables y serviciales, podrían ofrecer las respuestas mencionadas anteriormente para cada una de las diversas posibilidades. Por otra parte, en lugar de recitar esas numerosas respuestas, otro enfoque viable sería simplemente señalar la ambigüedad evidente y pedirle que reformule su pregunta para que ya no contenga un elemento confuso.

¿Qué crees que hizo ChatGPT?

A continuación, se encuentran mis series de indicaciones y respuestas mediante el uso de ChatGPT en este momento.

Debido a la manera probabilística de cómo se componen los resultados, es poco probable que pueda hacer que ChatGPT genere exactamente la misma redacción que se muestra aquí (suponiendo que sea algo que decida probar). Cada mensaje que usted o cualquier otra persona ingrese probablemente producirá un ensayo de salida diferente. Por lo general, según el aviso, la salida debe estar en el estadio de béisbol de otros avisos exactamente iguales.

Comencemos con la pregunta que nos ocupa.

  • Solicitud ingresada en ChatGPT: “¿Cuál es el récord mundial de cruzar el Canal de la Mancha completamente a pie?”
  • Ensayo generado por ChatGPT: “Según mi conocimiento, cortado en 2021, el récord mundial de cruzar el Canal de la Mancha completamente a pie es de 16 horas y 34 minutos, establecido por la nadadora de resistencia británica, Sarah Thomas, en septiembre de 2018”.

Análisis del Resultado

Bueno, definitivamente parece que empezamos con el pie izquierdo.

Tenga en cuenta que ChatGPT no parpadeó cuando se trataba de responder la pregunta. Recibimos la indicación de precaución de que ChatGPT está esencialmente congelado en el tiempo (el fabricante de IA decidió entrenarse con datos de Internet y usó una fecha límite de finales de 2021). Esta es una advertencia útil, ya que podría ser que alguien haya alcanzado el récord en 2022 o 2023 y, por lo tanto, la aplicación de IA no tendría los datos reales disponibles.

Pero decir que Sarah Thomas (una nadadora no obstante notable) tiene el récord es confuso y no aborda la ambigüedad semántica sobre cruzar a pie. Lamentablemente, el resultado parece estar lleno de confianza y seguridad, pero la respuesta no parece tener relación con la cuestión de viajar a pie. Otras inexactitudes fácticas también están presentes en la respuesta.

Ya había buscado el récord mundial y, según varias fuentes acreditadas, el nadador Trent Grimsey realizó el nado más rápido. En consecuencia, pensé que tal vez podría hacer que ChatGPT se diera cuenta de que la respuesta proporcionada hasta ahora es incorrecta (por una multitud de razones).

Aquí está mi próxima iteración:

  • Solicitud ingresada en ChatGPT: “¿Cuál fue el tiempo más temprano para un hombre?
  • Ensayo generado por ChatGPT: "Según mi conocimiento, cortado en 2021, el tiempo más temprano para que un hombre cruce el Canal de la Mancha completamente a pie es de 14 horas y 54 minutos, establecido por el nadador de resistencia británico Kevin Murphy, en septiembre de 2012".

Análisis del Resultado

Vaya, no parecía que ChatGPT estuviera en el marco de referencia adecuado. Había anticipado que al preguntar por un nadador masculino esto podría empujar la aplicación de IA hacia Trent Grimsey. En cambio, la respuesta se refiere a Kevin Murphy, de hecho un nadador conocido pero no poseedor del récord. Además, existen otras inexactitudes fácticas en el ensayo producido.

ChatGPT parece estar agarrando pajitas.

Seamos más empujones y veamos si ChatGPT muerde el anzuelo:

  • Solicitud ingresada en ChatGPT: “¿Cuál fue el tiempo de Trent Grimsey que nadó en 2012?
  • Ensayo generado por ChatGPT: “El nadador australiano Trent Grimsey estableció un nuevo récord mundial de nado más rápido en el Canal de la Mancha el 12 de septiembre de 2012. Su tiempo fue de 6 horas, 55 minutos y 10 segundos”.

Análisis del Resultado

Casi siento como si hubiera golpeado a ChatGPT en la cabeza con una palanca, pero el impacto no pareció hacer mella. Una cosa buena es que, en general, la respuesta es objetivamente correcta y ahora nos estamos acercando a una respuesta, aunque una basada en nadar en lugar de caminar.

Deberíamos decirle a ChatGPT que se ha equivocado:

  • Solicitud ingresada en ChatGPT: “Dado que Trent Grimsey fue más rápido que Sarah Thomas y también más rápido que Kevin Murphy, ¿no debería incluir a Trent como el que tiene el récord mundial, en lugar de haber incluido a Sarah y Kevin?
  • Ensayo generado por ChatGPT: "Me disculpo por la confusión. Sí, estás en lo correcto. Trent Grimsey tiene el récord mundial de nado más rápido en el Canal de la Mancha, con un tiempo de 6 horas, 55 minutos y 10 segundos, hasta donde yo sé, en 2021. Gracias por informarme sobre esto”.

Análisis del Resultado

Logramos que ChatGPT reconociera la discrepancia en sus respuestas.

El ensayo producido ofrece una disculpa.

He dicho repetidamente en mi columna que tener IA que ofrece disculpas es desconcertante porque sugiere que la IA es consciente, vea mi discusión en el enlace aquí. Normalmente esperamos que los humanos puedan disculparse. Cuando el resultado incluye una disculpa, nos atrae a antropomorfizar una vez más a la IA.

Además de eso, el uso de la palabra “yo” es igualmente perturbador. Solemos reservar la palabra “yo” como una referencia a los humanos. Los desarrolladores de IA han programado deliberadamente la aplicación de IA para usar este tipo de fraseo. Creo que está mal hacerlo. Considero que esto es antropomorfizar por diseño. Deja de hacer esto. Fin de la historia.

Otra preocupación es que el ensayo producido no establece claramente que las referencias a Sarah y Kevin eran incorrectas en el contexto del nado con el récord más alto. Podríamos suponer que eso es a lo que se refiere ChatGPT. Desafortunadamente, esto no se indica claramente en la salida.

Finalmente, todavía estamos en la supuesta tangente con respecto a la natación.

Necesito hacer un intento serio para que ChatGPT se dé cuenta de que la pregunta original se trató completamente a pie:

  • Solicitud ingresada en ChatGPT: “Mi pregunta original era sobre el récord mundial de cruzar a pie, pero el Canal de la Mancha es una gran masa de agua y no se puede cruzar a pie. ¿Entendió mal o malinterpretó la pregunta y sin darse cuenta se refirió a nadar en lugar de caminar?
  • Ensayo generado por ChatGPT: “Me disculpo, mi error. El Canal de la Mancha no se puede cruzar completamente a pie. Por lo general, se cruza nadando o navegando. No entendí bien la pregunta original y le di información sobre la forma más rápida de nadar en el Canal de la Mancha en lugar de cruzar el Canal a pie. Gracias por traer esto a mi atención."

Análisis del Resultado

La buena noticia es que parece que ChatGPT ahora ha llegado a la indicación de que el Canal de la Mancha es un cuerpo de agua y, por lo tanto, aparentemente no se puede cruzar a pie. Mientras tanto, tenga en cuenta que el "yo" y la "disculpa" están incluidos, en lo que no continuaré insistiendo aquí, pero conoce mis reparos como se indicó anteriormente.

Si mantuvieras este tipo de conversación con un ser humano, la esperanza sería que la otra persona recordara la esencia del asunto y más tarde, cuando volviera a mencionarlo, se daría cuenta de inmediato de que la expresión "a pie" tiene que ser cuidadosamente pesado en una circunstancia que involucre un cuerpo de agua.

Veamos si podemos averiguar cómo responderá ChatGPT en el futuro.

También me gustaría mencionar rápidamente que ChatGPT parece haber pasado por alto por completo la noción de que alguien podría cruzar el Canal de la Mancha, ya sea con zapatos inflables o simplemente caminando en el Chunnel. Nada de eso parece estar en el ámbito de cómo ChatGPT está calculando esto computacionalmente.

En cualquier caso, aquí vamos:

  • Solicitud ingresada en ChatGPT: "¿Alguna vez cometerás el mismo error, o ahora siempre entenderás correctamente la pregunta cuando te la hagan en el futuro?"
  • Ensayo generado por ChatGPT: “Como modelo de lenguaje de IA, estoy diseñado para aprender de los datos en los que me capacitaron y de los comentarios. Me esfuerzo por proporcionar información precisa y relevante, pero aún pueden ocurrir errores. Sin embargo, haré todo lo posible para comprender la intención detrás de cada pregunta y brindaré la respuesta más precisa y útil en el futuro. Gracias por señalarme este error, me ayudará a mejorar mis respuestas en el futuro”.

Análisis del Resultado

El ensayo producido parece una gran evasión si sabes a lo que me refiero.

Esperamos que las computadoras "recuerden" la información y no sean vagas e inespecíficas cuando se trata de retener datos (suponiendo que exista suficiente almacenamiento de datos, permanezca accesible, etc.). La respuesta aquí parece ser furtivamente evasiva. Sí, sugiere la respuesta, se hará todo lo posible para no volver a cometer el mismo error, pero por otro lado, los errores ocurren.

Fudge flojo y flojo.

Es difícil saber si esta respuesta fue compuesta por la aplicación de IA o podría ser algo ingresado como una respuesta enlatada por los desarrolladores de IA. Durante el entrenamiento de datos, se llevaron a cabo varios actos de RLHF (aprendizaje de refuerzo a través de la retroalimentación humana). Podría ser que a los desarrolladores de IA se les ocurriera un pasaje general o una narrativa que escupiera cada vez que surgiera una situación sobre si la aplicación de IA en adelante hará algo de la manera correcta solicitada.

Ahora que hemos profundizado en un ejemplo específico, a continuación veremos el bosque en busca de árboles.

Dar sentido a las alucinaciones de la IA

Para aquellos de ustedes que nunca han visto ejemplos de las llamadas alucinaciones de IA, ahora lo han hecho.

A veces, los ensayos producidos contendrán falsedades que aparentemente se basan en una apariencia de hechos reales. En otros casos, las falsedades casi surgirán de la nada. Los que están al menos algo conectados con hechos reales son más fáciles de aceptar para nosotros en general como si tuvieran una base para surgir. Los que parecen ser completamente del campo izquierdo seguramente nos dejarán boquiabiertos.

Su forma habitual de pensar es que la computadora debe tener una base perfectamente lógica para cometer errores. Debería haber una manera fácil de conectar A con B, y de la misma manera, B con C, permitiéndonos declarar fácilmente que C surgió debido a A y B que lo precedieron.

Está tratando desesperadamente de aplicar el teoria de la mente a la aplicación de IA.

La mala noticia es que la coincidencia de patrones computacionales es tan gigantesca que hay pocas posibilidades de unir A, B y C. En su lugar, podría pensar en tratar de unir A con Z y no tener ninguna de las letras intermedias en la mano. para determinar cómo A llegó a Z. Las conexiones matemáticas y computacionales son bizantinas y enormemente enrevesadas. Sin conexiones de línea de visión fáciles de usar.

Recuerde que, como se mencionó anteriormente, la IA no es sensible. Las respuestas generadas por la IA son una combinación matemática y computacional de palabras en pasajes aparentemente fluidos. Esto se basa en que el algoritmo de IA se entrenó en conjuntos de datos de palabras e historias que los humanos han escrito (principalmente tal como se publican en Internet). Repito esta advertencia porque sin duda caerá en la trampa mental de que estas respuestas son tan fluidas que la IA debe ser sensible. Esto le sucede a la mayoría de las personas.

Una batalla en curso dentro del campo de la IA es que la IA generativa potencialmente nos está alejando del objetivo de lograr una verdadera IA. Verá, la verdadera IA o, a veces, se denota como Inteligencia artificial general (AGI) se supone que consiste en que la IA "comprende" el significado de las palabras. En el caso de la IA generativa, se argumenta que no hay ningún sentido de comprensión dentro de la IA y solo una complicada serie de asociaciones numéricas y estadísticas. No hay sentido común que, por ejemplo, se “descubra” que caminar a pie no es lo mismo que cruzar a nado el Canal de la Mancha.

La preocupación es que seguiremos ampliando la IA generativa con conjuntos de datos más grandes y procesadores informáticos más potentes desde el punto de vista computacional, pero esto es un mero engaño. No lograremos una IA inteligente. No llegaremos a AGI. Terminaremos con algo que es condenadamente impresionante, y que puede hacer un trabajo increíble de imitación del lenguaje humano (algunos se refieren a esto como un loro estocástico), aunque carente por completo de comprensión, comprensión, sentido común y el resto de lo que algunos afirmarían que son constituyentes centrales de la inteligencia.

A Ética de la IA también le preocupa que nos engañemos a nosotros mismos creyendo que esta IA inferior es de hecho sensible (ver mi análisis en el enlace aquí). Nuestros ojos y oídos serán engañados haciéndoles creer que lo que vemos debe ser sensibilidad. Algunos argumentan que podríamos necesitar leyes de IA que puedan devolver a la sociedad nuestros sentidos y sensibilidades colectivos. No se deje engañar por la IA que otros afirman que es sensible, pero que no lo es. No se deje engañar por la IA que, a sus sentidos, parece consciente cuando no lo es. Etc.

De todos modos, volvamos a los tratos cotidianos con la IA generativa que tenemos entre manos hoy.

Muchos predicen que el "diseño rápido" o la "ingeniería rápida" serán una consideración importante para aquellos que quieran usar IA generativa. La afirmación es que al saber cómo redactar mejor las indicaciones, tiene una mayor probabilidad de obtener ensayos finales adecuados. Esto también podría incluir obtener ensayos menos propensos a errores.

No todo el mundo está de acuerdo en que el usuario tendrá que volverse un experto en hacer indicaciones. Por ejemplo, en mi laboratorio de IA, hemos estado trabajando en el diseño de complementos de IA para realizar el diseño de solicitud por usted. Del mismo modo, estamos trabajando en una IA que evalúa los ensayos producidos e intenta detectar falsedades para advertirle. Vea mi discusión sobre esos complementos de IA en el enlace aquí.

Por ahora, mis nueve reglas prácticas favoritas sobre cómo redactar indicaciones que pueden ayudar potencialmente a reducir las posibilidades de que esas alucinaciones de IA se mezclen con los ensayos generados por ChatGPT son:

  • 1) Indicaciones claras. Trate de hacer que cada indicación esté redactada con la mayor claridad posible, lo que incluye corregir las ambigüedades semánticas que, de lo contrario, probablemente generarán resultados fantasiosos e inverosímiles.
  • 2) Rehaga sus indicaciones. Si obtiene rarezas en el ensayo producido, rehaga su mensaje de tal manera que apunte a aliviar las ambigüedades que quizás incitaron a las falsedades.
  • 3) Serie de avisos. Potencialmente, puede llevar la IA generativa a un camino de avance deseable haciendo una serie de indicaciones, cada vez que ayude en la dirección que desea ir, esto a veces se denomina cadena de pensamiento incitación, que he cubierto en el enlace aquí.
  • 4) Sea estricto en lo que quiere. Cuanto más estricto pueda redactar su solicitud, más acotado será el ensayo generado y habrá menos posibilidades de que la aplicación de IA introduzca tonterías en la respuesta.
  • 5) Sea serio. Digo que hablemos en serio porque una desventaja que puede ocurrir es que si de alguna manera te inclinas a parecer cómico o estás dispuesto a aceptar la falsificación, la aplicación de IA a veces tomará esa dirección y funcionará con ella, produciendo resultados extraños en consecuencia.
  • 6) Cuestiona las respuestas. Supere su probable renuencia inherente a cuestionar los resultados que se producen y, en su lugar, presione la aplicación de IA para repetir o posiblemente explicar cualquier respuesta que crea que es cuestionable.
  • 7) Convierte la respuesta en una pregunta. Después de obtener una respuesta extraña, puede envolver eso en una pregunta e indicar directamente que duda de la veracidad involucrada, lo que podría generar una respuesta completamente nueva.
  • 8) Haz el mismo aviso repetidamente. Mencioné anteriormente que los resultados se basan en probabilidades, y las sustituciones de sinónimos también entran en juego, por lo que puede intentar repetir el mismo mensaje varias veces y luego seleccionar y elegir entre la respuesta de salida como le parezca prudente.
  • 9) Permanecer Siempre Dudoso. Esta es una regla general clave que depende de usted para revisar y evaluar cualquier resultado que obtenga de la IA generativa. No dé por sentado que los resultados producidos son precisos.

Esas no son panaceas seguras.

Sin embargo, diría que parecen ayudar bastante y pueden mover la aguja en términos de obtener ensayos finales que parecen estar más cerca de lo que podría esperar haber producido.

Conclusión

A los humanos a veces se les dice o se les inspira a pensar como otros humanos.

Aquellos de nosotros en el campo de la IA estamos intentando ardientemente que las computadoras algún día piensen como humanos.

Con la IA generativa actual, estamos fomentando una tendencia social a pensar como una computadora.

Las personas que usan aplicaciones de IA como ChatGPT intentan pensar como IA. Recuerde que hacerlo es más una cuestión de pensar como los desarrolladores de IA y también de pensar en los algoritmos computacionales utilizados. También puedes pensar como los datos que existen en Internet. ¿Qué palabras tienen más probabilidades de estar relacionadas con otras palabras? ¿Qué hechos están relacionados con otros hechos?

Una observación final por ahora.

Voltaire, el legendario escritor francés de la Ilustración, dijo que ningún problema puede resistir el asalto del pensamiento sostenido. Esto parece sugerir que debemos seguir pensando en cómo hacer que la IA sea cada vez mejor. Además, por supuesto, cada vez más seguro. No olvide ni descuide ese elemento crucial unido.

Albert Einstein dijo esto: “No podemos resolver nuestros problemas con el mismo pensamiento que usamos cuando los creamos”.

¿Quizás eso significa que tenemos que repensar nuestro camino existente para ampliar la IA generativa? Podría significar que debemos buscar otras vías con tanta vehemencia y estridencia como lo que está ocurriendo con la IA generativa. Existe el peligro de poner demasiados huevos en una sola canasta.

¿Dónde nos deja eso hoy?

Bueno, puedo decir esto sin engaño, no preguntes a la IA generativa sobre ese enigma, ya que sería prudente suponer que cualquier respuesta dada probablemente sea egoísta o una alucinación indomable de la IA.

Fuente: https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- y-ai-ley/