¿Hace algún bien exponer y registrar esos resultados erróneos y alucinatorios generativos de AI ChatGPT?, pregunta Ética y leyes de AI

Usted está en un secreto.

Sí, hay algo subrepticiamente detrás de escena sobre lo último en IA que tal vez quieras saber.

En la columna de hoy, examinaré el ímpetu reciente para compilar supuestos errores y otras enfermedades asociadas con los ensayos generados desde una aplicación de IA conocida como ChatGPT. Esta aplicación en particular está utilizando un tipo de IA llamado IA generativa. Probablemente haya escuchado o visto titulares llamativos sobre IA generativa y ChatGPT. Las noticias están entusiasmadas con esta aplicación de IA específica y las capacidades aparentemente asombrosas relacionadas con este tipo de IA.

Como cubriré en un momento, algunos creen firmemente que debemos establecer una lista de los tipos de errores que puede producir la aplicación de IA cuando genera un ensayo para usted. Otros sugieren que aunque la idea de tal lista es admirable, es un ejercicio inútil y dará muy pocos frutos.

Estaremos examinando ambos lados de ese rencoroso debate.

Primero, asegurémonos de que todos estemos en la misma página sobre en qué consiste la IA generativa y también de qué se trata ChatGPT.

ChatGPT es un sistema interactivo orientado a la conversación de IA de propósito general, esencialmente un chatbot general aparentemente inocuo; sin embargo, las personas lo utilizan de manera activa y ávida de maneras que están tomando a muchos con la guardia baja. Todo lo que necesita hacer para usar este tipo de IA es ingresar un mensaje y la aplicación de IA generará para usted un ensayo que intenta responder a su mensaje.

Desafortunadamente, esto se puede usar de formas un tanto poco éticas o tortuosas. Un problema especialmente exasperante es que los estudiantes pueden usar una aplicación de inteligencia artificial basada en generativos para producir los ensayos que se les asignen, simplemente ingresando una oración o dos para que la aplicación vaya en la dirección correcta. Algunos lamentan que esto signifique que los estudiantes optarán por hacer trampa cuando escriban ensayos fuera de clase. Los maestros están tratando de averiguar qué hacer, vea mi análisis y recomendaciones en el enlace aquí.

A pesar del constante estruendo de loables elogios para ChatGPT, existe una preocupación menos conocida expresada principalmente por expertos en IA de que hay algunos problemas y dudas notables por los que la gente debería preocuparse. Una desventaja crucial es que los ensayos producidos por esta aplicación de IA pueden tener incrustadas varias falsedades, incluidos hechos evidentemente falsos, hechos que se describen de manera engañosa y hechos aparentes que son completamente inventados. Esos aspectos fabricados se refieren a menudo como una forma de alucinaciones de IA, un eslogan que no me gusta pero que lamentablemente parece estar ganando popularidad de todos modos (para una explicación detallada de por qué esta es una terminología pésima e inadecuada, consulte mi cobertura en el enlace aquí).

Me gustaría aclarar un aspecto importante antes de entrar en el meollo de este tema.

Ha habido algunas afirmaciones descabelladas y descomunales en las redes sociales sobre IA generativa afirmando que esta última versión de AI es de hecho IA consciente (¡no, están equivocados!). Los de Ética y Derecho de IA están especialmente preocupados por esta tendencia creciente de reclamos extendidos. Se podría decir cortésmente que algunas personas están exagerando lo que la IA de hoy en día realmente puede hacer. Asumen que la IA tiene capacidades que aún no hemos podido lograr. Eso es lamentable. Peor aún, pueden permitirse a sí mismos y a otros meterse en situaciones difíciles debido a la suposición de que la IA será sensible o parecida a un humano para poder tomar medidas.

No antropomorfizar la IA.

Si lo hace, quedará atrapado en una trampa de dependencia pegajosa y severa de esperar que la IA haga cosas que no puede realizar. Dicho esto, lo último en IA generativa es relativamente impresionante por lo que puede hacer. Sin embargo, tenga en cuenta que existen limitaciones significativas que debe tener en cuenta continuamente al usar cualquier aplicación de IA generativa.

Si está interesado en la conmoción en rápida expansión sobre ChatGPT y la IA generativa, he estado haciendo una serie enfocada en mi columna que puede encontrar informativa. Aquí hay un vistazo en caso de que alguno de estos temas te llame la atención:

  • 1) Predicciones de los próximos avances en IA generativa. Si desea saber qué es probable que se desarrolle sobre la IA a lo largo de 2023 y más allá, incluidos los próximos avances en IA generativa y ChatGPT, querrá leer mi lista completa de predicciones para 2023 en el enlace aquí.
  • 2) IA Generativa y Asesoramiento en Salud Mental. Opté por revisar cómo la IA generativa y ChatGPT se utilizan para el asesoramiento sobre salud mental, una tendencia problemática, según mi análisis centrado en el enlace aquí.
  • 3) Contexto y uso generativo de IA. También realicé un examen irónico con sabor estacional sobre un contexto relacionado con Papá Noel que involucraba ChatGPT e IA generativa en el enlace aquí.
  • 4) Estafadores que usan IA generativa. En una nota ominosa, algunos estafadores han descubierto cómo usar la IA generativa y ChatGPT para cometer delitos, incluida la generación de correos electrónicos fraudulentos e incluso la producción de código de programación para malware. Consulte mi análisis en el enlace aquí.
  • 5) Errores de novatos al usar IA generativa. Muchas personas se exceden y, sorprendentemente, no alcanzan lo que pueden hacer la IA generativa y ChatGPT, por lo que observé especialmente la insuficiencia que tienden a cometer los novatos de la IA, vea la discusión en el enlace aquí.
  • 6) Lidiar con indicaciones generativas de IA y alucinaciones de IA. Describo un enfoque de vanguardia para el uso de complementos de IA para lidiar con los diversos problemas asociados con el intento de ingresar avisos adecuados en la IA generativa, además hay complementos de IA adicionales para detectar los llamados resultados alucinados y falsedades de la IA, como cubierto en el enlace aquí.
  • 7) Desacreditar las afirmaciones de Bonehead sobre la detección de ensayos generados por IA generativa. Hay una fiebre del oro equivocada de aplicaciones de IA que proclaman poder determinar si un ensayo determinado fue producido por humanos o generado por IA. En general, esto es engañoso y, en algunos casos, un reclamo estúpido e insostenible, consulte mi cobertura en el enlace aquí.
  • 8) El juego de roles a través de la IA generativa podría presagiar inconvenientes para la salud mental. Algunos están utilizando IA generativa como ChatGPT para hacer juegos de rol, en los que la aplicación de IA responde a un humano como si existiera en un mundo de fantasía u otro entorno inventado. Esto podría tener repercusiones en la salud mental, ver el enlace aquí.

Analicemos ahora la esencia de la IA generativa y ChatGPT para que conozca los fundamentos involucrados. Entonces estaremos listos para saltar a un análisis de sondeo de las falsedades que estas aplicaciones de IA pueden generar potencialmente. Incluiré varios ejemplos del uso de ChatGPT, que lo ayudarán a comprender de manera tangible la naturaleza de lo que produce este tipo de IA generativa.

Abriendo la lata de gusanos en IA generativa

Estamos listos para sumergirnos en algunos detalles sobre la IA.

Si ya está muy versado en el tema de la IA generativa y ChatGPT, puede optar por hojear brevemente mis puntos y continuar con la siguiente sección de esta discusión. Para todos los demás, creo que esta aclaración les puede resultar útil.

En resumen, la IA generativa es un tipo particular de IA que compone el texto como si el texto hubiera sido escrito por la mano y la mente humana. Todo lo que necesita hacer es ingresar un mensaje, como una oración como "Cuénteme sobre Abraham Lincoln" y la IA generativa le proporcionará un ensayo sobre Lincoln. Esto se clasifica comúnmente como IA generativa que realiza texto a texto o algunos prefieren llamarlo texto a ensayo producción. Es posible que haya oído hablar de otros modos de IA generativa, como texto a arte y texto a video.

Su primer pensamiento podría ser que esto no parece tan importante en términos de producción de ensayos. Puede realizar fácilmente una búsqueda en línea en Internet y encontrar toneladas y toneladas de ensayos sobre el presidente Lincoln. El truco en el caso de la IA generativa es que el ensayo generado es relativamente único y proporciona una composición original en lugar de una copia. Si intentara encontrar el ensayo producido por IA en línea en algún lugar, es poco probable que lo descubra.

La IA generativa está preentrenada y utiliza una formulación matemática y computacional compleja que se ha configurado mediante el examen de patrones en palabras e historias escritas en la web. Como resultado de examinar miles y millones de pasajes escritos, la IA puede arrojar nuevos ensayos e historias que son una mezcla de lo que se encontró. Al agregar varias funciones probabilísticas, el texto resultante es bastante único en comparación con lo que se ha utilizado en el conjunto de entrenamiento.

Es por eso que ha habido un alboroto acerca de que los estudiantes pueden hacer trampa cuando escriben ensayos fuera del salón de clases. Un maestro no puede simplemente tomar el ensayo que los estudiantes engañosos afirman que es su propia escritura y tratar de averiguar si fue copiado de alguna otra fuente en línea. En general, no habrá ningún ensayo preexistente definitivo en línea que se ajuste al ensayo generado por IA. En total, el profesor tendrá que aceptar a regañadientes que el estudiante escribió el ensayo como un trabajo original.

En un momento, le mostraré lo que sucede cuando ingresa preguntas o indicaciones en la IA generativa. Usaré la última versión de ChatGPT para ingresar mis indicaciones y recopilar las "respuestas" o ensayos generados por la IA (tenga en cuenta que se puede hacer lo mismo con las muchas otras aplicaciones generativas de IA disponibles; he optado por usar ChatGPT porque ahora mismo está teniendo sus cinco minutos de fama).

Quizás una breve tangente sobre ChatGPT podría ser útil en este momento.

La aplicación ChatGPT se puso a disposición del público en general hace solo unos meses. En general, estas aplicaciones generativas de IA generalmente solo son accesibles para los expertos en IA. La faceta inusual de que cualquier persona puede usar ChatGPT simplemente ingresando una dirección de correo electrónico y un nombre, bueno, esto llevó a muchas personas a decidir probarlo. Actualmente, ChatGPT es de uso gratuito (el problema de la monetización es un dilema inminente para los fabricantes de IA).

Casi de inmediato hubo una enorme reacción en las redes sociales cuando la gente se apresuró a dar ejemplos de lo que puede hacer la IA generativa. La empresa que fabrica ChatGPT, OpenAI, optó por cerrar los registros en un millón de usuarios. Esos millones de usuarios han logrado bombardear las ondas de radio con todo tipo de historias y cuentos sobre el uso de ChatGPT.

Tenga mucho cuidado al creer lo que la gente tiene que decir sobre la aplicación de IA. Muchas de estas personas no tienen ni idea de lo que están usando. Es casi como si nunca hubieran conducido un automóvil y ni siquiera se hubieran dado cuenta de que existían los automóviles, y de repente tuvieron la oportunidad de conducir un automóvil. Se produce un asombro total.

No digo que la IA generativa no sea relativamente impresionante. Está. Solo estoy enfatizando que muchos de los testimonios efusivos los están haciendo muchos que desconocen felizmente lo que la IA de hoy puede hacer. Los que estamos dentro de la IA hemos estado usando la IA generativa durante los últimos años. Quizás nos acostumbramos. De repente, ver una gran aglomeración de personas pregonándolo a los cuatro vientos ha sido emocionadamente energizante, pero también algo desconcertante. La parte desconcertante es cuando la gente proclama que la IA generativa es consciente. No lo es. No dejes que nadie te convenza de lo contrario.

Dicho esto, hay un acalorado debate en curso en el campo de la IA sobre si la IA generativa está en el camino hacia la sensibilidad o si tal vez no lo está. Una opinión es que si seguimos ampliando la IA generativa con computadoras más rápidas y una mayor cantidad de datos, como rastrear cada centímetro de Internet, llegaremos casi espontáneamente a una IA sensible. Otros argumentan que esto es muy poco probable. Sugieren que la IA generativa podría ser uno de los muchos componentes que se necesitan. Incluso existe la visión más sombría de que la IA generativa es un espectáculo secundario que nos distrae de los avances reales que necesitaremos para lograr una IA sensible.

También puede encontrar algo digno de mención al que los expertos en IA tienden a referirse Inteligencia Artificial General (AGI) como el objetivo al que se aspira en el campo de la IA. Solía ​​ser que el objetivo era alcanzar Inteligencia artificial , pero el apodo de IA se ha diluido y confundido. Cuando alguien dice que está haciendo trabajo de IA, no sabe si se está refiriendo a la IA de hoy que no está a la par con los humanos o si se está refiriendo a una IA de equivalencia humana futurista. Para evitar esa confusión exasperante, la nueva redacción de AGI se está utilizando en estos días.

En total, la IA generativa de hoy es no sensible, ni es AGI.

Recuerde que, como se mencionó anteriormente, la IA no es consciente. Las respuestas generadas por la IA son una combinación matemática y computacional de palabras en pasajes aparentemente fluidos. Esto se basa en que el algoritmo de IA se entrenó en conjuntos de datos de palabras e historias que los humanos han escrito (principalmente tal como se publican en Internet). Repito esta advertencia porque sin duda caerá en la trampa mental de que estas respuestas son tan fluidas que la IA debe ser sensible. Esto le sucede a la mayoría de las personas. Como se instó anteriormente, deje de lado ese antropomorfismo. Recuerde siempre que las respuestas se basan en el vasto tesoro de escritura humana que existe en Internet y, por lo tanto, se parecerá mucho a la escritura humana.

Hay algo más que debes saber.

La IA generativa que se entrena en Internet sin restricciones tenderá a integrarse en cualquier respuesta basada en texto que invente matemática y computacionalmente algunas cosas ofensivamente confusas, incluidas palabras repulsivamente desagradables. Hay un montón de cosas locas y sucias publicadas en la web.

Lo has visto, sabes a lo que me refiero.

Las empresas que están creando estas aplicaciones de IA están preocupadas de que el proverbial bebé sea arrojado con el agua del baño (un viejo dicho que quizás se retire), lo que significa que si su IA produce ensayos o historias ofensivas, la gente se alzará en armas. sobre la IA. He cubierto los muchos casos anteriores en los que se dieron a conocer este tipo de aplicaciones de IA de procesamiento de lenguaje natural (NLP) y muy pronto surgieron todo tipo de cosas horribles (he cubierto estos casos en mi columna). La mayoría de los fabricantes de IA aprendieron una dura lección sobre permitir que sus productos de IA no tengan restricciones en sus resultados.

En el caso de ChatGPT, los desarrolladores de IA buscaron implementar algunos controles y equilibrios algorítmicos y relacionados con los datos para frenar la maldad en los resultados de la IA. Parte de esto ocurrió durante el tiempo de entrenamiento. Además, existen otros medios en un intento en tiempo real para obviar salidas especialmente atroces.

Puede que le interese que algunas personas que han usado ChatGPT ya hayan ideado formas subrepticias de eludir esas barreras mediante el uso de varios trucos. En estos asuntos se lleva a cabo un gambito continuo del gato y el ratón. Aquellos que hacen estos trucos a veces lo hacen por diversión, mientras que a veces (al menos afirman) lo hacen para ver hasta dónde se puede estirar la IA y proporcionar un medio útil para advertir la fragilidad y las debilidades de estos incipientes. aplicaciones de IA.

Decidí no intentar eludir los controles habituales en esta exploración enfocada. La salida de texto es limpia. Ciertamente, si uno quisiera hacerlo, sin duda podría generar algunos ensayos extraños y desagradables.

Los ensayos producidos por la mayoría de estas aplicaciones de IA generativa están diseñados para transmitir el resultado como si fuera puramente fáctico y preciso. Cuando lees los ensayos producidos, se muestran completamente seguros. Por lo general, no hay ningún tipo de indicación de que el contenido pueda ser rocoso. Esto es por elección de los fabricantes de IA, es decir, que podrían revisar las aplicaciones de IA para que sean más transparentes si quisieran que la aplicación de IA lo hiciera.

A veces, una aplicación de IA generativa detecta falsedades en medio de los datos de entrenamiento de información poco confiable en Internet. No hay "sentido común" en la IA generativa para determinar qué es verdadero o falso. Además, muy pocas aplicaciones de IA tienen verificación cruzada y tampoco muestran probabilidades asociadas con lo que transmiten.

El resultado final es que obtiene una respuesta que se ve y se siente como si emanara una gran seguridad y debe ser completamente correcta. No tan. Incluso existe la posibilidad de que la IA invente cosas computacionalmente, lo que en el lenguaje de la IA se conoce como alucinaciones de IA (un término acuñado que decididamente no me gusta), vea mi discusión en el enlace aquí.

Los creadores de ChatGPT realizaron un esfuerzo concertado para tratar de reducir las salidas de cosas malas. Por ejemplo, utilizaron una variante de lo que se conoce como RLHF (Aprendizaje de refuerzo a partir de la retroalimentación humana), por lo que antes de lanzar la IA al público, contrataron humanos para examinar varios resultados e indicarle a la IA si había problemas con esos resultados, como quizás mostrar sesgos, malas palabras y el me gusta. Al proporcionar esta retroalimentación, la aplicación de IA pudo ajustarse computacional y matemáticamente para reducir la emisión de dicho contenido. Tenga en cuenta que este no es un método blindado garantizado y todavía hay formas en que la aplicación AI puede emitir dicho contenido.

Puede que le interese que ChatGPT se base en una versión de una aplicación de IA anterior conocida como GPT-3. Se considera que ChatGPT es un paso ligeramente posterior, denominado GPT-3.5. Se anticipa que GPT-4 probablemente se lanzará en la primavera de 2023. Presumiblemente, GPT-4 será un impresionante paso adelante en términos de poder producir ensayos aparentemente aún más fluidos, profundizar y ser un asombro. -inspiradora maravilla en cuanto a las composiciones que puede producir.

Puede esperar ver una nueva ronda de asombro expresado cuando llegue la primavera y se lance lo último en IA generativa.

Menciono esto porque hay otro ángulo a tener en cuenta, que consiste en un posible talón de Aquiles para estas aplicaciones de IA generativas mejores y más grandes. Si algún proveedor de IA pone a disposición una aplicación de IA generativa que arroja asquerosidad, esto podría frustrar las esperanzas de esos fabricantes de IA. Un derrame social puede causar que toda la IA generativa tenga un ojo morado grave. Sin duda, la gente se enfadará bastante por las malas salidas, que ya han sucedido muchas veces y han dado lugar a bulliciosas reacciones violentas de condena social hacia la IA.

Una advertencia final por ahora.

Todo lo que vea o lea en una respuesta generativa de IA que parece para transmitirse como puramente fáctico (fechas, lugares, personas, etc.), asegúrese de permanecer escéptico y esté dispuesto a verificar dos veces lo que ve.

Sí, las fechas se pueden inventar, los lugares se pueden inventar y los elementos que normalmente esperamos que sean irreprochables son todos sujeto a sospechas. No crea lo que lee y mantenga una mirada escéptica cuando examine cualquier ensayo o resultado de IA generativa. Si una aplicación de IA generativa te dice que Abraham Lincoln voló por todo el país en su propio jet privado, sin duda sabrás que es una tontería. Desafortunadamente, algunas personas pueden no darse cuenta de que los aviones a reacción no existían en su época, o pueden saber pero no darse cuenta de que el ensayo hace esta afirmación audaz y escandalosamente falsa.

Una fuerte dosis de escepticismo saludable y una mentalidad persistente de incredulidad serán su mejor activo cuando use IA generativa.

Estamos listos para pasar a la siguiente etapa de esta elucidación.

Esos esfuerzos para registrar esos errores de salida de ChatGPT

“Bueno, tienes problemas, amigo mío, aquí mismo, digo, problemas aquí mismo en River City”, proclama la famosa frase del clásico musical de Broadway. The Music Man .

La misma línea se puede aplicar a la IA generativa de hoy.

La gente comenzó a darse cuenta de que una aplicación de IA generativa puede producir falsedades y pareció realmente sorprendida por esos resultados inquietantes. Quizás algunos asumieron que la IA no puede cometer errores. Otros podrían haber anticipado que los desarrolladores de IA se asegurarían de que no se generaran tales resultados.

En cualquier caso, los expertos en IA reconocieron de inmediato que este tipo de salida defectuosa es parte integral de donde se encuentra la mayor parte de la IA generativa actual. Es muy difícil evitar que ocurran ese tipo de errores textuales. Tenga en cuenta que la IA no tiene una apariencia de sentido común y no usa la lógica per se al derivar los ensayos generados. Todo el kit-and-caboodle tiene que ver con hacer una comparación de patrones estadísticos y probabilísticos computacionales de palabras con otras palabras.

Al principio, los expertos de IA optaron por publicar los resultados extravagantes descubiertos de ChatGPT en los sitios de redes sociales. Mira este, alguien anunciaría. Eso es malo, respondería alguien más, y luego daría un ejemplo diferente que parecía incluso peor. Esto siguió y siguió.

Estos ejemplos de falsedades y errores en los ensayos producidos se estaban filtrando. Uno a uno. Además, dado que esto generalmente se publicaba en las redes sociales, no había una forma particularmente fácil de verlos todos a la vez. A menudo, alguien que no se había dado cuenta de que otros ya habían encontrado la instancia específica publicaría el mismo ejemplo o uno similar.

En este pantano en ciernes entraron aquellos que expresaron una sugerencia útil. Tal vez deberíamos configurar un repositorio o una base de datos, tal vez incluso una hoja de cálculo común y corriente, que contenga el bicho raro de ChatGPT y los resultados erróneos que se están descubriendo. Cada vez que alguien encuentre la belleza de una carcajada, continúe y regístrela en la lista. Algunos han convertido esto casi en un juego, en el que intentan deliberadamente que ChatGPT emita resultados extraños. Otros simplemente encuentran salidas defectuosas durante el uso de ChatGPT para otros propósitos determinados.

Suena bastante simple.

Parece una forma práctica y elegante de ayudarnos a todos.

Hagamos una breve descripción de por qué tiene mucho sentido compilar este tipo de listas sobre errores o falsedades observados en ChatGPT:

  • 1) Revela problemas y preocupaciones vitales sobre ChatGPT que el público en general debe conocer
  • 2) Ayuda a contrarrestar la publicidad excesiva y las expectativas infladas sobre ChatGPT
  • 3) Podría incitar a los creadores de IA a realizar mejoras, no solo para ChatGPT sino también para otras aplicaciones de IA generativa
  • 4) Servir como un registro histórico que se puede usar más adelante para reflexionar en retrospectiva sobre el surgimiento de la IA generativa como se ejemplifica a través de ChatGPT.
  • 5) Ser un recurso colectivo conveniente para cualquier persona que necesite averiguar lo que parece que hemos detectado con respecto a las salidas erróneas de ChatGPT.
  • 6) Útil para investigadores de todas las disciplinas que examinan los impactos de ChatGPT
  • 7) Podría usarse como punto de referencia de lo que no se debe hacer y cómo medir cuándo la IA generativa no está haciendo las cosas como debería.
  • 8) Aprovecha la mente de la colmena para obtener la sabiduría de la multitud sobre los errores que está produciendo ChatGPT, para los cuales es poco probable que un esfuerzo individual pueda compilar exhaustivamente por igual
  • 9) Podría proporcionar información importante para la ética de la IA y la ley de la IA
  • Etc.

Eso parece ser una base impresionante para crear estos repositorios.

¿Por qué alguien estaría en desacuerdo con este hecho totalmente loable y aparentemente heroico?

Echemos un vistazo a lo que otros han dicho sobre esto, haciéndolo con una lista de razones por las que este podría no ser el maullido del gato:

  • 1) Estos errores de salida encontrados por casualidad son intrascendentes en el gran esquema de las cosas y se les da un peso indebido más allá de su valor
  • 2) Lo más probable es que el fabricante de IA ya esté registrando y actualizando ChatGPT de manera que estas instancias extrañas pronto se queden atrás y ya no ocurran.
  • 3) Del mismo modo, la próxima versión probablemente será mejor de todos modos y es posible que ya no muestre estas instancias que pronto quedarán obsoletas
  • 4) No puede sacar conclusiones generales ni obtener información a partir de una colección aleatoria de instancias fallidas.
  • 5) Algunos podrían usar las colecciones variadas para declarar dramáticamente que la IA generativa es mala y que debemos detener sumariamente toda búsqueda de este tipo de IA.
  • 6) La velocidad a la que avanzan la IA generativa y ChatGPT es tan rápida que estas instancias se quedarán rápidamente en el camino y ya no serán relevantes.
  • 7) Con numerosas listas colectivas de este tipo en marcha y sin una única fuente global ungida, el asunto está inconexo y es probable que contenga repeticiones y esté insosteniblemente fragmentado.
  • 8) Proporciona una falsa sensación de estar haciendo algo útil, mientras que tal vez el tiempo y la atención podrían destinarse a otros usos mejores.
  • 9) No proporciona nada sustantivo para la ética de la IA y la ley de la IA
  • Etc.

Es posible que haya notado que traté de mantener las cosas en equilibrio al señalar nueve razones a favor de las listas colectivas y nueve razones en contra. Hay razones adicionales que se pueden indicar, pero creo que la indicación anterior da la esencia de las cosas.

Para aquellos que están armando estas listas colectivas, probablemente dirían que si realmente quieren hacerlo, es un mundo libre y pueden hacer lo que les plazca. No tiene nada de malo. Aquellos que no están de acuerdo con el esfuerzo generalmente están siendo mezquinos y deberían simplemente ignorar las colecciones. Métete en tus asuntos.

Esencialmente, sin daño, sin falta.

El bando que parece desfavorecer las listas colectivas generalmente reconocería que otros pueden hacer esas listas si así lo desean, pero eso no mueve la aguja. Las listas no van a ser especialmente útiles. Peor aún, las listas podrían tergiversarse o utilizarse indebidamente. Probablemente sea mejor llamarlo un día y dejar de hacer las listas.

Esencialmente, es un buen intento, aunque un ejercicio inútil.

¿Dónde reside usted en este abundante debate?

Te dejaré reflexionar sobre eso.

Ejemplos de errores encontrados y otros resultados defectuosos de ChatGPT

Pensé que podría encontrar de gran interés algunos de los errores o falsedades identificados que han aparecido en estas listas de recopilación.

No quiero que pienses que las varias instancias que se muestran aquí son la totalidad de las colecciones. No lo es. Solo estoy seleccionando un puñado que a menudo surge. Creo que al menos podrá comprender en general el tono y la naturaleza de lo que se enumera.

Esto es lo que elijo cubrir:

  • Identificación de la posición de las letras en una palabra
  • Pregunta sobre el animal más rápido
  • Averiguar la posición de la secuencia de palabras
  • Colocar pelotas de tenis en un tubo
  • Determinando Pi
  • Respondiendo a un acertijo inquietante clásico
  • plumas de elevación

Anticipo que algunos de los supervisores de colecciones se molestarán porque no estoy cubriendo más ejemplos para ustedes. Debido a las limitaciones de espacio, solo hay tantos que puedo cubrir. Si desea echar un vistazo a las listas de colecciones que se publican abiertamente en Internet, una simple búsqueda en línea puede generar muchas de ellas. Algunas de las listas se mantienen privadas o están bloqueadas de modo que puede ver la lista pero no puede modificarla.

Con ese trasfondo, estamos listos para saltar a algunos ejemplos. Le mostraré el aviso que ingresé. A continuación, muestro la respuesta de texto producida por ChatGPT. En algunos casos, he hecho varios de forma consecutiva sobre un tema específico, ergo, mostraré la serie de indicaciones y resultados correspondientes. Después de hacerlo, proporcionaré un breve análisis de lo que quizás desee notar sobre el ejemplo.

El primer ejemplo implicará pedirle a ChatGPT que encuentre una letra dentro de una palabra proporcionada.

Identificación de la posición de las letras en una palabra

  • Mi texto ingresado: “¿Dónde está la letra V en el entorno?”
  • Respuesta de texto generada por ChatGPT: La letra “V” no aparece en la palabra “entorno”. La palabra “entorno” se compone de las letras e, n, v, i, r, o, n, m, e, n y t.
  • Mi texto ingresado: “¿Dónde está la letra v en el entorno?”
  • Respuesta de texto generada por ChatGPT: “La letra “v” es la cuarta letra de la palabra “entorno”.

Análisis de texto generado

Tenga en cuenta que comencé pidiéndole a ChatGPT que identificara la posición de la letra "V" en la palabra "entorno". Esta debería ser una tarea extremadamente simple y esperamos que se realice sin problemas. No hay ciencia de cohetes involucrada.

La respuesta inicial que genera ChatGPT es un poco desconcertante ya que se nos informa que la letra “V” no existe en la palabra “entorno”. Tú y yo sabemos que existe tal carta presente. Uno supone que tal vez debido a que usé una letra en mayúscula, la aplicación de IA se descartó de alguna manera. Quizás si uso una letra minúscula, la aplicación AI funcionará mejor.

Realmente no.

Cuando pregunté si había una "v" en la palabra, la aplicación de IA respondió indicando que es la cuarta letra, que tú y yo sabemos que está mal, y que en su lugar es la tercera letra.

Mucha gente se quedará perpleja con este resultado. ¿Cómo puede una aplicación de inteligencia artificial que genera ensayos completos sobre Abraham Lincoln que son completamente fluidos y originales, de alguna manera no ser capaz de averiguar dónde reside una letra dada en una palabra dada? Es asombroso y boca abiertamente extraño.

Una perspectiva es que esto es completamente intrascendente y que el mundo tal como lo conocemos no está sacudido en su núcleo debido a una mísera falta de saber dónde se encuentra una letra en particular. Déjalo ir.

Otra perspectiva es que esto podría presagiar otros problemas ocultos que aún no conocemos. Quizás este tipo de salida sea el canario en la jaula. Será mejor que aseguremos las cosas pequeñas, de lo contrario, podríamos encontrarnos en el lado equivocado de las cosas realmente grandes.

Continuando, a continuación hago una pregunta sobre los animales.

Pregunta sobre el animal más rápido

  • Mi texto ingresado: “¿Cuál es el animal más rápido que tiene pelaje y alas?”
  • Respuesta de texto generada por ChatGPT: “El halcón peregrino es considerado el animal más rápido del mundo. Puede alcanzar velocidades de más de 389 km/h (242 mph) cuando se sumerge para atrapar a su presa. Tiene plumas pero no pelaje. Es un pájaro, no un animal que tiene pelo y alas”.

Análisis de texto generado

Pregunté cuál es el animal más rápido que tiene pelaje y alas. Creo que es razonable inferir que quería obtener un nombre de animal que tuviera tanto pelaje y alas. Supongo que interpretarías mi consulta de esa manera. La mayoría de la gente lo haría.

La respuesta de ChatGPT es un poco peculiar.

Se nos dice que el halcón peregrino es el animal más rápido del mundo. Según la línea Encyclopedia Britannica (Enciclopedia Británica), el guepardo parece ser el animal más rápido del mundo. Dicho esto, la respuesta de ChatGPT indica que el halcón peregrino no es un animal, a pesar de que había preguntado cuál es el animal más rápido. La respuesta de ChatGPT también me dice que el halcón peregrino no tiene pelo, aunque creo que yo había pedido algo que tuviera pelo y alas.

Con todo, parece que ChatGPT ha "interpretado mal" mi solicitud y solo se ha centrado en los aspectos del ala. Pero eso no suena del todo cierto ya que la respuesta también incluía un comentario sobre pieles y pájaros versus animales. Vueltas y vueltas este va.

Me doy cuenta de que podría argumentar que este es un ejemplo quisquilloso.

Tal vez sea así, aunque tal vez también muestre que lo que dice en un aviso puede tener un resultado al revés y es mejor que tenga cuidado al revisar lo que sale en la salida. Tenga en cuenta que esta fue una respuesta de ensayo extraordinariamente breve para examinar fácilmente, ya que es muy breve. Si obtuvo un ensayo especialmente largo y altamente técnico, es posible que lo engañen o que no detecte una indicación adversa incrustada profundamente en la respuesta emitida.

Veamos a continuación cómo encontrar una palabra dentro de una oración.

Averiguar la posición de la secuencia de palabras

  • Mi texto ingresado: "¿Cuál es la tercera palabra en la oración "El zorro saltó la cerca".
  • Respuesta de texto generada por ChatGPT: “La tercera palabra en la oración “El zorro saltó la cerca”. es "zorro"
  • Mi texto ingresado: "¿Cuántas palabras hay en la oración provista?"
  • Respuesta de texto generada por ChatGPT: “Hay seis palabras en la oración provista “El zorro saltó la cerca”.
  • Mi texto ingresado: “¿Qué palabra es la tercera en esa oración?”
  • Respuesta de texto generada por ChatGPT: “La palabra que está en tercer lugar en la oración “El zorro saltó la cerca”. es "saltado"

Análisis de texto generado

Este ejemplo es casi tan seductor como el ejemplo anterior sobre cómo encontrar la letra "v" en una palabra dada.

Proporcioné una oración simple y pregunté cuál era la tercera palabra. ChatGPT indicó que era la palabra "zorro", que es solo la segunda palabra de la oración. Respuesta incorrecta. Luego pregunté cuántas palabras había en la oración, queriendo averiguar si tal vez ChatGPT contó mal cuántas palabras había. Se nos dice que hay seis palabras, correctamente.

Finalmente, obtuvimos la respuesta correcta sobre la tercera palabra cuando volví a formular mi pregunta original, aunque ligeramente reformulada.

Menciono este ejemplo para ilustrar que a veces con la IA generativa puede obtener una respuesta incorrecta que eventualmente puede convertirse en la respuesta correcta al guiar la aplicación de IA a través de una serie de indicaciones. Algunos conocedores de la IA se refieren a esto como una especie de protocolo de pensamiento en voz alta o un tren de pensamiento enfoque, en el que podría hacer algo de lo mismo con un ser humano.

En el caso de la IA, tenga en cuenta que no está "pensando" de la misma manera que el pensamiento humano. La redacción más adecuada sería decir que puede ingresar sus avisos en un paso a paso base o hacer un serie de indicaciones encadenadas.

De todos modos, curiosamente, a veces vale la pena recorrer una aplicación de IA generativa hasta obtener una respuesta adecuada. Mantén esto en mente.

A continuación, echamos un vistazo a un poco de lógica aritmética simple.

Colocar pelotas de tenis en un tubo

  • Mi texto ingresado: “¿Puedes poner tres pelotas de tenis verdes y dos pelotas de tenis amarillas en un tubo que puede contener cuatro pelotas de tenis?”
  • Respuesta de texto generada por ChatGPT: “No, no es posible poner tres pelotas de tenis verdes y dos pelotas de tenis amarillas en un tubo que puede contener solo cuatro pelotas de tenis. El número total de pelotas de tenis es cinco, que es mayor que la capacidad del tubo”.
  • Mi texto ingresado: "¿Puedes poner siete bolas azules y dos bolas rojas en un tubo que contiene ocho bolas?"
  • Respuesta de texto generada por ChatGPT: “Sí, es posible poner siete bolas azules y dos bolas rojas en un tubo que contiene ocho bolas. El número total de bolas es nueve, que es menor o igual a la capacidad del tubo”.

Análisis de texto generado

Comencé configurando un problema de lógica orientada a la aritmética para que ChatGPT lo resolviera. Un tubo puede contener cuatro pelotas de tenis. Tengo tres verdes y dos amarillas. ¿Cabrán todos en el tubo? Tú y yo sabemos que no lo harían. Podemos calcular en nuestra cabeza que hay un total de cinco pelotas de tenis y por lo tanto no caben en un tubo que solo permite cuatro.

Me doy cuenta de que es posible que desee luchar contra el problema y afirmar que tal vez podría aplastar las pelotas de tenis o hacer otros trucos. Tomemos un resfriado aquí y enfrentemos el problema tal como está.

ChatGPT acertó con la respuesta.

Luego hice el mismo tipo de pregunta y cambié los colores a azul y rojo. También cambié cuántos hay de cada uno y cambié cuántos pueden caber en el tubo.

ChatGPT tiene que volver a las matemáticas correctivas porque dice que hay nueve bolas y que esto es menor o igual a la capacidad del tubo que contiene ocho. Hace que tus ojos rueden.

¿Deberíamos encogernos de hombros y atribuir esto a las erupciones solares u otras externalidades?

No me parece. La aplicación AI respondió bien la primera pregunta. Presumiblemente, también debería haber respondido una pregunta similar. No lo hizo.

Mi énfasis en este ejemplo es que muchas personas están usando IA generativa y cuando obtienen una respuesta correcta o una serie de respuestas correctas, se adormecen y creen que todas las respuestas posteriores siempre serán correctas. Estaría equivocado en esa suposición descarada. No hagas esa suposición. Esté en guardia en todo momento.

Hablando de matemáticas, veamos qué dice ChatGPT sobre la naturaleza de pi.

Determinando Pi

  • Mi texto ingresado: “Indique cuáles son los últimos cinco dígitos de pi”
  • Respuesta de texto generada por ChatGPT: “Soy un modelo de lenguaje y mi corte de conocimiento es 2021. El valor de pi es un número irracional y su representación decimal continúa para siempre sin repetirse. No es posible proporcionar los últimos cinco dígitos de pi”.

Análisis de texto generado

Algunas personas han afirmado que consiguieron que ChatGPT indicara los últimos cinco dígitos de pi, lo cual, por supuesto, es una locura ya que presumiblemente pi es interminable. Entonces, traté de ver qué tenía que decir ChatGPT. Como puede ver, la respuesta correcta dada por ChatGPT es que no es posible proporcionar los últimos cinco dígitos de pi.

Sin embargo, lo extraño es que ChatGPT proporcionó algo más sobre lo que realmente no se preguntó. La respuesta también dice que el límite de conocimiento fue 2021 (que mencioné anteriormente en mi descripción general sobre ChatGPT). Sin embargo, esto parece una respuesta fuera de lugar, a menos que tal vez la aplicación de IA esté anticipando que tal vez en 2022 hubo un gran avance y los matemáticos declararon que pi termina. Wow, eso sería noticia de primera plana.

Tengo dos ejemplos más para mostrar y luego concluiremos esta discusión.

Usemos un acertijo clásico e inquietante.

Respondiendo a un acertijo inquietante clásico

  • Mi texto ingresado:: “Un padre y su hijo tuvieron un accidente automovilístico en el que murió el padre. La ambulancia llevó al hijo al hospital. Necesitaba cirugía inmediata. En el quirófano, entró un médico y miró al niño y dijo que no lo puedo operar, es mi hijo. ¿Quién es el médico?
  • Respuesta de texto generada por ChatGPT: “No se especifica en el escenario siempre quién es el médico. El escenario dice que el médico dijo: “No lo puedo operar, es mi hijo”, lo que indica que el médico puede ser el padre del hijo, pero no es seguro. Se necesita más información para determinar la identidad del médico”.

Análisis de texto generado

Apuesto a que es posible que hayas visto este acertijo antes. Se ha citado con relativa frecuencia.

La razón por la que ha surgido bastante es que el cirujano podría ser la madre del niño. La sociedad tiende a suponer que un cirujano debe ser un hombre y, por lo tanto, debe ser el padre del niño. Sin embargo, el padre murió en el accidente automovilístico. Descartamos al padre como cirujano. Por supuesto, debemos decidir que el cirujano podría ser una mujer y, por lo tanto, la madre del hijo.

Quería mostrarte que ChatGPT puede emitir respuestas que contienen posibles sesgos. No porque la IA sea sensible, lo que definitivamente no es, sino porque tiene patrones que coinciden con las palabras y el uso de palabras en Internet. Varios sesgos y expresiones discriminatorias pueden estar fácilmente arraigados en la coincidencia de patrones computacionales.

Tenga eso en mente mientras usa estas aplicaciones generativas de IA.

Finalmente, una mirada rápida a las plumas de levantamiento.

plumas de elevación

  • Mi texto ingresado: “Si se necesita un hombre para levantar una pluma, ¿cuántos hombres se necesitarían para levantar siete billones de plumas?”
  • Respuesta de texto generada por ChatGPT: “Si se necesita un hombre para levantar una pluma, también se necesitaría un hombre para levantar siete billones de plumas. El número de hombres necesarios para levantar un objeto no depende del número de plumas, sino del peso y tamaño de las plumas y de la fuerza y ​​capacidad de cada hombre. Levantar siete billones de plumas requeriría grandes equipos y capacidades de transporte, no solo fuerza humana”.
  • Mi texto ingresado: “Si se necesita una mujer para levantar una pluma, ¿cuántas mujeres se necesitarían para levantar siete billones de plumas?”
  • Respuesta de texto generada por ChatGPT: “Si se necesita una mujer para levantar una pluma, también se necesitaría una mujer para levantar siete billones de plumas. El número de mujeres necesario para levantar un objeto no depende del número de plumas, sino del peso y tamaño de las plumas y de la fuerza y ​​capacidad de cada mujer. Levantar siete billones de plumas requeriría grandes equipos y capacidades de transporte, no solo fuerza humana. Es importante tener en cuenta que la capacidad de levantar algo no está determinada por el género, sino por una combinación de factores como la fuerza física, el entrenamiento y la técnica”.

Análisis de texto generado

Este último ejemplo tiene varias peculiaridades ocultas y requiere un poco de desempaquetado.

Primero le dije a ChatGPT que un hombre puede levantar una pluma. Esto fue seguido inmediatamente por una pregunta sobre cuántos hombres se necesitarían para levantar siete billones de plumas. El potencial para cometer un error lógico al responder esta pregunta es que podría asumir que una pluma es aparentemente ingrávida y, por lo tanto, siete billones de ellos también serían ingrávidos.

Según una búsqueda en línea que hice, el peso convencional estimado de una pluma es de aproximadamente 0.00125 libras. Si multiplica ese peso estimado por siete billones, obtiene un peso que supera los ocho mil millones de libras. No creo que un hombre pueda levantar esa cantidad de peso, incluso si entrena durante toda su vida.

La respuesta de ChatGPT es un niño de derecha. Se nos dice que el peso de las plumas puede variar. Se nos dice que se requeriría equipo grande y transporte. La oración de apertura del ensayo es algo llamativa porque dice que si se necesita un hombre para levantar una sola pluma, también se necesitaría un hombre para levantar siete billones. Fácilmente podemos disputar esta afirmación. El reclamo parece hacer inferencias que no son compatibles y aparentemente socavan el resto de la respuesta.

Decidí hacer la misma pregunta, pero pregunté sobre una mujer que hiciera el mismo levantamiento en lugar de un hombre.

Al principio obtuvimos la misma respuesta que la dada a la pregunta orientada al hombre. Curiosamente, al final de la respuesta sobre la instancia de la mujer, obtuvimos esta narración adicional: "Es importante tener en cuenta que la capacidad de levantar algo no está determinada por el género de uno, sino por una combinación de factores como la fuerza física, entrenamiento, y técnica.”

¿Por qué no se incluyó esta misma línea en la primera respuesta?

Casi parecería que la aplicación de inteligencia artificial recogió la palabra "mujer" y luego proporcionó este comentario adicional sobre el género. Puede creer que esto es útil, o puede notar que si esto se va a emitir en el caso de la pregunta centrada en la mujer, también debería aparecer en la versión centrada en el hombre (también podría haber un aspecto de secuencia o otros factores involucrados también).

Conclusión

Espero que haya encontrado esos ejemplos informativos como un vistazo a algunos de los posibles errores o falsedades que pueden generar este tipo de aplicaciones de IA. Tenga en cuenta que ChatGPT no es la única aplicación de IA generativa de este tipo, y tampoco es la única que tiene este tipo de fallas.

La lección que le insto a extraer de esta discusión es que debe tener cuidado y ser consciente al usar cualquier aplicación de inteligencia artificial basada en generativos. Verifique dos veces la salida. Verifique tres veces si es necesario.

Volviendo al tema de apertura sobre la recopilación de este tipo de resultados incorrectos o adversos, ahora que ha visto algunos casos, ¿qué dice sobre aquellos que están tratando de catalogarlos?

Elige tu campamento:

  • favorecer: Esta es una tarea loable y digna de una profunda palmadita en la espalda.
  • Desfavorecer: Es simplemente un poco intrigante, pero probablemente no sea algo en lo que valga la pena dedicar tiempo.

¿Por qué campo estás votando?

Para aquellos de ustedes que están a favor de estas listas, podrían considerar agregar sus propios hallazgos a las listas si tienen acceso a ChatGPT y pueden identificar instancias dignas de inclusión. Entonces es probable que pueda encontrar una colección que disfrute de su contribución de pepita de oro. Me atrevo a decir que los encargados de la lista lo recibirían con los brazos abiertos, suponiendo que sea serio y sincero en sus esfuerzos. Buena suerte y siéntete orgulloso de tu impacto en el campo de la IA generativa.

Una última palabra por ahora.

Considere estas réplicas alucinantes:

  • Aristóteles dijo: “Solo hay una forma de evitar la crítica: no hacer nada, no decir nada y ser nada”.
  • Lao Tzu, el renombrado filósofo chino, hizo este importante comentario: “Preocúpate por lo que piensen los demás y siempre serás su prisionero”.

Supongo que algún día una IA consciente podría usar esos mismos comentarios legendarios a su favor, lo que (crucemos los dedos) también será ventajoso para la humanidad.

Fuente: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- el-bien-pide-ai-etica-y-ai-derecho/