Lo que necesita saber sobre GPT-4 El sucesor recién lanzado de IA ChatGPT generativo, más consideraciones sobre ética y leyes de IA

¿Cuál es su reacción habitual ante el lanzamiento de una secuela de una gran película de gran éxito que acapara los titulares?

Algunas personas van a ver la secuela y declaran que es tan buena, si no mejor, que la original. Otros pueden tener expectativas extraordinariamente altas y, después de ver la película más nueva, proclamarla como razonablemente buena, aunque nada por lo que aullar de éxtasis. Hay algunos que, sin duda, se sentirán extremadamente decepcionados, sin importar lo que incluya la última película, y declararán sumariamente que la primera película estuvo descaradamente muy por encima de la secuela.

Ese mismo rango de reacciones y emociones salió a relucir ayer en el lanzamiento de GPT-4 por parte del fabricante de inteligencia artificial OpenAI, que tuvo lugar el Día Pi, es decir, el 3.14 de marzo de 14. Probablemente una coincidencia de que sucedió en el pie favorito del matemático. El día de la comida, la presentación del GPT-2023 atrajo mucha atención de la prensa y conversaciones voluminosas en las redes sociales.

Describiré aquí las principales características y capacidades de GPT-4, además de hacer comparaciones con su predecesor ChatGPT (el "éxito de taquilla" inicial en mi analogía). Además, hay una gran cantidad de consideraciones de ética y leyes de IA realmente vitales que acompañan a la IA generativa, incluidos y quizás especialmente en el caso de GPT-4 y ChatGPT debido a su uso indudablemente generalizado y a la atención pública y mediática que genera frenesí. presente y futuro de la IA.

En resumen, al igual que una secuela de una película, GPT-4 en algunos aspectos es mejor que ChatGPT, como ser más grande, más rápido y aparentemente más fluido, mientras que en otros aspectos plantea escrúpulos adicionales y pronunciados (cubriré esos en breve en este documento). Una reacción un poco confusa. La secuela no es pan comido, como muchos habían anticipado que sería. Resulta que las cosas tienen más matices que eso. Parece que ese es el mundo real en el que todos vivimos.

Quizás el CEO de OpenAI, Sam Altman, lo dijo mejor en sus tuits del 14 de marzo de 2023 sobre el lanzamiento de GPT-4:

  • “Aquí está GPT-4, nuestro modelo más capaz y alineado hasta el momento. Está disponible hoy en nuestra API (con una lista de espera) y en ChatGPT+”.
  • “Todavía tiene fallas, todavía es limitado y aún parece más impresionante en el primer uso que después de pasar más tiempo con él”.

Mis sugerencias sobre lo que podría considerar hacer como resultado del lanzamiento de GPT-4, y dependiendo de su situación o circunstancia actual, consisten en estas acciones potenciales:

  • Usuarios existentes de ChatGPT. Si ya está usando ChatGPT, debería echar un vistazo de cerca a GPT-4 para ver si es posible que desee usarlo en su lugar (o puede usar GPT-4 además de usar ChatGPT, ergo use uno de ChatGPT o GPT -4, dependiendo de sus necesidades a medida que surjan). Puede jugar con GPT-4 si se está suscribiendo a ChatGPT Plus, el modo de suscripción de $20 por mes para usar ChatGPT; de lo contrario, no tiene un medio particularmente fácil para acceder a GPT-4 en este momento (la advertencia o giro es que Microsoft Bing, el motor de búsqueda, usa una variante de GPT-4, que he discutido en el enlace aquí).
  • Nunca usé ninguna IA generativa. Si no está usando ChatGPT y nunca ha usado ninguna IA generativa, es posible que desee comenzar primero con ChatGPT, ya que es accesible de forma gratuita (o, por supuesto, considere usar cualquiera de las innumerables otras aplicaciones de IA generativa para comenzar su viaje en este reino de IA). GPT-4 no es gratuito en este momento, como se menciona en los puntos anteriores con respecto a los usuarios existentes de ChatGPT. Una vez que se haya familiarizado con ChatGPT, puede decidir si vale la pena suscribirse a ChatGPT Plus para obtener beneficios adicionales, incluido el acceso a GPT-4.
  • Usando alguna otra IA generativa. Si está utilizando una aplicación de IA generativa que no sea ChatGPT, es posible que encuentre GPT-4 de gran interés, ya que tiene mejoras más allá de lo que ofrece ChatGPT. Menciono esto porque algunos usuarios inteligentes de IA decidieron que ChatGPT no era tan bueno para ellos como otras opciones. Recomendaría ponerse al día sobre GPT-4 para decidir si su elección actual sigue siendo la mejor para usted. Puede ser. Por lo tanto, no estoy defendiendo que con seguridad deba cambiar a GPT-4 y solo digo que siempre es prudente patear los neumáticos en otros autos disponibles.
  • Otro software que accede a ChatGPT a través de la API. Para aquellos que crean software que se conecta a ChatGPT a través de la API (interfaz de programación de aplicaciones), que he discutido en el enlace aquí, sería prudente observar de cerca el uso de GPT-4 a través de su API. Una gran pregunta es que el costo de usar la API GPT-4 es mucho más alto que usar ChatGPT. Querrá hacer un análisis de compensación de los beneficios adicionales de GPT-4 frente a la alternativa de menor costo de quedarse con ChatGPT. Esta es una decisión algo complicada. Hazlo con atención y no sin pensar.

Una cosa que parece una sorpresa para muchos es que el interés periodístico no llegó al nivel anticipado anteriormente.

Permítanme explicar por qué.

El éxito de taquilla original y ahora su secuela

Probablemente sepa que una aplicación de inteligencia artificial generativa conocida como ChatGPT estuvo disponible a fines de noviembre del año pasado.

Este fue un gran éxito sorprendente.

Hasta entonces, los esfuerzos previos para lanzar aplicaciones de IA generativa al público en general generalmente fueron recibidos con desdén e indignación. La base de las preocupaciones era que la IA generativa puede producir resultados que contienen todo tipo de resultados sucios, incluido lenguaje profano, sesgos desagradables, falsedades, errores e incluso hechos inventados o los llamados alucinaciones de IA (No me gusta la terminología de "alucinaciones" ya que tiende a antropomorfizar la IA, vea mi discusión en el enlace aquí).

La IA generativa es un tipo de IA que implica generar resultados a partir de indicaciones de texto ingresadas por el usuario, como poder producir o generar ensayos basados ​​en texto, o producir imágenes o ilustraciones, o producir audio, o producir videos, etc. Estos generalmente son denominado texto a texto, texto a ensayo, texto a arte, texto a imagen, texto a audio, texto a video y similares. La faceta notable de la IA generativa es que las obras generadas aparentemente están a la par de los resultados generados por humanos. Sería difícil tratar de distinguir una salida de IA generativa de una composición comparable producida únicamente por la mente humana y la mano humana.

Para obtener más información sobre la IA generativa, vea mi serie en curso, como este enlace aquí sobre los fundamentos de ChatGPT y la IA generativa, junto con la cobertura de ChatGPT por parte de los estudiantes y los problemas de posibles trampas en los ensayos (use el enlace aquí), el uso altamente cuestionable de ChatGPT para obtener asesoramiento sobre salud mental (consulte el enlace aquí), preocupaciones sobre posibles plagios e infracciones de derechos de autor de la IA generativa (el enlace aquí) y muchos más temas destacados en el enlace aquí.

Parte de la razón por la que ChatGPT no pareció tener el latigazo habitual se debió al trabajo detrás de escena del fabricante de IA, OpenAI, antes de lanzar ChatGPT. Intentaron utilizar varias técnicas y tecnologías para rechazar la producción de ensayos especialmente odiosos y repugnantes. Tenga en cuenta que ChatGPT es exclusivamente un estilo de IA generativa de texto a texto o de texto a ensayo. Por lo tanto, los intentos de evitar salidas extravagantes y enojantes consisten en tratar con palabras. Problemas similares surgen cuando el resultado es arte o imágenes, aunque esto puede ser igual o más difícil de detectar para evitar la producción de imágenes ofensivas de un tipo u otro.

Una técnica notable que ha sido adoptada cada vez más por los fabricantes de IA consiste en usar RLHF (aprendizaje por refuerzo a través de la retroalimentación humana). Así es como funciona generalmente. Una vez que una aplicación de IA generativa ha sido inicialmente entrenada con datos, como escanear texto a través de Internet, se utilizan revisores humanos para ayudar a guiar o mostrar a la IA lo que vale la pena decir y lo que es escandaloso decir. Con base en esta serie de aprobaciones y desaprobaciones, la IA generativa es aproximadamente capaz de hacer coincidir el patrón de lo que parece correcto emitir y lo que parece no estar permitido.

Me gustaría mencionar también otro punto extremadamente importante.

La IA no es sensible.

No importa lo que declaren los titulares estrafalarios, tenga la seguridad de que la IA actual no es inteligente. Para la IA generativa, la aplicación es un extenso software computacional de coincidencia de patrones y un aparato de modelado de datos. Después de examinar millones y millones de palabras de Internet, se derivan patrones sobre las palabras y sus relaciones estadísticas. El resultado es una asombrosa forma de mimetismo del lenguaje humano (algunos conocedores de la IA se refieren a esto como un loro estocástico, que de alguna manera aclara el punto, aunque lamentablemente trae un elemento sensible a la discusión).

Puede pensar en la IA generativa como la función de autocompletar cuando utiliza un paquete de procesamiento de texto, aunque esta es una capacidad mucho más amplia y avanzada. Estoy seguro de que ha comenzado a escribir una oración y tiene un autocompletado que recomienda la redacción para el resto de la oración. Con IA generativa como ChatGPT, ingresa un mensaje y la aplicación de IA intentará no solo completar sus palabras, sino que buscará responder preguntas y redactar respuestas completas.

Además, un error de novato que muchos cometen al usar ChatGPT o cualquier otra aplicación de IA generativa similar implica no usar las cacareadas capacidades de conversación interactiva. Algunas personas escriben un aviso y luego esperan una respuesta. Parecen pensar que eso es todo. Uno y listo. Pero a esto le falta el quid de la IA generativa. El enfoque más útil consiste en hacer una serie de indicaciones asociadas con entablar un diálogo con la IA generativa. Ahí es donde realmente brilla la IA generativa, mira mis ejemplos en el enlace aquí.

ChatGPT fue anunciado por los medios y el público en general como un gran avance en la IA.

La realidad es que se han ideado muchas otras aplicaciones de IA similares, a menudo en laboratorios de investigación o grupos de expertos, y en algunos casos se pusieron a disposición del público con cautela. Como dije anteriormente, el resultado no suele ser agradable. La gente empujó y empujó a la IA generativa y logró obtener ensayos de una naturaleza atroz, vea mi cobertura en el enlace aquí. Los fabricantes de IA en esos casos generalmente se vieron obligados a retirar la IA del mercado abierto y volver a centrarse en el uso de laboratorio o en probadores y desarrolladores beta de IA cuidadosamente elegidos.

Gran parte del resto de la industria de la IA se quedó boquiabierto de que ChatGPT logró caminar por la cuerda floja de seguir produciendo resultados desagradables y, sin embargo, no en la medida en que el sentimiento público obligó a OpenAI a eliminar la aplicación de IA del acceso general.

Este fue el verdadero impacto de ChatGPT.

La mayoría de la gente asumió que el impacto era la capacidad de conversación. No para aquellos en AI. La sorpresa que asombró a casi todos los conocedores de la IA fue que podías lanzar una IA generativa que podría arrojar un discurso de odio y la reacción no fue lo suficientemente feroz como para forzar una retirada rápida. ¿Quien sabe? De hecho, antes del lanzamiento de ChatGPT, la fábrica de rumores predecía que en unos pocos días o semanas como máximo, OpenAI se arrepentiría de que la aplicación de IA estuviera disponible para todos. Tendrían que restringir el acceso o posiblemente caminar hasta su casa y tomar un respiro.

El increíble éxito del lanzamiento de ChatGPT ha abierto cautelosamente la puerta a otras aplicaciones generativas de IA para que también se encuentren en la calle. Por ejemplo, he discutido la presentación de Google de Bard y cómo las guerras de los motores de búsqueda en Internet se están calentando debido al deseo de conectar la IA generativa a la búsqueda web convencional, vea el enlace aquí.

ChatGPT se puede caracterizar razonablemente como un éxito de taquilla. También es uno que salió de la nada, por así decirlo. A veces, una película de gran éxito se sabe de antemano que es probable que sea un éxito de taquilla cuando se estrene. En otros casos, la película es un durmiente que pilla por sorpresa al público e incluso al cineasta. Eso es lo que pasó con ChatGPT y OpenAI.

Bien, entonces tenemos el éxito de taquilla, ChatGPT.

ChatGPT se basa esencialmente en una versión de GPT conocida como GPT-3.5. Anteriormente, ha habido GPT-3, GPT-2 y similares. El mundo de la IA y aquellos tangenciales a la IA sabían que OpenAI había estado trabajando en la próxima versión, GPT-4.

GPT-4 sería considerado el sucesor o secuela de ChatGPT.

Esto nos lleva de vuelta a mi analogía sobre las películas. ChatGPT, un éxito de taquilla sorpresa, fue muy popular. Las expectativas sobre qué sería GPT-4 y cómo reaccionaría el público estaban plagadas de especulaciones salvajes. ¡GPT-4 caminaría sobre el agua! ¡GPT-4 será más rápido que una bala veloz! ¡GPT-4 será el logro de la IA sensible o la Inteligencia General Artificial (AGI)!

Una y otra vez esto se ha ido.

Es posible que sepa vagamente que el CEO de OpenAI, Sam Altman, dijo esto en una entrevista publicada en YouTube (fechada el 17 de enero de 2023): “La fábrica de rumores GPT-4 es algo ridículo. No sé de dónde viene todo. La gente está rogando por estar decepcionada y lo estará. La exageración es como... No tenemos un AGI real y eso es más o menos lo que se espera de nosotros".

Bueno, GPT-4 está aquí.

Ha salido la película.

Podemos verlo con nuestros propios ojos. No más especulaciones salvajes. La realidad ha llegado a posarse.

Desempaquemos el juguete nuevo y brillante.

Los elementos esenciales de GPT-4

Sin duda, desea saber qué proporciona GPT-4.

En mi discusión, me referiré a varios documentos y videos que OpenAI ha puesto a disposición sobre GPT-4, además de hacer comentarios basados ​​en mi uso de GPT-4. Para facilitar la discusión, tenga en cuenta que hay dos documentos útiles que citaré con avidez, uno titulado OpenAI official Informe técnico GPT-4 y el otro es el oficial de OpenAI Tarjeta del sistema GPT-4 documento (ambos están disponibles en el sitio web de OpenAI). Los citaré por las siglas de TR para Informe técnico GPT-4 y SC para Tarjeta del sistema GPT-4.

Comencemos citando la primera oración del resumen del TR:

  • "Informamos sobre el desarrollo de GPT-4, un modelo multimodal a gran escala que puede aceptar entradas de imágenes y texto y producir salidas de texto".

Lo creas o no, hay mucho contenido en esa oración.

Siéntese y tenga una bebida cómoda en la mano.

Un aspecto que es una regla general generalmente aceptada sobre la IA generativa es que cuanto más grande sea el sistema, más probable será la fluidez y la capacidad general. Esto parece estar relativamente bien establecido por los tamaños históricamente crecientes de los sistemas generativos de IA y su fluidez cada vez más notable en términos de mantener conversaciones interactivas. No todos creen que este deba ser el caso, y hay investigadores que buscan activamente configuraciones de menor tamaño que utilizan varias optimizaciones para lograr potencialmente tanto como sus hermanos más grandes.

En la oración citada anteriormente sobre GPT-4 del TR, es posible que haya observado la frase de que es una IA generativa de "gran escala". Es probable que todos tiendan a estar indirectamente de acuerdo, según los tamaños relativos de los sistemas de IA generativa de hoy.

La pregunta obvia en la mente de los expertos en IA es qué tan grande es Gran escala cuando se trata de GPT-4?

Por lo general, el fabricante de IA declara con orgullo varias métricas de tamaño de su IA generativa. Puede hacerlo para informar al resto del mundo de la IA sobre la importancia del tamaño y la escala. Podrías hacerlo para presumir. Puede hacerlo simplemente porque es como un automóvil, en el que una curiosidad natural es qué tan grande es el motor y qué tan rápido irá.

Según el TR, esto es lo que se indica:

  • "Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similar".

Los expertos en IA tienden a encontrar esto seductor. Por un lado, parece ser una ruptura inquietante con la diplomacia el no hablar de estas características cruciales. Dicho esto, la lógica de que hacerlo podría revelar secretos de propiedad o posiblemente podría abrir la puerta a brechas de seguridad cibernética, bueno, eso también parece tener sentido.

¿Deberían los fabricantes de IA verse obligados a revelar características particulares sobre su IA generativa, haciéndolo en la medida y de la manera que no revele inadvertidamente ninguna pista reveladora vital?

Dejaré que se ponga su sombrero de ética de la IA para reflexionar sobre esta consideración.

Algunos creen que también podríamos terminar estableciendo nuevas leyes de IA que requerirían divulgaciones explícitas.

La idea es que el público debe saber lo que está pasando con la IA, especialmente cuando la IA se hace más grande y presumiblemente tiene el potencial de eventualmente virar hacia la terrible zona de riesgos existenciales, vea mi análisis en el enlace aquí.

Continuando, tampoco sabemos qué datos se usaron para entrenar GPT-4.

Los datos hacen o deshacen el advenimiento de la IA generativa. Algunas personas asumen erróneamente que se escaneó la totalidad de Internet para diseñar estas capacidades de IA generativa. No. De hecho, como analizo en el enlace aquí, solo se escanea una pequeña porción de Internet.

Un aspecto relacionado es si la IA generativa escanea Internet en tiempo real y ajusta sobre la marcha la coincidencia de patrones computacionales. ChatGPT se limitó a escaneos que tuvieron lugar a más tardar en el año 2021. Esto significa que cuando usa ChatGPT, prácticamente no hay datos sobre lo que sucedió en 2022 y 2023.

Los rumores decían que GPT-4 contendría una conexión a Internet actualizada y en tiempo real para realizar ajustes sobre la marcha.

Esto es lo que dice el TR:

  • “GPT-4 generalmente carece de conocimiento de los eventos que ocurrieron después de que la gran mayoría de sus datos previos al entrenamiento se cortaron en septiembre de 2021 y no aprende de su experiencia. A veces puede cometer errores de razonamiento simples que no parecen corresponder con la competencia en tantos dominios, o ser demasiado crédulo al aceptar declaraciones obviamente falsas de un usuario”.

Quizás entonces puedas ver por qué algunos están un poco decepcionados con GPT-4. Los rumores sugirieron que estaría operando en tiempo real mientras simultáneamente se ajustaba sobre la marcha a Internet. Una gran mejora considerada con respecto a ChatGPT. La realidad es que GPT-4 todavía está tratando con datos fechados. Y no se está produciendo un ajuste en tiempo real en la coincidencia de patrones computacionales per se basada en actualizaciones de Internet.

Tengo más noticias para ti.

La oración que cité anteriormente sobre GPT-4 como a gran escala también decía que GPT-4 es multimodal.

Permítanme dar algunos antecedentes sobre la noción de multimodal IA generativa.

Mencioné al comienzo de esta discusión que existen diferentes tipos de IA generativa, como texto a texto o texto a ensayo, texto a arte o texto a imagen, texto a audio, texto -a-video, etc. Todos ellos se consideran un modo singular de manejar el contenido. Por ejemplo, puede ingresar texto y obtener un ensayo generado. Otro ejemplo sería que ingrese texto y obtenga una obra de arte generada.

A fines del año pasado, hice mis predicciones anuales sobre lo que veríamos en los avances de la IA para el año 2023 (ver el enlace aquí). Había dicho que la IA generativa multimodal iba a estar de moda. La idea es que, por ejemplo, podría ingresar texto y una imagen (dos modos en la entrada), usándolos como indicador en la IA generativa, y podría obtener un ensayo como salida junto con un video generado y una pista de audio (tres modos en producción).

Por lo tanto, una multitud de modos podría coexistir. Es posible que tenga una multitud de modos en la indicación o entrada. También puede tener una multitud de modos en la respuesta o salida generada. Podría tener una mezcla y combinación tanto en las entradas como en las salidas. Hacia ahí se dirigen las cosas. Emocionante y las posibilidades de lo que se puede hacer con la IA generativa se abren inmensamente debido a la funcionalidad multimodal.

ChatGPT tiene solo un modo singular. Ingresas texto, obtienes un texto generado como salida.

Los rumores decían que GPT-4 rompería la barrera del sonido, por así decirlo, y proporcionaría una capacidad multimodal completa de todo para todo. Todos sabían que ese texto sería incluido. La anticipación era que se agregarían imágenes o ilustraciones, junto con audio y posiblemente incluso video. Sería un todos contra todos. Cualquier modo de entrada, incluidos tantos de esos modos como desee. Además de cualquier modo de salida, incluidos tantos modos combinados como desee.

Una verdadera mezcla heterogénea de modos.

¿Qué proporciona GPT-4?

Regrese a esa oración del TR:

  • "Informamos sobre el desarrollo de GPT-4, un modelo multimodal a gran escala que puede aceptar entradas de imágenes y texto y producir salidas de texto".

Puede ingresar texto y obtendrá texto de salida, además, posiblemente pueda ingresar una imagen en la entrada.

Las demostraciones que muestran el procesamiento de la imagen o la visión de las imágenes ingresadas han indicado que los elementos en una imagen, por ejemplo, podrían identificarse mediante la IA generativa y luego componerse en una narración escrita que explica la imagen. Puede pedirle a la IA generativa que explique lo que parece representar la imagen. Con todo, el procesamiento de la visión será una adición notable.

La capacidad de procesamiento de visión o análisis de imágenes aún no está disponible para uso público (según el blog del sitio web de OpenAI):

  • “Para preparar la capacidad de entrada de imágenes para una mayor disponibilidad, estamos colaborando estrechamente con un solo socio para comenzar”.

La esencia de todo esto es que es conmovedor darse cuenta de que GPT-4 aparentemente tiene la capacidad de ingresar y analizar imágenes. Muchos esperan ansiosamente el lanzamiento público de esta característica. Felicitaciones a OpenAI por empujar en la arena multimodal.

Entonces, tenemos texto como entrada, más imagen como entrada (cuando está disponible para uso público) y texto como salida.

Sin embargo, algunos se han estado retorciendo las manos en la comunidad de IA de que esto apenas cumple con la noción de multimodal. Sí, hay un modo más, la imagen como entrada. Pero no una imagen como salida. Aparentemente no hay audio como entrada, ni audio como salida. Aparentemente no hay video como entrada, ni video como salida. Aquellos con una inclinación aduladora encuentran que esto es "multimodal" en la forma más minimalista.

El contraargumento es que tienes que gatear antes de caminar y caminar antes de correr.

Creo que eso cubre la primera oración del TR y podemos cambiar a temas adicionales.

Más elementos esenciales de GPT-4

Voy a acelerar ahora que tiene algunos antecedentes adicionales en general sobre este asunto.

Aquí hay algo significativo como se indica en la publicación del blog de OpenAI sobre GPT-4:

  • “Durante los últimos dos años, reconstruimos toda nuestra pila de aprendizaje profundo y, junto con Azure, codiseñamos una supercomputadora desde cero para nuestra carga de trabajo”.

Dos puntos rápidos sobre esto.

Primero, la indicación de que reconstruyeron toda su pila de aprendizaje profundo es sin duda un comentario y un logro digno de mención (significa que rehicieron los modelos de coincidencia de patrones computacionales y optaron por reestructurar cómo funcionan las cosas bajo el capó). Bien por ellos. La pregunta inicial que algunos expresan es que sería bueno saber exactamente qué hicieron en esta reconstrucción. El TR y el SC mencionan algo lo que ocurrió, pero no en profundidad.

Por supuesto, podría argumentar de manera persuasiva que no deberían revelar su salsa secreta. No están obligados a hacerlo. ¿Por qué proporcionar ayuda a sus competidores innecesariamente? La otra cara de la moneda argumenta que para mejorar la IA y la sociedad en general, presumiblemente ayudaría a avanzar en la IA generativa, que aparentemente será buena para la humanidad (uno espera).

Volvemos a esa blanda línea divisoria entre la ética de la IA y la ley de la IA.

En segundo lugar, el comentario citado indica que diseñaron una supercomputadora desde cero. Además del interés en lo que hace esta supercomputadora y cómo funciona exactamente, algo de lo cual ya se ha explicado, esto trae a colación un asunto completamente diferente.

A algunos les preocupa que la IA generativa se esté convirtiendo en un juego de mucho dinero. Solo las empresas de tecnología con el mayor dinero y los mayores recursos podrán diseñar y aplicar la IA generativa. La razón por la que esto se cuestiona es que tal vez vamos a tener IA generativa que está estrictamente controlada por solo un puñado de empresas tecnológicas. Podríamos volvernos muy dependientes de esas firmas y sus productos.

¿Necesitamos potencialmente usar las leyes existentes o idear nuevas leyes de IA para evitar que una concentración de IA generativa esté bajo el control limitado de unos pocos?

Algo para reflexionar.

Si está esperando que caiga el zapato en términos de alguna diferencia increíblemente masiva entre ChatGPT y GPT-4, eche un vistazo a esto de la publicación del blog de OpenAI sobre GPT-4:

  • “En una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil. La diferencia surge cuando la complejidad de la tarea alcanza un umbral suficiente: GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5".

Descubrí que esta falta de diferencia distintiva es un poco el caso, es decir, si está haciendo una especie de charla inactiva todos los días con ChatGPT y haciendo lo mismo con GPT-4, es posible que no se dé cuenta de que GPT-4 se considera más poderoso en general .

Un aspecto que parece destacar consiste en establecer un contexto para sus conversaciones con las dos aplicaciones generativas de IA.

Esto es lo que quiero decir.

Cuando usa una aplicación de IA generativa, a veces simplemente salta a una conversación que comienza y continúa junto con la IA. En otros casos, comienza diciéndole a la IA el contexto de la conversación. Por ejemplo, podría comenzar diciéndole a la IA generativa que quiero hablar sobre los motores de los automóviles con la IA y que quiero que la IA simule que es un mecánico de automóviles. Esto luego prepara el escenario o el escenario para que la IA responda en consecuencia.

Muchas personas que usan ChatGPT no se dan cuenta de la importancia de establecer el contexto cuando dialogan por primera vez con la aplicación de IA. Puede ser una gran diferencia en términos de qué respuesta obtendrá. A menudo encuentro que ChatGPT no se adapta muy bien por sí solo a contextos particulares. Lo intenta, pero a menudo se queda corto. Hasta ahora, GPT-4 parece realmente brillar a través del uso del establecimiento contextual.

Si va a utilizar IA generativa y desea establecer contextos cuando lo haga, definitivamente le daría la ventaja general a GPT-4 sobre ChatGPT.

En un elemento relacionado, también hay un aspecto conocido como manejabilidad que entra en juego.

Algunos usuarios de ChatGPT se sorprendieron al ver que la aplicación de IA a veces proporciona respuestas que parecen demasiado humorísticas o demasiado concisas. Esto puede ocurrir si la IA generativa detecta algo en su solicitud de entrada que parece desencadenar ese tipo de respuesta. Puede preguntar en broma sobre algo y no darse cuenta de que esto conducirá a ChatGPT hacia las bromas y un tono alegre.

Según la publicación del blog de OpenAI sobre GPT-4 y la capacidad de dirección:

  • “En lugar de la personalidad clásica de ChatGPT con una verbosidad, tono y estilo fijos, los desarrolladores (y pronto los usuarios de ChatGPT) ahora pueden prescribir el estilo y la tarea de su IA describiendo esas instrucciones en el mensaje del 'sistema'. Los mensajes del sistema permiten a los usuarios de API personalizar significativamente la experiencia de sus usuarios dentro de los límites".

Una vez más, esto mejorará la experiencia del usuario con las aplicaciones generativas de IA. Otros fabricantes de IA generativa están haciendo lo mismo e inevitablemente tendremos casi todas esas aplicaciones de IA con algún tipo de capacidad de dirección y funcionalidad de establecimiento contextual.

El camino áspero aún por delante

Un problema continuo y preocupante que sustenta la IA generativa, en general, es que se pueden producir todo tipo de resultados desagradables y absolutamente perturbadores.

En las publicaciones de mi columna, he cubierto estas preocupaciones diversas y aleccionadoras:

  • Errores generados por IA generativa
  • La IA generativa produjo falsedades
  • Sesgos integrados de IA generativa
  • Alucinaciones de IA
  • Intrusiones de privacidad
  • Debilidades de la confidencialidad de los datos
  • Esparcidor de desinformación
  • Propagador de desinformación
  • Uso dual para armamento
  • Dependencia excesiva de los humanos
  • Impactos económicos en los humanos
  • Refuerzo del delito cibernético
  • Etc.

Algunos rumores decían que mágica y milagrosamente GPT-4 iba a limpiar y resolver todas esas enfermedades generativas de IA.

Nadie con una cabeza adecuada sobre sus hombros pensó que tal rumor podría contener el agua. Estos son problemas de IA muy difíciles. No se resuelven fácilmente. Todavía queda mucho por hacer para hacer frente a estas dificultades duraderas y exasperantes. Es probable que se necesite un pueblo para conquistar la letanía de problemas de ética de la IA enredados en el entorno de la IA generativa.

Para dar crédito donde se debe, OpenAI ha tratado de explicar cómo están abordando estos variados desafíos. Aquellos de ustedes que estén interesados ​​en la ética de la IA deberían considerar hacer una lectura detallada del TR y el SC.

Aquí, por ejemplo, hay algunos comentarios claros sobre GPT-4 según lo declarado por OpenAI en el TR:

  • “GPT-4 puede generar contenido potencialmente dañino, como consejos sobre la planificación de ataques o discursos de odio. Puede representar varios sesgos sociales y visiones del mundo que pueden no ser representativos de la intención de los usuarios o de valores ampliamente compartidos. También puede generar código comprometido o vulnerable. Las capacidades adicionales de GPT-4 también conducen a nuevas superficies de riesgo”.

Además, dicen esto en el TR:

  • “A través de este análisis, encontramos que GPT-4 tiene el potencial de usarse para intentar identificar a personas privadas cuando se aumenta con datos externos. También encontramos que, aunque las capacidades de ciberseguridad de GPT-4 no son muy superiores a las generaciones anteriores de LLM, continúa la tendencia de reducir potencialmente el costo de ciertos pasos de un ciberataque exitoso, como a través de la ingeniería social o mediante la mejora de las herramientas de seguridad existentes. . Sin mitigaciones de seguridad, GPT-4 también puede brindar una guía más detallada sobre cómo realizar actividades dañinas o ilegales”.

No tengo el espacio de columna aquí para cubrir todos los numerosos elementos asociados con estas dificultades. Esté atento a la cobertura de columnas adicionales en mi análisis en curso de la IA generativa desde una perspectiva de la ética y la ley de la IA.

Parecería que vale la pena tomarse un momento y reconocer que OpenAI ha puesto a disposición su identificación de cómo están abordando estos arduos desafíos. Se podría decir que no había ninguna razón para que tuvieran que hacerlo. Podrían actuar como si no hubiera nada que ver. O simplemente podrían hacer un gesto vago con la mano y afirmar que estaban haciendo muchas cosas inteligentes para lidiar con estos problemas.

Afortunadamente, han elegido el enfoque sensato de tratar de salir adelante de las reacciones violentas y las intimidaciones que generalmente acompañan a los lanzamientos de IA generativa. Presumiblemente, tienen como objetivo mostrar firmemente su seriedad y compromiso para erradicar estos problemas y buscar mitigarlos o resolverlos.

Ofrecería la idea adicional de que el campo de la IA en total va a recibir una dura paliza si no hay un esfuerzo continuo y arduo para abordar estos asuntos de una manera directa y próxima. Adoptar un enfoque de caja negra oculta seguramente despertará la ira del público en general. También puede anticipar que si las empresas de IA no tratan de lidiar con estos problemas, lo más probable es que los legisladores y los reguladores se vean atraídos por estos asuntos y un tsunami de nuevas leyes de IA salpicará a todos los fabricantes de IA y a aquellos que trabajan en el campo. AI.

Algunos creen que ya estamos en esa coyuntura.

Insisten en que, aunque muchos de los fabricantes de IA parecen estar compartiendo lo que están haciendo, esto es una especie de forma furtiva de negación plausible. En resumen, continúe y apague la IA que es espantosa y claramente incorrecta, en lugar de esperar hasta que las cosas estén mejor diseñadas, y evite las de Ética y Leyes de IA al proclamar que está haciendo todo lo posible para rectificar las cosas. He discutido esta controversia en curso de "esperar hasta que esté listo" con frecuencia en la cobertura de mi columna.

Por el TR:

  • “OpenAI ha estado iterando en GPT-4 y nuestro plan de implementación desde principios de agosto para prepararse para un lanzamiento más seguro. Creemos que esto ha reducido la superficie de riesgo, aunque no la ha eliminado por completo. La implementación de hoy representa un equilibrio entre minimizar el riesgo de la implementación, habilitar casos de uso positivos y aprender de la implementación”.

Volviendo al asunto que nos ocupa, mencioné anteriormente que las alucinaciones de IA son un problema predominante cuando se trata de IA generativa.

Una vez más, no me gusta el eslogan, pero parece haberse popularizado. El pilar del problema con las alucinaciones de IA es que pueden producir resultados que contienen cosas muy locas. Podría estar pensando que depende del usuario discernir si los resultados son correctos o incorrectos. Una preocupación aquí es que las salidas pueden contener cosas inventadas que el usuario no puede determinar fácilmente si son inventadas. Podrían creer todo lo que diga la salida.

También hay una tendencia sutil a dejarse llevar por la creencia de los resultados de la IA generativa. Por lo general, la salida se escribe en un tono y una manera que sugiere una apariencia segura de confianza. Suponiendo que usa la IA generativa con regularidad, es fácil dejarse engañar por ver material veraz la mayor parte del tiempo. Entonces puede dejarse engañar fácilmente cuando algo inventado es arrancado en medio de lo que de otro modo parece ser un ensayo generado completamente sensato y lleno de hechos.

Esto es lo que dice el TR sobre GPT-4:

  • “GPT-4 tiene la tendencia a 'alucinar', es decir, 'producir contenido sin sentido o falso en relación con ciertas fuentes'. Esta tendencia puede ser particularmente dañina a medida que los modelos se vuelven cada vez más convincentes y creíbles, lo que lleva a que los usuarios confíen demasiado en ellos. Contrariamente a la intuición, las alucinaciones pueden volverse más peligrosas a medida que los modelos se vuelven más veraces, ya que los usuarios generan confianza en el modelo cuando proporciona información veraz en áreas en las que tienen cierta familiaridad”.

La buena noticia es que se han hecho esfuerzos y parece que continúan para tratar de reducir las posibilidades de alucinaciones de IA en GPT-4. Además, se afirma que GPT-4 supera a GPT-3.5 en términos de evitar alucinaciones de IA, aunque deja en claro que todavía van a ocurrir.

Aquí está el TR en esto:

  • "En las evaluaciones internas, GPT-4-launch obtiene 19 puntos porcentuales más que nuestro último modelo GPT-3.5 para evitar alucinaciones de dominio abierto y 29 puntos porcentuales más para evitar alucinaciones de dominio cerrado".

Para cerrar esta parte de la discusión por ahora, la IA generativa de todos los fabricantes de IA se enfrenta a estos problemas. Nadie ha curado esto de alguna manera. Si está buscando problemas difíciles de IA, le insto a que salte a estas aguas y ayude. Hay mucho trabajo por hacer.

Conclusión

Cuando una película de gran éxito ha existido por un tiempo y ha pasado de los cines a la transmisión en casa, es probable que muchas personas hayan visto la película o sepan algo sobre ella de otros que la han visto. A partir de entonces, cuando se anuncia y filma una secuela, la anticipación puede alcanzar niveles astronómicos.

JJ Abrams, el ahora legendario cineasta de partes de la serie Star Wars y el reinicio de Star Trek, dijo esto sobre las secuelas: "No hay nada de malo en hacer secuelas, simplemente son más fáciles de vender".

Edwin Catmull, cofundador de Pixar, enfatizó esto sobre las secuelas: “Créanme, las secuelas son tan difíciles de hacer como las películas originales”.

Si está interesado en ver el éxito de taquilla ChatGPT, puede registrarse fácilmente. La secuela GPT-4 es un poco más difícil de acceder. También tenga en cuenta que hay muchas otras películas disponibles, bueno, otras aplicaciones de IA generativa disponibles, por lo que es posible que desee asegurarse de que su experiencia cinematográfica (también conocida como IA generativa) sea variada y satisfactoria.

Una última nota aleccionadora. Tenga en cuenta que el contenido que podría encontrar podría ser PG13, R o incluso NC-17. Mantenlo en mente.

Fuente: https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-ethics-and-ai-law-considerations/