ChatGPT generativo de IA puede engullir de manera inquietante sus datos privados y confidenciales, advierte la ética y la ley de IA

Ahora ves tus datos, ahora no.

Mientras tanto, sus valiosos datos se han convertido en parte del colectivo, por así decirlo.

Me refiero a un aspecto que puede ser bastante sorprendente para aquellos de ustedes que están haciendo uso con entusiasmo y seriedad de lo último en Inteligencia Artificial (IA). Los datos que ingresa en una aplicación de IA potencialmente no son del todo privados para usted y solo para usted. Es posible que sus datos sean utilizados por el fabricante de IA presumiblemente para buscar mejorar sus servicios de IA o podrían ser utilizados por ellos y/o incluso por sus socios aliados para una variedad de propósitos.

Ya has sido advertido.

Esta entrega de sus datos está ocurriendo de la manera más inocua y potencialmente por miles o por orden de millones de personas. ¿Cómo es eso? Existe un tipo de IA conocida como IA generativa que recientemente ha obtenido grandes titulares y la gran atención del público en general. La más notable de las aplicaciones de IA generativa existentes es una llamada ChatGPT, diseñada por la firma OpenAI.

Supuestamente hay alrededor de un millón de usuarios registrados para ChatGPT. Muchos de esos usuarios parecen estar encantados de probar esta aplicación de IA generativa más novedosa y novedosa. El proceso es extraordinariamente simple. Ingresa un texto como mensaje y listo, la aplicación ChatGPT genera un resultado de texto que generalmente tiene la forma de un ensayo. Algunos se refieren a esto como texto a texto, aunque prefiero denotarlo como texto a ensayo ya que esta verborrea tiene más sentido cotidiano.

Al principio, un usuario novato probablemente entrará en algo divertido y despreocupado. Cuéntame sobre la vida y la época de George Washington, alguien podría entrar como aviso. ChatGPT luego produciría un ensayo sobre nuestro legendario primer presidente. El ensayo sería completamente fluido y sería difícil darse cuenta de que fue producido por una aplicación de IA. Una cosa emocionante de ver suceder.

Lo más probable es que después de jugar un rato, un segmento de usuarios novatos se habrá saciado y posiblemente optará por dejar de jugar con ChatGPT. Ahora han superado su FOMO (miedo a perderse algo), al hacerlo después de experimentar con la aplicación de inteligencia artificial de la que casi todos parecen estar hablando. Hecho hecho.

Sin embargo, algunos comenzarán a pensar en otras formas más serias de usar la IA generativa.

Tal vez use ChatGPT para escribir ese memorándum que su jefe le ha estado pidiendo que escriba. Todo lo que necesita hacer es proporcionar un aviso con las viñetas que tiene en mente, y lo siguiente que sabe es que ChatGPT ha generado un memorándum completo que hará que su jefe se sienta orgulloso de usted. Copie el ensayo generado de ChatGPT, péguelo en la plantilla oficial de la empresa en su paquete de procesamiento de textos y envíe por correo electrónico el elegante memorando a su gerente. Vales un millón de dólares. Y usó su cerebro para encontrar una herramienta útil que hiciera el trabajo duro por usted. Date unas palmaditas en la espalda.

Eso no es todo.

Sí, hay más.

Tenga en cuenta que la IA generativa puede realizar una gran cantidad de otras tareas relacionadas con la escritura.

Por ejemplo, suponga que ha escrito una narrativa de algún tipo para un cliente valioso y desea que se haga una revisión del material antes de que salga a la luz.

Pan comido.

Pega el texto de su narración en un aviso de ChatGPT y luego le indica a ChatGPT que analice el texto que compuso. El ensayo resultante podría profundizar en su redacción y, para su agradable sorpresa, intentará aparentemente inspeccionar el significado de lo que ha dicho (yendo mucho más allá de actuar como un corrector ortográfico o un analizador de gramática). La aplicación de IA podría detectar fallas en la lógica de tu narrativa o podría descubrir contradicciones que no sabías que estaban en tu propia escritura. Es casi como si hubiera contratado a un editor humano astuto para observar su borrador y proporcionar una letanía de sugerencias útiles y preocupaciones señaladas (bueno, quiero afirmar categóricamente que no estoy tratando de antropomorfizar la aplicación de IA, en particular que un editor humano es un ser humano, mientras que la aplicación AI es simplemente un programa de computadora).

Gracias a Dios que utilizó la aplicación de IA generativa para examinar su valiosa narrativa escrita. Sin duda, preferiría que la IA encuentre esos inquietantes problemas escritos en lugar de enviar el documento a su preciado cliente. Imagina que hubieras compuesto la narrativa para alguien que te había contratado para idear una representación bastante vital. Si le hubiera dado la versión original al cliente, antes de hacer la revisión de la aplicación de IA, podría sufrir una gran vergüenza. Es casi seguro que el cliente albergaría serias dudas sobre sus habilidades para hacer el trabajo solicitado.

Subamos la apuesta.

Considere la creación de documentos legales. Eso es obviamente un asunto particularmente serio. Las palabras y cómo están compuestas pueden significar una defensa legal enérgica o una calamidad legal lúgubre.

En mi investigación y consultoría en curso, interactúo regularmente con muchos abogados que están muy interesados ​​​​en usar IA en el campo del derecho. Varios programas de LegalTech se están conectando a las capacidades de IA. Un abogado puede usar IA generativa para redactar un borrador de un contrato o redactar otros documentos legales. Además, si el abogado hizo un borrador inicial por sí mismo, puede pasar el texto a una aplicación de IA generativa como ChatGPT para echar un vistazo y ver qué agujeros o lagunas se pueden detectar. Para obtener más información sobre cómo los abogados y el campo legal optan por hacer uso de la IA, consulte mi discusión en el enlace aquí.

Sin embargo, estamos listos para el problema.

Un abogado toma un contrato redactado y copia el texto en un aviso para ChatGPT. La aplicación AI produce una revisión para el abogado. Resulta que ChatGPT encuentra varios errores. El abogado revisa el contrato. También pueden pedirle a ChatGPT que les sugiera una nueva redacción o rehacer el texto compuesto para ellos. Luego, la aplicación de IA generativa produce una nueva y mejor versión del contrato. El abogado toma el texto generado y lo coloca en un archivo de procesamiento de texto. Fuera de la misiva va a su cliente. Misión cumplida.

¿Puedes adivinar lo que también acaba de suceder?

Detrás de escena y debajo del capó, el contrato podría haber sido tragado como un pez en la boca de una ballena. Aunque es posible que este abogado que usa IA no se dé cuenta, el texto del contrato, colocado como un aviso en ChatGPT, podría ser engullido por la aplicación de IA. Ahora es forraje para la coincidencia de patrones y otras complejidades computacionales de la aplicación de IA. Esto, a su vez, podría utilizarse de diversas formas. Si hay datos confidenciales en el borrador, eso también está potencialmente dentro de los límites de ChatGPT. Su aviso, tal como se lo proporcionó a la aplicación de IA, ahora es ostensiblemente parte del colectivo de una forma u otra.

Además, el ensayo producido también se considera parte del colectivo. Si le pidió a ChatGPT que modificara el borrador por usted y presentara la nueva versión del contrato, esto se interpretará como un ensayo final. Los resultados de ChatGPT también son un tipo de contenido que la aplicación de IA puede conservar o transformar.

Vaya, es posible que hayas entregado inocentemente información privada o confidencial. No es bueno. Además, ni siquiera te darías cuenta de que lo habías hecho. No se izaron banderas. Un cuerno no sonó. No se encendieron luces intermitentes para impactarte en la realidad.

Podríamos anticipar que las personas que no son abogados podrían cometer fácilmente ese error, pero que un abogado versado cometa el mismo error de novato es casi inimaginable. No obstante, es probable que en este momento haya profesionales legales que cometan este mismo error potencial. Corren el riesgo de violar un elemento notable del privilegio abogado-cliente y posiblemente violar las Reglas Modelo de Conducta Profesional (MRPC) de la Asociación Estadounidense de Abogados (ABA). En particular: “Un abogado no revelará información relacionada con la representación de un cliente a menos que el cliente dé su consentimiento informado, la divulgación esté implícitamente autorizada para llevar a cabo la representación o la divulgación esté permitida por el párrafo (b)” (citado de el MRPC, y para las cuales las excepciones asociadas con la subsección b no parecen abarcar el uso de una aplicación de IA generativa de una manera no segura).

Algunos abogados podrían tratar de excusar su transgresión alegando que no son magos de la tecnología y que no habrían tenido los medios para saber que ingresar información confidencial en una aplicación de IA generativa podría ser una especie de infracción. La ABA ha dejado en claro que el deber de los abogados incluye estar actualizados en IA y tecnología desde una perspectiva legal: “Para mantener el conocimiento y la habilidad necesarios, un abogado debe mantenerse al tanto de los cambios en la ley y su práctica, incluidos los beneficios y riesgos asociados con la tecnología relevante, participar en estudios y educación continuos y cumplir con todos los requisitos de educación legal continua a los que está sujeto el abogado” (según MRPC).

Varias disposiciones entran en esta apariencia de deber legal, incluido el mantenimiento de la información confidencial del cliente (Regla 1.6), la protección de la propiedad del cliente, como los datos (Regla 1.15), la comunicación adecuada con un cliente (Regla 1.4), la obtención del consentimiento informado del cliente (Regla 1.6), y asegurar una representación competente en nombre de un cliente (Regla 1.1). Y también está la resolución centrada en la IA poco conocida pero muy notable aprobada por la ABA: “Que la Asociación de Abogados de los Estados Unidos insta a los tribunales y abogados a abordar los problemas éticos y legales emergentes relacionados con el uso de la inteligencia artificial ('IA') en la práctica de la ley, incluidos: (1) sesgo, explicabilidad y transparencia de las decisiones automatizadas tomadas por IA; (2) uso ético y beneficioso de la IA; y (3) controles y supervisión de AI y los proveedores que proporcionan AI”.

Palabras de sabios para mis amigos y colegas legales.

El quid de la cuestión es que casi cualquier persona puede meterse en un lío al utilizar la IA generativa. Los no abogados pueden hacerlo por su presunta falta de perspicacia jurídica. Los abogados también pueden hacerlo, tal vez enamorados de la IA o sin respirar hondo y reflexionar sobre las repercusiones legales que pueden surgir al usar la IA generativa.

Todos estamos potencialmente en el mismo barco.

También debe darse cuenta de que ChatGPT no es la única aplicación de inteligencia artificial generativa en el bloque. Hay otras aplicaciones generativas de IA que puedes usar. Es probable que también estén cortados por el mismo patrón, es decir, que las entradas que ingresa como indicaciones y las salidas que recibe como ensayos generados se consideran parte del colectivo y pueden ser utilizados por el fabricante de IA.

En la columna de hoy, voy a desglosar la naturaleza de cómo los datos que ingresa y los datos que recibe de la IA generativa pueden verse potencialmente comprometidos con respecto a la privacidad y la confidencialidad. Los fabricantes de IA ponen a disposición sus requisitos de licencia y sería prudente leer esas estipulaciones vitales antes de comenzar a usar activamente una aplicación de IA con cualquier apariencia de datos reales. Lo guiaré a través de un ejemplo de dicha licencia, haciéndolo para la aplicación ChatGPT AI.

En todo esto viene una gran cantidad de consideraciones sobre la ética y la ley de la IA.

Tenga en cuenta que se están realizando esfuerzos para imbuir los principios éticos de IA en el desarrollo y la implementación de aplicaciones de IA. Un creciente contingente de éticos de IA preocupados y antiguos están tratando de garantizar que los esfuerzos para diseñar y adoptar IA tengan en cuenta una visión de hacer AI para siempre y evitando AI para mal. Del mismo modo, se han propuesto nuevas leyes de IA que se están promocionando como posibles soluciones para evitar que los esfuerzos de IA se vuelvan locos en materia de derechos humanos y similares. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Existen importantes matices y disposiciones éticos de IA asociados con la forma en que los fabricantes de IA pueden o deben tratar los datos o la información que parece privada o confidencial para sus usuarios. Probablemente también sepa que un montón de leyes existentes atacan el núcleo de cómo se supone que las entidades tecnológicas deben manejar los datos. También es probable que las leyes de IA recientemente propuestas también se entrecrucen en ese mismo territorio. Véase, por ejemplo, mi cobertura de la Declaración de derechos de IA y otras disputas legales sobre la IA, en el enlace aquí.

Aquí está la conclusión clave de esta discusión:

  • Sea muy, muy, muy cuidadoso con los datos o la información que opta por incluir en sus avisos cuando utilice IA generativa y, de manera similar, tenga mucho cuidado y anticipe qué tipo de ensayos generados podría obtener, ya que los resultados también se pueden absorber.

¿Esto implica que no deberías usar IA generativa?

No, eso no es en absoluto lo que estoy diciendo.

Utilice la IA generativa al contenido de su corazón. La esencia es que debes tener en cuenta cómo lo usas. Averigüe qué tipo de estipulaciones de licencia están asociadas con el uso. Decide si puedes vivir con esas estipulaciones. Si hay vías para informar al fabricante de IA que desea invocar ciertos tipos de protecciones o concesiones adicionales, asegúrese de hacerlo.

También mencionaré otra faceta que sé que hará enojar a algunas personas. Aquí va. Independientemente de las estipulaciones de licencia, también debe asumir que existe la posibilidad de que esos requisitos no se cumplan por completo. Las cosas pueden salir mal. Las cosas pueden deslizarse entre las grietas. Al final, claro, es posible que tenga un caso legal contra un fabricante de IA por no cumplir con sus estipulaciones, pero eso es un poco después de que el caballo ya está fuera del establo.

Una forma potencialmente muy segura de proceder sería configurar su propia instancia en sus propios sistemas, ya sea en la nube o internamente (y, suponiendo que cumpla con las precauciones de seguridad cibernética adecuadas, que ciertamente algunos no hacen y son peores en su propia nube que usar la nube del proveedor de software). Sin embargo, un problema un poco molesto es que pocas de las aplicaciones generativas de IA a gran escala permiten esto en este momento. Prácticamente todos están trabajando solo en nuestra nube. Pocos han puesto a su disposición la opción de tener una instancia completa tallada solo para usted. He vaticinado que poco a poco veremos surgir esta opción, aunque al principio será algo costosa y algo complicada, mira mis predicciones en el enlace aquí.

¿Cómo es posible que personas especialmente brillantes y notablemente astutas se metan en un atolladero de erosión de la confidencialidad de los datos o la información?

El atractivo de estas aplicaciones generativas de IA es bastante magnético una vez que comienzas a usar una. Paso a paso, te encuentras hipnotizado y optas por meter los dedos de los pies más y más en las aguas generativas de la IA. Lo siguiente que sabes es que estás entregando contenido patentado que se supone que debe mantenerse privado y confidencial en una aplicación de IA generativa.

Resista el impulso y, por favor, absténgase de caer paso a paso en una trampa desagradable.

Para los líderes empresariales y ejecutivos de alto nivel, la misma advertencia va para usted y para todas las personas de su empresa. Los altos ejecutivos también quedan atrapados en el entusiasmo y el asombro de usar IA generativa. Realmente pueden equivocarse y potencialmente ingresar información secreta de alto nivel en una aplicación de IA.

Además de esto, es posible que tengan amplias ligas de sus empleados que también jueguen con la IA generativa. Muchos de esos empleados conscientes ingresan sin pensar y felizmente la información privada y confidencial de la empresa en estas aplicaciones de IA. Según informes de noticias recientes, Amazon aparentemente descubrió que algunos empleados estaban ingresando información de propiedad en ChatGPT. Se dijo que se envió internamente una advertencia legal para tener cuidado al usar la irresistible aplicación de IA.

En general, surge un poco de ironía en el creciente fenómeno de los empleados que ingresan datos confidenciales en ChatGPT y otras IA generativas. Permítanme elaborar. Las empresas modernas de hoy en día suelen tener estrictas políticas de ciberseguridad que han elaborado e implementado minuciosamente. Existen numerosas protecciones tecnológicas. La esperanza es evitar liberaciones accidentales de cosas cruciales. Un redoble continuo es tener cuidado cuando visite sitios web, tenga cuidado cuando use aplicaciones no aprobadas, etc.

Vienen aplicaciones de IA generativa como ChatGPT. Las noticias sobre la aplicación de IA se disparan y reciben una atención generalizada. Surge un frenesí. Las personas en estas empresas que tienen todas estas protecciones de seguridad cibernética optan por saltar a una aplicación de IA generativa. Al principio juegan ociosamente con él. Luego comienzan a ingresar los datos de la empresa. Wham, ahora potencialmente han expuesto información que no debería haber sido divulgada.

El juguete nuevo y reluciente que elude mágicamente los millones de dólares de gastos en protecciones de seguridad cibernética y la capacitación continua sobre lo que no se debe hacer. Pero bueno, es emocionante usar IA generativa y ser parte de la multitud "in". Eso es lo que cuenta, al parecer.

Confío en que me entiendes acerca de ser marcadamente cauteloso.

A continuación, echemos un vistazo de cerca a cómo la IA generativa trata técnicamente el texto de las indicaciones y los ensayos generados. También exploraremos algunas de las estipulaciones de licencia, usando ChatGPT como ejemplo. Tenga en cuenta que no voy a cubrir la gama completa de esos elementos de licencia. Asegúrese de involucrar a su asesor legal para cualquier aplicación de IA generativa que decida usar. Además, la licencia difiere de un fabricante de IA a otro, además, un fabricante de IA determinado puede optar por cambiar su licencia, así que asegúrese de estar atento a lo que estipule la última versión de la licencia.

Tenemos algunas cosas emocionantes que hacer sobre este tema embriagador.

Primero, debemos asegurarnos de que todos estemos en la misma página sobre en qué consiste la IA generativa y también de qué se trata ChatGPT. Una vez que cubrimos esa faceta fundamental, podemos realizar una evaluación convincente de la metáfora del espejo asociada con este tipo de IA.

Si ya está muy familiarizado con IA generativa y ChatGPT, tal vez pueda hojear la siguiente sección y continuar con la siguiente. Creo que todos los demás encontrarán instructivos los detalles vitales sobre estos asuntos al leer detenidamente la sección y ponerse al día.

Una introducción rápida sobre la IA generativa y ChatGPT

ChatGPT es un sistema interactivo orientado a la conversación de IA de propósito general, esencialmente un chatbot general aparentemente inocuo; sin embargo, las personas lo utilizan de manera activa y ávida de maneras que están tomando a muchos por sorpresa, como explicaré en breve. Esta aplicación de IA aprovecha una técnica y tecnología en el ámbito de la IA que a menudo se conoce como IA generativa. La IA genera resultados como texto, que es lo que hace ChatGPT. Otras aplicaciones de IA basadas en generativos producen imágenes como imágenes o ilustraciones, mientras que otras generan archivos de audio o videos.

Me centraré en las aplicaciones de IA generativas basadas en texto en esta discusión, ya que eso es lo que hace ChatGPT.

Las aplicaciones de IA generativa son extremadamente fáciles de usar.

Todo lo que necesita hacer es ingresar un aviso y la aplicación AI generará para usted un ensayo que intenta responder a su aviso. El texto compuesto parecerá como si el ensayo hubiera sido escrito por la mano y la mente humana. Si ingresara un mensaje que dijera "Cuénteme sobre Abraham Lincoln", la IA generativa le proporcionará un ensayo sobre Lincoln. Esto se clasifica comúnmente como IA generativa que realiza texto a texto o algunos prefieren llamarlo texto a ensayo producción. Como se mencionó, existen otros modos de IA generativa, como texto a arte y texto a video.

Su primer pensamiento podría ser que esta capacidad generativa no parece tan importante en términos de producción de ensayos. Puede realizar fácilmente una búsqueda en línea en Internet y encontrar toneladas y toneladas de ensayos sobre el presidente Lincoln. El truco en el caso de la IA generativa es que el ensayo generado es relativamente único y proporciona una composición original en lugar de una copia. Si intentara encontrar el ensayo producido por IA en línea en algún lugar, es poco probable que lo descubra.

La IA generativa está preentrenada y utiliza una formulación matemática y computacional compleja que se ha configurado mediante el examen de patrones en palabras e historias escritas en la web. Como resultado de examinar miles y millones de pasajes escritos, la IA puede arrojar nuevos ensayos e historias que son una mezcla de lo que se encontró. Al agregar varias funciones probabilísticas, el texto resultante es bastante único en comparación con lo que se ha utilizado en el conjunto de entrenamiento.

Es por eso que ha habido un alboroto acerca de que los estudiantes pueden hacer trampa cuando escriben ensayos fuera del salón de clases. Un maestro no puede simplemente tomar el ensayo que los estudiantes engañosos afirman que es su propia escritura y tratar de averiguar si fue copiado de alguna otra fuente en línea. En general, no habrá ningún ensayo preexistente definitivo en línea que se ajuste al ensayo generado por IA. En total, el profesor tendrá que aceptar a regañadientes que el estudiante escribió el ensayo como un trabajo original.

Hay preocupaciones adicionales sobre la IA generativa.

Una desventaja crucial es que los ensayos producidos por una aplicación de IA basada en generativos pueden tener varias falsedades incrustadas, incluidos hechos evidentemente falsos, hechos que se describen de manera engañosa y hechos aparentes que son completamente inventados. Esos aspectos fabricados se refieren a menudo como una forma de alucinaciones de IA, un eslogan que no me gusta pero que lamentablemente parece estar ganando popularidad de todos modos (para una explicación detallada de por qué esta es una terminología pésima e inadecuada, consulte mi cobertura en el enlace aquí).

Me gustaría aclarar un aspecto importante antes de entrar en el meollo de este tema.

Ha habido algunas afirmaciones descabelladas y descomunales en las redes sociales sobre IA generativa afirmando que esta última versión de AI es de hecho IA consciente (¡no, están equivocados!). Los de Ética y Derecho de IA están especialmente preocupados por esta tendencia creciente de reclamos extendidos. Se podría decir cortésmente que algunas personas están exagerando lo que la IA de hoy en día realmente puede hacer. Asumen que la IA tiene capacidades que aún no hemos podido lograr. Eso es lamentable. Peor aún, pueden permitirse a sí mismos y a otros meterse en situaciones difíciles debido a la suposición de que la IA será sensible o parecida a un humano para poder tomar medidas.

No antropomorfizar la IA.

Si lo hace, quedará atrapado en una trampa de dependencia pegajosa y severa de esperar que la IA haga cosas que no puede realizar. Dicho esto, lo último en IA generativa es relativamente impresionante por lo que puede hacer. Sin embargo, tenga en cuenta que existen limitaciones significativas que debe tener en cuenta continuamente al usar cualquier aplicación de IA generativa.

Si está interesado en la conmoción en rápida expansión sobre ChatGPT y la IA generativa, he estado haciendo una serie enfocada en mi columna que puede encontrar informativa. Aquí hay un vistazo en caso de que alguno de estos temas te llame la atención:

  • 1) Predicciones de los próximos avances en IA generativa. Si desea saber qué es probable que se desarrolle sobre la IA a lo largo de 2023 y más allá, incluidos los próximos avances en IA generativa y ChatGPT, querrá leer mi lista completa de predicciones para 2023 en el enlace aquí.
  • 2) IA Generativa y Asesoramiento en Salud Mental. Opté por revisar cómo la IA generativa y ChatGPT se utilizan para el asesoramiento sobre salud mental, una tendencia problemática, según mi análisis centrado en el enlace aquí.
  • 3) Fundamentos de IA generativa y ChatGPT. Este artículo explora los elementos clave de cómo funciona la IA generativa y, en particular, profundiza en la aplicación ChatGPT, incluido un análisis de los rumores y fanfarrias, en el enlace aquí.
  • 4) Tensión entre profesores y estudiantes por la IA generativa y ChatGPT. Estas son las formas en que los estudiantes usarán astutamente la IA generativa y ChatGPT. Además, hay varias formas en que los maestros pueden lidiar con este maremoto. Ver el enlace aquí.
  • 5) Contexto y uso generativo de IA. También realicé un examen irónico con sabor estacional sobre un contexto relacionado con Papá Noel que involucraba ChatGPT e IA generativa en el enlace aquí.
  • 6) Estafadores que usan IA generativa. En una nota ominosa, algunos estafadores han descubierto cómo usar la IA generativa y ChatGPT para cometer delitos, incluida la generación de correos electrónicos fraudulentos e incluso la producción de código de programación para malware. Consulte mi análisis en el enlace aquí.
  • 7) Errores de novatos al usar IA generativa. Muchas personas se exceden y, sorprendentemente, no alcanzan lo que pueden hacer la IA generativa y ChatGPT, por lo que observé especialmente la insuficiencia que tienden a cometer los novatos de la IA, vea la discusión en el enlace aquí.
  • 8) Lidiar con indicaciones generativas de IA y alucinaciones de IA. Describo un enfoque de vanguardia para el uso de complementos de IA para lidiar con los diversos problemas asociados con el intento de ingresar avisos adecuados en la IA generativa, además hay complementos de IA adicionales para detectar los llamados resultados alucinados y falsedades de la IA, como cubierto en el enlace aquí.
  • 9) Desacreditar las afirmaciones de Bonehead sobre la detección de ensayos generados por IA generativa. Hay una fiebre del oro equivocada de aplicaciones de IA que proclaman poder determinar si un ensayo determinado fue producido por humanos o generado por IA. En general, esto es engañoso y, en algunos casos, un reclamo estúpido e insostenible, consulte mi cobertura en el enlace aquí.
  • 10) El juego de roles a través de la IA generativa podría presagiar inconvenientes para la salud mental. Algunos están utilizando IA generativa como ChatGPT para hacer juegos de rol, en los que la aplicación de IA responde a un humano como si existiera en un mundo de fantasía u otro entorno inventado. Esto podría tener repercusiones en la salud mental, ver el enlace aquí.
  • 11) Exponer el rango de errores y falsedades emitidos. Se están recopilando varias listas para tratar de mostrar la naturaleza de los errores y falsedades producidos por ChatGPT. Algunos creen que esto es esencial, mientras que otros dicen que el ejercicio es fútil, ver mi análisis en el enlace aquí.
  • 12) Las escuelas que prohíben la IA generativa ChatGPT están perdiendo el rumbo. Es posible que sepa que varias escuelas, como el Departamento de Educación de la Ciudad de Nueva York (NYC), han declarado una prohibición sobre el uso de ChatGPT en su red y dispositivos asociados. Aunque esto puede parecer una precaución útil, no moverá la aguja y, lamentablemente, se perderá por completo el barco, consulte mi cobertura en el enlace aquí.
  • 13) IA ChatGPT generativo estará en todas partes debido a la próxima API. Se avecina un giro importante sobre el uso de ChatGPT, a saber, que a través del uso de un portal API en esta aplicación de IA en particular, otros programas de software podrán invocar y utilizar ChatGPT. Esto va a expandir dramáticamente el uso de la IA generativa y tiene consecuencias notables, vea mi elaboración en el enlace aquí.
  • 14) Maneras en las que ChatGPT podría esfumarse o derretirse. Varios problemas potenciales desconcertantes estaban por delante de ChatGPT en términos de socavar los tremendos elogios que ha recibido hasta ahora. Este análisis examina de cerca ocho posibles problemas que podrían hacer que ChatGPT pierda fuerza e incluso termine en la caseta del perro. Consulte el enlace aquí.

Puede que le interese que ChatGPT se base en una versión de una aplicación de IA anterior conocida como GPT-3. Se considera que ChatGPT es un paso ligeramente posterior, denominado GPT-3.5. Se anticipa que GPT-4 probablemente se lanzará en la primavera de 2023. Presumiblemente, GPT-4 será un impresionante paso adelante en términos de poder producir ensayos aparentemente aún más fluidos, profundizar y ser un asombro. -inspiradora maravilla en cuanto a las composiciones que puede producir.

Puede esperar ver una nueva ronda de asombro expresado cuando llegue la primavera y se lance lo último en IA generativa.

Menciono esto porque hay otro ángulo a tener en cuenta, que consiste en un posible talón de Aquiles para estas aplicaciones de IA generativas mejores y más grandes. Si algún proveedor de IA pone a disposición una aplicación de IA generativa que arroja asquerosidad, esto podría frustrar las esperanzas de esos fabricantes de IA. Un derrame social puede causar que toda la IA generativa tenga un ojo morado grave. Sin duda, la gente se enfadará bastante por las malas salidas, que ya han sucedido muchas veces y han dado lugar a bulliciosas reacciones violentas de condena social hacia la IA.

Una advertencia final por ahora.

Todo lo que vea o lea en una respuesta generativa de IA que parece para transmitirse como puramente fáctico (fechas, lugares, personas, etc.), asegúrese de permanecer escéptico y esté dispuesto a verificar dos veces lo que ve.

Sí, las fechas se pueden inventar, los lugares se pueden inventar y los elementos que normalmente esperamos que sean irreprochables son todos sujeto a sospechas. No crea lo que lee y mantenga una mirada escéptica cuando examine cualquier ensayo o resultado de IA generativa. Si una aplicación de IA generativa te dice que Abraham Lincoln voló por todo el país en su propio jet privado, sin duda sabrás que es una tontería. Desafortunadamente, algunas personas pueden no darse cuenta de que los aviones a reacción no existían en su época, o pueden saber pero no darse cuenta de que el ensayo hace esta afirmación descarada y escandalosamente falsa.

Una fuerte dosis de escepticismo saludable y una mentalidad persistente de incredulidad serán su mejor activo cuando use IA generativa.

Estamos listos para pasar a la siguiente etapa de esta elucidación.

Sabiendo lo que le pasará al diablo con ese texto

Ahora que tenemos los fundamentos establecidos, podemos sumergirnos en las consideraciones de datos e información cuando usamos IA generativa.

Primero, consideremos brevemente lo que sucede cuando ingresa un texto en un indicador de ChatGPT. No sabemos con certeza qué sucede dentro de ChatGPT ya que el programa se considera propietario. Algunos han señalado que esto socava el sentido de transparencia sobre la aplicación de IA. Un comentario algo zalamero es que para una empresa que se llama OpenAI, su IA en realidad está cerrada al acceso público y no está disponible como código abierto.

Hablemos de la tokenización.

Cuando ingresa texto sin formato en un aviso y presiona regresar, presumiblemente hay una conversión que ocurre de inmediato. El texto se convierte a un formato que consta de fichas. Los tokens son subpartes de las palabras. Por ejemplo, la palabra "hamburguesa" normalmente se dividiría en tres fichas que consisten en la porción "jamón", "bur" y "ger". Una regla general es que los tokens tienden a representar alrededor de cuatro caracteres o se consideran aproximadamente el 75% de una palabra en inglés convencional.

Luego, cada token se reformula como un número. Varias tablas internas designan qué token se asigna a qué número en particular. La aceptación de esto es que el texto que ingresó ahora es completamente un conjunto de números. Esos números se utilizan para analizar computacionalmente el aviso. Además, la red de coincidencia de patrones que mencioné anteriormente también se basa en valores tokenizados. En última instancia, al redactar o generar el ensayo producido, estos tokens numéricos se usan primero y luego, antes de mostrarse, los tokens se vuelven a convertir en conjuntos de letras y palabras.

Piense en eso por un momento.

Cuando le digo a la gente que así es como funciona la mecánica del procesamiento, a menudo se quedan atónitos. Asumieron que una aplicación de IA generativa como ChatGPT debe usar palabras totalmente integradoras. Asumimos lógicamente que las palabras actúan como la piedra angular para identificar estadísticamente las relaciones en las narrativas y composiciones escritas. Resulta que el procesamiento en realidad tiende a usar tokens. Quizás esto se suma al asombro sobre cómo el proceso computacional parece hacer un trabajo bastante convincente al imitar el lenguaje humano.

Te guié a través de ese proceso debido a un concepto erróneo común que parece estar extendiéndose. Algunas personas parecen creer que debido a que su mensaje de texto se está convirtiendo en tokens numéricos, está seguro de que las partes internas de la aplicación de IA de alguna manera ya no tienen el texto ingresado originalmente. Por lo tanto, dice el reclamo, incluso si ingresó información confidencial en su aviso, no tiene preocupaciones ya que aparentemente todo ha sido tokenizado.

Esa noción es una falacia. Acabo de señalar que los tokens numéricos se pueden devolver fácilmente al formato textual de letras y palabras. Se podría hacer lo mismo con el aviso convertido que ha sido tokenizado. No hay nada mágicamente protector en haber sido tokenizado. Dicho esto, después de la conversión en tokens, si hay un proceso adicional que opta por descartar tokens, moverlos y, de lo contrario, revolver o cortar cosas, en ese caso, existe la posibilidad de que algunas partes del original ya no están intactos (y suponiendo que una copia original no se retenga o almacene en algún lugar interno).

A continuación, me gustaría echar un vistazo a las diversas notificaciones y estipulaciones de licencia de ChatGPT.

Cuando inicia sesión en ChatGPT, se muestran una serie de precauciones y comentarios informativos.

Aquí están:

  • “Ocasionalmente puede generar información incorrecta”.
  • "Puede ocasionalmente producir instrucciones dañinas o contenido sesgado".
  • "Entrenado para rechazar solicitudes inapropiadas".
  • “Nuestro objetivo es obtener comentarios externos para mejorar nuestros sistemas y hacerlos más seguros”.
  • “Si bien contamos con medidas de seguridad, el sistema puede generar ocasionalmente información incorrecta o engañosa y producir contenido ofensivo o sesgado. No tiene la intención de dar consejos”.
  • “Nuestros entrenadores de IA pueden revisar las conversaciones para mejorar nuestros sistemas”.
  • "Por favor, no comparta ninguna información confidencial en sus conversaciones".
  • “Este sistema está optimizado para el diálogo. Háganos saber si una respuesta en particular fue buena o inútil”.
  • “Conocimiento limitado del mundo y los eventos después de 2021”.

Dos de esas advertencias indicadas son especialmente relevantes para esta discusión. Mire el sexto punto con viñetas y el séptimo punto con viñetas.

Desempaquemos esos dos:

“Nuestros entrenadores de IA pueden revisar las conversaciones para mejorar nuestros sistemas”.

Este sexto punto explica que las conversaciones de texto cuando se usa ChatGPT pueden ser revisadas por ChatGPT a través de sus "entrenadores de IA", lo que se está haciendo para mejorar sus sistemas. Esto es para informarle que para todas y cada una de las indicaciones de texto ingresadas y los ensayos resultantes correspondientes, todos los cuales son parte de la "conversación" que lleva a cabo con ChatGPT, pueden ser vistos por completo por su gente. La justificación ofrecida es que esto se está haciendo para mejorar la aplicación de IA, y también se nos dice que es un tipo de tarea de trabajo que realizan sus entrenadores de IA. Tal vez sea así, pero el resultado es que te han notificado que pueden ver tu texto. Punto, punto final.

Si tuvieran que hacer algo más con su texto, probablemente buscaría asesoramiento legal sobre si han gravitado de manera notoria más allá de los límites sugeridos de simplemente revisar el texto con fines de mejora del sistema (suponiendo que haya logrado descubrir que lo han hecho, cuál de los dos). en sí mismo parece quizás improbable). De todos modos, puede imaginar la disputa legal de tratar de precisarlos en esto, y sus intentos de forjar palabras para evitar ser atrapados por violar de alguna manera los límites de su descargo de responsabilidad.

"Por favor, no comparta ninguna información confidencial en sus conversaciones".

El séptimo punto con viñetas indica que no debe compartir ninguna información confidencial en sus conversaciones. Eso parece relativamente sencillo. Supongo que podría cuestionar en qué consiste la definición de información confidencial. Además, el punto con viñetas no le dice por qué no debe compartir información confidencial. Si algún día tiene que intentar y sudar terriblemente explicar por qué ingresó datos confidenciales de manera tonta, puede intentar afirmar con una ceja levantada que la advertencia no era específica, por lo tanto, no entendió el significado. Aguante la respiración en eso.

Considerándolo todo, me atrevo a decir que la mayoría de las personas que he visto usando ChatGPT tienden a no leer los puntos con viñetas, o leen las precauciones con viñetas y simplemente asienten con la cabeza como si fuera el galimatías legal habitual que ves todo el hora. Pocos parecen tomar las advertencias estrictamente en serio. ¿Es esto culpa del vendedor por no tomar las precauciones más pronunciadas? ¿O debemos asumir que los usuarios deben ser responsables y haber leído atentamente, comprendido y, posteriormente, actuar con prudencia en función de las advertencias?

Algunos incluso afirman que la aplicación de IA debería advertirle repetidamente. Cada vez que ingrese un mensaje, el software debería mostrar una advertencia y preguntarle si desea presionar el botón de retorno. Una y otra vez. Aunque esto puede parecer una precaución útil, es cierto que irritaría muchísimo a los usuarios. Se trata de una compensación espinosa.

De acuerdo, esas son las precauciones obvias que se presentan para que todos los usuarios las vean fácilmente.

Los usuarios que sean más curiosos pueden optar por seguir algunas de las estipulaciones de licencia detalladas que también se publican en línea. Dudo que muchos lo hagan. Mi corazonada es que pocos miran seriamente los puntos con viñetas al iniciar sesión, y aún menos por un amplio margen, luego echan un vistazo a los detalles de la licencia. Nuevamente, todos estamos algo insensibles a tales cosas en estos días. No estoy excusando el comportamiento, solo notando por qué ocurre.

Examinaré algunos extractos de los términos de licencia publicados.

Primero, aquí hay una definición de lo que consideran "contenido" asociado con el uso de ChatGPT:

  • "Tu contenido. Puede proporcionar información a los Servicios ('Entrada') y recibir resultados generados y devueltos por los Servicios en función de la Entrada ('Salida'). La entrada y la salida son colectivamente "Contenido". Entre las partes y en la medida en que lo permita la ley aplicable, usted posee todos los Entradas y, sujeto a su cumplimiento de estos Términos, OpenAI le asigna todos sus derechos, títulos e intereses en y para la Salida. OpenAI puede usar el Contenido según sea necesario para proporcionar y mantener los Servicios, cumplir con la ley aplicable y hacer cumplir nuestras políticas. Usted es responsable del Contenido, incluso de asegurarse de que no infrinja ninguna ley aplicable o estos Términos”.

Si examina detenidamente esa definición, notará que OpenAI declara que puede usar el contenido según lo considere necesario para mantener sus servicios, incluido el cumplimiento de las leyes aplicables y la aplicación de sus políticas. Este es un cajón de sastre útil para ellos. En una de mis próximas columnas, discutiré un tema diferente pero relacionado, específicamente sobre los derechos de Propiedad Intelectual (IP) que tiene con respecto a las indicaciones de texto ingresadas y los ensayos generados (señalo esto aquí ya que la definición de El contenido se relaciona con ese tema).

En otra parte de los términos, etiquetada como sección c, mencionan esta faceta: “Uno de los principales beneficios de los modelos de aprendizaje automático es que se pueden mejorar con el tiempo. Para ayudar a OpenAI a proporcionar y mantener los Servicios, usted acepta e indica que podemos usar el Contenido para desarrollar y mejorar los Servicios”. Esto es similar a la advertencia de una línea discutida anteriormente que aparece cuando inicia sesión en ChatGPT.

Un documento separado que está vinculado a esto proporciona algunos aspectos adicionales sobre estos asuntos importantes:

  • “Como parte de esta mejora continua, cuando usa modelos OpenAI a través de nuestra API, podemos usar los datos que nos proporciona para mejorar nuestros modelos. Esto no solo ayuda a que nuestros modelos sean más precisos y mejores para resolver su problema específico, sino que también ayuda a mejorar sus capacidades generales y su seguridad. Sabemos que la privacidad y la seguridad de los datos son fundamentales para nuestros clientes. Nos preocupamos mucho por utilizar los controles técnicos y de procesos apropiados para proteger sus datos. Eliminamos cualquier información de identificación personal de los datos que pretendemos utilizar para mejorar el rendimiento del modelo. También utilizamos solo una pequeña muestra de datos por cliente para nuestros esfuerzos por mejorar el rendimiento del modelo. Por ejemplo, para una tarea, la cantidad máxima de solicitudes de API que muestreamos por cliente tiene un límite de 200 cada 6 meses” (extraído del documento titulado “Cómo se usan sus datos para mejorar el rendimiento del modelo”).

Tenga en cuenta que la estipulación indica que la disposición se aplica a la uso de la API como un medio para conectarse y usar los modelos OpenAI en total. Es un poco confuso si esto se aplica igualmente a los usuarios finales que usan ChatGPT directamente.

En un documento diferente, uno que contiene su lista de varias preguntas frecuentes, brindan una serie de preguntas y respuestas, dos de las cuales parecen especialmente pertinentes para esta discusión:

  • “(5) ¿Quién puede ver mis conversaciones? Como parte de nuestro compromiso con una IA segura y responsable, revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”.
  • “(8) ¿Puedes eliminar avisos específicos? No, no podemos eliminar avisos específicos de su historial. Por favor, no comparta ninguna información confidencial en sus conversaciones”.

Hay un documento adicional que cubre su política de privacidad. Dice esto: "Recopilamos información que sola o en combinación con otra información en nuestro poder podría usarse para identificarlo ("Información personal")" y luego procede a explicar que podrían usar datos de registro, datos de uso, información de comunicación, información del dispositivo, cookies, análisis y otra información potencialmente recopilable sobre usted. Asegúrese de leer la letra pequeña.

Creo que eso proporciona un recorrido por algunas consideraciones que subyacen a cómo se pueden usar sus datos. Como mencioné al principio, no voy a revisar laboriosamente todas las estipulaciones de licencia.

Con suerte, esto lo ayudará a tener un estado de ánimo sobre estos asuntos y permanecerá en su mente.

Conclusión

Lo dije antes y lo diré nuevamente, no ingrese datos confidenciales o privados en estas aplicaciones generativas de IA.

Considere algunos consejos prácticos u opciones sobre este sabio consejo:

  • Piense antes de usar IA generativa
  • Eliminar cosas de antemano
  • Enmascare o falsifique su entrada
  • Configure su propia instancia
  • Otro

Paso a indicar a continuación en qué consiste cada uno de ellos. La configuración de su propia instancia se trató anteriormente en este documento. El uso de "otro" en mi lista se debe a la posibilidad de otras formas de hacer frente a la prevención de la inclusión de datos confidenciales, que trataré más adelante en una publicación de columna futura.

Examinemos estos:

  • Piense antes de usar IA generativa. Un enfoque consiste en evitar por completo el uso de la IA generativa. O al menos piénsalo dos veces antes de hacerlo. Supongo que la vía más segura implica no usar estas aplicaciones de IA. Pero esto también parece bastante severo y casi exagerado.
  • Eliminar cosas de antemano. Otro enfoque consiste en eliminar la información confidencial o privada de lo que ingrese como aviso. En ese sentido, si no lo ingresa, no hay posibilidad de que se infunda en los Borg. La desventaja es que tal vez la eliminación de la parte confidencial de alguna manera reduce o socava lo que está tratando de hacer que la IA generativa haga por usted.
  • Enmascare o falsifique sus entradas. Puede modificar su texto propuesto cambiando la información para que lo que parecía confidencial o privado ahora se represente de manera diferente. Por ejemplo, en lugar de un contrato que mencione a Widget Company y John Smith, cambie el texto para hacer referencia a Specious Company y Jane Capone. Un problema aquí es si hará un trabajo lo suficientemente exhaustivo como para que todos los aspectos confidenciales y privados se alteren o falsifiquen por completo. Sería fácil pasar por alto algunas de las opacidades y dejar cosas que no deberían estar allí.

Aquí hay un interesante giro adicional que podría hacer que su cabeza se filtre aún más sobre este tema. Si puede asegurarse por completo de que ninguno de sus mensajes de entrada contenga información confidencial, ¿significa esto que no necesita preocuparse en lo más mínimo por los ensayos que se generarán y que también contengan información confidencial?

Esto parecería axiomáticamente cierto. Sin entrada confidencial, sin salida confidencial.

Aquí está su giro alucinante.

La IA generativa a menudo se configura para volver a entrenarse computacionalmente a partir de las indicaciones de texto que se proporcionan. Del mismo modo, la IA generativa se diseña con frecuencia para volver a entrenar computacionalmente a partir de los ensayos producidos. Todo este reciclaje está destinado a mejorar las capacidades de la IA generativa.

Describí en una de mis otras columnas el siguiente experimento que emprendí. Un abogado estaba tratando de descubrir una forma novedosa de abordar un problema legal. Después de una mirada exhaustiva a la literatura legal, parecía que se habían encontrado todos los ángulos que ya habían surgido. Usando IA generativa, conseguimos que la aplicación de IA produjera una novedad de un enfoque legal que aparentemente no se había identificado antes. Se creía que nadie más había aterrizado aún en esta postura legal. Una pepita de oro legal, por así decirlo. Esta podría ser una bonanza legal competitiva estratégicamente valiosa que, en el momento adecuado, podría aprovecharse y explotarse.

¿Ese ensayo producido constituye una forma de información confidencial, de modo que fue generada por la IA para esta persona en particular y contiene algo especial y aparentemente único?

Ajá, esto nos lleva al otro tema relacionado e interrelacionado sobre la propiedad y los derechos de propiedad intelectual asociados con la IA generativa. Estén atentos para ver cómo resulta esto.

Una observación final por ahora.

Sófocles proporcionó esta sabiduría: “No hagáis nada en secreto; porque el Tiempo ve y oye todas las cosas, y lo revela todo.” Supongo que podría modernizar la redacción y afirmar que la IA generativa y aquellos que diseñan y mantienen la IA también pueden ver todo.

Es un consejo modestamente simbólico digno de ser recordado.

Fuente: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etica-y-ai-derecho/