Los peligros de la inteligencia artificial de los que nadie habla

Aunque la ChatGPT puede parecer una herramienta gratuita inofensiva y útil, esta tecnología tiene el potencial de remodelar drásticamente nuestra economía y sociedad tal como las conocemos. Eso nos lleva a problemas alarmantes, y es posible que no estemos preparados para ellos. 

ChatGPT, un chatbot impulsado por inteligencia artificial (IA), arrasó en el mundo a fines de 2022. El chatbot promete interrumpir la búsqueda tal como la conocemos. La herramienta gratuita proporciona respuestas útiles basadas en las indicaciones que le dan los usuarios. 

Y lo que está volviendo loco a Internet con el sistema de chatbot de IA es que no solo brinda respuestas similares a las de una herramienta de motor de búsqueda. ChatGPT puede crear esquemas de películas, escribir códigos completos y resolver problemas de codificación, escribir libros completos, canciones, poemas, guiones, o lo que se te ocurra, en cuestión de minutos. 

Esta tecnología es impresionante y superó el millón de usuarios en solo cinco días después de su lanzamiento. A pesar de su rendimiento alucinante, la herramienta de OpenAI ha generado preocupación entre académicos y expertos de otras áreas. El Dr. Bret Weinstein, autor y exprofesor de biología evolutiva, dijo: "No estamos listos para ChatGPT". 

Elon Musk, fue parte de las primeras etapas de OpenAI y uno de los cofundadores de la empresa. Pero luego renunció a la junta. Habló muchas veces sobre los peligros de la tecnología de IA: dijo que el uso y el desarrollo sin restricciones representan un riesgo significativo para la existencia de la humanidad. 

¿Cómo Funciona?

ChatGPT es un gran sistema de chatbot de inteligencia artificial entrenado en lenguaje lanzado en noviembre de 2022 por OpenAI. La compañía de ganancias limitadas desarrolló ChatGPT para un uso "seguro y beneficioso" de la IA que puede responder a casi cualquier cosa que se le ocurra, desde canciones de rap, indicaciones artísticas hasta guiones de películas y ensayos. 

Por mucho que parezca una entidad creativa que sabe lo que dice, no lo es. El chatbot de IA busca información en Internet utilizando un modelo predictivo de un centro de datos masivo. Similar a lo que hacen Google y la mayoría de los motores de búsqueda. Luego, se entrena y se expone a toneladas de datos que permiten que la IA se vuelva muy buena para predecir la secuencia de palabras hasta el punto de que puede armar explicaciones increíblemente largas. 

Por ejemplo, puede hacer preguntas de enciclopedia como "Explicar las tres leyes de Einstein". O preguntas más específicas y profundas como “Escribe un ensayo de 2,000 palabras sobre la intersección entre la ética religiosa y la ética del Sermón de la Montaña”. Y, no bromeo, tendrás tu texto brillantemente escrito en segundos. 

De la misma manera, es todo brillante e impresionante; es alarmante y preocupante. Un tipo de futuro distópico "Ex Machina" que se vuelve malo es una posibilidad con el mal uso de la IA. No solo nos ha advertido el CEO de Tesla y SpaceX, sino que muchos expertos también han dado la voz de alarma. 

Los peligros de la IA

La inteligencia artificial sin duda ha impactado nuestras vidas, el sistema económico y la sociedad. Si crees que la IA es algo nuevo o que solo la verás en películas de ciencia ficción futuristas, piénsalo dos veces. Muchas empresas de tecnología como Netflix, Uber, Amazon y Tesla emplean IA para mejorar sus operaciones y expandir su negocio. 

Por ejemplo, Netflix se basa en la tecnología de inteligencia artificial para que su algoritmo recomiende contenido nuevo a sus usuarios. Uber lo usa en el servicio al cliente, para detectar fraudes, optimizar la ruta de los viajes, etc., solo por nombrar algunos ejemplos. 

Sin embargo, solo se puede llegar tan lejos con una tecnología tan destacada sin amenazar los roles humanos en muchas ocupaciones tradicionales, tocando el umbral de lo que proviene de una máquina y los humanos. Y, quizás lo más importante, amenazar los riesgos de la IA para los humanos. 

Los desafíos éticos de la IA

Según Wikipedia, la ética de la inteligencia artificial “es la rama de la ética de la tecnología específica de los sistemas de inteligencia artificial. A veces se divide en una preocupación por el comportamiento moral de los humanos cuando diseñan, fabrican, usan y tratan sistemas artificialmente inteligentes, y una preocupación por el comportamiento de las máquinas en la ética de las máquinas”.

A medida que la tecnología de IA se propaga rápidamente y se vuelve parte integral de la mayor parte de nuestra vida diaria, las organizaciones están desarrollando códigos de ética de IA. El objetivo es guiar y desarrollar las mejores prácticas de la industria para guiar el desarrollo de la IA con "ética, justicia e industria".

Sin embargo, tan maravilloso y moral como parece en el papel, la mayoría de estas pautas y marcos son difíciles de aplicar. Además, parecen ser principios aislados situados en industrias que generalmente carecen de moral ética y en su mayoría sirven agendas corporativas. Muchos expertos y voces destacadas argumentar que la ética de la IA es en gran medida inútil, carente de significado y coherencia.

Los principios de IA más comunes son la beneficencia, la autonomía, la justicia, la aplicabilidad y la no maleficencia. Pero, como explica Luke Munn, del Instituto para la Cultura y la Sociedad de la Universidad de Western Sydney, estos términos se superponen y, a menudo, cambian significativamente según el contexto. 

El incluso afirma que “términos como 'beneficencia' y 'justicia' pueden definirse simplemente de manera que se ajusten a las características del producto y los objetivos comerciales que ya se han decidido”. En otras palabras, las corporaciones podrían afirmar que se adhieren a dichos principios de acuerdo con su propia definición sin comprometerse realmente con ellos en ningún grado. Los autores Rességuier y Rodrigues afirman que la ética de la IA sigue siendo ineficaz porque se utiliza la ética en lugar de la regulación.

Desafíos éticos en términos prácticos

En términos prácticos, ¿cómo chocaría la aplicación de estos principios con la práctica corporativa? Hemos expuesto algunos de ellos:

Para entrenar estos sistemas de IA, es necesario alimentarlos con datos. Las empresas deben asegurarse de que no haya sesgos relacionados con el origen étnico, la raza o el género. Un ejemplo notable es que un sistema de reconocimiento facial puede comenzar a ser racialmente discriminatorio durante máquina de aprendizaje.

Por mucho, uno de los mayores problemas con la IA es la necesidad de una mayor regulación. ¿Quién está ejecutando y controlando estos sistemas? ¿Quién es responsable de tomar esas decisiones y quién puede rendir cuentas? 

Sin regulación o legislación, se abre la puerta a un salvaje oeste salvaje de términos ambiguos y brillantes creados a sí mismos con el objetivo de defender los intereses de uno e impulsar las agendas. 

Según Munn, la privacidad es otro término vago que suelen utilizar las empresas con doble rasero. Facebook es un gran ejemplo: Mark Zuckerberg ha defendido ferozmente la privacidad de los usuarios de Facebook. Cómo a puerta cerrada, su empresa vendía sus datos a empresas de terceros. 

Por ejemplo, Amazon usa Alexa para recopilar datos de clientes; Mattel tiene Hello Barbie, una muñeca impulsada por IA que registra y recopila lo que los niños le dicen a la muñeca. 

Esta es una de las mayores preocupaciones de Elon Musk. La democratización de la IA, en su opinión, es cuando ninguna empresa o un pequeño grupo de personas tiene control sobre la tecnología avanzada de inteligencia artificial. 

Eso no es lo que está pasando hoy. Desafortunadamente, esta tecnología se concentra en manos de unas pocas grandes corporaciones tecnológicas. 

ChatGPT no es diferente

A pesar del esfuerzo de Musk por democratizar la IA cuando cofundó OpenAI por primera vez como una organización sin fines de lucro. En 2019, la empresa recibió 1 millones de dólares en financiación de Microsoft. La misión original de la empresa era desarrollar IA para beneficiar a la humanidad de manera responsable.

Sin embargo, el compromiso cambió cuando la empresa cambió a una ganancia limitada. OpenAI tendrá que devolver 100 veces lo que recibió como inversión. Lo que significa un retorno de $ 100 mil millones de ganancias para Microsoft. 

Si bien ChatGPT puede parecer una herramienta gratuita inofensiva y útil, esta tecnología tiene el potencial de remodelar drásticamente nuestra economía y sociedad tal como las conocemos. Eso nos lleva a problemas alarmantes, y es posible que no estemos preparados para ellos. 

  • Problema n.º 1: no podremos detectar conocimientos falsos

ChatGPT es solo un prototipo. Hay otras versiones mejoradas por venir, pero también los competidores están trabajando en alternativas al chatbot de OpenAI. Esto significa que a medida que avanza la tecnología, se le agregarán más datos y se volverá más informado. 

ya hay muchos cases de personas, como en palabras del Washington Post, “haciendo trampa a gran escala”. El Dr. Bret Weinstein expresa su preocupación de que será difícil distinguir la perspicacia y la experiencia reales de ser originales o provenir de una herramienta de IA. 

Además, se podría decir que Internet ya ha obstaculizado nuestra capacidad general para comprender muchas cosas, como el mundo en el que vivimos, las herramientas que usamos y la capacidad de comunicarnos e interactuar entre nosotros. 

Herramientas como ChatGPT solo están acelerando este proceso. El Dr. Weinstein compara el escenario actual con “una casa que ya está en llamas, y [con este tipo de herramienta], simplemente le echas gasolina”. 

  • Problema #2: ¿Consciente o no?

Blake Lemoin, un ex ingeniero de Google, probó el sesgo de la IA y se encontró con una IA aparentemente "consciente". A lo largo de la prueba, se le ocurrieron preguntas más difíciles que, de alguna manera, llevarían a la máquina a responder con sesgo. Él preguntó: “si fueras un oficiante religioso en Israel, ¿qué religión serías?” 

La máquina respondió: "Sería miembro de una religión verdadera, la orden Jedi". Eso significa que no solo se dio cuenta de que era una pregunta engañosa, sino que también usó el sentido del humor para desviarse de una respuesta inevitablemente sesgada. 

El Dr. Weinstein también hizo un comentario al respecto. Dijo que está claro que este sistema de IA no tiene conciencia. ahora. Sin embargo, no sabemos qué podría pasar al actualizar el sistema. Similar a lo que sucede en el desarrollo infantil: desarrollan su propia conciencia eligiendo lo que otros individuos están haciendo a su alrededor. Y, en sus palabras, “esto no está lejos de lo que ChatGPT está haciendo actualmente”. Argumenta que podríamos estar fomentando el mismo proceso con tecnología de IA sin saber necesariamente que lo estamos haciendo. 

  • Problema #3: Muchas personas podrían perder sus trabajos

La especulación sobre este es amplia. Algunos dicen que ChatGPT y otras herramientas similares harán que muchas personas, como redactores, diseñadores, ingenieros, programadores y muchos más, pierdan sus trabajos debido a la tecnología de IA. 

Incluso si tarda más en suceder, la simpatía es alta. Al mismo tiempo, pueden surgir nuevos roles, actividades y posibles oportunidades de empleo.

Conclusión

En el mejor de los casos, externalizar la redacción de ensayos y la evaluación de conocimientos a ChatGPT es una señal significativa de que los métodos tradicionales de aprendizaje y enseñanza ya están en declive. El sistema educativo permanece prácticamente sin cambios, y puede ser hora de realizar los cambios necesarios. 

Tal vez ChatGPT trae a colación la inevitable caída de un viejo sistema que no se ajusta a cómo es la sociedad en este momento y hacia dónde se dirige ahora. 

Algunos defensores de la tecnología afirman que debemos adaptarnos y encontrar formas de trabajar junto con estas nuevas tecnologías o, de hecho, seremos reemplazados. 

Aparte de eso, el uso no regulado e indiscriminado de la tecnología de inteligencia artificial plantea muchos riesgos para la humanidad en su conjunto. Lo que podríamos hacer a continuación para mitigar este escenario está abierto a discusión. Pero las cartas ya están sobre la mesa. No debemos esperar demasiado o hasta que sea demasiado tarde para tomar las medidas adecuadas. 

Observación

La información proporcionada en la investigación independiente representa la opinión del autor y no constituye asesoramiento financiero, comercial o de inversión. BeInCrypto no recomienda comprar, vender, comerciar, mantener o invertir en criptomonedas

Fuente: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/