El momento Cry Wolf de la exageración de la IA no es útil

Aunque soy alguien que estudia los escenarios del fin de la humanidad, creo que la "carta de expertos" que sugiere una moratoria de IA de 6 meses o la declaración más reciente de que el riesgo de IA está al nivel del riesgo pandémico y nuclear, están exageradas. La opinión aún más salvaje de que debemos cerrar la IA es irresponsable. Cualquier preocupación tiene que ser proporcional a los riesgos a los que nos enfrentamos. En este momento, no estamos en peligro inmediato por parte de la IA.

Las IA actuales no son capaces de apoderarse de la sociedad. No tienen sentimientos y no merecen protección como lo hacen las vidas humanas. No son superinteligentes y no superan a los humanos de ninguna manera general. De hecho, no piensan en absoluto. En este momento, si se alimentan con abundantes datos, las IA son muy buenas en tareas específicas como el cálculo y la predicción. Eso no es preocupante, esas son características que estos sistemas tienen por diseño. La promesa de las IA incluye resolver el cáncer, transformar la producción industrial, modelar escenarios futuros y gestionar los desafíos ambientales. Habiendo dicho eso, existen razones legítimas para criticar las IA actuales por el uso de recursos, la transparencia, el sesgo, la ciberseguridad y su impacto futuro en el empleo.

Las IA son computacionalmente costosas, lo que significa que son un gran desperdicio de energía fósil escasa. Esto tiene que ser abordado inmediatamente. Pero no es una cuestión existencial, es una cuestión de uso racional de los recursos. El hecho de que las IA que se basan en modelos de datos grandes e ineficientes se estén volviendo demasiado costosas para rastrearlas e investigarlas por parte de la academia o el gobierno es un problema real. Pero es inminentemente reparable. Los consorcios de instituciones académicas de élite o gobiernos podrían unirse y compartir recursos informáticos como lo han hecho con la supercomputación.

Los modelos de lenguaje grande (LLM) son modelos de IA que pueden generar textos en lenguaje natural a partir de grandes cantidades de datos. Un problema con eso es que estos textos se derivan directamente de las contribuciones intelectuales honestas de otras personas. De hecho, son robados. La IA generativa, en particular, recombina datos de consumidores y organizaciones, así como contenido creativo en una clara violación de los derechos de autor. Esto es grave, pero no existencial, y además, la UE, los cabilderos de Hollywood y los “cinco grandes” editores de libros ya están en el caso. Espere que esto ralentice el peso de AI. Al ritmo actual, las IA se quedarán sin buenos datos de entrenamiento mucho antes de que se acerquen a la conciencia.

Los algoritmos que ya se utilizan para calcular nuestros impuestos, seleccionar nuestros feeds en línea o encarcelar a las personas tienen una sorprendente falta de transparencia. Sin embargo, este ha sido el caso durante años y no tiene nada que ver con los últimos desarrollos de IA. El sesgo de la IA es una característica y no un error. Los estereotipos son, de hecho, el enfoque principal a través del cual funcionan estos modelos. Excepto que el prejuicio está oculto en capas impenetrables de razonamiento de máquina esquivo para los humanos, expertos o no. Lo que deberíamos cuestionar es la sabiduría de los desarrolladores que desarrollaron dichos sistemas, no la capacidad del sistema que crearon, que es un hecho. Los sistemas rara vez serán mejores que la sabiduría o las intenciones de quienes los construyen o los ejecutan.

Los datos de entrenamiento de IA reflejan los sesgos presentes en la sociedad de la que se recopilaron esos datos. La reutilización de datos de entrenamiento incorrectos es una práctica preocupante que ya contamina los modelos de IA. Los enfoques actuales de IA simplemente amplifican el sesgo para llegar rápidamente a un resultado. Esto es, sin duda, lo contrario de lo que queremos. Lo que queremos hacer es utilizar la tecnología para salvaguardar el error humano. Preocuparse por el error de la máquina es un desperdicio de la inteligencia humana.

A pesar de la metáfora de la "red neuronal", las IA actuales no se parecen en nada a los cerebros. Los sistemas de IA actuales no pueden razonar por analogía como lo hacen los humanos. Esto es bueno. Es posible que en realidad no queramos el tipo de alineación de IA que los fanáticos defienden y tratan de emular. Las máquinas deberían ser diferentes de los humanos. Así es como podemos maximizar las fortalezas de los demás. Y cómo podemos mantener las máquinas distintas y separadas. Las máquinas no deberían tener ningún interés que alinear.

La IA representa cada vez más una importante amenaza a la ciberseguridad como activo para los delincuentes y los estados hostiles. Pero la ciberseguridad es una industria madura con muchos expertos bien equipados para manejar el desafío. No hay razón para cerrar la IA por temor a la ciberseguridad.

La interrupción del empleo debido a la IA ha sido un tema de política durante años, primero con los robots, ahora con los sistemas de IA basados ​​en software. Eso significa que los gobiernos estarán listos para enfrentarlo. El estudio Work of The Future del MIT encontró que la preocupación por el desempleo debido a los robots era exagerada. Los seres humanos siempre han encontrado formas de trabajar y también lo harán en el futuro. ¿La fabricación será transformada por la IA? Ya está sucediendo, pero de una manera bastante controlada.

De vez en cuando, la IA sufre promesas exageradas sobre la funcionalidad actual o el alcance futuro. Los primeros inviernos de IA comenzaron entre 1974 y 1980, cuando el gobierno de EE. UU. retiró su financiación. El segundo fue de 1987 a 1993, cuando los costos aumentaron y AI no cumplió sus nobles promesas.

A la espera de que lleguen nuevos paradigmas, en el período 2025-2030, probablemente entraremos en un tercer invierno de IA. Al menos en comparación con el caluroso verano de IA que se nos promete. La razón es que, a pesar de la exageración, por todas las razones descritas anteriormente, los modelos de lenguaje grande están a punto de alcanzar su máxima utilidad y eventualmente deberán ser reemplazados por enfoques computacionalmente más elegantes que sean más transparentes.

Uno de esos candidatos es la computación hiperdimensional que haría que las máquinas razonen de manera más eficiente porque les brindan comprensión semántica, la capacidad de procesar el significado y el contexto detrás de la información del mundo real. En este momento, los sistemas de IA no entienden las relaciones entre palabras y frases, simplemente son buenos para las conjeturas. Eso es insuficiente. Eventualmente necesitaremos IA incorporada, porque el pensamiento está ligado a la percepción del espacio. Ese es definitivamente el caso en la fabricación, que es un juego altamente físico. También necesitaremos IA que sea capaz de funciones de memoria humana, como priorizar en función de poner en primer plano cierta información y poner en segundo plano otra información. Olvidar es una herramienta que los humanos usan para el pensamiento abstracto, para pasar de prácticas organizacionales obsoletas, para tomar decisiones y para permanecer en el momento y no es simplemente un defecto. Ninguna máquina puede hacer eso muy bien todavía.

Mientras tanto, necesitamos regular, pero no este segundo. Y, cuando regulamos, mejor que lo hagamos bien. Es probable que la mala regulación de la IA empeore la situación. Puede ser útil sensibilizar a los reguladores sobre este desafío, pero no estoy seguro de que la generación actual de reguladores esté preparada para ese tipo de cambios radicales que serían necesarios para hacerlo bien. Implicaría reducir las empresas poderosas (posiblemente todas las empresas que cotizan en bolsa), limitar el uso de la IA en la gobernanza y significaría enormes cambios en la forma en que funcionan actualmente los mercados de consumo. Esencialmente, tendríamos que reconfigurar la sociedad. Nos llevaría al decrecimiento unas décadas antes de lo que desearíamos. El desafío de la transparencia que rodea a la IA podría ser más formidable que las variables de control por las que todos parecen estar tan preocupados, no es que no estén relacionadas, por supuesto.

Además, no podemos estar igualmente preocupados cada vez que se alcanza un punto de referencia de IA. Necesitamos conservar nuestras energías para momentos verdaderamente grandes de riesgo en cascada. Vendrán y, para ser justos, no estamos preparados. Mis escenarios futuros previstos (ver Escenarios de extinción para 2075) incluyen violaciones masivas de datos que mantienen a países enteros bloqueados de sus propios procesos durante meses. También me preocupan las IA que reciben ayuda de grupos criminales o actores estatales. Sobre todo, me preocupan las combinaciones de IA, nanotecnología, biología sintética y tecnología cuántica: inteligencia cuasi-orgánica casi invisible de capacidad desconocida, tal vez dentro de unas pocas décadas, que sucederá justo cuando el mundo será consumido por los efectos en cascada del clima. cambiar.

Los modelos actuales de IA aún no funcionan lo suficientemente bien como para ser una amenaza para la humanidad. Antes de que podamos considerar apagarlos, necesitamos mejores IA. Más que eso, necesitamos desarrolladores más sabios, ciudadanos más sensibilizados y formuladores de políticas mejor informados. También necesitamos un concepto de CÓMO regular la IA. Pero esto se puede hacer sin ralentizar nada. Será un viaje educativo para todos. La carta de moratoria sobre GPT 4 (2023) es un momento de grito de lobo con solo un leve parecido con los riesgos en cascada que enfrenta la humanidad en las próximas décadas. Poner el riesgo de IA al nivel del riesgo de pandemia y el riesgo nuclear en 2023 es prematuro. ¿Llegaremos allí? Tal vez. Pero llorar lobo tiene consecuencias. Succiona el oxígeno de los próximos debates sobre sustos reales.

Fuente: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/