Los expertos en IA firman un documento que compara el riesgo de 'extinción de la IA' con las pandemias y la guerra nuclear

Docenas de expertos en inteligencia artificial (IA), incluidos los directores ejecutivos de OpenAI, Google DeepMind y Anthropic, firmaron recientemente una declaración abierta publicada por el Centro para la Seguridad de la IA (CAIS). 

La declaración contiene una sola oración:

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Entre los firmantes del documento hay un verdadero "quién es quién" de las luminarias de AI, incluido el "Padrino" de AI, Geoffrey Hinton; Stuart Russell de la Universidad de California, Berkeley; y Lex Fridman del Instituto Tecnológico de Massachusetts. El músico Grimes también es signatario, incluido en la categoría "otras figuras notables".

Relacionado: Músico Grimes dispuesto a 'dividir el 50% de regalías' con música generada por IA

Si bien la declaración puede parecer inocua en la superficie, el mensaje subyacente es algo controvertido en la comunidad de IA.

Un número aparentemente creciente de expertos cree que las tecnologías actuales pueden o conducirán inevitablemente al surgimiento o desarrollo de un sistema de IA capaz de representar una amenaza existencial para la especie humana.

Sus puntos de vista, sin embargo, son contrarrestados por un contingente de expertos con opiniones diametralmente opuestas. El científico jefe de IA de Meta, Yann LeCun, por ejemplo, ha señalado en numerosas ocasiones que no cree necesariamente que la IA se vuelva incontrolable.

Para él y otros que no están de acuerdo con la retórica de la "extinción", como Andrew Ng, cofundador de Google Brain y exjefe científico de Baidu, la IA no es el problema, es la respuesta.

En el otro lado del argumento, expertos como Hinton y el CEO de Conjecture, Connor Leahy, creen que la IA a nivel humano es inevitable y, como tal, el momento de actuar es ahora.

Sin embargo, no está claro qué acciones piden los firmantes de la declaración. Los directores ejecutivos y/o jefes de IA de casi todas las principales empresas de IA, así como científicos de renombre de todo el mundo académico, se encuentran entre los que firmaron, lo que deja en claro que la intención no es detener el desarrollo de estos sistemas potencialmente peligrosos.

A principios de este mes, el CEO de OpenAI, Sam Altman, uno de los firmantes de la declaración mencionada anteriormente, hizo su primera aparición ante el Congreso durante una audiencia en el Senado para discutir la regulación de la IA. Su testimonio llegó a los titulares después de que pasó la mayor parte instando a los legisladores a regular su industria.

Worldcoin de Altman, un proyecto que combina criptomonedas y prueba de personalidad, también ha aparecido recientemente en los medios de comunicación después de recaudar $ 115 millones en fondos de la Serie C, lo que eleva su financiación total después de tres rondas a $ 240 millones.

Fuente: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war