“Riesgo de extinción” para la humanidad: expertos lanzan advertencia sobre inteligencia artificial

Un joven sostiene un cartel que dice "This is an existential risk" (esto es un riesgo existencial)  en una protesta.
Que se acabe el mundo, pero no mi mullet. Fotografía: Getty Images.

En un muy breve comunicado (solo 22 palabras en su versión en inglés), un grupo de líderes y expertos del sector tecnológico expresó su gran preocupación por el riesgo que supone el desarrollo de la inteligencia artificial.

La declaración completa dice así: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

El comunicado fue firmado por figuras prominentes de la IA como Sam Altman, CEO de OpenAI, Demis Hassabis, director de GoogleDeepMind, y también, Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing en 2018 (a veces denominado el “Premio Nobel de la Informática”) por su trabajo en IA. Hace poco, algunos de los firmantes también enviaron una carta abierta al sector pidiendo una pausa de seis meses en el desarrollo de esta tecnología.

¿Debemos preocuparnos?

Los escépticos señalan, por una parte, que el riesgo está planteado en términos muy generales y, por la otra, que el temor a que la IA acabe con la humanidad es poco realista y distrae la atención de cuestiones que ya son un problema, como los sesgos de los sistemas. No obstante, críticos y escépticos coinciden en que la IA presenta amenazas actuales, principalmente al facilitar la desinformación, algo que experimentamos a diario tanto en pequeña escala como con problemas globales como la guerra en Ucrania o la crisis climática.

Recibe newstro boletín gratuito

Newspresso te ofrece una selección cuidadosa de las noticias más relevantes de Colombia y el mundo para que empieces tu día con los ojos bien abiertos.

Noticias relacionadas