“Mitigar el riesgo de extinción a manos de la IA debería de ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear”
El comunicado ha sido apoyado por Sam Altman, director ejecutivo de OpenAI y Demis Hassabis, director ejecutivo de Google DeepMind.
Entre quienes creen que los temores de que la IA acabe con la humanidad son poco realistas, y una distracción de cuestiones que ya representan un problema como el sesgo en los sistemas, se encuentra Arvind Narayanan, informático de la Universidad de Princeton.
“La actual IA no es lo suficientemente capaz como para que estos riesgos se materialicen”, aseguró Narayanan, agregando que los escenarios catastróficos no son realistas y que el problema es que “se ha desviado la atención de los daños a corto plazo de la IA”.
La cobertura mediática de la supuesta amenaza existencial de la IA se ha multiplicado desde marzo de 2023, cuando se dio a conocer una carta abierta, firmada por diversos expertos e investigadores, entre ellos el dueño de Tesla, Elon Mis, en la que se instala a detener el desarrollo de la próxima generación de tecnología de IA.
En esta carta se cuestionaba a los expertos si deberíamos “desarrollar mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo”.