Ni OpenAI ni Google o Meta, a ninguna de las grandes empresas de la IA les preocupa las consecuencias de una superinteligencia fuera de control

En el vertiginoso mundo de la inteligencia artificial, donde cada semana parece traer consigo un nuevo hito tecnológico, la conversación pública a menudo se centra en las capacidades asombrosas de estas máquinas: la generación de texto indistinguible del humano, la creación de imágenes fotorrealistas o la predicción de estructuras proteicas complejas. Sin embargo, bajo la superficie de esta euforia innovadora, yace una preocupación que, para muchos expertos y observadores, no está recibiendo la atención adecuada de quienes realmente tienen el poder de moldear el futuro: las grandes corporaciones de la IA. La premisa es audaz, incluso provocadora: ni OpenAI, ni Google, ni Meta, ni ninguna de las potencias tecnológicas que lideran esta carrera, parecen tomarse en serio la posibilidad de que una superinteligencia artificial (IA) descontrolada pueda tener consecuencias catastróficas para la humanidad. Es un tema que oscila entre la ciencia ficción distópica y una preocupación genuina planteada por algunos de los pensadores más lúcidos de nuestro tiempo, y cuya aparente indiferencia por parte de los titanes tecnológicos es, cuando menos, desconcertante.

Diario Tecnología