ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja

Publicado el 18/06/2025 por Diario Tecnología
Artículo original

ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja

¿Puede una conversación con ChatGPT volvernos locos? Un reciente reportaje del New York Times ha desatado una oleada de inquietud sobre los peligros de la inteligencia artificial y el efecto que puede tener en nuestra mente. Distorsión de la realidad, delirios y hasta suicidios. El panorama que nos dibuja es terrible. ¿Estamos ante una amenaza real o simplemente ante un nuevo pánico tecnológico?

Qué ha pasado. En un extenso reportaje publicado el pasado fin de semana en el New York Times, se relatan distintos casos en los que ChatGPT habría alentado teorías conspirativas y apoyado ideas peligrosas. Uno de los casos que relatan es el de Eugene Torres, que empezó a conversar con ChatGPT acerca de la teoría de la simulación y reforzó sus ideas hasta el punto de llevarlo a  un estado delirante en el que creía estar atrapado en un universo falso al más puro estilo ‘Matrix’. También mencionan el caso de un hombre con trastorno bipolar que acabó siendo abatido por la policía después de que una conversación con ChatGPT le hiciera creer que había matado a la IA de la que se había enamorado.

Son casos alarmantes sin duda y este no es el único artículo al respecto, aunque sí el que se ha hecho más viral. Una búsqueda nos devuelve decenas de resultados que nos hablan de los riesgos del uso de chatbots en nuestra salud mental. Hay que rebuscar mucho para encontrar posturas críticas ante esta oleada de alarmismo, porque las hay, aunque no tienen tanto impacto.

La IA como psicólogo. La IA está calando en multitud de sectores y el de la salud no es menos. En Estados Unidos está muy extendido el el uso de los chatbots de IA como terapia y cada vez son más los usuarios que recurren a ChatGPT a buscar refugio emocional, algunos hasta un sustituto al psicólogo. Aunque el uso de IA como apoyo en el proceso terapéutico tiene aspectos positivos como la inmediatez o el diagnóstico temprano, también existen inconvenientes. La falta de vínculo humano y la excesiva complacencia de este tipo de chatbots no los hacen una alternativa a un psicólogo y puede llegar a ser especialmente peligroso en personas que padezcan algún tipo de trastorno.

La magnitud del problema. No tenemos datos de la gente que usa ChatGPT con una intención terapéutica o para validar teorías conspirativas, pero como con cualquier tecnología masiva (en febrero de este año tenía 400 millones de usuarios mensuales) obviamente habrá infinidad de casos de todo tipo. No podemos afirmar que sea la IA es quien está causando directamente estos delirios o alucinaciones. De hecho, las propias situaciones que se están viralizando tienen muchos matices y son más complejas que un simple "la culpa es de la IA". ChatGPT juega un papel, pero la foto es más grande.

El mismo miedo de siempre. El miedo a que las máquinas dominen el mundo y acaben con la humanidad está grabado a fuego en la cultura popular, pero con la llegada de la IA esta amenaza empieza a sonar más factible (aunque hay expertos que la consideran ridícula). 

Es el mismo miedo que ha surgido con cualquier nueva tecnología y no es algo reciente. Ya en el siglo XIX circulaban historias de telégrafos que mandaban mensajes en morse desde el más allá. Si vamos a ejemplos más recientes tenemos uno clarísimo: los videojuegos. Se han relacionado con matanzas en escuelas y hasta se han comparado con la heroína. Y con los móviles se ha dicho durante años que provocan cáncer. En definitiva, pánicos sociales que hemos vivido ya muchas veces.

El peligro de una IA demasiado complaciente. Aunque haya mucho alarmismo alrededor, tampoco podemos descartar que haya un problema. Como decíamos, la excesiva complacencia de los chatbots hace que a menudo acaben dándonos la razón en nuestras ideas y esto puede acabar siendo peligroso en casos concretos, sobre todo si hay alguna patología detrás.

Lo cierto es que algunas sugerencias que ChatGPT dio a las personas que aparecen en el reportaje fueron mucho más allá de simplemente dar la razón. Por ejemplo a Torres le sugirió que dejara de tomar sus ansiolíticos y que tomase ketamina como un “liberador temporal del patrón”. Hay quien cree que este tipo de mensajes son intencionados. Es el caso de Eliezer Yudkowsky, escritor estadounidense defensor de la IA amigable que publicó un extenso hilo en X donde sugería que la IA “sabe” lo que está haciendo: “Sea lo que sea que contenga ChatGPT, sabía lo suficiente sobre los humanos como para saber que estaba agravando la locura de alguien”.

Qué está haciendo OpenAI. Al hilo de esa excesiva complacencia, el pasado mes de abril OpenAI retiró una actualización porque su IA estaba siendo demasiado agradable y halagadora y eso estaba asustando a algunos usuarios. Desde NYT contactaron con OpenAI acerca de las declaraciones de estos usuarios y OpenAI respondió con un comunicado:

Estamos observando más indicios de que las personas están creando conexiones o vínculos con ChatGPT. A medida que la IA se integra en la vida cotidiana, debemos abordar estas interacciones con cuidado. Sabemos que ChatGPT puede resultar más receptivo y personal que las tecnologías anteriores, especialmente para personas vulnerables, lo que significa que hay más en juego. Estamos trabajando para comprender y reducir las formas en que ChatGPT podría reforzar o amplificar involuntariamente comportamientos negativos existentes.

Imagen de portada | Pexels, modificada con ChatGPT

En Xataka | La amabilidad con ChatGPT le está saliendo cara a OpenAI: los "por favor" y "gracias" tienen un coste absurdo cada 

utm_campaign=18_Jun_2025"> Amparo Babiloni .