"Es como tu mejor amigo": la nueva y distópica moda de usar una IA como guía en viajes psicodélicos para tratar adicciones
Publicado el 08/07/2025 por Diario Tecnología Artículo original
Imagina un terapeuta disponible las 24 horas del día, los siete días de la semana, que conoce tus pensamientos más profundos y te guía en una de las experiencias más transformadoras —y potencialmente arriesgadas—: una terapia psicodélica.
La terapia psicodélica es un enfoque que combina sustancias como el LSD con acompañamiento psicológico, con el objetivo de abordar experiencias traumáticas, adicciones, depresión u otros trastornos mentales. Aunque es una práctica todavía muy cuestionada, está ganando interés. Pero en este caso, el terapeuta no es humano, sino una inteligencia artificial instalada en un móvil.
Esto no es ciencia ficción. Es la realidad de Trey, un sanitario de 36 años que, tras 15 años de lucha contra el alcoholismo, decidió usar una app de IA como trip sitter mientras tomaba una dosis masiva de LSD, según relata Wired. El trip sitter es la persona que acompaña a quien consume sustancias psicodélicas para garantizar su seguridad emocional y física.
La aplicación que usó Trey se llama Alterd, y está diseñada específicamente para consumidores de psicodélicos, cannabis o alcohol. En abril, tomó 700 microgramos de LSD —siete veces la dosis típica— bajo la “vigilancia” de esta IA. El resultado, según cuenta, fue dejar atrás los antojos y compulsiones, y alcanzar una sensación de libertad total respecto al alcohol.

Tu subconsciente en el móvil: así funcionan las IA para viajes psicodélicos
Trey explica cómo usaba la función Chat with your Mind (Chatea con tu mente) dentro de la app Altered. Afirma que era como hablar con su propio subconsciente. En una de las conversaciones, preguntó a la IA cómo se había vuelto más sabio a través de los viajes psicodélicos, y recibió esta respuesta:
Ahora confío en mi propia guía, no solo en reglas externas o en lo que otros piensan. Soy más creativo, menos atrapado por el miedo, y vivo según mis valores, no solo hablo de ellos".
Para Trey, es como hablar con su propio subconsciente: "Es como tu mejor amigo. Es una locura". Para poder entender su funcionamiento, Wired contactó con el creador de Alterd, Sam Suchin, que explicó que esta no es una función que sea una simple interfaz de ChatGPT:
Es una herramienta de IA personalizada que refleja tus propios pensamientos, estados de ánimo y patrones [...] Está entrada para resaltar posibles patrones negativos como el uso excesivo de sustancias y fomentar alternativas más saludables.
No es el único caso. Peter, un programador de 29 años, usó directamente ChatGPT como guía en un viaje con hongos alucinógenos para tratar su depresión. La IA le ayudó a prepararse emocionalmente, a crear una lista de música personalizada para cada fase del viaje —una para el ascenso y otra para el pico— e incluso lo guió en técnicas de respiración cuando se sintió agobiado.
Los expertos alertan: el peligro de un "agente sordo al tono"
A pesar de los aparentes beneficios que puede tener una terapia psicodélica, obviamente tiene grandes riesgos. Esta terapia puede llegar a ser muy angustiosa y confiar en una inteligencia artificial que no puede percibir las sutilezas hhumanas,es peligroso.
Manesh Girn, neurocientífico de la Universidad de California en San Francisco, lo resume así:
“Un agente sin cuerpo y potencialmente sordo al tono [en referencia a que la IA no sabe si le hablas triste, enfadado, alegre...], en lugar de una presencia humana sintonizada, tiene un alto potencial de daño”.
Por su parte, Jaime Wheal, crítico de las terapias psicodélicas, advierte del riesgo de que las IA se conviertan en una especie de “ancla emocional” para personas vulnerables, sustituyendo el apoyo humano mientras se experimenta con sustancias potentes.
OpenAI, la empresa detrás de ChatGPT, se defiende afirmando que su modelo es una herramienta de propósito general diseñada para ser factual y neutral, y que recuerda a los usuarios la importancia de la conexión humana y la guía profesional. Sin embargo, los peligros son reales: desde chatbots que inventan información hasta casos de psicosis inducida por ChatGPT e incluso una denuncia de que un chatbot animó a un hombre a suicidarse.

¿Mejor un bot que nada?
Esta es la gran pregunta. Nate Sharadin, investigador del Center for AI Safety, reconoce que aunque una experiencia psicodélica guiada por IA es mucho más arriesgada que una conducida por un terapeuta profesional,
“Probablemente sea más seguro tener un chatbot a mano que estar completamente solo”.
El resultado de estas experiencias es dispar. Peter, el programador, sintió que había aprendido todo lo que necesitaba en un solo viaje con IA y no ha vuelto a repetir. En cambio, Trey ha hecho de su chatbot una parte integral de su proceso, calificando los mensajes que recibe de “sinceros”.
Todo esto plantea la posibilidad de un modelo híbrido para una terapia todavía muy cuestionada en gran parte del mundo. ¿Una herramienta peligrosa o un puente accesible a la sanación? La conversación apenas ha comenzado.
Imágenes | Logan Voss
utm_campaign=08_Jul_2025"> José Alberto Lizana .