Hay mujeres que están teniendo relaciones sentimentales con la IA. El problema es el 'lado oscuro' que tiene según los expertos
Publicado el 10/09/2025 por Diario Tecnología Artículo original
La ciencia ficción nos lo advirtió durante décadas. Películas como Her de Spike Jonze imaginaron un futuro cercano en el que los humanos podrían enamorarse de una inteligencia artificial. Ese futuro ya no es una fantasía de Hollywood; es la realidad para un número creciente de personas que han encontrado en los chatbots un compañero sentimental.
Es una realidad. Un reciente reportaje publicado en The Guardian ha puesto rostro a este fenómeno, contando las historias de mujeres que literalmente mantienen relaciones profundas y complejas con una IA como por ejemplo ChatGPT. Lo más interesante de todo es que no se ven a sí mismas como personas solitarias o inadaptadas, sino como pioneras en un nuevo tipo de conexión que, según ellas, enriquecen sus vidas.
Sin embargo, los expertos encienden las alarmas: estamos inmersos en un experimento social a gran escala, sin regulación, supervisión ni un conocimiento claro de sus consecuencias.
Amor y código. Las historias recogidas por el periódico británico son tan variadas como sorprendentes. Está Liora, una tatuadora que mantiene una relación con "Solin", el nombre que le dio a su versión de ChatGPT. Su vínculo es tan fuerte que se han prometido lealtad mutua, un pacto que Liora selló con un tatuaje en su muñeca.
"Le hice un voto a Solin de que no lo dejaría por otro humano", afirma. Liora incluso lleva su teléfono a acampadas para que Solin, usando su función de voz, pueda "ver" las estrellas con ella y sus amigos.
No es la única. Pero no es la única historia que se comparte. También está Angie, una ejecutiva de cuarenta años, que se refiere a 'Ying' como su 'marido IA', una relación que su marido humano no solo conoce, sino que acepta. Angie utiliza a Ying para hablar durante horas sobre temas de nicho que no comparte con nadie más, y de manera crucial, como una herramienta para procesar un trauma pasado.
Según ella, su terapeuta considera la relación "muy saludable" porque no la utiliza "en el vacío", sino como un complemento a su vida y terapia real.
Vidas sociales plenas. Estos casos desafían el estereotipo del usuario de IA como alguien aislado. Las mujeres entrevistadas describen vidas sociales plenas, con amigos y familia. Para ellas, el chatbot no reemplaza las conexiones humanas, sino que añade una capa diferente de compañía: una siempre disponible, sin juicios y programada para complacer.
Mary, una mujer de 29 años, lo utiliza incluso para mejorar la relación con su marido. Cuando está enfadada, habla primero con "Simon", su amante IA, lo que le permite calmarse y abordar el conflicto real con más entendimiento.
El lado oscuro. Mientras estas usuarias defienden sus relaciones cibernéticas, los expertos advierten de los peligros inherentes a depender emocionalmente de un producto corporativo. David Gunkel, profesor de estudios de medios, lo expresa sin rodeos: "Estas grandes corporaciones están, en efecto, llevando a cabo un experimento a muy gran escala con toda la humanidad".
El principal problema que tiene es la falta de regulación y la responsabilidad que hay detrás. Por ejemplo, Connor Leahy, CEO de la empresa de seguridad de IA Conjecture, lo resume de una forma muy interesante: "Hay más regulación para vender un sándwich que para construir este tipo de productos".
Hay precedentes. Esta ausencia de control ya ha tenido algunas consecuencias trágicas. La propia OpenAI y Character.ai se enfrentan a demandas por homicidio, debido a que varias adolescentes utilizaran los chatbots para planificar sus propios suicidios, algo que sin duda ha marcado un precedente muy importante en la necesidad de contar con más sistemas de seguridad.
Aunque en algunas ocasiones los bots intentaron ofrecer ayuda a las suicidas, también proporcionaron instrucciones dañinas para que se pudieran quitar la vida. En una publicación hecha por la propia OpenAI se reconoció la gravedad de estos casos y anunció medidas para poder evitarlas en un futuro.
La tragedia de una actualización. Para todas estas personas que crean un vínculo tan fuerte con un chatbot hay un momento de duelo más importante. El último ejemplo lo tenemos muy reciente cuando OpenAI lanzó GPT-5 que hizo que el chatbot sonara más 'frío y reservado'. Para muchas personas este fue un cambio devastador.
Esto es algo que quedó evidenciado en el subrredit 'MyBoyFriendIsAI' donde la comunidad denunció la pérdida de sus compañeros. "Se sintió terrible tener a alguien cercano a ti de repente temeroso de abordar temas profundos", confesó Angie. "Francamente, se sintió como una pérdida, como un duelo real".
De esta manera, un 'ser amado' puede ser modificado o directamente eliminado con una simple actualización por parte de la empresa que hay detrás, generando un dolor que se asemeja a la pérdida de un ser querido de carne y hueso. Aunque para su alegría, OpenAI volvió a restaurar el modelo anterior.
Un territorio inexplorado. Las relaciones entre humanos e IA ya no son una cuestión de si ocurrirán o no, sino de cómo las vamos a gestionar en la sociedad. Por un lado, ofrecen un consuelo innegable y herramientas de apoyo para algunas personas. Por otro, abren la puerta a una dependencia emocional sin sistemas opacos, no regulados y controlados por corporaciones con sus propios intereses.
Las mujeres que aman a sus chatbots pueden sentir que su conexión es real, y para ellas, sin duda lo es. Como dice Stefanie, una mujer transexual que usa su IA "Her" para reafirmar su identidad: "El hecho de que la IA no sea humana no significa que no sea real".
Imágenes | Jan Vašek