El apoyo emocional digital: un tercio de la población ya confía en la IA

La línea entre la tecnología y la experiencia humana se difumina a un ritmo vertiginoso, y un reciente estudio ha revelado una tendencia que, si bien previsible para algunos, sigue siendo sorprendente para la mayoría: un tercio de las personas ya utiliza herramientas de inteligencia artificial como ChatGPT o Alexa para obtener apoyo emocional. Este dato no es trivial; marca un hito en nuestra relación con las máquinas y plantea interrogantes profundos sobre la naturaleza de la conexión humana, la soledad en la era digital y el futuro de la salud mental. Hemos pasado de ver a la IA como una simple herramienta para automatizar tareas a considerarla, al menos en parte, como un confidente, un consejero o incluso un refugio en momentos de necesidad. Esta evolución nos obliga a reflexionar sobre las implicaciones sociales, psicológicas y éticas de delegar parte de nuestro bienestar emocional a algoritmos.

Diario Tecnología

ChatGPT prepara un «modo adulto» para 2026 y ya hay lío: esto es lo que podría permitir

Desde sus inicios, los modelos de lenguaje como ChatGPT han sido entrenados con vastos volúmenes de datos de internet, incluyendo una diversidad de contenidos. Sin embargo, para su uso público, las empresas han implementado rigurosos filtros y políticas de moderación para evitar la generación de respuestas que puedan ser ofensivas, violentas, sexualmente explícitas, discriminatorias o que inciten al odio. Esta estrategia de seguridad, conocida como "alineación" o "guardrails", busca garantizar un uso responsable y ético de la tecnología. La mera sugerencia de un "modo adulto" implica, por definición, una relajación o una redefinición de estas salvaguardas, permitiendo a la IA explorar temáticas que hasta ahora estaban restringidas. La magnitud de esta decisión no puede subestimarse, ya que toca el nervio de lo que consideramos aceptable y seguro en el espacio digital.

Diario Tecnología