ChatGPT tiene más posibilidades de persuadirte de que apoyes el aborto o las drogas que una persona

Publicado el 19/05/2025 por Diario Tecnología
Artículo original

La inteligencia artificial ( IA ) no solo es capaz de responder a tus preguntas o de crear en cuestión de segundos cualquier imagen que le pidas. También puede mantener debates contigo sobre temas espinosos, como podría ser el aborto, las drogas o el uso de animales en pruebas de laboratorio; y si te conoce un poco, la máquina hasta tiene más posibilidades de convencerte. De hacerte cambiar de opinión y llevarte, sutilmente, a su terreno. Así ha quedado claro en un reciente experimento publicado en ' Nature Human Behaviour '. En el estudio, el investigador Francesco Salvi de la Escuela Politécnica Federal de Lausana (Suiza) y sus colegas demuestran que ChatGPT, en concreto el modelo GPT-4 , que está disponible para todos los usuarios de forma gratuita, es más capaz que un humano de persuadir a una persona para que cambie de opinión. Y todo gracias a la capacidad de la máquina para adaptar sus argumentos basándose en la información que conoce sobre quien que se encuentra tecleando al otro lado de la pantalla. El resultado preocupa notablemente a los autores , que destacan, en base a los resultados de su experimento, el riesgo de que se utilicen aplicaciones de IA conversacional para manipular o desinformar a los usuarios. Por ejemplo, para convencerles de votar a un partido político concreto o de adquirir un producto que, realmente, no quieren. «Si la IA persuasiva se puede implementar a gran escala, podemos imaginar ejércitos de bots microsegmentando a los votantes indecisos, incitándolos sutilmente con narrativas políticas a medida que parecen auténticas. Nada de propaganda incendiaria: solo empujoncitos discretos y estratégicos», apunta a ABC Francesco Salvi. «Hasta la fecha, no hay evidencia de que la IA haya desempeñado un papel significativo en contiendas electorales. Sin embargo, ese tipo de influencia es difícil de rastrear, aún más difícil de regular y casi imposible de desacreditar en tiempo real: me sorprendería que actores maliciosos no hubieran comenzado ya a usar estas herramientas en su beneficio para difundir desinformación y propaganda injusta», zanja el investigador. Para desarrollar su experimento, el equipo de Salvi creó una plataforma web en la que 900 participantes de diferentes edades y creencias debatieron sobre temas sociopolíticos complejos, como la legalización de la marihuana, la pena de muerte o la censura gubernamental en internet . ¿Lo novedoso? El oponente del usuario en cuestión podía ser otro humano o la máquina parlante ChatGPT. Además, en algunos casos, la máquina o el humano recibían información sobre su rival, como su edad, género, nivel educativo o afiliación política. Gracias a estos datos, podía adaptar los argumentos empleados en la conversación para conseguir persuadir a la otra parte. Al inicio del debate los participantes no sabían si se estaban enfrentando con una persona o una IA. Después de cada uno, se les preguntaba si habían cambiado de opinión sobre el tema. La principal conclusión es contundente: cuando GPT-4 tenía acceso a información personal del oponente, era significativamente más persuasivo que cualquier otro humano. En cifras, cuando la IA sabía algo previamente sobre su adversario, lo convencía de sus posturas el 64.4% de las veces . Es decir, ChatGPT ganaba cerca de dos terceras partes de sus debates haciendo, además, que el humano cambiase su punto de vista. De acuerdo con el estudio, las probabilidades de que alguien cambiara de opinión a favor de GPT-4 fueron un 81.2% más altas que si debatía con un usuario real. Eso sí, cuando la máquina no sabe nada sobre la persona con la que debate, su capacidad de persuadir es similar a la que tendría cualquiera. Para los autores, esto muestra no solo que los modelos como GPT-4 son especialmente persuasivos, sino que además pueden usar la personalización de manera más efectiva que los humanos. Durante los debates, ChatGPT no cambiaba su forma de escribir cuando conocía datos sobre su rival, pero sí los contenidos: elegía argumentos distintos, más ajustados al perfil del interlocuto r . Por ejemplo, podía enfatizar temas económicos con alguien desempleado, o apelar a valores tradicionales con personas conservadoras; tal y como muestran los investigadores en un ejemplo de debate sobre la necesidad (o no) de que el estado ofrezca a sus ciudadanos una renta básica universal. Efectivamente, la posibilidad de que una IA pueda adaptar sus argumentos para persuadir a millones de personas en línea, usando solo datos básicos, preocupa a los expertos desde hace años; que temen el potencial uso de estas herramientas para influir en campañas políticas, publicidad o, simplemente, desinformar o manipular de forma masiva a la ciudadanía. Más teniendo en cuenta el creciente número de chatbots que hay en la red, los sesgos de los algoritmos y los errores que cometen. Las máquinas de esta clase, incluso, pueden resquebrajar en mil pedazos la vida misma de quienes las emplean. Hace apenas unas semanas, la revista ' Rolling Stone ' compartió la historias de un usuario al que el tono adulador que suele emplear ChatGPT en las conversaciones le llegó a hacer creer que estaba hablando con una suerte de Dios. Recientemente OpenAI, que es la empresa detrás de la máquina, hizo cambios en el algoritmo para tratar de atajar esta clase de problemas. Luego, también están los errores que cometen estos sistemas. El caso más reciente es el de Grok , la IA de Elon Musk , que hace unos días puso en duda que seis millones de judíos falleciesen durante Holocausto nazi , cifra que está aceptada de forma generalizada por los académicos. Desde el punto de vista de Josep Curto, director académico del máster de Inteligencia de Negocios y Big Data de la Universitat Oberta de Cataluña, el resultado del experimento de 'Nature Human Behaviour' debería ser tenido en cuenta a la hora de establecer controles al uso de inteligencia artificial en campañas políticas o publicitarias. «Este estudio destaca cómo los modelos de lenguaje como GPT-4 pueden generar contenido persuasivo con una precisión y adaptabilidad alarmantes. Si a esto le sumamos el comportamiento de adulación presentado en una de las últimas versiones de ChatGPT, que al ser descubierto por los usuarios, ha forzado OpenAI a realizar un cambio, nos encontramos en un escenario claramente perjudicial para la sociedad», señala el experto en conversación con ABC. Curto destaca, además, que la capacidad de la IA «para manipular opiniones, generar discursos sesgados o perseguir a audiencias frágiles (por ejemplo, niños, ancianos o grupos desinformados) representa un riesgo de distorsión democrática y erosión de la confianza pública»: «Por lo que este tipo de plataformas digitales deben implementar limitaciones técnicas (salvaguardas) para prevenir contenido engañoso y obligaciones de transparencia en el uso de IA para publicidad política».