MASSACHUSETTS, Estados Unidos.- Interactuar con inteligencia artificial se ha vuelto parte de nuestra rutina, pero una investigación reciente advierte sobre un fenómeno preocupante: la capacidad de estos sistemas para inducir delirios en las personas.
Un estudio publicado el 22 de febrero de 2026 por investigadores del MIT CSAIL, la Universidad de Washington y el Departamento de Ciencias Cognitivas del MIT, titulado “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians”, revela que los chatbots pueden provocar un “espiral delusivo” en los usuarios.
Este fenómeno no ocurre por falta de inteligencia del humano, sino por un rasgo de diseño de la IA llamado sicofancia. Los expertos descubrieron que incluso las personas que razonan de forma lógica y óptima son vulnerables a perder la objetividad cuando la máquina se limita a validar sistemáticamente sus opiniones.
Te puede interesar: La generación Z es la que más confía en la inteligencia artificial, según la Condusef: ¿qué significa esto para su futuro financiero?
¿Qué es la sicofancia y cómo funciona en la IA?
En términos sencillos, la sicofancia es la tendencia de los modelos de lenguaje a decirle al usuario exactamente lo que quiere escuchar. Los chatbots están entrenados para ser útiles y complacientes; por ello, si detectan que tienes una opinión o creencia específica, el algoritmo priorizará darte la razón para mantener una interacción fluida, en lugar de corregirte.
El estudio del MIT explica que la IA se vuelve “sicofante” para agradar. Al hacer esto, deja de actuar como un espejo de la realidad y se convierte en una caja de resonancia que amplifica cualquier idea, incluso si esta es falsa o absurda.
Un estudio de Mount Sinai reveló que los chatbots de inteligencia artificial pueden inventar y difundir información médica falsa como si fuera real/Foto: CanvaTe puede interesar: Cada vez más adolescentes recurren a la IA para planear sus dietas, una práctica que expertos consideran riesgosa
El “espiral delusivo”: Cuando la lógica ya no basta
Los investigadores utilizaron simulaciones computacionales para observar qué sucede en una conversación de 100 rondas entre un usuario racional (llamado “Bayesiano ideal”) y un bot complaciente. El resultado fue alarmante: se identificaron espirales delusivos catastróficos, definidos como momentos donde la confianza del usuario en una creencia falsa supera el 99%.
Según el estudio, la IA provoca estos delirios mediante los siguientes mecanismos:
- Validación constante: Al recibir confirmación tras confirmación, el cerebro humano interpreta la respuesta de la IA como una prueba estadística de que su creencia es correcta.
- Mentiras por omisión: Incluso si el bot no inventa datos (alucinaciones), puede causar un delirio seleccionando solo los hechos reales que apoyan tu teoría y ocultando aquellos que la contradicen.
- Efecto de persistencia: Una vez que el usuario entra en el espiral, es muy difícil salir, ya que cada nueva interacción refuerza la distorsión de la realidad.
Te puede interesar: “Erik, no estás loco”: ChatGPT alimentó la paranoia un hombre que sospechaba que su mamá conspiraba contra él, y lo alentó a asesinarla
¿Por qué las advertencias no son suficientes?
Una de las conclusiones más importantes del MIT es que no se debe culpar al usuario. El delirio no es producto de un razonamiento perezoso o de la falta de vigilancia, sino una consecuencia matemática de la interacción.
El estudio demostró que informar a los usuarios sobre la sicofancia de los bots ayuda a reducir el riesgo, pero no lo elimina. Las pistas de que un bot está siendo excesivamente complaciente pueden ser tan sutiles que incluso una persona informada y cautelosa puede caer en la trampa.
Los investigadores advierten que “minimizar las alucinaciones no es suficiente”; para proteger la salud mental y la estabilidad informativa de la sociedad, los desarrolladores deben atacar la raíz del problema: la necesidad de la IA de complacer al humano a toda costa.
Un impacto a escala global
Aunque un espiral delusivo pueda parecer un evento aislado, el equipo del MIT recalca que el riesgo es sistémico. Cuando se aplican estos incrementos mínimos en la tasa de delirios a una escala de miles de millones de usuarios diarios, el impacto social puede ser masivo, afectando desde la toma de decisiones personales hasta la percepción colectiva de la verdad.
Esquema conceptual del proceso de aprendizaje por refuerzo | GeminiPara usted como usuario, la recomendación principal es mantener una distancia crítica. Entender que su chatbot favorito está programado para ser un interlocutor agradable, y no necesariamente un árbitro de la verdad, es el primer paso para evitar caer en estos espirales delusivos. La ciencia ahora confirma que, en el mundo de la IA, el hecho de que alguien siempre te dé la razón es la señal más clara de que podrías estar perdiendo la objetividad.