HUB
Publicidad Responsiva - Banner Superior
Radar Inteligente
Mundiario 05 May, 2026 08:11

La privacidad en jaque: Meta, Google y TikTok rastrean los chats con inteligencia artificial

Durante años, la publicidad online ha funcionado como un ojo invisible que lo registra todo. Cada clic, cada búsqueda, cada visita a una web. Lo preocupante es que ese mismo sistema, que ya ha colonizado buena parte de internet, está entrando ahora en un espacio mucho más delicado: las conversaciones privadas con chatbots de inteligencia artificial.

Una investigación reciente, elaborada por expertos vinculados a Imdea Networks, ha detectado rastreadores publicitarios de empresas como Meta, Google o TikTok integrados en plataformas de IA como ChatGPT, Claude, Grok o Perplexity. Estos sistemas no son simples herramientas estadísticas. Son mecanismos diseñados para perfilar usuarios, anticipar intereses y, en última instancia, monetizar nuestras debilidades.

El problema no es la IA, es el negocio que la rodea

Muchos usuarios creen que hablar con un chatbot es como escribir en un cuaderno personal. La interfaz invita a la confianza, porque responde con cercanía, empatía y aparente discreción. Pero esa confianza puede ser una ilusión peligrosa.

Los rastreadores detectados recogen información sobre la actividad del usuario, incluyendo en algunos casos el título de la conversación. Puede parecer un detalle menor, pero no lo es. Un título como “síntomas de depresión”, “cómo pagar menos impuestos” o “problemas legales con mi empresa” ya revela datos sensibles. Es como dejar la puerta entornada y permitir que cualquiera escuche, aunque no vea toda la escena.

Enlaces públicos y conversaciones expuestas

El hallazgo más alarmante afecta a Grok y Perplexity. Hasta principios de abril, algunos enlaces generados por estas plataformas podían dar acceso completo al contenido de chats, palabra por palabra, sin mecanismos de control. No hace falta que alguien haya entrado para que el riesgo sea grave. Basta con que exista la posibilidad.

Aquí la privacidad no se rompe con un gran escándalo, sino con pequeñas grietas técnicas que acaban formando una autopista para el abuso. En un mundo donde la información vale más que el oro, dejar chats expuestos es como abandonar una caja fuerte abierta en mitad de la calle.

Europa debería reaccionar con más firmeza

En la Unión Europea existe el Reglamento General de Protección de Datos, pensado precisamente para evitar este tipo de prácticas. Sin embargo, según expertos legales citados en la investigación, las empresas tecnológicas juegan con políticas de privacidad extensas y ambiguas que, más que informar, confunden.

El problema de fondo es que la IA necesita ingresos, y el camino más rápido es el mismo de siempre: convertir al usuario en producto. Si los chatbots se consolidan como el nuevo centro de internet, la publicidad personalizada no tardará en convertir nuestras confesiones en mercancía.

La solución pasa por regulación real, auditorías externas y sanciones contundentes. Si las plataformas quieren que confiemos en ellas, deben demostrar que nuestras conversaciones no alimentan el mercado del rastreo. Porque cuando hablar con una IA deja de ser privado, la tecnología deja de ser herramienta y se convierte en vigilancia disfrazada. @mundiario

Contenido Patrocinado