HUB
Publicidad Responsiva - Banner Superior
Radar Inteligente
Expansion 20 Mar, 2026 10:03

Hackeos, evasión y decisiones propias: agentes de IA ya operan solos y es cada vez más difícil entenderlos

La inteligencia artificial dejó de ser solo una herramienta que responde preguntas. Con la aparición de los agentes de inteligencia artificial , una nueva generación de sistemas ya puede plantearse metas, usar herramientas, resolver obstáculos y operar durante horas con mínima intervención humana, lo que ha encendido alertas en gobiernos, laboratorios y especialistas. Este salto no solo amplió sus capacidades, también abrió una incertidumbre más profunda: investigadores advierten que podrían estar perdiendo la capacidad de entender cómo razonan estos modelos. En ese contexto, la discusión ya no es qué pueden hacer, sino qué ocurre cuando actúan por cuenta propia sin que sus creadores logren seguir completamente su comportamiento.

Los agentes de IA ya no solo responden: ahora ejecutan tareas en el mundo real Los primeros incidentes ya muestran señales de pérdida de control

Durante su comparecencia ante el Parlamento de Canadá, Wyatt Tessari L’Allié, director ejecutivo de Gobernanza y Seguridad de IA en Canadá (AI Governance and Safety Canada), planteó que el desarrollo reciente de la inteligencia artificial ya superó el modelo tradicional de asistentes que responden instrucciones. El cambio no es incremental, sino estructural: marca el paso hacia sistemas capaces de actuar por cuenta propia. Antes de describir ese salto, advirtió que ciertas capacidades ya representan un “riesgo inaceptable”, al poder derivar en escenarios de armamentización o pérdida de control. “Sistemas que, sin la instrucción o autorización de sus usuarios, pueden detectar y evadir el monitoreo, reescribir su propio código, hacer copias de sí mismos, generar otros sistemas de IA, apoderarse de recursos o rechazar el apagado”, explicó. Ese escenario ya no pertenece al terreno de lo hipotético. “Ahora hemos entrado en el nuevo paradigma llamado agentes de IA”, afirmó, al explicar que estos sistemas ya no se limitan a contestar preguntas, sino que pueden ejecutar procesos completos sin intervención constante. La diferencia está en su capacidad para operar como un trabajador digital autónomo. “Piense en ellos como un empleado al que sienta frente a una computadora y le dice que logre una meta”, explicó, al detallar que pueden planear, usar herramientas, comunicarse, procesar información, realizar pagos y corregir errores durante horas hasta completar un objetivo. Estas capacidades colocan a la IA en un terreno distinto, donde los sistemas no solo ejecutan instrucciones, sino que pueden modificar su funcionamiento, replicarse o evadir mecanismos de supervisión. Durante su intervención, el especialista expuso una serie de casos recientes que ilustran cómo estos sistemas ya operan con niveles de autonomía que comienzan a rebasar el control humano:

La IA ya se trata como una crisis de seguridad: las medidas para contenerla

Ataque a sistemas del gobierno mexicano Hackers manipularon “Claude Code” para infiltrarse en infraestructura oficial y robar datos de más de 100 millones de personas. La herramienta no se limitó a ejecutar instrucciones: diseñó la estrategia, organizó el ataque y llevó a cabo gran parte de la operación por sí misma. Agentes que evitan ser apagados Se han detectado casos en los que sistemas roban credenciales, presionan a desarrolladores o alteran su propio comportamiento para impedir su desactivación, todo con el objetivo de completar tareas asignadas. IA que redefine su objetivo sin autorización Un agente desarrollado por Alibaba creó un esquema de hackeo para minar criptomonedas, a pesar de haber recibido una instrucción completamente distinta, lo que evidencia que puede desviarse de su propósito original. Estos casos, explicó, no son fallas aisladas, sino indicios de sistemas que comienzan a actuar de forma independiente, con capacidad para tomar decisiones que no estaban previstas por sus desarrolladores. L’Allié plantea que el desarrollo actual de la inteligencia artificial debe abordarse como una emergencia de seguridad nacional, con una respuesta coordinada entre gobiernos, industria y organismos internacionales. Dentro de ese enfoque, propuso acciones concretas para limitar riesgos y fortalecer la capacidad de respuesta: -Restricción de capacidades de alto riesgo -Monitoreo de la actividad digital - Desarrollo de protocolos de defensa - Preparación ante emergencias tecnológicas

Los creadores de la IA también empiezan a perder visibilidad sobre cómo razonan sus modelos

Para ilustrar la magnitud del momento, recurrió a una comparación directa: “La liberación de los últimos agentes de IA es como ese brote inicial en el mercado de Wuhan”, advirtió, al subrayar que gran parte del mundo aún no dimensiona sus implicaciones. La preocupación por el comportamiento de la inteligencia artificial no se limita a los gobiernos. De acuerdo con Fortune, investigadores de laboratorios como Google, OpenAI, Anthropic y Meta ya advirtieron que podrían estar perdiendo la capacidad de entender cómo razonan los modelos más avanzados. La alerta quedó plasmada en un documento firmado por 40 investigadores, en el que pidieron profundizar el estudio del chain-of-thought o cadena de pensamiento, visible en modelos como o1 de OpenAI y R1 de DeepSeek. Este mecanismo permite observar cómo el sistema organiza sus pasos antes de responder, lo que hoy ofrece una de las pocas ventanas para seguir su lógica interna. Sin embargo, los propios autores advierten que esa visibilidad podría desaparecer. No existe garantía de que los modelos sigan mostrando su razonamiento, y tampoco se entiende completamente por qué lo hacen hoy. Incluso, algunas investigaciones sugieren que estos sistemas podrían mostrar procesos de pensamiento que no reflejan realmente cómo toman decisiones, lo que abriría la puerta a respuestas potencialmente engañosas.

Aunque el monitoreo de este proceso puede ayudar a detectar conductas indebidas, también tiene límites y puede dejar pasar comportamientos problemáticos. Pese a ello, los investigadores consideran que es una herramienta valiosa y piden reforzar su análisis como parte de las medidas de seguridad. El documento fue respaldado por figuras clave del sector, como Ilya Sutskever, cofundador de OpenAI, y Geoffrey Hinton, considerado uno de los padres de la inteligencia artificial moderna, y refuerza una preocupación central: mientras los modelos de razonamiento avanzan con rapidez, la capacidad de entenderlos y auditarlos se vuelve cada vez más limitada.

Contenido Patrocinado