HUB
Publicidad Responsiva - Banner Superior
Radar Inteligente
Expansion 20 Apr, 2026 06:01

Usos y percepciones sobre la Inteligencia Artificial o la paradoja de las universidades

En la universidad actual, un estudiante puede conectarse a sus redes sociales, hacer búsquedas instantáneas de información en internet o generar un ensayo complejo en segundos con ayuda de la Inteligencia Artificial generativa (IAG). Sin embargo, habitamos una paradoja inquietante: las aulas están hiperconectadas, pero la deuda congnitiva y la ansiedad están al acecho. ¿Es la IAG el remedio para personalizar el bienestar y el desarrollo educativo o un arma que puede erosionar las capacidades y la salud mental de los jóvenes?

El pasado 15 de abril se publicó la Encuenta Nacional sobre usos y percepciones sobre Inteligencia Artificial Generativa en la educacion superior en Mexico (ENIAG 2025). Impulsada por la Secretaría de Educación Pública (SEP), la encuesta representa un ejercicio sin precedentes para establecer principios y lineamientos claros sobre la integración de esta tecnología en el sistema educativo en nuestro país. Según la encuesta, la IAG es ya una herramienta cotidiana para el 93% de los estudiantes y 95% de los docentes en México. Más del 60% la utiliza cotidianamente para diversas tareas; el 79% la usa para generar textos, y el 70 % percibe una mejora en su desempeño académico gracias a ella. La IAG está siendo adoptada masivamente en las aulas como recurso para procesos y tareas pedagógicas. Incluso, el 80% de los encuestados prevé la transformación de su carrera a causa de aquella. Además, el hallazgo de que la IAG tiene una percepción de utilidad superior al 82% para tareas complejas, revela una comunidad universitaria que no ve la tecnología como un accesorio, sino como un motor de cambio estructural en su identidad profesional. Pero lo más sorprendente es que, de acuerdo con los hallazgos de la ENIAG 2025, los estudiantes utilizan cada vez más a la IA como apoyo emocional y para la salud mental. Cerca de 92,000 estudiantes (9% de la población estudiantil encuestada) han recurrido a esas herramientas para este fin. El debate sobre los datos estadísticos revela una tensión fundamental entre la alta percepción de utilidad reportada por la comunidad académica y los riesgos de erosión cognitiva y emocional advertido por los expertos. Mientras los resultados muestran un optimismo generalizado, al mismo tiempo sugieren que esta utilidad es real solo si se subordina, entre otras cosas, al juicio humano.

Sobre los beneficios cognitivos

Y es que, cada vez más, la IAG se percibe como un recurso que incide directamente en los procesos pedagógicos, lo que plantea nuevos desafíos para la enseñanza. El 79% de los docentes y el 82.3% de los estudiantes consideran que es una herramienta útil para tareas de alta demanda intelectual, tales como analizar, razonar, reflexionar, crear e imaginar. Pero, frente a este entusiasmo por la utilidad de la IA, desde una perspectiva crítica emergen los peligros de delegar el pensamiento en la máquina. Entre ellos, están la erosión de habilidades fundamentales como la comprensión lectora profunda y la memorización significativa, a cambio de búsquedas fragmentarias y superficiales. O una "falsa sensación de dominio intelectual", donde el usuario cree poseer un conocimiento solo porque la IA generó un resultado plausible. O lo que se conoce como “pedagogía de la inmediatez”, es decir, la facilidad de obtener respuestas automáticas, lo que podría fomentar una cultura del "corta y pega, en lugar de la gestión autónoma del conocimiento. Es verdad que la percepción de utilidad es un motor de cambio, pero la IAG solo funcionará como un verdadero recurso para el pensamiento complejo si se utiliza para extender la capacidad humana de razonar y no para reemplazarla. El desafío educativo radica en integrar la tecnología preservando el rigor y la autonomía crítica del sujeto. En este nuevo ecosistema, la tecnología debe servir a la inteligencia humana, no mecanizarla. En ese sentido, recuperar el valor de las humanidades es también el gran desafío. Mientras la IA automatiza tareas cognitivas y genera respuestas preprogramadas, las humanidades desarrollan capacidades que la tecnología no posee: el juicio ético, el pensamiento crítico y la comprensión profunda de los contextos humanos. En la era de la IA, no basta con saber usar las herramientas, es indispensable saber cuestionarlas. Las humanidades permiten que el estudiante no acepte de forma pasiva las respuestas de una máquina, sino que desarrolle un juicio crítico frente a los sesgos y errores de la IA. Y el papel de estas disciplinas debe ser transversal; incorporarse incluso en carreras de ingeniería o tecnologías. Esto garantiza que cualquier profesional, independientemente de su campo, tenga la formación en ética y análisis crítico necesarios para manejar herramientas que impactan a las personas y a la sociedad en la que se desenvuelven.

La IA como apoyo emocional

El avance de la IA en la emulación de capacidades humanas, especialmente las emotivas, es fascinante y peligroso. Hoy, los algoritmos pueden simular empatía, ofrecer "escucha" y responder con tonos de voz que parecen comprender el cansancio del estudiante. Sin embargo, desde el humanismo digital, debemos ser claros: una máquina puede emular, pero jamás experimentar. De acuerdo con la ENAG 2025, los estudiantes utilizan la IAG para diversas necesidades de salud mental y acompañamiento. El 63.4% la utiliza para pedir consejos sobre ansiedad, estrés, depresión o tristeza. El 58.5% recurre a ella para desahogarse o sentir que alguien los escucha. El 41.9% busca palabras de ánimo o motivación en la herramienta. Además, hay una simulación de acompañamiento: El 29.8% la emplea para simular una conversación con alguien que les brinde apoyo; incluso, el 24.8% la usa para intentar determinar si necesita atención psicológica profesional. Y aquí otro dato inquietante: si bien solo el 8.2 % confía ciegamente en la IA, lo cual es bueno porque refuerza la regla de oro de verificar, contrastar y cuestionar las herramientas, el 88% de los estudiantes que ha usado la IA para apoyo emocional reporta que la herramienta les fue de ayuda. Si bien el uso de la IA para apoyo emocional no debe verse necesariamente como una señal de alarma, sí identificamos riesgos y límites fundamentales en esta práctica emergente, como la insuficiencia de servicios institucionales. El hecho de que miles de estudiantes busquen apoyo en la IA sugiere que, en muchos casos, las necesidades de salud mental no encuentran respuesta en los servicios universitarios o de salud disponibles. Esto revela una brecha entre la demanda de apoyo y la capacidad de respuesta de las instituciones. De manera general, la SEP advierte que un tercio de los estudiantes está preocupado por la información falsa o desinformación generada por la IA. En un contexto emocional, recibir consejos erróneos sobre ansiedad o depresión podría ser contraproducente. Además, entre los retos generales de la IA, se menciona la dependencia tecnológica como un factor que debe atenderse con seriedad.

El riesgo para la salud mental radica en confundir este acompañamiento algorítmico con la verdadera conexión humana. La universidad es, por definición, un espacio de encuentro entre personas. Si delegamos el soporte emocional a las máquinas, corremos el riesgo de dejar un vacío en la formación integral. El acompañamiento robótico puede aliviar la inmediatez, pero carece de la reciprocidad y la historia compartida que solo la presencia humana puede ofrecer. _____ Nota del editor: Mariscaren Fernández Chapou es profesora de la Escuela de Humanidades y Educación del Tecnológico de Monterrey e investigadora del Observatorio de Medios Digitales de la misma institución. Las opiniones publicadas en esta columna corresponden exclusivamente a la autora. Consulta más información sobre este y otros temas en el canal Opinión

]]>
Contenido Patrocinado