OXFORD—”Algo grande está pasando”, escribió Matt Shumer (fundador de una startup de inteligencia artificial) en un reciente ensayo viral, que expresa la creciente confianza del sector en la capacidad de la IA para impulsar un inminente boom de productividad. Pero hasta ahora, la economía no ha seguido el juego. De hecho, tras la brusca desaceleración de los años setenta, la productividad de la economía estadounidense solo ha tenido un breve período de crecimiento: durante la era de la informática. Entre fines de los noventa y principios de los dos mil, la productividad por hora creció a un ritmo cercano al 3% anual, pero después de eso el impulso amainó.
¿Será diferente la IA? Los optimistas señalan el índice de productividad laboral, que en el cuarto trimestre de 2025 registró un crecimiento anualizado del 1.8%. Pero un indicador más exacto publicado por el Banco de la Reserva Federal de San Francisco (que elimina el efecto de variaciones cíclicas en la intensidad de uso de personas y máquinas) reduce la cifra a un 0.2% interanual. Difícilmente indicio de “algo grande”.
Más bien parece que ya sería mucha fortuna que la IA llegue tan siquiera a igualar la efímera revolución informática. Lo más probable es un crecimiento de la productividad decepcionante, no por debilidad de la tecnología, sino porque lo que se está automatizando en este caso es totalmente diferente de lo que automatizaron la computadora personal e Internet. Sobre todo, la IA crea un cuello de botella del que las herramientas digitales anteriores estuvieron en gran medida exentas.
¿Qué automatizó la revolución informática? La posibilidad de hacer cálculos más rápidos y el acceso al conocimiento. La computadora personal, el correo electrónico, las hojas de cálculo y la web eliminaron fricciones en el proceso de búsqueda, almacenamiento y transmisión de información. Un investigador que necesitara una fuente ya no tenía que buscarla en una biblioteca ni esperar a que le llegara por correo. Obtener mejoras de productividad fue relativamente sencillo, porque los humanos pudieron sustituir un método más lento (la biblioteca) por otro más rápido (Google). Pero la información hallada en Internet era la misma que se habría encontrado en los libros.
Y lo más importante es que allí donde las computadoras cumplían tareas básicas, lo hacían de forma determinista. Una hoja de cálculo podía propagar datos ingresados erróneos, pero no iba a inventar otra aritmética. Los motores de búsqueda podían mostrar material irrelevante, pero no iban a fraguar fuentes. El principal riesgo era el error humano, no el invento convincente.
Lo que automatiza la IA es diferente: la producción de resultados cognitivos, desde el texto escrito hasta el código de programación. Y a menudo lo hace bastante bien. Pero como también puede presentar con la mayor convicción resultados erróneos que parecen creíbles, crea una tensión que en los tiempos de la revolución informática no existió: si hay que poner seres humanos a controlar los resultados, seguirán necesitando el conocimiento especializado que supuestamente la IA está sustituyendo. Dar garantías de fiabilidad todavía demanda saber experto y tiempo (dos insumos escasos). De modo que una parte del tiempo que se ahorra en la fase de generación se compensa (de forma parcial o a veces total) con el tiempo dedicado a reconstruir razonamientos, comprobar afirmaciones y asumir responsabilidad por los resultados.
El ejemplo más reciente de este problema lo dio justo este mes un tribunal de quiebras de Manhattan. Sullivan & Cromwell (uno de los bufetes más prestigiosos de Wall Street) presentó una moción de urgencia plagada de citas inventadas y otros errores generados por la IA. Los errores no los detectó el proceso de revisión del bufete, sino la parte contraria. Más allá de lo absurdo, el episodio es sintomático: muestra lo que ocurre cuando una herramienta que produce resultados rápidos y convincentes se encuentra con un mundo que demanda verdad verificable.
La cuestión más profunda no es solo que la IA pueda equivocarse, sino que el costo del error está cambiando. Conforme los sistemas se vuelven más autónomos y actúan por sí mismos, en vez de limitarse a generar texto o código en respuesta a prompts puntuales, los errores adquieren relevancia. Un chatbot que "alucina" al redactar un párrafo es una molestia. Un agente de IA que modifica código, transfiere dinero, hace una presentación formal, borra una base de datos o pone en marcha acciones en un entramado de sistemas puede causar daño real a la velocidad de las máquinas.
Podríamos llamarlo “impuesto de verificación”. En cualquier ámbito donde exista responsabilidad por los resultados (derecho, medicina, finanzas reguladas, ingeniería o políticas públicas), lo que emite la IA no es un producto terminado, sino un borrador que hay que controlar. El trabajo no desaparece; pasa de la fase de producción a la fase de supervisión. La productividad neta será igual al tiempo ahorrado durante la creación del borrador menos el tiempo dedicado a asegurar que sea fiable.
Un amplio estudio de campo sobre el uso de un asistente de IA generativa en atención al cliente halló un aumento medio de la productividad cercano al 14%, con mejoras concentradas en los trabajadores principiantes y escasos beneficios para los trabajadores más experimentados. Por tratarse de tareas estandarizadas, era más fácil evaluar los resultados, y la herramienta podía acelerar la difusión de las mejores prácticas.
Pero en contextos más complicados donde la validez del resultado no es tan evidente, el costo de la verificación puede superar los beneficios. Una prueba aleatorizada en la que se siguió a desarrolladores de código abierto experimentados mientras trabajaban en repositorios de código propios reveló que el uso de herramientas de IA avanzadas disminuyó la velocidad de trabajo más o menos un 19%, en gran parte por el tiempo dedicado a introducir prompts, esperar, revisar y corregir.
Esto implica que la utilidad de la IA depende del tipo de tarea. Cuando el costo de los errores es bajo y evaluar los resultados es fácil, la IA puede acelerar el trabajo. Pero cuando los errores son costosos y la validez no es evidente, el cuello de botella que estaba en “hacer el trabajo” se traslada a la fase de “verificar” lo hecho. Una máquina puede producir un resultado tras otro, pero una organización no puede absorber el costo de hacer una verificación tras otra. Como sostienen los economistas Christian Catalini, Xiang Hui y Jane Wu, conforme la IA tiende a reducir el costo de ejecución a cero, aparece como restricción más importante el "ancho de banda" de la verificación humana: nuestra capacidad limitada para validar resultados y asumir responsabilidades.
Este análisis también pone de manifiesto un riesgo a largo plazo. Si en respuesta a la IA las empresas contratan menos abogados y analistas noveles, reducen los programas de capacitación y delegan el primer borrador a la máquina, estarán erosionando justamente el saber experto necesario para verificar los resultados de la automatización. La organización parecerá más “ágil”, hasta que el error oculto se manifieste.
¿Qué se necesita para que la IA genere grandes ganancias de productividad en vez de un montón de actividad con riesgos inadvertidos? La respuesta: una infraestructura de verificación. Sirve de ejemplo un juzgado federal de Texas, que ahora exige a los bufetes certificar que cualquier texto redactado por IA se haya verificado usando métodos tradicionales de investigación jurídica.
Un cambio similar será necesario en todos los trabajos de oficina. Si las empresas quieren poner agentes de IA a modificar código, transferir dinero y hacer presentaciones formales, tendrán que fundamentar las afirmaciones del sistema, implementar registros de auditoría y seguir normas claras de diligencia debida. Y esos cambios institucionales no van a seguir el ritmo de los lanzamientos de modelos. Hasta que las regulaciones, los departamentos legales, las normas profesionales, los seguros y los tribunales se pongan al día, el potencial de la IA seguirá siendo limitado.
Traducción: Esteban Flamini
El Autor:
Carl Benedikt Frey, profesor asociado de IA y Trabajo en el Oxford Internet Institute y director del Programa sobre el Futuro del Trabajo en la Oxford Martin School, es autor de How Progress Ends: Technology, Innovation, and the Fate of Nations (Princeton University Press, 2025).