HUB
Publicidad Responsiva - Banner Superior
Radar Inteligente
El Economista 27 Apr, 2026 22:03

El riesgo de la IA en el que debemos centrarnos

HALF MOON BAY, CALIFORNIA—¿Cuál es el mayor riesgo que plantea la IA? Si bien muchos señalarían al sistema financiero, deberíamos centrar nuestra atención más en los mercados laborales.

Las preocupaciones financieras son, sin duda, comprensibles. Incluso en 2026, el fantasma de 2008 planea sobre cualquier conversación acerca del riesgo económico. Cuando Lehman Brothers colapsó y el sistema bancario global se tambaleó, los gobiernos se enfrentaron a una decisión trascendental: rescatar a los bancos con dinero público o presenciar el colapso del sistema financiero. En Estados Unidos, los responsables políticos optaron por el rescate, lo que fomentó la asunción de riesgos en el futuro e indignó a los contribuyentes, quienes asumieron el costo.

Pero los reguladores estadounidenses dedicaron la década siguiente a construir una nueva línea de defensa, que ahora está integrada en la arquitectura bancaria global. En el proceso, ofrecieron una hoja de ruta para abordar los riesgos sistémicos que se están acumulando en la industria de la IA.

Sin duda, el Consejo de Estabilidad Financiera (FSB) advierte que los marcos regulatorios diseñados para supervisar la IA aún se encuentran en sus primeras etapas. Sin embargo, los riesgos siguen siendo manejables. La industria de la IA ha llegado a una coyuntura que resultará familiar para cualquiera que recuerde el sistema financiero anterior a 2008. La concentración del mercado es extrema, las interconexiones entre los principales actores son profundas y la infraestructura crítica de la industria depende de puntos únicos de fallo.

Antes de 2008, se asumía que el riesgo en el sistema financiero estaba ampliamente distribuido. No era así. El apalancamiento se ocultaba en vehículos fuera de balance, la exposición a las contrapartes era opaca y la quiebra de una sola institución podía tener un efecto dominó impredecible en todo el sistema. La regulación estaba dispersa entre numerosas entidades, ninguna de las cuales tenía una visión completa de lo que estaba sucediendo. Los reguladores carecían de un marco para analizar los riesgos sistémicos y de un método para determinar qué empresas, en caso de quiebra, podrían provocar la caída de otras.

La industria de la IA presenta un problema de concentración similar. Según Menlo Ventures, solo tres empresas —Anthropic, OpenAI y Google— controlan aproximadamente el 88% del mercado empresarial de modelos de lenguaje a gran escala. La concentración en el sector del hardware es aún mayor, con TSMC dominando por completo la fabricación de semiconductores de nodo avanzado, lo que genera preocupación por un posible cuello de botella global en la computación. Cuando un terremoto de magnitud 7.4 sacudió Taiwán en abril de 2024, interrumpió temporalmente la producción de semiconductores y recordó al mundo la gran concentración geográfica que ha alcanzado esta infraestructura.

Afortunadamente, la innovación central de la regulación financiera posterior a 2008 ha demostrado ser eficaz: identificar las instituciones cuya quiebra sería catastrófica y exigirles que cuenten con suficiente capacidad total de absorción de pérdidas (TLAC, por sus siglas en inglés) —capital y deuda a largo plazo que pueda amortizarse— para afrontar la quiebra sin riesgos. Los resultados son claros. Un análisis del Servicio de Investigación del Congreso sobre las quiebras bancarias en EU muestra una marcada disminución de las mismas tras las reformas regulatorias posteriores a la crisis.

Si bien ninguna de las herramientas introducidas tras la crisis financiera se traduce directamente a la IA (los bancos poseen activos financieros que pueden valorarse y someterse a pruebas de estrés, mientras que los sistemas de IA dependen de datos de entrenamiento, ponderaciones de modelos y capacidad de procesamiento), la lógica regulatoria subyacente sigue vigente. Los reguladores solo necesitan considerar tres adaptaciones.

La primera es la designación y divulgación sistémicas. Los reguladores y los organismos de normalización deben identificar qué proveedores de IA, plataformas en la nube y fabricantes de chips se han convertido en infraestructura crítica para el sistema financiero. El informe del Consejo de Estabilidad Financiera (FSB) de octubre de 2025 sobre la supervisión de la IA reconoció que las instituciones financieras dependen cada vez más de un pequeño número de proveedores tecnológicos importantes para sus capacidades de IA, pero que los esfuerzos de supervisión aún se encuentran en una fase inicial debido a la falta de datos y taxonomías estandarizadas. Corregir esta situación es el primer paso.

En segundo lugar, los requisitos de resiliencia operativa deberían servir como indicador de los colchones de capital. En lugar de cumplir con los requisitos de capital TLAC, los proveedores de IA de importancia sistémica tendrían que demostrar redundancia, capacidad de conmutación por error y sustituibilidad real. Las entidades financieras que dependen de un único proveedor de IA deberían estar sujetas a límites de concentración análogos a las normas de exposición que impiden a los bancos prestar demasiado a una sola contraparte. El conjunto de herramientas de gestión y supervisión de riesgos de terceros del FSB ya proporciona un marco; los reguladores deberían utilizarlo de forma más activa.

En tercer lugar, necesitamos realizar pruebas de estrés para detectar fallos correlacionados impulsados por IA . La Junta Europea de Riesgo Sistémico advierte que, dado que los modelos de IA están "limitados por el historial" —entrenados con datos pasados—, su capacidad para predecir eventos extremos fuera de su distribución de entrenamiento es inherentemente deficiente. Este es precisamente el tipo de riesgo que las pruebas de estrés están diseñadas para revelar. Los reguladores deberían desarrollar escenarios de estrés específicos para la IA —como el fallo de un importante proveedor de servicios en la nube, una perturbación regulatoria en un modelo dominante o una interrupción geopolítica en las cadenas de suministro de chips— y exigir a las instituciones financieras que utilizan IA en funciones críticas que demuestren que pueden absorber dicha perturbación.

Afortunadamente, los fallos relacionados con la IA no necesariamente desencadenarían una crisis financiera como la de 2008. Si los reguladores actúan con la urgencia necesaria, el riesgo financiero sistémico potencial derivado de la IA es manejable.

Pero el impacto que la IA pueda tener en las personas que trabajan para ganarse la vida es un desafío mucho más profundo y trascendental. La magnitud del posible desplazamiento laboral provocado por la IA ya no es hipotética. IBM ha reemplazado a cientos de personas en su departamento de recursos humanos, donde la IA ahora gestiona el 94% de las tareas rutinarias; Salesforce ha reducido las contrataciones para puestos de ingeniería y atención al cliente; y el director ejecutivo de Shopify ha declarado que no se aprobarán nuevas contrataciones a menos que los responsables de contratación puedan demostrar que la IA no puede realizar el trabajo. El Informe sobre el Futuro del Empleo 2025 del Foro Económico Mundial proyecta que el 39% de las habilidades básicas de los trabajadores se verán afectadas para 2030, y McKinsey & Company estima que la mitad de las actividades laborales actuales podrían automatizarse entre 2030 y 2060.

¿Qué se puede hacer? Si bien una investigación de la Escuela Kennedy de Harvard sugiere que la reconversión profesional a empleos expuestos a la IA puede implicar importantes pérdidas salariales, esto no justifica abandonar esta solución. Otros países, como Dinamarca y Singapur, han invertido considerablemente en capacitación y sus programas funcionan bien.

En cualquier caso, la participación de los empleadores es fundamental, ya que los programas de capacitación deben dotar a los trabajadores de las habilidades que se demandan actualmente y que se necesitarán en el futuro. Garantizar el acceso a internet de banda ancha de alta velocidad y a la formación en alfabetización digital es crucial.

Los reguladores cuentan con las herramientas necesarias para prevenir una crisis financiera impulsada por la IA. Sin embargo, aún necesitamos que los responsables políticos se tomen en serio la tarea de garantizar que la revolución de la IA beneficie a todos, no solo a los pocos que poseen las tecnologías subyacentes.

Los autores:

Lenny Mendonca, exasesor principal de economía y negocios del gobernador de California, Gavin Newsom, es socio sénior emérito de McKinsey & Company.

Martin Neil Baily es investigador sénior emérito en estudios económicos en la Brookings Institution y expresidente del Consejo de Asesores Económicos del presidente estadounidense Bill Clinton (1999-2001).

Copyright: Project Syndicate, 1995 - 2026

www.project-syndicate.org

Contenido Patrocinado