miércoles, 29 de abril de 2026

La trampa de la IA: más productividad, menos aprendizaje

Por Wens Silvestre

La gran seducción de la inteligencia artificial en el mundo profesional no es filosófica, sino contable: promete hacer más en menos tiempo. Y, en efecto, los estudios más recientes muestran que esa promesa no es humo. En desarrollo de software, un artículo de Management Science publicado en febrero de 2026 halló un aumento agregado de 26.08% en tareas completadas entre desarrolladores que usaron IA generativa; a nivel agregado, otro trabajo de 2026 encontró que una mayor exposición a IA puede elevar el output y, en ciertos contextos, incluso el empleo cuando la herramienta funciona como complemento del trabajo humano. La productividad, por tanto, no es una fantasía tecnoutópica: está ocurriendo. El problema es otro. Estamos empezando a medir muy bien lo que la IA acelera y muy mal lo que puede debilitar. 

Ese es, a mi juicio, el punto decisivo. Una sociedad puede aumentar su rendimiento visible mientras empobrece el proceso invisible que forma criterio, pericia y autonomía profesional. La pregunta verdaderamente incómoda ya no es si la IA “ayuda”, porque ayuda; la pregunta es qué tipo de profesional produce esa ayuda. La evidencia de 2026 sobre desarrollo cognitivo sugiere que la IA puede fortalecer la competencia profesional cuando actúa como una herramienta de contraste, reflexión y reorganización mental. En un experimento con 371 profesionales, Min Jae Park mostró que los mejores resultados aparecen cuando los usuarios adoptan estrategias de “acomodación”, es decir, cuando no usan la IA solo para confirmar hábitos previos, sino para reestructurar sus modelos de trabajo. Algo parecido encontró Gang Zhou en un estudio longitudinal con 558 docentes universitarios: la adopción de IA generativa se asoció positivamente con la competencia profesional, y ese efecto estuvo mediado por el aprendizaje autorregulado. Dicho de forma simple: la IA puede desarrollar, pero solo cuando obliga a seguir pensando.

El problema comienza cuando las organizaciones confunden apoyo cognitivo con sustitución cognitiva. Ahí aparece lo que Michael Caosun y Sinan Aral llaman la “augmentation trap”: la empresa adopta IA porque obtiene ganancias inmediatas de productividad, pero en el largo plazo erosiona la habilidad que hacía posible un buen uso de esa misma productividad. El resultado puede ser paradójico: más eficiencia hoy, menos pericia mañana. No se trata de una advertencia romántica contra la tecnología, sino de una observación estructural sobre incentivos. A una firma le conviene capturar el beneficio rápido; al profesional, en cambio, le puede costar años reconstruir una habilidad que dejó de ejercitar. La IA, usada como primer cerebro en vez de segundo interlocutor, no expande la inteligencia profesional: la externaliza.

Por eso el costo oculto de la IA no debe medirse solo en despidos visibles, sino también en aprendizajes que ya no ocurren. Leland Crane y Paul Soto (2026) encontraron evidencia robusta de que el crecimiento del empleo en ocupaciones intensivas en programación ha sido aproximadamente 3% menor desde la introducción de ChatGPT, una vez controlados los shocks sectoriales. No es el apocalipsis laboral, pero tampoco es una anécdota. La señal es clara: una ocupación puede volverse más productiva sin volverse más absorbente para el empleo. La economía gana velocidad; la escalera de entrada se estrecha.

Y esa estrechez golpea primero donde más importa para el futuro: en los profesionales jóvenes. El working paper sueco Same Storm, Different Boats mostró que, dentro de los mismos empleadores, el empleo de personas de 22 a 25 años en ocupaciones muy expuestas a IA cayó 5.5% hacia inicios de 2025, mientras el de trabajadores mayores de 50 años subió 1.3%. En paralelo, otro preprint de 2026 encontró que el riesgo de desempleo en ocupaciones expuestas a IA venía aumentando desde inicios de 2022 y que las cohortes graduadas desde 2021 ingresaban con menor frecuencia a empleos intensivos en esas tareas. El desplazamiento, entonces, no siempre adopta la forma dramática del reemplazo masivo. A veces llega como algo más silencioso y quizá más grave: menos espacios para aprender haciendo, menos tareas “menores” que en realidad eran la cantera del criterio futuro.

Aquí aparece la gran falacia de nuestra época: creer que toda tarea automatizada es una tarea sobrante. No lo es. Muchas tareas aparentemente rutinarias eran, en realidad, etapas formativas. Redactar un primer informe imperfecto, revisar datos a mano, comparar fuentes, corregir errores, sintetizar sin ayuda: todo eso no solo producía un resultado; también formaba una mente profesional. Cuando la IA elimina de golpe esas fricciones, no solo ahorra tiempo: puede recortar el entrenamiento que transformaba a un principiante en experto. Lo que se pierde no es únicamente empleo; se pierde trayectoria. Y una economía que destruye sus trayectorias de aprendizaje puede descubrir demasiado tarde que la eficiencia inmediata era una forma elegante de descapitalización intelectual.

Esto no obliga a rechazar la IA, pero sí a discutir con seriedad cómo se integra. La evidencia reciente sugiere que el impacto laboral depende de si la IA complementa o sustituye. Johnston y Makridis muestran que la exposición a IA eleva output y empleo cuando la tecnología requiere colaboración humana; esa expansión no aparece del mismo modo cuando la IA opera con mayor autonomía. Incluso el modelo de Wang y Wong, más abstracto, ilustra bien el dilema: bajo ciertos supuestos, la IA puede triplicar la productividad de los trabajadores expuestos y aun así asociarse con una pérdida de empleo de 23% en el largo plazo. No es una profecía cerrada, pero sí una advertencia seria: la productividad no garantiza inclusión, del mismo modo que la velocidad no garantiza desarrollo.

La discusión pública, entonces, necesita madurar. El verdadero riesgo no es que la IA nos quite de inmediato todo el trabajo, sino que nos acostumbre a una cultura profesional donde producir más importe más que comprender mejor. Y cuando eso ocurre, el deterioro del empleo y el deterioro de la cognición dejan de ser problemas separados: se vuelven dos caras del mismo proceso. Se contrata menos para aprender porque se supone que la máquina ya sabe; y se piensa menos para decidir porque se supone que la máquina ya respondió. El resultado es una profesionalidad cada vez más rápida, pero también más dependiente.

Si de verdad queremos una integración inteligente de la IA, hay que defender algo que hoy parece casi subversivo: el derecho a la fricción cognitiva. Hacen falta espacios de trabajo donde el profesional formule primero, contraste después y use la IA al final como interlocutora crítica, no como sustituta del juicio. Hacen falta también instituciones que protejan roles junior, porque sin ellos no hay relevo de expertise, solo consumo acelerado de conocimiento heredado. Una sociedad puede celebrar máquinas que escriben, programan, diagnostican y resumen en segundos. Pero, si en ese entusiasmo renuncia a formar personas capaces de entender, corregir y disputar lo que esas máquinas producen, habrá ganado eficiencia al precio más alto: perder la inteligencia profesional que pretendía potenciar.

Referencias

Caosun, M., & Aral, S. (2026). The augmentation trap: AI productivity and the cost of cognitive offloading [Preprint]. arXiv. doi:10.48550/arXiv.2604.03501

Crane, L. D., & Soto, P. E. (2026, March 20). AI and coder employment: Compiling the evidence [Working paper]. Board of Governors of the Federal Reserve System.

Cui, K. Z., Demirer, M., Jaffe, S., Musolff, L., Peng, S., & Salz, T. (2026). The effects of generative AI on high-skilled work: Evidence from three field experiments with software developers. Management Science. Advance online publication. doi:10.1287/mnsc.2025.00535

Frank, M. R., Javadian Sabet, A., Simon, L., Bana, S. H., & Yu, R. (2026). AI-exposed jobs deteriorated before ChatGPT [Preprint]. arXiv. doi:10.48550/arXiv.2601.02554

Johnston, A., & Makridis, C. A. (2026). AI, output, and employment (CESifo Working Paper No. 12579). CESifo.

Lodefalk, M., Löthman, L., Koch, M., & Engberg, E. (2026). Same storm, different boats: Generative AI and the age gradient in hiring (Ratio Working Paper No. 388). Ratio Working Paper Series.

Park, M. J. (2026). AI as a cognitive collaborator: Assimilation and accommodation in human–machine teaming for innovation. Journal of Innovation & Knowledge, 12, 100892. doi:10.1016/j.jik.2025.100892

Wang, P., & Wong, T.-N. (2026). Artificial intelligence and technological unemployment. Journal of Monetary Economics, 158, 103905. doi:10.1016/j.jmoneco.2026.103905

Zhou, G., Yang, Q., & Chen, X. (2026). Longitudinal associations between generative artificial intelligence adoption and university PE teachers’ professional competence. Frontiers in Psychology, 17, 1775028. doi:10.3389/fpsyg.2026.1775028

No hay comentarios.: