Por Wens Silvestre
La gran seducción de la inteligencia artificial en el mundo profesional no es filosófica, sino contable: promete hacer más en menos tiempo. Y, en efecto, los estudios más recientes muestran que esa promesa no es humo. En desarrollo de software, un artículo de Management Science publicado en febrero de 2026 halló un aumento agregado de 26.08% en tareas completadas entre desarrolladores que usaron IA generativa; a nivel agregado, otro trabajo de 2026 encontró que una mayor exposición a IA puede elevar el output y, en ciertos contextos, incluso el empleo cuando la herramienta funciona como complemento del trabajo humano. La productividad, por tanto, no es una fantasía tecnoutópica: está ocurriendo. El problema es otro. Estamos empezando a medir muy bien lo que la IA acelera y muy mal lo que puede debilitar.
Ese
es, a mi juicio, el punto decisivo. Una sociedad puede aumentar su rendimiento
visible mientras empobrece el proceso invisible que forma criterio, pericia y
autonomía profesional. La pregunta verdaderamente incómoda ya no es si la IA
“ayuda”, porque ayuda; la pregunta es qué tipo de profesional produce esa
ayuda. La evidencia de 2026 sobre desarrollo cognitivo sugiere que la IA puede
fortalecer la competencia profesional cuando actúa como una herramienta de
contraste, reflexión y reorganización mental. En un experimento con 371
profesionales, Min Jae Park mostró que los mejores resultados aparecen cuando
los usuarios adoptan estrategias de “acomodación”, es decir, cuando no usan la
IA solo para confirmar hábitos previos, sino para reestructurar sus modelos de
trabajo. Algo parecido encontró Gang Zhou en un estudio longitudinal con 558
docentes universitarios: la adopción de IA generativa se asoció positivamente
con la competencia profesional, y ese efecto estuvo mediado por el aprendizaje
autorregulado. Dicho de forma simple: la IA puede desarrollar, pero solo cuando
obliga a seguir pensando.
El
problema comienza cuando las organizaciones confunden apoyo cognitivo con
sustitución cognitiva. Ahí aparece lo que Michael Caosun y Sinan Aral llaman la
“augmentation trap”: la empresa adopta IA porque obtiene ganancias inmediatas
de productividad, pero en el largo plazo erosiona la habilidad que hacía
posible un buen uso de esa misma productividad. El resultado puede ser
paradójico: más eficiencia hoy, menos pericia mañana. No se trata de una
advertencia romántica contra la tecnología, sino de una observación estructural
sobre incentivos. A una firma le conviene capturar el beneficio rápido; al
profesional, en cambio, le puede costar años reconstruir una habilidad que dejó
de ejercitar. La IA, usada como primer cerebro en vez de segundo interlocutor, no
expande la inteligencia profesional: la externaliza.
Por
eso el costo oculto de la IA no debe medirse solo en despidos visibles, sino
también en aprendizajes que ya no ocurren. Leland Crane y Paul Soto (2026)
encontraron evidencia robusta de que el crecimiento del empleo en ocupaciones
intensivas en programación ha sido aproximadamente 3% menor desde la
introducción de ChatGPT, una vez controlados los shocks sectoriales. No es el
apocalipsis laboral, pero tampoco es una anécdota. La señal es clara: una
ocupación puede volverse más productiva sin volverse más absorbente para el
empleo. La economía gana velocidad; la escalera de entrada se estrecha.
Y
esa estrechez golpea primero donde más importa para el futuro: en los
profesionales jóvenes. El working paper sueco Same Storm, Different
Boats mostró que, dentro de los mismos empleadores, el empleo de personas de 22
a 25 años en ocupaciones muy expuestas a IA cayó 5.5% hacia inicios de 2025,
mientras el de trabajadores mayores de 50 años subió 1.3%. En paralelo, otro
preprint de 2026 encontró que el riesgo de desempleo en ocupaciones expuestas a
IA venía aumentando desde inicios de 2022 y que las cohortes graduadas desde
2021 ingresaban con menor frecuencia a empleos intensivos en esas tareas. El
desplazamiento, entonces, no siempre adopta la forma dramática del reemplazo
masivo. A veces llega como algo más silencioso y quizá más grave: menos
espacios para aprender haciendo, menos tareas “menores” que en realidad eran la
cantera del criterio futuro.
Aquí
aparece la gran falacia de nuestra época: creer que toda tarea automatizada es
una tarea sobrante. No lo es. Muchas tareas aparentemente rutinarias eran, en
realidad, etapas formativas. Redactar un primer informe imperfecto, revisar
datos a mano, comparar fuentes, corregir errores, sintetizar sin ayuda: todo
eso no solo producía un resultado; también formaba una mente profesional.
Cuando la IA elimina de golpe esas fricciones, no solo ahorra tiempo: puede
recortar el entrenamiento que transformaba a un principiante en experto. Lo que
se pierde no es únicamente empleo; se pierde trayectoria. Y una economía que
destruye sus trayectorias de aprendizaje puede descubrir demasiado tarde que la
eficiencia inmediata era una forma elegante de descapitalización intelectual.
Esto
no obliga a rechazar la IA, pero sí a discutir con seriedad cómo se integra. La
evidencia reciente sugiere que el impacto laboral depende de si la IA
complementa o sustituye. Johnston y Makridis muestran que la exposición a IA
eleva output y empleo cuando la tecnología requiere colaboración humana; esa
expansión no aparece del mismo modo cuando la IA opera con mayor autonomía.
Incluso el modelo de Wang y Wong, más abstracto, ilustra bien el dilema: bajo
ciertos supuestos, la IA puede triplicar la productividad de los trabajadores
expuestos y aun así asociarse con una pérdida de empleo de 23% en el largo
plazo. No es una profecía cerrada, pero sí una advertencia seria: la
productividad no garantiza inclusión, del mismo modo que la velocidad no
garantiza desarrollo.
La
discusión pública, entonces, necesita madurar. El verdadero riesgo no es que la
IA nos quite de inmediato todo el trabajo, sino que nos acostumbre a una
cultura profesional donde producir más importe más que comprender mejor. Y
cuando eso ocurre, el deterioro del empleo y el deterioro de la cognición dejan
de ser problemas separados: se vuelven dos caras del mismo proceso. Se contrata
menos para aprender porque se supone que la máquina ya sabe; y se piensa menos
para decidir porque se supone que la máquina ya respondió. El resultado es una
profesionalidad cada vez más rápida, pero también más dependiente.
Si
de verdad queremos una integración inteligente de la IA, hay que defender algo
que hoy parece casi subversivo: el derecho a la fricción cognitiva. Hacen falta
espacios de trabajo donde el profesional formule primero, contraste después y
use la IA al final como interlocutora crítica, no como sustituta del juicio.
Hacen falta también instituciones que protejan roles junior, porque sin
ellos no hay relevo de expertise, solo consumo acelerado de conocimiento
heredado. Una sociedad puede celebrar máquinas que escriben, programan,
diagnostican y resumen en segundos. Pero, si en ese entusiasmo renuncia a
formar personas capaces de entender, corregir y disputar lo que esas máquinas
producen, habrá ganado eficiencia al precio más alto: perder la inteligencia
profesional que pretendía potenciar.
Referencias
Caosun,
M., & Aral, S. (2026). The augmentation trap: AI productivity and the cost of
cognitive offloading [Preprint]. arXiv. doi:10.48550/arXiv.2604.03501
Crane, L. D.,
& Soto, P. E. (2026, March 20). AI and coder employment: Compiling the
evidence [Working paper]. Board of Governors of the Federal Reserve System.
Cui, K. Z.,
Demirer, M., Jaffe, S., Musolff, L., Peng, S., & Salz, T. (2026). The
effects of generative AI on high-skilled work: Evidence from three field
experiments with software developers. Management Science. Advance online
publication. doi:10.1287/mnsc.2025.00535
Frank, M. R.,
Javadian Sabet, A., Simon, L., Bana, S. H., & Yu, R. (2026). AI-exposed
jobs deteriorated before ChatGPT [Preprint]. arXiv.
doi:10.48550/arXiv.2601.02554
Johnston, A.,
& Makridis, C. A. (2026). AI, output, and employment (CESifo Working Paper
No. 12579). CESifo.
Lodefalk, M.,
Löthman, L., Koch, M., & Engberg, E. (2026). Same storm, different boats:
Generative AI and the age gradient in hiring (Ratio Working Paper No. 388).
Ratio Working Paper Series.
Park, M. J.
(2026). AI as a cognitive collaborator: Assimilation and accommodation in
human–machine teaming for innovation. Journal of Innovation & Knowledge,
12, 100892. doi:10.1016/j.jik.2025.100892
Wang, P., &
Wong, T.-N. (2026). Artificial intelligence and technological unemployment. Journal of Monetary Economics, 158,
103905. doi:10.1016/j.jmoneco.2026.103905
Zhou, G., Yang,
Q., & Chen, X. (2026). Longitudinal associations between generative
artificial intelligence adoption and university PE teachers’ professional
competence. Frontiers in
Psychology, 17, 1775028. doi:10.3389/fpsyg.2026.1775028

No hay comentarios.:
Publicar un comentario