jueves, 26 de febrero de 2026

La Cumbre de Impacto de la IA en India 2026

Por Wens Silvestre

La Cumbre de Impacto de la IA en India 2026 cerró su semana ampliada el 21 de febrero con un logro diplomático que, en el tablero internacional, no es menor: una Declaración de Nueva Delhi sobre Impacto de la IA respaldada por 91 países y organizaciones. Sin embargo, el mismo cierre que celebra cooperación y bienestar deja al descubierto el límite central del encuentro: la arquitectura del impacto se diseñó como cooperación voluntaria, no como obligación pública.

La paradoja es nítida. India reunió a líderes políticos y a quienes hoy dirigen el desarrollo de la IA —Altman, Hassabis, Pichai, entre otros— y logró ordenar el debate en “chakras” comprensibles: recursos, confianza, ciencia, capital humano, eficiencia, inclusión y bien social. Pero la cumbre evitó un chakra decisivo para cualquier democracia que se tome en serio el progreso: IA para decisiones públicas trazables y para la lucha anticorrupción, es decir, IA para integridad del Estado.

Lo más valioso del cierre no fue la retórica, sino el paquete de instrumentos que la Declaración enumera: una carta para ampliar acceso a recursos básicos de IA, una plataforma para replicar casos de uso, un repositorio técnico de confianza, una red para ciencia, una plataforma de empoderamiento social, una guía para capacidades laborales y principios de eficiencia y resiliencia.

Eso suena técnico, pero es política pura: la cumbre apostó por una gobernanza “por infraestructuras compartidas” (repositorios, guías y plataformas) más que por tratados. Y ahí aparece el talón de Aquiles: el propio documento repite que varios de esos marcos son “voluntarios y no vinculantes”. En otras palabras: se construyó un andamiaje para cooperar… sin herramientas para exigir.

La cumbre también fue una fotografía del nuevo consenso industrial: democratizar el acceso, acelerar la adopción y, al mismo tiempo, prometer seguridad. Nadie quiere quedar como el freno; nadie quiere cargar con el próximo accidente.

Pichai: infraestructura y brecha como amenaza política

Sundar Pichai puso la tesis más ambiciosa —y más conveniente para un gigante de infraestructura digital— cuando afirmó: “Es el mayor cambio de plataforma de nuestras vidas” (traducción del original en inglés). Pero su frase más política fue otra: “No podemos permitir que la brecha digital se convierta en una brecha de IA” (traducción del original en inglés).

Ahí está el corazón “gente–planeta–progreso” en clave de poder: si la IA es el nuevo sistema operativo del mundo, el riesgo mayor no es solo técnico; es geográfico y social. El mensaje de Pichai fue claro: sin cómputo, conectividad y confianza, el Sur global no “adopta” la IA; la padece.

Altman: democratizar… pero con regulación urgente

Sam Altman defendió el mismo horizonte de acceso, pero con una advertencia doble. Dijo: “La democratización de la IA es la mejor manera de asegurar que la humanidad florezca” y, a la vez: “Necesitamos regulación, con urgencia, como con otras tecnologías poderosas” (traducciones del original en inglés).

Este doble movimiento —abrir y regular— es coherente si se lo lee como geopolítica: abrir para que el poder no se concentre en pocos, y regular para que nadie pague el costo social de una catástrofe prevenible. Pero también es una confesión: la industria sabe que sin Estado (o sin coordinación internacional efectiva) el “impacto” puede convertirse en “daño”.

Hassabis: el riesgo no es abstracto, es uso indebido y autonomía

Demis Hassabis, más que vender un destino, describió una frontera: la del uso indebido y la autonomía creciente. En un tramo muy citado, advirtió: “A medida que los sistemas se vuelven más autónomos y más independientes, serán más útiles… pero también tendrán más potencial de riesgo y de hacer cosas que quizá no pretendíamos cuando los diseñamos” (traducción del original en inglés).

Y cuando el foco fue la seguridad, puso nombre a los peligros concretos: “Tenemos que preocuparnos por riesgos biológicos y cibernéticos en IA muy pronto… y asegurarnos de que las defensas sean más fuertes que los ataques” (traducción del original en inglés). El punto es decisivo para la agenda pública: el riesgo no llega solo por “modelos malvados”, sino por sistemas útiles que, por diseño, actúan con más independencia. En el mundo real, esa independencia choca con normas, incentivos… y corrupción.

Amodei: el examen real es la difusión… y un Estado capaz

Dario Amodei bajó el debate al terreno donde la tecnología suele fracasar: implementación y distribución de beneficios. En una frase que sintetiza la apuesta por el Sur global, afirmó: “La IA tiene grandes riesgos y grandes beneficios, pero aquí la ganancia puede ser incluso mayor que en otros lugares” (traducción del original en inglés).

La trampa está en la condición: difusión institucional, no solo demostraciones. Incluso si la capacidad técnica crece, si la adopción pública ocurre con reglas débiles, la IA puede convertirse en multiplicador de arbitrariedad.

Lo que faltó: cuando “gobernar” no significa integridad

La Declaración enumera siete chakras y llama a cooperación entre múltiples actores. También incluye, de forma explícita, la idea de formar capacidades en el sector público, mencionando el entrenamiento de funcionarios como parte del desarrollo de capital humano. Pero esto es todavía gobierno como aspiración de eficiencia, no como control del poder.

Lo más revelador es lo que no está: al revisar el texto, no aparece referencia a “corrupción”, ni a “contratación pública” (licitaciones), ni a “transparencia” como eje de acción. Y ese silencio no es un detalle: es la ausencia de un chakra que, en muchas democracias, decide si la IA mejora la vida o moderniza redes clientelares.

Porque el Estado no solo “entrega servicios”: compra, licita, prioriza, audita, sanciona, recauda, subsidia, asigna obras. Si la IA entra ahí sin diseño institucional, puede:

·         automatizar sesgos (la corrupción también deja huellas en los datos),

·         legitimar decisiones opacas (“lo dijo el algoritmo”),

·         crear un nuevo mercado de captura: vender “soluciones” como antes se vendían consultorías.

El chakra ausente que debió estar: integridad pública y anticorrupción

Un “octavo chakra” debió llamarse, sin rodeos: integridad pública, transparencia y anticorrupción. Su agenda mínima habría incluido:

·         IA para detectar colusión en compras públicas (patrones de precios, rotación de ganadores, vínculos societarios),

·         IA para trazabilidad de decisiones (por qué se prioriza un distrito, un hospital, una obra),

·         IA para auditoría continua de subsidios y transferencias,

·         y, fundamentalmente, derecho ciudadano de explicación y apelación en decisiones automatizadas.

Sin ese chakra, la cumbre habló mucho de empoderamiento social y poco de empoderamiento cívico: el derecho a mirar dentro del Estado.

De lo voluntario a lo exigible: cómo convertir el “impacto” en deber público

La Declaración repite el carácter voluntario y no vinculante de varias iniciativas. Si India —y los firmantes— quieren que “impacto” no sea solo una consigna, la hoja de ruta debería traducirse en cuatro palancas de política pública:

1.    Ley para sistemas de alto impacto. Obligatoria, con definiciones claras: evaluación previa de impacto, monitoreo, reporte de incidentes, sanciones y prohibiciones específicas.

2.    Contratación pública como mecanismo de cumplimiento. Si el Estado compra IA, debe exigir por contrato: auditorías externas, acceso a registros, pruebas de sesgo y robustez, trazabilidad de datos, cláusulas de apagado y responsabilidad del proveedor.

3.    Registro público y auditoría democrática. Todo sistema usado para asignar recursos, vigilar, puntuar o priorizar personas debe estar registrado, con documentación pública proporcional al riesgo.

4.    Unidad anticorrupción preparada para la era de la IA. No como laboratorio, sino como institución: análisis de redes de contratistas, detección de anomalías, verificación cruzada, cooperación interagencial, y salvaguardas de privacidad y debido proceso.

La cumbre ya tiene plataformas y guías; lo que falta es deber jurídico y control ciudadano. Porque el futuro sostenible de la IA no depende solo de cómputo y talento: depende de si la IA entra al Estado para servir al público… o para modernizar la impunidad.

La Declaración de Nueva Delhi fue un buen inicio. Pero una cumbre de “impacto” será juzgada por su capacidad de nombrar el poder y ponerle límites. Y en 2026, el poder que más urge auditar no es el de la IA: es el de quien la usa para decidir por todos.

No hay comentarios.: