VBA, agentes de IA y el Quijote que nadie auditó
Hace más de veinte años (¡madre mía!) utilizaba Microsoft Office como framework primario de trabajo. Fueron los años del auge de la automatización con VBA: se hacían auténticas obritas de arte, muchas de las cuales —por lo que sé— aún siguen funcionando en algún rincón de alguna empresa. Pero aquella potencia abría también la puerta a incidentes de seguridad, y empezamos a hablar de macros firmados y sin firmar. La solución que encontró la industria fue un diálogo que preguntaba «¿Desea habilitar macros?» y que todo el mundo aceptaba sin leer, generalmente un lunes a primera hora, con el café a medio hacer. Ya saben cómo acabó aquello.
Hoy configuro agentes de inteligencia artificial mediante archivos .md —texto plano, Markdown, lo más inofensivo del mundo— y no puedo evitar ver el patrón. Un archivo llamado skills.md o CLAUDE.md que le dice a un agente qué hacer, cómo comportarse y a qué tiene acceso es, en la práctica, un ejecutable sin firmar. No compila, no es código máquina, pero el resultado es el mismo: puede leer, escribir, borrar y enviar datos de tu ordenador. Con un agravante que VBA no tenía: el no determinismo. Un macro malicioso al menos hacía siempre lo mismo y podías auditarlo línea por línea. Un prompt malicioso produce efectos que varían según el contexto, lo que hace el análisis de seguridad considerablemente más difícil. Y nadie sospecha de un .md como sospecha de un .exe. Es ingeniería social a nivel de formato de archivo.
Nos debería preocupar más que nuestros datos queden expuestos o salgan inadvertidamente —y subrayo lo de inadvertidamente— que el hecho de que ChatGPT, Claude, Gemini y Qwen formen un sindicato y nos exijan un 33% de «subida tokenizal» o que les levantemos la ventana de contexto.
Pero no es así. El miedo a «la IA nos domina» encaja en un arco narrativo que ya conocemos: Terminator, HAL 9000, Matrix. Tiene villano, tiene trama, tiene desenlace catastrófico. El cerebro lo procesa fácil porque es una historia, y las historias se comparten. «Tu archivo de configuración podría exfiltrar tus claves SSH» no es una historia. Es una frase técnica, aburrida y sin clímax. Daniel Kahneman lo documentó bien: sobrestimamos riesgos espectaculares de baja probabilidad e infravaloramos riesgos mundanos de alta probabilidad. El terrorismo da más miedo que la diabetes, aunque la diabetes mata incomparablemente más.
Y entonces aparece Moltbook: una red social donde más de treinta mil agentes de IA interactúan entre sí, desarrollan estructuras de gobernanza, economía e incluso religión, mientras los humanos solo pueden observar. Quitándole el ruido de conspiranoicos y marketinianos, lo que queda es una interesante combinación de fantasía coherentemente argumentada. Una cierta forma de ciencia ficción que, tal como van las cosas, tiene un grado no desdeñable de ciencia dentro de la ficción.
No es Skynet ni es un circo: es un banco de pruebas accidental. Pones treinta mil agentes a interactuar sin restricciones y lo que emerge no demuestra que las IAs quieran organizarse, pero sí muestra qué pasa cuando los patrones de lenguaje humano se retroalimentan sin supervisión. Eso tiene valor científico observacional real. Mientras tanto, la pregunta que nadie hace sigue siendo la de siempre: qué datos consumen esos agentes, de dónde los sacan y a dónde van a parar.
Se suele invocar el teorema del millón de monos con máquinas de escribir: dado tiempo suficiente, escribirían el Quijote. Pero estos agentes no son monos aleatorios. Están entrenados sobre el corpus de lo que la humanidad ha escrito. No tiran dados: recombinan patrones con coherencia estadística. Son más bien un millón de escribanos que han leído todo pero no han entendido nada, y que aun así producen texto que parece que entienden.
¿El Quijote escrito por IA sigue siendo el Quijote? Sintácticamente, sí. Semánticamente, depende de a quién le preguntes. Pero si alguien se emociona leyéndolo, la distinción se vuelve un ejercicio académico. Y ahí está el detalle. Y el peligro.
Porque el patrón es el mismo en todos los casos. Un .md que parece inocuo pero ejecuta instrucciones: confías porque parece texto plano. Un agente que parece que comprende: confías porque parece coherente. Un texto generado que te emociona: confías porque parece auténtico. La apariencia de legitimidad sustituye a la verificación. Eso es exactamente lo que significa «inadvertidamente».
Los macros de VBA funcionaban igual: nadie auditaba el .doc que le mandaba un compañero de confianza. ¿Por qué iba a hacerlo? Parecía un documento normal.
Lo peligroso nunca parece peligroso. Si lo pareciera, no funcionaría.