Opinión

Opinión

TRIBUNA LIBRE

Hacienda y el algoritmo: cuando el fisco decide sin explicar

Publicado: 26/03/2026 ·06:00
Actualizado: 26/03/2026 · 06:00
Suscríbe al canal de whatsapp

Suscríbete al canal de Whatsapp

Siempre al día de las últimas noticias

Suscríbe nuestro newsletter

Suscríbete nuestro newsletter

Siempre al día de las últimas noticias

Imagina que un día recibes una notificación de la Agencia Tributaria: vas a ser inspeccionado. No hay explicación o, al menos, no hay una explicación que puedas conocer. Hay un funcionario que firma, sí, pero la decisión de que seas tú y no tu vecino, la ha tomado, en buena medida, un algoritmo. Un modelo predictivo alimentado con datos que nadie ha visto, construido con criterios que nadie ha publicado y que no está obligado a justificarse ante ti. Bienvenido al nuevo derecho tributario.

Conviene empezar por algo que a veces se olvida. Una inspección de Hacienda no es una simple incomodidad burocrática. Es una actuación que paraliza empresas, consume recursos durante años, genera costes reputacionales y condiciona decisiones empresariales. No es neutra.

Y, sin embargo, el momento en el que todo empieza, la selección del contribuyente, permanece en una zona de sombra.

Sabemos que la Agencia Tributaria española está entre las administraciones más avanzadas de Europa en el uso de datos. Su Estrategia 2024-2027 incorpora de forma expresa herramientas de análisis masivo e inteligencia artificial para la prevención y lucha contra el fraude. No es nuevo: desde hace años utiliza sistemas como Hermes, Zújar, Teseo, Dédalo o Genio para cruzar información y detectar incoherencias. La diferencia ahora es cualitativa. Ya no se trata solo de ordenar datos, sino de generar predicciones.

Y aquí aparece el problema.

Porque en España existe una habilitación legal amplia para las actuaciones de comprobación e inspección, pero no una regulación específica dirigida al uso de algoritmos en la toma, o pre-toma, de decisiones administrativas. En la práctica, el funcionamiento de estos sistemas descansa en instrucciones internas. Nadie fuera de la Administración conoce qué variables se ponderan, qué patrones se consideran de riesgo o qué sesgos pueden estar incorporándose en el modelo.

La cuestión no es tecnológica. Es constitucional.

El artículo 9.3 de la Constitución prohíbe la arbitrariedad de los poderes públicos. El artículo 103 exige que la Administración actúe con sometimiento pleno a la ley y al Derecho. Y el artículo 24 garantiza el derecho de defensa. Todo ese edificio se construye sobre una idea básica: el poder público debe poder explicar por qué actúa.

Cuando la selección para una inspección se apoya en un sistema opaco, esa exigencia empieza a desmoronarse.

Formalmente, puede sostenerse que no estamos ante un acto administrativo en sentido estricto, sino ante una actuación interna de organización de la Agencia Tributaria. Pero materialmente la realidad es otra, la decisión de a quién se inspecciona produce efectos relevantes, intensos y duraderos sobre el contribuyente. Y eso plantea una pregunta que debe ser respondida: ¿puede un poder público generar consecuencias tan significativas sin estar obligado a explicar los criterios que las desencadenan?

En este punto, la jurisprudencia reciente introduce un elemento de enorme interés. La Sentencia del Tribunal Supremo 1119/2025, en el conocido caso Bosco, reconoce el derecho de acceso al código fuente de un algoritmo utilizado para la concesión del bono social eléctrico. No es un caso tributario, pero sí un caso de decisión automatizada con efectos sobre los ciudadanos.

El matiz es importante. En Bosco, el algoritmo participa directamente en la decisión final. En el ámbito tributario, al menos formalmente, el algoritmo actúa en una fase previa: selecciona, prioriza, orienta. Pero esa diferencia, lejos de cerrar el debate, lo abre. Porque el argumento del Supremo —la necesidad de conocer los elementos técnicos y lógicos que sustentan una decisión pública— es, como mínimo, trasladable.

La pregunta ya está sobre la mesa. Si un ciudadano puede exigir conocer el funcionamiento de un algoritmo que decide sobre una ayuda pública, ¿por qué no podría hacerlo respecto de un sistema que determina su exposición al poder inspector del Estado?

No se trata de impedir el uso de la tecnología. Sería absurdo. La lucha contra el fraude exige herramientas cada vez más sofisticadas, y la Agencia Tributaria ha demostrado históricamente una gran capacidad en este terreno. El problema no es que existan algoritmos. El problema es que operen sin un marco claro de garantías.

Porque los riesgos son evidentes: opacidad, falta de control, posibles sesgos, dificultad para ejercer el derecho de defensa. Y, sobre todo, una inversión silenciosa de la lógica del Estado de Derecho, pasar de un poder que debe justificarse ante el ciudadano a un ciudadano que soporta decisiones cuyo fundamento no puede conocer.

Europa ya ha empezado a abordar este debate en otros ámbitos, y la OCDE lleva años trabajando en principios de gobernanza algorítmica en la Administración. El ámbito tributario no puede quedarse al margen. Necesita una regulación específica que combine eficacia en la lucha contra el fraude con garantías reales para el contribuyente: transparencia suficiente, control jurisdiccional efectivo, trazabilidad de las decisiones y límites claros al uso de modelos automatizados.

Porque, en el fondo, la cuestión es mucho más sencilla de lo que parece.

No se trata de limitar la tecnología. Se trata de recordar que en un Estado de Derecho, el poder, también cuando se ejerce con algoritmos, no puede ser opaco.

Recibe toda la actualidad
Murcia Plaza

Recibe toda la actualidad de Murcia Plaza en tu correo