Por Antonio Tejeda Encinas, Presidente Comité Euro Americano de Derecho Digital – CEA Digital Law
El artículo anterior, «Inteligencia Artificial y la Crisis Sistémica de la Administración Pública Española«, expuse una realidad preocupante: la coexistencia de una legislación ambiciosa en inteligencia artificial con una administración pública española que aún enfrenta desafíos significativos en su digitalización. Problemas de obsolescencia tecnológica, falta de interoperabilidad, formación digital insuficiente en los funcionarios y descoordinación competencial plantean serias dudas sobre la capacidad del sector público español para implementar y gestionar sistemas de IA de manera efectiva y ética. En este contexto, la reciente propuesta de excluir a las Administraciones Públicas (AAPP) del régimen sancionador en el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA añade una nueva capa de complejidad y potencial riesgo.
Dicho anteproyecto, aprobado en Consejo de Ministros el 11 de marzo de 2025, busca establecer un marco normativo para el desarrollo y uso de la inteligencia artificial en España, adaptando la legislación nacional al Reglamento (UE) 2024/1689 (Reglamento de IA o AI Act).
Articulación con el AI Act Europeo
El Reglamento (UE) 2024/1689 establece un marco jurídico común para la inteligencia artificial en la Unión Europea, aplicable tanto al sector privado como al público. La exclusión de las AAPP del régimen sancionador en el anteproyecto español podría generar discrepancias con el marco comunitario, ya que el reglamento europeo no contempla tales exenciones para las administraciones públicas. Esta divergencia podría dar lugar a conflictos en la aplicación de las normativas y cuestionamientos sobre el cumplimiento de las obligaciones europeas por parte de España.
En concreto:
Impacto en la armonización normativa dentro de la UE:
El Reglamento establece estándares uniformes para garantizar que todos los actores, públicos y privados, sean responsables del uso de IA. La exención española podría ser interpretada como una violación del principio de igualdad ante la ley, debilitando los esfuerzos europeos por establecer un mercado único digital coherente. Esto podría provocar procedimientos de infracción contra España, liderados por la Comisión Europea, por incumplir los requisitos de armonización establecidos en el marco comunitario.
Sanciones por incumplimiento:
En casos similares, la Comisión Europea ha sancionado a países miembros por no adaptar su legislación nacional a las directivas europeas. España podría enfrentarse a multas económicas o restricciones presupuestarias en fondos destinados a innovación tecnológica si persiste esta exclusión normativa.
Consolidación de argumentos repetitivos
La falta de un régimen sancionador efectivo para las AAPP actúa como una «carta blanca» para actuar sin la debida diligencia en el ámbito de la IA, lo que genera dos consecuencias principales:
Erosión de la confianza ciudadana: La percepción de que las administraciones públicas están exentas de sanciones alimenta la desconfianza en instituciones gubernamentales y fomenta un sentimiento de desigualdad frente al sector privado, sujeto a estrictas multas económicas.
Riesgos operativos:
Funcionarios públicos podrían priorizar rapidez sobre ética en implementaciones tecnológicas, exacerbando problemas como sesgos discriminatorios o decisiones automatizadas erróneas que afectan derechos fundamentales.
Si, como se argumentó previamente, en el artículo anterior, los algoritmos gubernamentales ya pueden presentar sesgos discriminatorios y la administración adolece de una «crisis sistémica» en su infraestructura digital, la ausencia de sanciones económicas ante un uso indebido de la IA podría tener consecuencias aún más graves. La posibilidad de que un Ministerio o un Ayuntamiento despliegue un sistema de IA de «alto riesgo» sin las salvaguardias exigidas o incluso una IA prohibida con la única consecuencia de un apercibimiento no solo representa un agravio comparativo para el sector privado, sino que también mina la confianza ciudadana en la equidad y responsabilidad del Estado.
La falta de un régimen sancionador efectivo para las AAPP podría interpretarse como una «cheque en blanco» para actuar sin la debida diligencia en el ámbito de la IA. Si los funcionarios públicos perciben que los errores o las malas prácticas en el uso de la inteligencia artificial no conllevan consecuencias económicas, el incentivo para priorizar la ética, la transparencia y la rendición de cuentas podría verse significativamente reducido. Esta situación es especialmente preocupante considerando la ya existente resistencia al cambio y la desconfianza hacia los sistemas automatizados manifestada por algunos funcionarios.
Como se analizó en la primera parte, las justificaciones para esta exclusión, basadas en la «unidad de caja» o la naturaleza del «interés general», resultan débiles frente a los principios de igualdad y responsabilidad. Permitir que el Estado se autoexima de las sanciones que sí se imponen a los ciudadanos y a las empresas rompe con el principio básico de que la ley debe regir igual para todos. Más aún, en un ámbito tan sensible como la IA, donde los errores pueden afectar Derechos Fundamentales, esta asimetría normativa podría tener un impacto directo y perjudicial en la vida de las personas, exacerbando las consecuencias sociales de la «exclusión algorítmica» ya observada.
La experiencia con la exclusión de multas a las administraciones públicas en la Ley Orgánica de Protección de Datos (LOPD) y posteriormente en el RGPD ofrece lecciones relevantes. Como se señaló anteriormente, esta práctica ha sido criticada por crear «islas de impunidad» y ha generado una percepción de doble vara de medir. La ausencia de sanciones económicas ha podido restar fuerza disuasoria a las acciones de la Agencia Española de Protección de Datos (AEPD). Es previsible que la Agencia Española de Supervisión de la IA (AESIA) se enfrente a una situación similar si se mantiene la exclusión de sanciones, limitando su capacidad para «fiscalizar efectivamente» a las Administraciones.
Ante este panorama, resulta crucial reconsiderar la exclusión de las AAPP del régimen sancionador en la Ley de IA. Tal como sugieren diversas asociaciones y expertos, es fundamental eliminar o al menos acotar significativamente esta exención. Establecer mecanismos de rendición de cuentas equitativos es esencial para garantizar un uso responsable y ético de la inteligencia artificial en el sector público. Esto podría incluir:
* Permitir sanciones económicas para las AAPP, quizás con topes reducidos y destinando los fondos a proyectos de IA ética o fines sociales.
* Implementar sanciones no pecuniarias efectivas, como la suspensión temporal de sistemas de IA, la publicación de informes de infracción o la retención de fondos.
* Fortalecer la supervisión independiente de la IA pública por parte de la AESIA, otorgándole plenas facultades de control y auditoría.
* Promover la transparencia y la participación ciudadana en el desarrollo y uso de la IA por las AAPP.
En definitiva, la implementación exitosa y ética de la inteligencia artificial en la administración pública española requiere un marco normativo coherente y robusto que obligue a todos los actores, tanto públicos como privados, a rendir cuentas por sus acciones. Mantener una exención de sanciones para las Administraciones Públicas, en el contexto de las ya existentes debilidades sistémicas, podría perpetuar la desconfianza ciudadana y socavar la legitimidad de la propia ley y del Estado de derecho. Es esencial que se establezcan mecanismos de responsabilidad equitativos para garantizar que la adopción de la inteligencia artificial en el sector público se realice de manera transparente, ética y conforme a los principios de igualdad ante la ley.