window.advanced_ads_ready=function(e,a){a=a||"complete";var d=function(e){return"interactive"===a?"loading"!==e:"complete"===e};d(document.readyState)?e():document.addEventListener("readystatechange",(function(a){d(a.target.readyState)&&e()}),{once:"interactive"===a})},window.advanced_ads_ready_queue=window.advanced_ads_ready_queue||[]; var advadsCfpQueue = []; var advadsCfpAd = function( adID ){ if ( 'undefined' == typeof advadsProCfp ) { advadsCfpQueue.push( adID ) } else { advadsProCfp.addElement( adID ) } };
lamarea.com
  • La Marea
  • Kiosco
  • Climática
DONA SUSCRÍBETE
SUSCRÍBETE
Iniciar sesión
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
ANTERIOR

Un registro de algoritmos, el primer paso para una IA transparente en España

SIGUIENTE
SUSCRÍBETE DESDE 17€. Además, si verificas que eres humano con el código HUMANA, te llevas un 10% de descuento en tu suscripción a la revista

Sociedad

Un registro de algoritmos, el primer paso para una IA transparente en España

¿Puede un país garantizar los derechos de su ciudadanía si no sabe qué decisiones toman sus algoritmos? Frente a los límites del Reglamento europeo, la coalición IA Ciudadana propone crear un registro nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos.

Foto: CIVIO
CIVIO
19 marzo 2025 Una lectura de 7 minutos
Telegram Linkedin Url

Esta información fue publicada originalmente en Civio.

Imagina que pides una ayuda y te la deniegan sin saber por qué. O que te asignan menos recursos en un hospital sin que nadie pueda explicarte el criterio. O que te someten a más controles en la frontera sin una razón aparente. Ahora imagina que esas decisiones no las ha tomado una persona, sino un algoritmo. Un sistema que procesa datos, aplica reglas y determina tu a derechos y servicios sin que puedas entenderlo ni cuestionarlo. Eso ya no es ciencia ficción.

En toda Europa, istraciones públicas y empresas están poniendo en marcha sistemas que pueden mejorar la eficiencia, pero también discriminar, tomar decisiones injustas y violar derechos fundamentales. Y, sin embargo, en la mayoría de los casos, estos sistemas operan sin control externo. Y, en algunos casos, tampoco interno. Pueden atestiguarlo 26.000 familias a las que un algoritmo de servicios sociales en Róterdam etiquetó erróneamente como “riesgo de fraude” por vivir en barrios pobres: cortes de ayudas, desahucios y una pregunta escencial: ¿cómo exigimos responsabilidades a sistemas cuyos mecanismos y alcance desconocemos?

La idea de crear registros de algoritmos nació para ser un punto de partida contra esta falta de transparencia. Pero hay una diferencia entre transparencia real y lo que ya se denomina transparency washing, un gesto simbólico que no cambia nada. Un registro mal planteado es poco más que un escaparate: voluntario, incompleto y sin información suficiente para que la ciudadanía, la prensa o incluso los propios gobiernos puedan controlarlo.

El registro de algoritmos de la UE: punto de partida insuficiente

El Reglamento de IA de la Unión Europea, que entró en vigor en agosto de 2024, obliga a crear una base de datos pública donde se registren los sistemas de IA de alto riesgo. En teoría, esto debería mejorar la transparencia sobre los algoritmos que afectan a ámbitos críticos como la sanidad, la educación o la justicia. Pero, en la práctica, tiene tres vulnerabilidades críticas.

Para empezar, no incluirá todos los algoritmos relevantes. Solo se registrarán los considerados “de alto riesgo” -y con obligaciones mínimas-, dejando fuera muchos otros que también afectan derechos fundamentales. ¿Un chatbot de atención al ciudadano que decide si te atienden o no? Fuera. ¿Una fórmula de clasificación de estudiantes? Fuera. ¿Un sistema basado en reglas simples como BOSCO, usado para determinar qué hogares españoles son vulnerables y que excluía a personas con derecho al bono social de la luz? Fuera también.

También excluirá sectores clave. Algunos de los algoritmos con más impacto —como los usados por la policía, en el control de fronteras o en decisiones de inmigración— se registrarán en un área privada de la base de datos, inaccesible para la ciudadanía. Es decir, justo los sistemas que más control deberían tener, serán los más opacos. Y, por si fuera poco, no se aplicará a los algoritmos que se usan actualmente, solo a los nuevos a partir de la puesta en marcha del registro, en 2026.

Además, la información que se deberá publicar es insuficiente. Se obligará a incluir detalles técnicos básicos, pero no datos esenciales como el código fuente o los modelos de entrenamiento. Y, en muchos casos, los proveedores de tecnología, los “fabricantes” de estos sistemas, podrán autoexcluirse del registro si consideran que su producto no es de “alto riesgo”, sin apenas control externo posterior.

¿Entonces? Pues este marco europeo es un paso adelante, pero es muy insuficiente. Y los Estados que se limiten a cumplir únicamente los mínimos del registro europeo seguirán siendo poco transparentes y frágiles, a la espera de que se produzca el siguiente escándalo algorítmico.

Registros nacionales en la encrucijada

El panorama estatal también presenta claroscuros. En Europa ya hay 34 registros activos y al menos 5 en desarrollo. Solo cuatro países cuentan ya con regitros nacionales integrales -Países Bajos, Reino Unido, Noruega y Francia-, y solo dos son de la UE. Además, la disparidad técnica entre ellos es abismal: mientras el registro holandés, con más de 600 algoritmos registrados, incluye APIs en tiempo real para seguimiento de actualizaciones en sistemas automatizados, otros se limitan a PDF estáticos sin mecanismos de búsqueda. Y dos tendencias emergen como señales de alarma: un voluntarismo ineficaz -sin carácter obligatorio, dependen de la buena voluntad institucional; y son los registros voluntarios los que menos algoritmos reportan- y una estandarización inexistente -es casi imposible realizar análisis comparativos transfronterizos-.

Aquí radica el primer desafío: transformar los registros de inventarios pasivos en herramientas dinámicas de control democrático.

¿Y en España? Nada. No se sabe cuántos algoritmos están en uso, en qué ámbitos operan y qué impacto tienen. La Estrategia Nacional de IA, de 2024, propone una IA “transparente y humanista”, pero sin acciones concretas, y la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), el organismo competente, aún no opera plenamente.

No todo es un erial. En la Comunidad Valenciana, su Ley de Transparencia regional obliga a publicar sistemas automatizados, con un registro en desarrollo junto con universidades. En el País Vasco se están dando los primeros pasos. Y en Cataluña ya se han publicado fichas técnicas detalladas de varios algoritmos, incluyendo cómo se ha entrenado el sistema, riesgos en términos de privacidad o discriminación, evaluaciones de sesgos y protocolos de revisión humana.

Pero la falta de un marco estatal claro hace que estos esfuerzos sean aislados y descoordinados. Mientras tanto, quienes desean poder conocer cómo funcionan las tripas del sistema que determina qué familias pueden acceder al bono social eléctrico tienen que llevar el caso ante el Tribunal Supremo. O no existen planes para actualizar algoritmos obsoletos y sesgados que influyen en decisiones judiciales.

Hacia una infraestructura democrática de los algoritmos

¿Qué debería hacer España con sus algoritmos? Registrarlos de forma obligatoria siguiendo estos principios:

  1. Incluir todos los algoritmos que toman decisiones con impacto público. El Reglamento de IA de la UE solo cubre los sistemas de “alto riesgo”, pero la realidad es que muchos algoritmos que no entran en esa categoría afectan a derechos y servicios esenciales. Un registro español debe incluir todos los algoritmos que toman decisiones en la istración pública y en sectores estratégicos como sanidad, educación o bienestar social. Y todos los algoritmos en uso, no solo los nuevos.
  2. No ocultar los algoritmos utilizados en seguridad y fronteras. Si algo demuestra la experiencia internacional es que los algoritmos usados en vigilancia, migración y control de fronteras son especialmente problemáticos, y ya conocemos escenarios de discriminación racial masiva. Sin transparencia, no hay control.
  3. Publicar información comprensible y accesible. No basta con colgar documentos técnicos incomprensibles en una web perdida. Un registro de algoritmos debe ofrecer información clara y estructurada, permitiendo que cualquier persona pueda entender qué sistemas se están utilizando y con qué propósito.
  4. Documentar y archivar los sistemas retirados. Un error común en los registros existentes es que solo documentan algoritmos en funcionamiento. Pero conocer qué sistemas han sido descartados (y por qué) es clave para evitar que los mismos errores se repitan.
  5. Fomentar el control externo y la participación pública. Para que la transparencia sea efectiva, hay que ir más allá de la simple publicación de datos. El registro debe permitir el escrutinio de la ciudadanía, los periodistas y las organizaciones de la sociedad civil, creando canales claros para denunciar problemas y exigir explicaciones.

O hay un registro nacional de algoritmos bien hecho, obligatorio y con información útil, o seguiremos en un sistema donde los algoritmos toman decisiones importantes sin que nadie pueda vigilarlos. No podemos conformarnos con gestos simbólicos. No podemos permitir que la tecnología avance más rápido que la supervisión democrática, los derechos y la transparencia.

Si el objetivo es garantizar una istración más justa y responsable, la transparencia no es opcional. El reto no es solo tecnológico, también político. Y si España quiere liderar en gobernanza algorítmica, el momento de actuar es ahora.

Más información

  • Descarga el informe completo sobre registros de algoritmos de IA Ciudadana.
  • Más sobre IA Ciudadana.
  • Más sobre transparencia algorítmica.
Telegram Linkedin Url

Si te gusta este artículo, apóyanos con una donación.

€
  • #algoritmos
  • #Civio
  • #IA
  • #inteligencia artificial

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Suscríbete dona
Artículos relacionados

Las prisiones españolas usan un algoritmo sin actualizar desde 1993 para decidir sobre permisos de salida

CIVIO
26 febrero 2025

Melanie Mitchell, experta en inteligencia artificial: “Es posible que nos volvamos más tolerantes con la mediocridad”

Azahara Palomeque
10 mayo 2024
Comentarios
  1. Mace Windu dice:
    22/03/2025 a las 12:08

    En mi opinión en el desarrollo de IA la situación desde Nov. 2022, aparición de GPT y salida de Hinton (nobel física) de Google, ha creado un nuevo y desconocido escenario de riesgo del cual no somos conscientes.

    Sin existir posible solución en el horizonte. Tanto por falta de voluntad en USA y China, como de consciencia en la UE, que esta absolutamente fuera de los nuevos espacios de datos.

    Terence Tao (nobel de matemáticas) tiene una visión optimista, si, la oportunidad a la vez es única para la sociedad, industria y economía.

    Un modelo que se puede replicar, por ej., si hay voluntad, es de la aviación civil: auditorías, coordinación y control exhaustivo de todo avión y de todo vuelo, ni un avión despega sin una auditoría previa, se ensambla sin, vuela sin …

    ¿Ningún algoritmo IA debería arrancar sin una auditoría y test previo, que la comunidad científica debe crear. y el legislador imponer?

    La oportunidad es única, cada paso será clave. Seamos optimistas, alguna señal existe, y eduquemos, eduquemos y eduquemos.

    https://www.alia.gob.es/

    Responder

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Lo más leído

  • Pedro Sánchez pide perdón a la ciudadanía y descarta elecciones: "Hasta esta misma mañana yo estaba convencido de la integridad de Santos Cerdán"
  • Jeff Sharlet: "Hace muchos años que en Estados Unidos la izquierda secular ocupa el margen"
  • Sergio Toribio, activista en la Flotilla de la Libertad, es deportado a España
  • Lo de Santos Cerdán (parece que) no es lo de Begoña Gómez
  • Más de un millar de resoluciones del Consejo de Transparencia han sido ignoradas desde 2016

Actualidad

  • Internacional
  • Cultura
  • Política
  • Clima
  • Sociedad

Conócenos

  • La Marea
  • Cooperativistas
  • Transparencia
  • Política de cookies
  • Política de privacidad

Kiosco

  • Suscripciones
  • Revistas
  • Libros
  • Cursos
  • Descuentos
  • o

Síguenos

Apúntate a nuestra newsletter

Apúntate
La Marea

La Marea es un medio editado por la cooperativa Más Público. Sin accionistas detrás. Sin publirreportajes. Colabora con una suscripción o una donación

MásPúblico sociedad cooperativa. Licencia CC BY-SA 3.0.

Compartir a través de

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los s sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos. Leer más

AceptarResumen de privacidad
Política de Cookies

Resumen de privacidad

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los s sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos.
Funcionales
Siempre habilitado

Las cookies funcionales son esenciales para garantizar el correcto funcionamiento de nuestro sitio web, ya que proporcionan funcionalidades necesarias. Desactivarlas podría afectar negativamente a la experiencia de navegación y a la operatividad del sitio.

Guardar y aceptar