Mediación 4.0 y el conflicto algorítmico.
Ornela D´Angelo
ARGENTINA-ESPAÑA
Ornela D’Angelo
Abogada (UNLP). Mediadora (España-MINJUS)
Mediación 4.0 y el conflicto algorítmico
Derechos humanos, gestión de conflictos y mediación como infraestructura preventiva frente a la saturación judicial en la era del AI Act
Resumen: Este trabajo sostiene que el crecimiento de las decisiones automatizadas está generando una nueva categoría de controversias —el conflicto algorítmico— cuya gestión requiere el desarrollo de mecanismos específicos de resolución temprana. Frente a un marco institucional fragmentado y el riesgo de saturación judicial, la mediación y el ODR emergen como infraestructura preventiva. Se propone la figura del Delegado de Protección Algorítmica como nueva incumbencia profesional en la intersección entre tecnología, derecho y resolución de disputas.
I. Introducción
Los algoritmos ya no toman decisiones sobre datos: toman decisiones sobre personas. Cuando esas decisiones generan un perjuicio, la persona afectada enfrenta una dificultad estructural: en la mayoría de los casos no sabe que fue un sistema automatizado quien decidió sobre su vida; y si lo sabe, no comprende cómo llegó a ese resultado ni encuentra una vía institucional clara para cuestionarlo.
Estamos ante una nueva forma de conflicto: el conflicto algorítmico. Se trata de controversias que surgen cuando una decisión automatizada afecta derechos o intereses de una persona y esta intenta comprenderla, impugnarla o modificarla. Este fenómeno no es un problema técnico: es un problema de derechos humanos que adopta una forma nueva. Y plantea un desafío urgente para la comunidad de mecanismos adecuados de solución de controversias (MASC) y de Online Dispute Resolution (ODR): desarrollar herramientas capaces de gestionarlo antes de que llegue a los tribunales.
II. El conflicto algorítmico como problema de derechos humanos
Ya en 2021, la Recomendación de la UNESCO sobre Ética de la Inteligencia Artificial advertía —con una precisión que el tiempo no ha hecho más que confirmar— que los sistemas de IA podían provocar discriminación, desigualdad y exclusión, y afectar la dignidad humana y las libertades fundamentales. Lo que entonces era una advertencia prospectiva es hoy una realidad documentada. El consumidor al que un sistema de scoring niega un crédito por su código postal sin revisión humana; el trabajador evaluado por algoritmos que lo catalogan como prescindible; la persona con discapacidad cuyo perfil no encaja en los parámetros del sistema que asigna prestaciones; el adulto mayor que no puede impugnar una resolución automatizada porque la interfaz no fue diseñada para él. El algoritmo no discrimina por malicia: discrimina por diseño, por los sesgos que portan los datos con los que fue entrenado y por la ausencia de mecanismos que contemplen la singularidad de cada persona.
El Reglamento de Inteligencia Artificial de la Unión Europea —AI Act, Reglamento (UE) 2024/1689— aprobado en junio de 2024 y en aplicación progresiva desde febrero de 2025, con plena vigencia de las obligaciones más exigentes para sistemas de alto riesgo a partir de agosto de 2026, constituye el primer marco normativo vinculante a escala supranacional en materia de inteligencia artificial. Clasifica los sistemas según su nivel de riesgo e impone, para aquellos que operan en ámbitos sensibles como el empleo, el crédito, la seguridad social, la educación o los servicios esenciales, obligaciones de transparencia, supervisión humana, gestión de riesgos y documentación técnica. Estos sistemas afectan de manera desproporcionada a quienes el derecho ya identifica como especialmente tutelados. Para las personas afectadas, la primera barrera es el derecho a saber y a entender cómo y por qué un sistema automatizado tomó una decisión sobre su vida (Prodigioso Volcán, 2023). Sin ese conocimiento previo, cuestionar o impugnar la decisión es difícil, un problema ampliamente discutido en la literatura sobre explicabilidad algorítmica (Wachter, Mittelstadt & Floridi, 2017). En términos simples: lo que no se ve no se puede defender.
III. El laberinto institucional y el riesgo de saturación judicial
Una misma vulneración algorítmica puede estar vinculada simultáneamente a distintas ramas del derecho: protección de datos, consumo, no discriminación, regulación de inteligencia artificial. En otros casos, la situación no encaja plenamente en ninguno de esos marcos. Para la persona afectada, esta superposición normativa genera un laberinto institucional: identificar la autoridad competente, comprender qué procedimiento corresponde o incluso determinar si existe una vía específica de reclamo puede resultar inaccesible sin asesoramiento jurídico especializado.
En España, un informe reciente de Political Watch en el marco de la coalición IA Ciudadana (2026) constata que el sistema está más pensado para controlar el mercado que para reparar a quien sufre el daño. Tres autoridades —la Agencia Española de Protección de Datos, la Comisión Nacional de Mercados y la Competencia y la AESIA— pueden recibir una misma reclamación con lógicas y procedimientos diferentes, sin punto de entrada único. Y la persona afectada ni siquiera adquiere automáticamente la condición de parte interesada en el procedimiento. El resultado es previsible: cuando el conflicto no encuentra vía extrajudicial, termina en los tribunales.
Los tribunales, sin embargo, no fueron diseñados para resolver disputas en las que una de las partes es un sistema automatizado cuyo funcionamiento es opaco, cuya cadena de responsabilidad es difusa y cuya lógica técnica resulta difícil de interpretar en términos jurídicos tradicionales, un problema ampliamente señalado en la literatura sobre regulación algorítmica (Yeung, 2018). Si no se construyen mecanismos de gestión del conflicto algorítmico previos a la instancia judicial, el sistema de justicia enfrentará una litigiosidad de nuevo tipo en volúmenes que podrían desbordarlo.
IV. Mediación y ODR como infraestructura preventiva
El AI Act mira los sistemas de IA desde la perspectiva del cumplimiento normativo y la sanción: establece obligaciones, fija responsabilidades y prevé consecuencias para quienes las incumplen. Esa mirada es necesaria, pero insuficiente. Lo que el AI Act no mira —porque no es su función— son las posiciones, los intereses y las necesidades de las personas que interactúan con esos sistemas: el trabajador que no entiende por qué fue evaluado negativamente, el consumidor que necesita una explicación antes que una indemnización, la persona con discapacidad que quiere que su situación sea considerada y no solo registrada. Ahí es exactamente donde la mediación y el ODR tienen algo que el derecho sancionatorio no puede ofrecer: la capacidad de poner a la persona en el centro del conflicto y construir soluciones que respondan a necesidades reales.
Los conflictos algorítmicos son, por definición, conflictos digitales: nacen en entornos digitales y requieren herramientas de resolución que operen en el mismo espacio donde se originan. El ODR no es una alternativa cómoda: es la respuesta estructuralmente más coherente (Katsh & Rabinovich-Einy, 2017). No obstante, para que mediación y ODR resulten efectivos en este ámbito, quienes intervienen en ellos deben comprender el funcionamiento de los sistemas automatizados que originan el conflicto. Eso exige una formación específica que hoy no existe de manera sistemática.
V. El Delegado de Protección Algorítmica
La gestión adecuada del conflicto algorítmico requiere el desarrollo de nuevas competencias profesionales que operen en la intersección entre tecnología, derecho y resolución de disputas. En ese contexto se inscribe la figura del Delegado de Protección Algorítmica (DPA): un perfil especializado en identificar riesgos asociados a sistemas automatizados, facilitar la comprensión de las decisiones algorítmicas para las personas afectadas y contribuir a la gestión temprana de los conflictos que estas generan. Del mismo modo que el RGPD creó la necesidad del Delegado de Protección de Datos (DPO) para garantizar el cumplimiento normativo en materia de privacidad, el AI Act —al imponer obligaciones de supervisión humana, gestión de riesgos y evaluación de conformidad para sistemas de alto riesgo— está gestando implícitamente esta figura. El DPO se ocupa de los datos. El DPA, de las decisiones que afectan a personas. La diferencia no es técnica: es de derechos.
El perfil del DPA se articula en tres dimensiones inseparables. La formación jurídica constituye su base irreductible: sin comprensión del marco de derechos aplicable —AI Act, RGPD, derecho del consumo, derecho laboral, normativa de protección de personas especialmente tuteladas— el DPA no puede identificar cuándo una decisión algorítmica vulnera un derecho ni construir acuerdos jurídicamente válidos; es el puente entre la lógica técnica del sistema y el lenguaje de los derechos. La gestión del conflicto es su competencia nuclear: formación en teoría del conflicto y técnicas MASC aplicadas a contextos asimétricos, escucha activa, manejo de la asimetría de información y dominio de herramientas ODR. La ética aplicada a la IA y la alfabetización técnica completan el perfil: conocimiento de los principios que rigen el desarrollo responsable de la IA —transparencia, explicabilidad, no discriminación, supervisión humana o human-in-the-loop— y de los mecanismos de mitigación: auditorías para detectar sesgos, diversidad en los datos de entrenamiento e IA explicable (XAI) para que las decisiones automatizadas puedan ser comprendidas, cuestionadas y, cuando corresponda, revertidas.
VI. Conclusión
La expansión de la inteligencia artificial está generando una nueva forma de conflictividad que afecta de manera desproporcionada a las personas en situación de vulnerabilidad. El marco institucional actual no está preparado para gestionarla.
Si estos conflictos no encuentran mecanismos de resolución temprana, la vía judicial terminará absorbiendo una litigiosidad para la que tampoco está diseñada. La mediación y el ODR ofrecen la infraestructura más adecuada para esa gestión preventiva, y el Delegado de Protección Algorítmica puede dotarla de contenido especializado.
La comunidad MASC y ODR tiene la oportunidad —y la responsabilidad— de impulsar su reconocimiento normativo y desarrollar la formación que esta incumbencia requiere. Anticipar la conflictividad algorítmica no es solo una cuestión de eficiencia institucional: es una condición para que el acceso a la justicia siga siendo real en sociedades cada vez más gobernadas por decisiones automatizadas.
Referencias bibliográficas
- AI Act. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024.
- Katsh, E., & Rabinovich-Einy, O. (2017). Digital Justice: Technology and the Internet of Disputes. Oxford University Press.
- Political Watch / IA Ciudadana (2026). La tutela de los derechos frente a la implementación de sistemas algorítmicos y de inteligencia artificial. Conclusiones preliminares.
- Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo (RGPD), de 27 de abril de 2016.
- UNESCO (2021). Recomendación sobre la ética de la inteligencia artificial. París: UNESCO.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76–99.
- Yeung, K. (2018). Algorithmic Regulation: A Critical Interrogation. Regulation & Governance, 12(4), 505–523.