Mediación Agéntica y Derechos Humanos: desafíos éticos y sesgos algorítmicos

El artículo analiza la mediación agéntica y cuestiona su compatibilidad con el debido proceso, abordando sesgos algorítmicos y su potencial para mejorar la mediación.
Maria Cristina Vigay

Maria Cristina Vigay

ARGENTINA

Mediación Agéntica y Derechos Humanos

Mediación Agéntica y Derechos Humanos: desafíos éticos y sesgos algorítmicos

Resumen

La integración de la Inteligencia Artificial (IA) en los métodos de Resolución de Disputas en Línea (ODR) ha evolucionado de ser una mera herramienta de soporte a convertirse en un actor con capacidad de iniciativa: la denominada mediación agéntica. El presente artículo analiza esta transición desde la perspectiva del Derecho Internacional de los Derechos Humanos, cuestionando si la autonomía algorítmica es compatible con las garantías del debido proceso y la tutela judicial efectiva. A través de un análisis crítico, se examina el fenómeno de los sesgos algorítmicos que pueden perpetuar desigualdades estructurales bajo una apariencia de neutralidad tecnológica. No obstante, el trabajo no adopta una postura tecnofóbica, por el contrario, rescata la necesidad de mantener una mentalidad abierta para aprovechar positivamente los avances que simplifican y mejoran la tarea mediadora.

Introducción:

La Transición hacia la Mediación Agéntica

La resolución de conflictos ha transitado por diversas etapas tecnológicas, desde la simple digitalización de documentos hasta la interacción mediante plataformas sincrónicas. Sin embargo, nos encontramos en un punto de inflexión: el paso de la tecnología como canal a la tecnología como agente. La Mediación Agéntica propone que la Inteligencia Artificial ya no sea un tercero pasivo, sino un actor dinámico capaz de analizar, sugerir y predecir resultados.

El núcleo del artículo se centra en la dimensión práctica: la viabilidad de utilizar la IA durante las audiencias de mediación. En este sentido, se plantean interrogantes esenciales sobre la interacción en tiempo real: ¿Es prudente consultar a la IA en presencia de las partes? ¿Cómo impacta el uso de filtros objetivos generados por algoritmos en el protagonismo de los mediados?

Desde una mirada ampliada, debemos recibir estos avances con mentalidad abierta. La IA promete simplificar procesos burocráticos y mejorar la eficiencia en la gestión de disputas. No obstante, siguiendo los lineamientos del Derecho Internacional de los Derechos Humanos, nuestra tarea es asegurar que esta eficiencia no se logre a costa de las garantías fundamentales de las personas.

Desarrollo:

El Marco de los Derechos Humanos en el Entorno Digital

La implementación de IA en los métodos de Resolución de Disputas en Línea debe pasar por el tamiz del Control de Convencionalidad. El acceso a la justicia y el debido proceso (Art. 8 y 25 de la Convención Americana sobre Derechos Humanos) no son negociables.

En la mediación agéntica, surgen riesgos específicos: la transparencia algorítmica, ese derecho a saber por qué un sistema propone una solución específica, la opacidad de los algoritmos de caja negra atenta contra la autonomía de la voluntad, y la igualdad de oportunidades teniendo en cuenta que, en un entorno digital, la brecha de alfabetización tecnológica puede generar una asimetría que favorezca a la parte con mayor capacidad técnica, rompiendo el equilibrio necesario en toda mediación.

Los sesgos algorítmicos: el prejuicio automatizado

Uno de los mayores desafíos para la equidad son los sesgos. La IA no es neutral; es un espejo de los datos con los que fue entrenada. En este sentido podemos encontrar: sesgos de entrenamiento: Si los datos históricos reflejan desigualdades de género, raza o nivel socioeconómico, la IA las replicará. En mediaciones de familia o laborales, esto podría traducirse en sugerencias de acuerdos que perpetúan brechas históricas. Sesgos lingüísticos y contextuales: Los modelos de lenguaje a menudo ignoran matices culturales y modismos locales (como los propios de nuestra región). Una mala interpretación de la carga emocional de una palabra por parte de la IA puede descarrilar un proceso de diálogo genuino. Sesgo de Automatización: existe una tendencia humana a otorgar una autoridad infalible a los resultados computacionales. El mediador debe estar alerta para que las partes no acepten opciones solo porque el sistema así lo dice.

La IA en la audiencia: ¿colaboradora o intrusiva?

Surge una pregunta operativa vital: ¿Es posible o acaso ético, utilizar la IA durante las audiencias de mediación en presencia de las partes?

La integración de la IA generativa para la creación de opciones o la utilización de filtros objetivos es una herramienta potente. Sin embargo, plantea ciertos desafíos, tal como lo ha explicado el especialista Douglas Prado en su disertación sobre la Mirada de la Mediación asistida por las tecnologías, el autor se pregunta si la consulta en tiempo real frente a los mediados podría generar dilemas sobre el protagonismo de las partes. La mediación se basa en la autocomposición, si la IA monopoliza la generación de soluciones, las partes podrían sentirse desplazadas de su propio conflicto. En este sentido, la respuesta no debería ser el rechazo, sino la experimentación controlada. Tendremos que observar en la práctica si la IA actúa como un catalizador que abre el abanico de posibilidades o si, por el contrario, cierra el diálogo hacia soluciones estandarizadas.

El rol del Mediador como garante ético y humano: hacia una Mediación aumentada

El mediador deja de ser un mero facilitador para convertirse en un garante ético del ecosistema digital a través de tres ejes:

  • Gestión estratégica del contenido algorítmico: el profesional no acepta pasivamente las propuestas de la IA. Realiza una gestión estratégica de la información que emana del sistema, seleccionando, refinando y presentando solo aquellas opciones que son técnica y humanamente viables. El mediador es quien transforma la producción masiva de datos en un menú de soluciones idóneas para el caso concreto.
  • Control de convencionalidad algorítmica: el mediador verifica en tiempo real que las opciones generadas no vulneren principios de orden público o derechos humanos contenidos en Instrumentos Internacionales. Si la IA sugiere un acuerdo basado en un sesgo discriminatorio, el mediador ejerce este control y descarta la opción, asegurando que el resultado sea conforme a los estándares internacionales de igualdad y no discriminación.
  • Supervisión del Human-in-the-loop: este concepto asegura una intervención humana significativa. El mediador actúa como traductor de la lógica algorítmica, garantizando que el protagonismo de las partes no sea sustituido por la comodidad de la respuesta automatizada. El ser humano es quien aporta el sentido al acuerdo que la tecnología solo ayuda a estructurar.

Conclusión:

El límite de la Tecnología frente a la dignidad humana

La tecnología debe ser entendida como un medio para simplificar y mejorar nuestra tarea, pero nunca como un fin que deshumanice el proceso de justicia. El éxito de la mediación agéntica no se medirá por la celeridad en el cierre de casos, sino por la calidad de la resolución alcanzada y su respeto irrestricto a la dignidad humana.

Desde la perspectiva de los Derechos Humanos, la delegación excesiva de la mediación en sistemas agénticos plantea riesgos de afectaciones concretas que no podemos ignorar:

Vulneración al debido proceso y tutela judicial efectiva: la opacidad de los algoritmos puede impedir que las partes comprendan las bases de una propuesta de acuerdo, afectando el derecho a ser oído con las debidas garantías y a participar de manera informada en el proceso.

Amenaza al Derecho a la igualdad y no Discriminación: como se ha analizado, los sesgos algorítmicos no son meros errores técnicos, sino potenciales vectores de discriminación estructural automatizada que pueden perjudicar a grupos de personas vulnerables bajo una falsa premisa de objetividad matemática.

Afectación a la autodeterminación e identidad digital: el desplazamiento del protagonismo de las partes hacia el algoritmo pone en riesgo el derecho de cada individuo a ser el arquitecto de sus propias decisiones, un principio derivado del derecho al libre desarrollo de la personalidad.

En definitiva, la práctica diaria en las sesiones de mediación será nuestro laboratorio esencial. La prudencia dictada por la experiencia del mediador debe actuar como el primer filtro de convencionalidad. Solo a través de la observación empírica, la comparación de resultados y una reflexión crítica constante, podremos definir los límites éticos de esta herramienta. Debemos avanzar con audacia tecnológica, pero con una firme brújula en los Derechos Humanos, garantizando que la inteligencia artificial esté siempre al servicio de la justicia y nunca por encima de la humanidad.

5 2 votos
Calificación de esta ponencia
Suscribirse
Notificar sobre
guest
2 Commentarios
Más votados
Más recientes Más antiguos
Comentarios en línea
Ver todos los comentarios
Matilde Isabel Burchardt
Matilde Isabel Burchardt
15 hours ago

Muy interesante y para reflexionar esta ponencia. Gracias

María Victoria Dunda
María Victoria Dunda
5 hours ago

.Muchas Gracias, María Cristina. Coincido con el comentario de Matilde sobre la necesidad de reflexión sobre los puntos del artículo. Es indispensable el análisis crítico constante sobre el uso de las herramientas tecnológicas en nuestras practicas mediadoras en especias si ellas coadyuvan en el desarrollo humano y social.

Última edición el 5 hours ago por María Victoria Dunda