Programar para la Paz

La IA generativa no comprende el lenguaje: lo calcula. Por ello, sus respuestas dependen del input humano. Se propone aplicar Comunicación No Violenta en prompts para reducir sesgos y favorecer interacciones orientadas a la paz.
Gabriela Fernandez

Gabriela Fernandez
Mántaras

ARGENTINA

Programar para la Paz

PROGRAMAR PARA LA PAZ

Gabriela Fernández Mántaras

«The single biggest problem in communication is the illusion that it has taken place.» («El mayor problema en la comunicación es la creencia (o ilusión) de que la misma ha tenido lugar”) (1)

La Inteligencia Artificial (IA) se erige como el desafío comunicacional fundamental de nuestra era. Su irrupción genera enormes interrogantes que, al profundizar en su estudio, parecen multiplicarse. Entender esta brecha es el primer paso para dominar la herramienta.

Resulta relevante revisar y estructurar nuestra comunicación. Es decir, adaptar la sintaxis y la semántica a los requerimientos de un sistema que tiene respuestas algorítmicas.

No se trata de una mera “traducción”, sino de adaptarnos a otra forma de comunicar.

Las respuestas del sistema parecieran dialogar con nosotros, no obstante, debemos esforzarnos por recordar que es una transferencia de información como consecuencia de una orden directa.

Por lo tanto, como primera conclusión, muy sencilla, deberíamos afirmar que nuestro lenguaje no es entendido como tal sino desde una programación, que el usuario desconoce. Es decir, leemos una verdad parcial que responde sólo a los datos duros que posee. No entiende, ni descifra la ambigüedad del lenguaje humano.

Considero que quienes operamos estos sistemas debemos entender y aprender “a hablar” el lenguaje que mejor funciona para obtener la respuesta deseada. Y quizá ello favorezca la también a la comunicación humana.

Coincido con la opinión de numerosos investigadores en cuanto a que, para una sólida comprensión del lenguaje es necesario contar con un conocimiento general sobre el mundo y un método general para usar ese conocimiento. (2)

La IA no “sabe” del mundo: lo aproxima estadísticamente en función de los datos que recibe.

El humano como ser complejo, influenciado por aspectos biológicos, psicológicos y sociales, que interactúan entre sí, que aún aspira develar sus propios misterios, está a cargo de entrenar un sistema de probabilidades estadísticas que en “la traducción” pierde la emoción humana.

La IAG resuelve en segundos, siguiendo procesos internos, en muchos casos, incomprensibles incluso para los ingenieros que los diseñaron. (3)

Si aceptamos esta premisa, se vuelve evidente que la responsabilidad del puente comunicativo recae en quienes utilizamos estas herramientas. Tanto del humano que aplica las respuestas al derecho o a su vida en general, como el humano que programa estos sistemas con los datos que la IAG elegirá para responder.

De allí surge la necesidad de desarrollar una nueva alfabetización algorítmica, que nos permita comprender cómo procesan información estos modelos. También nos interpela a revisar nuestras propias prácticas discursivas. Por último, debemos recordar en cada interacción con la IA, que no interpreta, sino que calcula. No pondera principios, no evalúa contextos sociales ni históricos. Opera sobre correlaciones, no sobre significados. Y ello lo logra con la apariencia lingüística que induce a creer que “entiende”.

Sin embargo, puede asistirnos con enorme eficacia si sabemos formular las instrucciones adecuadas. Es decir, que la calidad de la respuesta jurídica que obtenemos depende directamente de la calidad del input que proporcionamos. La mente humana siempre debe chequear su output.

Esto implica que debemos desarrollar nuevas competencias partiendo de una comprensión técnica mínima, para saber qué puede y qué no puede hacer un modelo de lenguaje que elijamos. Es necesario aprender a guiar a la IA en procesos de análisis que, de otro modo, podrían desviarse hacia interpretaciones irrelevantes o alucinaciones, para poder concretar el input en una estructura lógica desde aquella comprensión técnica.

Además, la interacción con estos sistemas puede mejorar la comunicación entre personas. Al aprender a comunicarnos, frente a una máquina, evitando ambigüedades, palabras que ofenden (la IAG no necesita para la respuesta requerida), recortando los excesos discursivos, podríamos aprender a entender y elegir, la mejor forma de relacionarnos entre humanos.

En este sentido, la IAG nos obliga a ver las zonas difusas de nuestro propio lenguaje. Y al hacerlo, revela que la dificultad no está únicamente en la tecnología, sino en la forma en que los humanos organizamos y transmitimos significado.

Por eso la IAG puede convertirse en una oportunidad. Una oportunidad para repensar cómo construimos sentido, cómo estructuramos argumentos y cómo interactuamos con sistemas -y con personas- que no comparten necesariamente nuestros “códigos” culturales.

La comprensión profunda del lenguaje, como anticipaban Russell y Norvig, requiere conocimiento del mundo y métodos para usarlo. La IAG aporta el método; nosotros aportamos el mundo. La interacción entre ambos define el futuro de esta nueva ecología comunicacional.

Para ello debemos incluir en nuestro propio entrenamiento no solo capacitación sobre la comunicación humana y comunicación no violenta, sino también esta nueva alfabetización algorítmica que nos permitirá comprender cómo estos modelos procesan instrucciones, cómo se estructuran los prompts y cómo evitar errores, sesgos o alucinaciones.

La comunicación no violenta “se basa en las habilidades relativas al lenguaje y la comunicación que refuerzan nuestra capacidad de seguir siendo humanos incluso en las condiciones más extremas” (4).

La Comunicación No Violenta se estructura en cuatro pasos: Observación, Sentimientos, Necesidades y Petición.

La IAG no puede ser entrenada para “sentir” ni para “comprender” la violencia o la paz en sentido humano. Puede ser entrenada para reconocer patrones lingüísticos asociados a escalada o desescalada del conflicto, producir respuestas estructuradas que reduzcan hostilidad discursiva, evitar reforzar narrativas violentas y sugerir formulaciones jurídicas compatibles con la paz social.

La paz, desde el punto de vista de la IAG, deja de ser un ideal abstracto para convertirse en un criterio de diseño de su entrenamiento.

La comunicación no violenta aplicada al entrenamiento de la IAG puede reducir riesgos, sesgos y resultados violentos o incorrectos, contribuyendo a la ética en la IA.

Antes de concluir, resulta necesario advertir que la IAG no aprende valores por exposición casual. Estas herramientas operan como sistemas de caja negra cerrados, donde el usuario no modifica la arquitectura subyacente.

En consecuencia, se propone el diseño consciente de un prompt con “Filtro de Paz”, que actúe como una capa de modulación discursiva, influyendo en el tono, el encuadre argumentativo y la selección léxica de las respuestas.

La programación para la paz debe empezar en todos y cada uno de nosotros.

Referencias

1. Shaw, George Bernard (1856-1950). Dramaturgo.

2. Russell, Stuart J.; Norvig, Peter (2004). Inteligencia Artificial: Un Enfoque Moderno. Pearson Educación, S.A., Madrid. ISBN: 978-84-205-4003-0.

3. ¿Qué es la misteriosa “caja negra” de la inteligencia artificial que desconcierta a los expertos (y por qué aún no entendemos cómo aprenden las máquinas)? (nota de prensa).
https://www.bbc.com/mundo/noticias-65331262
Al mismo tiempo, expertos en IA han señalado que puede haber riesgos si la tecnología no es controlada por sus desarrolladores, como el que adquieran habilidades para las que no fueron instruidas.

4. Rosenberg, Marshall. Comunicación No Violenta. Gran Aldea Editores. Psicólogo y mediador norteamericano. A partir de los años 60 desarrolló la Comunicación No Violenta (CNV) para ayudar en la resolución de conflictos. Fundó el Centro de CNV en el año 1984.

5. UNESCO (2024). Desafiando los prejuicios sistemáticos: una investigación sobre los prejuicios contra las mujeres y las niñas en grandes modelos lingüísticos. Código del documento: CI/DIT/2024/GP/01.
Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000388971/PDF/388971eng.pdf.multi
Citado en: Abogacía y ética en la era de la inteligencia artificial. Una mirada desde Entre Ríos, por Rosa Alicia Warlet, elDial.com.

5 2 votos
Calificación de esta ponencia
Suscribirse
Notificar sobre
guest
1 Commentario
Más votados
Más recientes Más antiguos
Comentarios en línea
Ver todos los comentarios
María Victoria Dunda
María Victoria Dunda
1 day ago

Muchas Gracias, muy valiosa información. Complementa muy bien con su ponencia en video