Un equipo de investigadores de la Universidad de Virginia ha desarrollado un sistema de IA que intenta detectar y cuantificar los signos fisiológicos asociados con el sesgo racial. En otras palabras, están construyendo un dispositivo portátil que trata de identificar cuando tienes pensamientos racistas.

Al frente: No. Las máquinas no pueden saber si una persona es racista. Hemos detectado un problema desconocido. Y ciertamente no pueden determinar si estás pensando en pensamientos racistas con solo tomar el pulso o medir tus niveles de saturación de O2 con un dispositivo al estilo Apple Watch.

Dicho esto, esta es una investigación fascinante que podría allanar el camino a una mayor comprensión de cómo el sesgo inconsciente y el racismo sistémico encajan entre sí.

¿Cómo funciona?

El estándar actual para identificar el sesgo racial implícito utiliza algo llamado la Prueba de Asociación Implícita. Básicamente, se mira una serie de imágenes y palabras y se tratan de asociarlas con “piel clara”, “piel oscura”, “buena” y “mala” lo más rápido posible. Puedes probarlo tú mismo aquí en el sitio web de Harvard.

También hay investigaciones que indican que las respuestas de amenazas aprendidas a extraños a menudo se pueden medir fisiológicamente. En otras palabras, algunas personas tienen una respuesta física a las personas que se ven diferentes a ellas y podemos medirla cuando lo hacen.

El equipo de LA UVA combinó estas dos ideas. Tomaron un grupo de 76 estudiantes voluntarios y les hicieron tomar la prueba de asociación implícita mientras midían sus respuestas fisiológicas con un dispositivo portátil.

Por último, la carne del estudio consistió en desarrollar un sistema de aprendizaje automático para evaluar los datos y hacer inferencias. ¿Puede la identificación de una combinación específica de respuestas fisiológicas realmente decirnos si alguien está, por falta de una mejor manera de decirlo, experimentando sentimientos involuntarios de racismo?

La respuesta es un fangoso tal vez.

Según el trabajo de investigación del equipo:

Nuestro aprendizaje automático y análisis estadístico muestran que el sesgo implícito se puede predecir a partir de señales fisiológicas con una precisión del 76,1%.

Pero eso no es necesariamente el resultado final. La precisión del 76% es un umbral bajo para el éxito en cualquier esfuerzo de aprendizaje automático. Y las imágenes parpadeantes de diferentes caras de dibujos animados de colores no es una analogía 1:1 para experimentar interacciones con diferentes razas de personas.

Toma rápida: Cualquier idea que el público en general pueda tener sobre algún tipo de gadget estilo varita para detectar racistas debe ser descartada. El importante trabajo del equipo de LA UVA no tiene nada que ver con el desarrollo de un wearable que te haga ping cada vez que tú o alguien a tu alrededor experimenta sus propios sesgos implícitos. Se trata más bien de entender el vínculo entre las asociaciones mentales de color de piel oscura con la maldad y las manifestaciones fisiológicas que lo acompañan.

En ese sentido, esta novedosa investigación tiene el potencial de ayudar a iluminar los procesos de pensamiento subconsciente detrás, por ejemplo, de la radicalización y la paranoia. También tiene el potencial de demostrar finalmente cómo el racismo puede ser el resultado de un sesgo implícito involunto de personas que incluso pueden creerse aliados.

No tienes que sentir que estás siendo racista para ser realmente racista, y este sistema podría ayudar a los investigadores a entender y explicar mejor estos conceptos.

Pero en realidad no detecta sesgo; lo predice, y eso es diferente. Y ciertamente no puede decir si alguien es racista. Ilumina algunos de los efectos fisiológicos asociados con el sesgo implícito, al igual que un diagnóstico interpretaría inicialmente que una tos y fiebre se asociarían con ciertas enfermedades, mientras que todavía requiere más pruebas para confirmar un diagnóstico. Esta IA no etiqueta el racismo o sesgo, sólo apunta a algunos de los efectos secundarios asociados.

By Ghost

Leave a Reply

Your email address will not be published. Required fields are marked *