intive Argentina Blog

Diversidad e inclusión en tecnología

Una de las conversaciones que esta pandemia ha ayudado a instalar es la de la tecnología como facilitadora del trabajo. Es el caso de ciertos sectores que, durante condiciones atípicas como la cuarentena, encuentran diferentes grados de restricción a sus actividades.

La pandemia también ha tenido un impacto importante en las discusiones que se han abierto sobre cómo esas tecnologías nos afectan en otros ámbitos fuera del laboral. Este es un momento donde se aprecia claramente el valor de las tecnologías como herramienta para construir un mundo post-pandemia con mayor equidad e inclusión para todos.

Pero ese deseo de apoyarnos en el vertiginoso avance tecnológico en el que estamos inmersos para construir un mundo mejor, se ve confrontado con la realidad de los potenciales peligros que implica ese avance si lo dejamos ocurrir sin cuestionar sus aspectos éticos y humanos.

Entre estos aspectos uno de los más complejos es el del sesgo en los algoritmos o modelos matemáticos. Pero, ¿de qué hablamos cuando hablamos de sesgo?

El sesgo, ¿qué significa?

La RAE define al sesgo así:

  1. Estad. Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras.

Es decir que, el sesgo se da cuando se seleccionan datos que alimentan determinados modelos, aplicando prejuicios, creencias y visiones del mundo particulares, ya sea consciente o inconscientemente.

Una de las más claras definiciones de este problema nos la da Cathy O’Neil en su libro “Armas de destrucción matemática”:

“Nuestros propios valores y deseos influyen en nuestras elecciones,

desde los datos que elegimos recoger hasta las preguntas que hacemos.

Los modelos son opiniones incrustadas en las matemáticas”.

¿Alguien quiere pensar en los algoritmos?

Como dice Joy Buolamwimi, a menudo asumimos que las máquinas son neutrales, pero como demuestran sus investigaciones sobre el sesgo racial en tecnología, los sesgos vienen también embebidos en los sistemas; por ejemplo, en los de Inteligencia Artificial y reconocimiento facial provenientes de gigantes de la tecnología como IBM, Amazon, Google.

Joy misma cuenta su historia de, cómo siendo estudiante en el MIT, algunos softwares de análisis facial no podían detectar su rostro de piel oscura y debió colocarse una máscara blanca para hacerlos funcionar.

Las investigaciones de Buolamwimi también demuestran cómo, frente a la tarea de adivinar el género de un rostro, todas las compañías se desempeñaban mucho mejor cuando se trataba de rostros masculinos, con tasas de error no mayores al 1% para rostros de piel clara. La tasa de error aumentaba al 35% con rostros femeninos de piel oscura, e incluso fallaban en la clasificación de rostros de personas famosas como Michelle Obama y Serena Williams.

Sesgos similares también afectan a los sistemas de reconocimiento de voz, cada vez más difundidos, ya sea en aplicaciones que convierten voz en texto, como en subtítulos de videos, computación de manos libres y asistentes virtuales.

Her

Y… ¿Qué hay de los asistentes de voz de inteligencia artificial? ¿Notaron algo especial sobre ellos?

Un informe de la UNESCO titulado «Me sonrojaría si pudiera» (2019), analiza el impacto de tener asistentes de voz con voces femeninas, desde Alexa de Amazon hasta Siri de Apple, que refuerzan y amplifican sesgos de género ya existentes.

“La servidumbre ‘femenina’ de Siri y el servilismo expresado por tantos otros asistentes digitales proyectados como mujeres jóvenes, proporcionan una poderosa ilustración de sesgos de género codificados en los productos tecnológicos y omnipresentes en el sector de la tecnología, aparente en la educación de habilidades digitales”, declaran los investigadores.

Según el reporte, “hoy en día, las mujeres y las niñas tienen un 25% menos de probabilidades que los hombres de saber cómo aprovechar la tecnología digital para fines básicos, 4 veces menos probabilidades de saber programar computadoras y 13 veces menos probabilidades de solicitar una patente de tecnología”.

En este blogpost anterior, Mariana Silvestro nos cuenta cómo está el panorama de la desigualdad tecnológica en Argentina. En un momento en que todos los sectores se están convirtiendo al rubro tecnológico, esta brecha debe encender la alarma para toda la sociedad (políticos, educadores y ciudadanía en general).

Como vemos, los modelos matemáticos de este tipo no solo sirven para determinar la identidad de las personas, sino que están presentes en más y más ámbitos: calculan riesgos de incidencia criminal y asisten en la ponderación de las condenas; determinan la solvencia de los ciudadanos y clasifican la calidad de la enseñanza de los docentes. Sistemas automatizados de toma de decisiones, perfiles digitales, análisis predictivos y otras herramientas de inteligencia artificial impactan nuestras vidas en mayor o menor medida.

No todo está perdido

Después de toda esta información desalentadora, cabe preguntarse: ¿puede la tecnología ser nuestra aliada en una transformación positiva hacia una sociedad más inclusiva?

La respuesta: ¡claro que puede! El hecho de que estos temas se discutan a nivel popular y se difundan a través de los medios de comunicación masiva (en lugar de estar limitados al ámbito académico) es un gran paso en la dirección correcta. Como dice Buolamwimi, al menos ahora le estamos prestando atención.

Hay muchas iniciativas encaminadas a modificar estas condiciones, tanto en el ámbito privado como en el público.

  • A nivel internacional, el informe de la UNESCO llama a una agresiva intervención de todos los actores para fomentar la educación y desarrollo de habilidades digitales en mujeres y niñas; lo que a su vez se traduce en una participación más completa a nivel social, y en familias, comunidades y economías más fuertes con mejores tecnologías.
  • El World Economic Forum presentó este año su toolkit para líderes “Diversity, Equity and Inclusion 4.0: A toolkit for leaders to accelerate social progress in the future of work”. Allí describe cómo la tecnología puede contribuir a reducir los sesgos en los procesos de contratación, diversificar los pools de talento y establecer puntos de referencia para la diversidad y la inclusión en todas las organizaciones.
  • En Argentina, la reciente formación del Observatorio de Impactos Sociales de la Inteligencia Artificial OISIA UNTREF es una excelente noticia y demuestra que, también en nuestra región, hay quienes están atentos al impacto que la Inteligencia Artificial tiene en todos los ámbitos de la vida en sociedad.
  • Organizaciones como Chicas en Tecnología, trabajan para reducir la brecha de género en el ámbito tecnológico en la región.

Mi abuela materna tenía un dicho: “el que no sabe es como el que no ve” (ella creció en el campo y tenía refranes para todo) y, creo que, en todos estos temas que a veces parecen tan complejos, lo primero que podemos hacer para entenderlos es empezar por ver de qué se tratan, leer, investigar, prestar atención. No dejar que pasen desapercibidos.

De nuestro lado está la responsabilidad de entender y aportar al debate, no mirar hacia otro lado, y hacer una contribución positiva. Cuantos más seamos, mejor.

Claudia Cabrera

Claudia Cabrera es UX Designer en intive desde octubre 2019. Diseñadora gráfica graduada en la Universidad de La Plata, Claudia descubrió que su interés en las personas y sus historias de vida pueden ayudar a crear mejores productos a través del diseño centrado en el usuario.

Desde entonces, se ha dedicado a aprender cómo los productos y servicios que creamos impactan la vida de las personas y a crear soluciones que les faciliten la vida.

Sumado a esto, Clau es voluntaria en el capítulo local de Interaction Design Association (IxDA), una organización de voluntarios dedicada a la difusión de la disciplina del diseño de interacción.

Fuera de la oficina, Clau es mamá de una hija y dos gatos, fanática del kpop y aficionada a la ciencia ficción.

Deja un comentario