intive Argentina Blog

Cómo librarnos de los algoritmos sexistas

Dado que los algoritmos están realizados por seres humanos, también están impregnados con nuestra “esencia”: transmiten nuestras intenciones, prácticas, lo que creemos, lo que pensamos. Claro, eso sucede con cualquier cosa que construyamos y, los algoritmos y las tecnologías no son la excepción, también reflejan lo que piensa y siente nuestra sociedad. Un grupo de personas que indefectiblemente tiene sesgos no puede desarrollar desde un punto de vista neutral, es un imposible. 

Pero ¿qué es un algoritmo?  

Un algoritmo es una secuencia de pasos que realizamos para obtener un resultado. Están en todos lados. Por ejemplo, una receta de cocina es un algoritmo, o la manera en que tomamos el colectivo. Por eso influyen en nuestro día a día de diferentes maneras, son los que deciden qué cosas nos pasan. Gracias a ellos se define qué publicidad te aparece en el feed de Facebook o Instagram, qué resultados se muestran primero en la búsqueda de Google o si sos apto/a para un créditoEste tipo de “decisiones” de los algoritmos se basan en qué cosas consumimos y en nuestro perfil (mi raza, género, status social). Según esa información los algoritmos llegan a una conclusión (resultado) que creen la más “correcta”. Pero lo que hoy nos preguntamos es, ¿correcta según quién? 

La diversidad como factor determinante en los algoritmos 

Hay casos en los que queda en evidencia que la falta de diversidad entre desarrolladores influye de manera directa en el desarrollo de los algoritmos. Veamos algunos ejemplos: 

1.El ámbito de la inteligencia artificial y machine learning. 

Los hombres caucásicos suelen ser “un segmento mejor contemplado que otros. Por ejemplo, hace unos añosGoogle Photos identificó a un hombre negro como gorila. Creemos que podemos encontrar la explicación a estos casos viendo cual es la diversidad que existe entre quienes desarrollan y producen tecnología, quienes son en gran mayoría hombres cis caucásicos. En 2015, en Argentina, solo un 16% de mujeres se inscribió a carreras relacionadas con programación (según informe ChicasEnTecnologia), ni siquiera sabemos la distribución en cuanto a raza u otras variantes. 

Es importante también remarcar que ese 15% no siempre fue así. En la década de los 60 cuando la UBA creo la carrera de Computador Científico, dictada en Exactas, el 67% de quienes la estudiaban, eran mujeres, muchas de las cuales fueron muy influyentes para nuestra historia informáticaRebeca Cherep de Guber, Cecilia BerdichevskyVictoria Bajar Simsolo. En los años 70 creció el porcentaje hasta indicar que 3 de 4 personas que estudiaban la carrera eran mujeres. Luego de esa época la proporción no hizo más que decrecer 

2.La selección de personal 

Otro de los ámbitos en los que notamos muy claramente la discriminación por género tiene que ver con los programas de selección de candidates. A la hora de pensar un algoritmo, pensamos en casos de la vida real y los representamos. CathO’neil, una matemática estadounidense, nos explica un ejemplo con el caso de FoxNewscuando a mediados de los años 90, su fundador Roger Ailes recibió muchas denuncias de acoso sexual. Estas mujeres se iban de la empresa por este motivo, trabajando un corto períodoPara desarrollar la lógica de nuestro programa, si queremos retratar como caso de éxito la contratación de empleados que estén la mayor cantidad de años posibles en un lugar de trabajo, las mujeres quedarían excluidas por el algoritmo. 

Pero además pensemos en otros casos. ¿Quiénes son las personas que dejan su carrera para dedicarse a sus familias? ¿Quiénes son las personas que, ante una emergencia familiar, suelen tomar el cuidado de sus seres queridos? Hoy por hoy, las tareas de cuidados siguen recayendo en las mujeres en la mayoría de los casos, si pensamos en una pareja heterosexual. Entonces ¿qué haría nuestro algoritmo? Simplemente persistir las prácticas que la sociedad realiza. 

En todos los casos, el algoritmo no es quien discriminasino quien lo desarrolla. Si dentro de la selección de candidates se ponderara la necesidad de diversidad (lo llamado “discriminación positiva”), el programa podría seguir esa regla y atender de otra manera las distintas postulaciones (siguiendo el caso que menciona Cathy O’Neil). El problema, desde nuestro punto de vista, es que al momento de desarrollar solo evaluamos lo que le pasa a uno (o lo que te llega como requerimiento) sin cuestionarlo. 

3.El lenguaje 

Muchas veces creemos estar comunicándonos con una persona y resulta que ese chat que se abre en muchas páginas es un bot. Tanto el algoritmo de esos bots como el de los mensajes automáticos de error cuando algo no funciona en una web, generan un mensaje de respuesta (Comuníquese con soporte», por ejemplo)En todos estos casos los algoritmos deberían tener en cuenta el lenguaje que usan (y cómo se comunicanporque podría darse el caso de que el usuario sea no vidente). Si el algoritmo tiene un prejuicio sexista, no solo no está teniendo una buena comunicaciónsino que además los reproduce. Ese es el caso de algunos traductores donde se asigna el género según la profesión (por ejemplo, Google Translate) o de determinados chatbot que te asumen por pronombre masculino. Estos no son temas menores, porque el lenguaje nunca es inocente y nosotros no lo creamos, sino que es al revés: él nos crea a nosotros. 

¿Cómo se pueden desarrollar algoritmos que contemplen perspectiva de género?  

No existe una solución inmediata, ni una receta que explique cómo hacerlo. De hecho, es algo que tampoco se puede medir. Los algoritmos reflejan lo que somos como sociedad. Lo que podemos intentar es que, quienes crean los algoritmos tengan perspectiva de género, se cuestionen, pregunten, aprendan, e incorporen todo eso a sus desarrollosQue los equipos sean más diversos es un comienzo.  Si bien tener mujeres en el team de desarrollo no garantiza que el resultado sea menos sexista, porque todes estamos inmersos y educados con las mismas reglas, para nosotres es un plus porque se suman experiencias y puntos de vista diferentes.  

Los algoritmos se realizan en base al mundo real y cada persona ve la realidad diferente. Por eso, para librarnos de los algoritmos sexistas podemos comenzar por desarmar el estereotipo de quiénes pueden relacionarse con la ciencia y tecnología, por regalar menos vestiditos rosas y más momentos de aventuras y experimentos. 

Lucía Capón Paul

Lucía Capón Paul es desarrolladora iOS en intive desde 2015, donde comenzó como trainee. Estudiante avanzada de Ingeniería en Informática de la Universidad de Buenos Aires (UBA), Lucía es una integrante de la compañía muy comprometida con causas sociales vinculadas a la tecnología para la inclusión y la igualdad de derechos para la mujer en el mundo IT. Amante de los gatos y bailarina aficionada, tomó clases en estilos tan diversos como el tango, el swing, la salsa y el rock.

Mariana Silvestro

Mariana Silvestro es desarrolladora full-stack en intive desde diciembre de 2017 y líder de la brigada Backend desde octubre de 2018. Licenciada en Informática, graduada de la Universidad Atlántida Argentina, Mariana además es Técnica Superior en Sistemas Informáticos por la Universidad Tecnológica Nacional (UTN). Integrante de la comunidad LasDeSistemas, es una gran militante del feminismo y la equidad de género dentro y fuera de la industria IT. Intensamente apasionada por la lectura y la escritura, cuenta con 4 poemas y 3 microrrelatos publicados.

Deja un comentario