Dado que los algoritmos están realizados por seres humanos, también están impregnados con nuestra “esencia”: transmiten nuestras intenciones, prácticas, lo que creemos, lo que pensamos. Claro, eso sucede con cualquier cosa que construyamos y, los algoritmos y las tecnologías no son la excepción, también reflejan lo que piensa y siente nuestra sociedad. Un grupo de personas que indefectiblemente tiene sesgos no puede desarrollar desde un punto de vista neutral, es un imposible.
Pero ¿qué es un algoritmo?
Un algoritmo es una secuencia de pasos que realizamos para obtener un resultado. Están en todos lados. Por ejemplo, una receta de cocina es un algoritmo, o la manera en que tomamos el colectivo. Por eso influyen en nuestro día a día de diferentes maneras, son los que deciden qué cosas nos pasan. Gracias a ellos se define qué publicidad te aparece en el feed de Facebook o Instagram, qué resultados se muestran primero en la búsqueda de Google o si sos apto/a para un crédito. Este tipo de “decisiones” de los algoritmos se basan en qué cosas consumimos y en nuestro perfil (mi raza, género, status social). Según esa información los algoritmos llegan a una conclusión (resultado) que creen la más “correcta”. Pero lo que hoy nos preguntamos es, ¿correcta según quién?
- Lucía: “Un amigo está por tener familia, eso hizo que entre en un par de páginas de bebés. Hace 2 semanas que mis redes sociales me muestran publicidades de esos comercios, o los objetos que estuve viendo. Otro ejemplo, pero de crédito: https://www.nytimes.com/2019/11/15/us/apple-card-goldman-sachs.html «.
- Maru: “Dado que desde los algoritmos representamos la vida real, dejar todo apoyado en la tecnología implica repartir las reglas del juego de una manera totalmente sesgada. En algunos casos representará menos posibilidades, en otros atenta derechos y libertades como los algoritmos que “predicen” donde ocurrirá un crimen (https://www.lavanguardia.com/tecnologia/20190318/461013536935/inteligencia-artifical-vigilancia-predictiva-policia.html).
La diversidad como factor determinante en los algoritmos
Hay casos en los que queda en evidencia que la falta de diversidad entre desarrolladores influye de manera directa en el desarrollo de los algoritmos. Veamos algunos ejemplos:
1.El ámbito de la inteligencia artificial y machine learning.
Los hombres caucásicos suelen ser “un segmento mejor contemplado” que otros. Por ejemplo, hace unos años, Google Photos identificó a un hombre negro como gorila. Creemos que podemos encontrar la explicación a estos casos viendo cual es la diversidad que existe entre quienes desarrollan y producen tecnología, quienes son en gran mayoría hombres cis caucásicos. En 2015, en Argentina, solo un 16% de mujeres se inscribió a carreras relacionadas con programación (según informe ChicasEnTecnologia), ni siquiera sabemos la distribución en cuanto a raza u otras variantes.
Es importante también remarcar que ese 15% no siempre fue así. En la década de los ‘60 cuando la UBA creo la carrera de Computador Científico, dictada en Exactas, el 67% de quienes la estudiaban, eran mujeres, muchas de las cuales fueron muy influyentes para nuestra historia informática: Rebeca Cherep de Guber, Cecilia Berdichevsky, Victoria Bajar Simsolo. En los años 70 creció el porcentaje hasta indicar que 3 de 4 personas que estudiaban la carrera eran mujeres. Luego de esa época la proporción no hizo más que decrecer.
2.La selección de personal
Otro de los ámbitos en los que notamos muy claramente la discriminación por género tiene que ver con los programas de selección de candidates. A la hora de pensar un algoritmo, pensamos en casos de la vida real y los representamos. Cathy O’neil, una matemática estadounidense, nos explica un ejemplo con el caso de FoxNews, cuando a mediados de los años 90, su fundador Roger Ailes recibió muchas denuncias de acoso sexual. Estas mujeres se iban de la empresa por este motivo, trabajando un corto período. Para desarrollar la lógica de nuestro programa, si queremos retratar como caso de éxito la contratación de empleados que estén la mayor cantidad de años posibles en un lugar de trabajo, las mujeres quedarían excluidas por el algoritmo.
Pero además pensemos en otros casos. ¿Quiénes son las personas que dejan su carrera para dedicarse a sus familias? ¿Quiénes son las personas que, ante una emergencia familiar, suelen tomar el cuidado de sus seres queridos? Hoy por hoy, las tareas de cuidados siguen recayendo en las mujeres en la mayoría de los casos, si pensamos en una pareja heterosexual. Entonces ¿qué haría nuestro algoritmo? Simplemente persistir las prácticas que la sociedad realiza.
En todos los casos, el algoritmo no es quien discrimina, sino quien lo desarrolla. Si dentro de la selección de candidates se ponderara la necesidad de diversidad (lo llamado “discriminación positiva”), el programa podría seguir esa regla y atender de otra manera las distintas postulaciones (siguiendo el caso que menciona Cathy O’Neil). El problema, desde nuestro punto de vista, es que al momento de desarrollar solo evaluamos lo que le pasa a uno (o lo que te llega como requerimiento) sin cuestionarlo.
3.El lenguaje
Muchas veces creemos estar comunicándonos con una persona y resulta que ese chat que se abre en muchas páginas es un bot. Tanto el algoritmo de esos bots como el de los mensajes automáticos de error cuando algo no funciona en una web, generan un mensaje de respuesta (“Comuníquese con soporte», por ejemplo). En todos estos casos los algoritmos deberían tener en cuenta el lenguaje que usan (y cómo se comunican, porque podría darse el caso de que el usuario sea no vidente). Si el algoritmo tiene un prejuicio sexista, no solo no está teniendo una buena comunicación, sino que además los reproduce. Ese es el caso de algunos traductores donde se asigna el género según la profesión (por ejemplo, Google Translate) o de determinados chatbot que te asumen por pronombre masculino. Estos no son temas menores, porque el lenguaje nunca es inocente y nosotros no lo creamos, sino que es al revés: él nos crea a nosotros.
¿Cómo se pueden desarrollar algoritmos que contemplen perspectiva de género?
No existe una solución inmediata, ni una receta que explique cómo hacerlo. De hecho, es algo que tampoco se puede medir. Los algoritmos reflejan lo que somos como sociedad. Lo que podemos intentar es que, quienes crean los algoritmos tengan perspectiva de género, se cuestionen, pregunten, aprendan, e incorporen todo eso a sus desarrollos. Que los equipos sean más diversos es un comienzo. Si bien tener mujeres en el team de desarrollo no garantiza que el resultado sea menos sexista, porque todes estamos inmersos y educados con las mismas reglas, para nosotres es un plus porque se suman experiencias y puntos de vista diferentes.
Los algoritmos se realizan en base al mundo real y cada persona ve la realidad diferente. Por eso, para librarnos de los algoritmos sexistas podemos comenzar por desarmar el estereotipo de quiénes pueden relacionarse con la ciencia y tecnología, por regalar menos vestiditos rosas y más momentos de aventuras y experimentos.
Deja un comentario