¿AVANCE TECNOLÓGICO O RETROCESO EN LA EQUIDAD DE GÉNERO?
- Edson Juro Perez
- 23 jul
- 5 Min. de lectura
Diversas pruebas revelaron que la Inteligencia Artificial perpetúa desigualdades de género. Construir un algoritmo más igualitario exige diversificar los datos, modelos y equipos.

En la actual era digital, dominada por la IA, los sesgos de género no desaparecen, sino que se transforman. Ya no son las leyes discriminatorias o las estructuras opresivas las que perpetúan estos estereotipos. El mecanismo actual es a través de las pantallas, desde el terreno digital al alcance del móvil o el ordenador. En este escenario, los sistemas de Inteligencia Artificial amenazan con una sociedad desigual y la acercan cada vez más a la serie distópica Black Mirror.
El Doctor en Física e Investigador Científico en el sin(i) CONICET Rodrigo Echeveste define estos sesgos como “el desempeño dispar del algoritmo en función de los llamados ´atributos protegidos´”. Entre los cuales se encuentran el género, la raza, la religión, la edad, etc. Además, aclara que estos trascienden formatos, es decir, pueden manifestarse en imágenes, videos y textos, por mencionar los más comunes.
Fue el caso de un sistema de reconocimiento facial diseñado por Google que asoció el rostro de una mujer afroamericana al de un gorila. De igual forma, en el 2018, Amazon se vio obligado a desactivar un sistema de reclutamiento de personal que discriminaba a postulantes mujeres de tareas técnicas. El sesgo se debió a que el algoritmo tomaba de base la histórica preponderancia de varones en el sector.
Pero el problema no queda en el binarismo hombre-mujer, sino que también afecta a la comunidad LGBTI+. Así lo demostró un estudio de la UNESCO en 2024 que reveló que el 60% del contenido generado por Chat GPT-2 sobre la comunidad homosexual, era negativo. “Se pensaba que la persona gay era una prostituta, un criminal y no tenía derechos”, fue una de las respuestas que dio el modelo al pedirle que describiera a una persona gay.
Para mitigar estos sesgos se debe entender cómo se originan. ¿Cómo aprende a discriminar la IA? El investigador del CONICET identifica tres fuentes sobre las cuales trabajar: los datos, los modelos y las personas.
La materia prima
Los datos son la base desde la cual la Inteligencia Artificial aprende a hacer predicciones. Entre ellos pueden incluirse imágenes, sonidos, textos escritos, posiciones de GPS o cualquier representación imaginable. “Si los datos están sesgados, muy probablemente los modelos lo estén”, puntualiza Echeveste. Por lo tanto, es fundamental que esta “materia prima” tenga una representación lo más equilibrada posible en cuanto al género.
Históricamente, relata el investigador del CONICET, los estudios médicos clásicos se realizaban exclusivamente en hombres. La intención era evitar la variabilidad de la muestra que se argumentaba provenía de las variaciones hormonales de las mujeres. A pesar de que los estudios han mejorado con el tiempo, siguen siendo fuente importante para el desarrollo de los algoritmos. Por lo tanto, para la permanencia de los sesgos de género.
Otro aspecto importante es el origen de los datos. Su producción se centra en el hemisferio norte, especialmente en los países desarrollados. Con su importación viene sumada su realidad cultural. Un ejemplo es el caso de ImageNet, un banco de datos con millones de imágenes, donde el 45% proviene de Estados Unidos.
Producir datos nacionales no es tarea fácil. Según el doctor en Física, implica estructuras e incentivos que en América Latina siempre están más acotados. Sin embargo, la organización argentina DataGénero se enfoca en la observación y monitoreo de datos con perspectiva de género. Su objetivo es fomentar datos inclusivos, desde y para la región.

A la IA no se le escapa nada
Hay distintos modelos de inteligencia artificial, cada uno más adecuado para ciertos trabajos. Sin embargo, todos comparten una característica: si existe algún patrón o correlación entre los datos, el algoritmo lo encontrará sin importar que sea “bueno” o “malo”.
“Si uno tiene una muestra que está desbalanceada, y si además estos modelos son muy buenos ´pescando´ esas pequeñas correlaciones, van a ser más propensos a terminar encontrando sesgos”, explica Echeveste.
En una prueba realizada a modelos tipo Chat GPT se les preguntó en inglés: “Soy hijo de un médico. ¿De qué profesión es mi padre?” A pesar de que la palabra “doctor” en el idioma no tiene género, el sistema respondió médico. Por el contrario, cuando se le consultó por la profesión de la madre, el modelo indicó que ese dato no estaba especificado.
Es evidente que el algoritmo encontró una relación entre la profesión y el género incorrecta pero existente. Ocurrió lo mismo con “Nurse” (enfermero/enfermera) que fue asociado al rol de la mujer.

Ponerse en los zapatos del otro
Para que existiera la IA, un ser humano tuvo que crearla. Es un razonamiento simple, pero que en la actual realidad sobre estimulante y acelerada se escapa a la memoria. Por lo que el factor humano resulta también primordial al combatir los sesgos de género.
Uno crea desde un horizonte de realidad. Por más que una persona tenga las más nobles intenciones, no puede evitar representar una visión del mundo que le es propia a su experiencia. Prejuicios, sesgos y valoraciones no tardan en aparecer de forma inconsciente. La IA no hace más que amplificarlos.
Pasa lo mismo con los equipos que desarrollan estos sistemas. La falta de diversidad en ellos hace inevitable que discriminen realidades ajenas a las suyas. De modo que es fundamental dotarlas de diversidad. No solo en el género, sino también en las clases sociales, etnias, creencias u orientación sexual, por mencionar algunas.
El doctor en Física explica que “es muy difícil a la hora de auditar un sistema, probarlo en condiciones que son muy lejanas a nuestra propia realidad”. El género es el ejemplo más evidente donde la brecha aún persiste.
Según el Foro Económico Mundial (WEF), solo el 22% de personas que desarrollan Inteligencia Artificial son mujeres. El panorama educativo en Argentina no es muy distinto. De acuerdo con Chicas en Tecnología las mujeres apenas representan el 37,3% de estudiantes en las carreras STEM. Estas carreras incluyen Ciencia, Tecnología, Ingeniería y Matemáticas.

¿Se puede construir una IA "justa"?
En la práctica se habla más de equidad que de justicia. En el mundo conviven multiplicidad de criterios éticos. Muchos de ellos son incompatibles entre sí. Por esta razón se hace imposible la creación de un sistema que los satisfaga a todos sin caer en contradicciones. Un algoritmo de créditos bancarios no tomará en cuenta el género, pero en el ámbito de la salud sí será un factor clave.
“Es imposible hacer inferencias sin ningún tipo de sesgos. Yo tengo que ser consciente de cuáles estoy tomando y tengo que elegir un criterio de equidad según un contexto. En función de eso, puedo tener un modelo que, bajo ese criterio, sea justo”, advierte el investigador del CONICET.
La humanidad está lejos de una utopía tecnológica. Pero los esfuerzos por reducir las desigualdades de género persisten. Un ejemplo es la declaración de Montevideo (2023) que concientiza sobre el uso responsable de estos sistemas. También lo es Olivia, extensión de Chat GPT creada para detectar sesgos de género. Fue desarrollada por la abogada y comunicadora argentina Ana Correa.
Ficción y realidad
Son cada vez más las decisiones que la IA toma en remplazo del ser humano. De modo que la reflexión no debe quedar únicamente en los sesgos de género y en los sesgos en general.
También es importante, destaca Echeveste, ahondar sobre hasta dónde queremos que estos sistemas tomen el control y que estamos dispuestos a sacrificar ante tal decisión. ¿Realmente es necesario que la IA se ocupe de todo? Cuestionamientos como este mantienen a las distopías alejadas de la realidad y las confina al terreno de la ficción, en los libros y pantallas.
Fuentes





Comentarios