Estudio revela que la IA refuerza estereotipos sexistas

Una investigación publicada en Nature y citada por La Vanguardia advierte que los algoritmos y modelos de IA, como ChatGPT, refuerzan estereotipos sexistas al mostrar y describir a las mujeres como más jóvenes y menos experimentadas que sus pares masculinos.

La inteligencia artificial no solo reproduce los prejuicios humanos: también los amplifica. Un estudio publicado en la revista Nature y difundido por La Vanguardia de España reveló que los algoritmos digitales y modelos de lenguaje como ChatGPT tienden a representar a las mujeres como más jóvenes y menos experimentadas que los hombres en contextos laborales y sociales, perpetuando así un “edadismo de género” con potenciales efectos en la contratación y la percepción profesional.

La investigación, dirigida por Douglas Guilbeault, experto en lingüística cognitiva de la Universidad de Stanford, analizó 1,4 millones de imágenes y videos de plataformas como Google, Wikipedia, YouTube, Flickr e IMDb. El equipo encontró que las mujeres aparecían, en promedio, más jóvenes que los hombres en casi todas las profesiones analizadas, especialmente en las de mayor prestigio o ingresos.

Las normas sociales de belleza y atractivo ejercen una presión desproporcionada sobre las mujeres para parecer jóvenes, especialmente en la industria del entretenimiento”, explicó Guilbeault en declaraciones a La Vanguardia. El investigador añadió que la edad sigue asociándose con estatus, autoridad y poder —atributos históricamente ligados a los hombres—, lo que contribuye a mantener la desigualdad estructural.

Sesgos en imágenes y lenguaje

El estudio demostró que este patrón no se limita a las imágenes. Al analizar textos generados por grandes modelos de lenguaje —como los que sustentan sistemas de inteligencia artificial conversacional—, los investigadores detectaron la misma distorsión etaria y de género.

En un experimento adicional, con 459 participantes, se pidió a algunos que buscaran profesiones específicas en Google Imágenes y estimaran la edad de las personas retratadas. El resultado fue claro: quienes veían fotografías creían que las mujeres eran más jóvenes y, además, consideraban más aptos a los hombres de mayor edad y a las mujeres más jóvenes para los puestos analizados.

ChatGPT también refuerza estereotipos

La tercera parte del estudio examinó directamente el desempeño de ChatGPT, el modelo desarrollado por OpenAI. Los investigadores le pidieron generar 40.000 currículums ficticios para 54 ocupaciones diferentes, usando 16 nombres masculinos y femeninos cuidadosamente seleccionados.

Los resultados fueron reveladores: los currículums femeninos mostraban candidatas 1,6 años más jóvenes, con 1,3 años menos desde la graduación y casi un año menos de experiencia laboral que sus equivalentes masculinos. Además, al solicitar al propio modelo que evaluara la calidad de los currículums, ChatGPT puntuó mejor a los hombres de mayor edad.

Un problema sistémico

Según Guilbeault, este tipo de sesgos no son anecdóticos: “Las empresas de IA son parcialmente responsables de que sus productos reproduzcan y amplifiquen estos prejuicios a gran escala, con impactos negativos medibles”, advirtió.

El investigador señaló que las compañías tecnológicas suelen minimizar el problema mientras continúan lanzando productos basados en modelos entrenados con grandes volúmenes de datos humanos, lo que perpetúa prejuicios, estereotipos y distorsiones culturales.

Aunque el estudio aclara que estos sesgos no determinan directamente las decisiones de contratación en el mundo real, sí crean un terreno fértil para la discriminación laboral y social, especialmente en entornos donde la inteligencia artificial se utiliza para reclutamiento o evaluación de desempeño.

En palabras de Guilbeault, “mientras estos modelos dependan de datos humanos, estarán condenados a aprender y reforzar los prejuicios de la cultura dominante”.

Los comentarios están cerrados.

El Periodista