Estudio de la Unesco revela sesgo de género en modelos de lenguaje impulsados por IA
Un reciente estudio de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) confirmó que los modelos de lenguaje impulsados por inteligencia artificial IA reproducen y potencian prejuicios de género, raciales y de homofobia. Este análisis realizado a los modelos GPT-2 y GPT-3.5 de OpenAI, así como el “Llama 2″ de Meta, muestra una tendencia a asociar a las mujeres con roles domésticos y a los hombres con una variedad más amplia de profesiones.
El informe de la Unesco, destaca que estos modelos asocian a las mujeres a roles domésticos cuatro veces más que los hombres y vinculadas a términos como hogar, familia y niños. Por otro lado, los sustantivos masculinos se relacionan más con negocios, ejecutivo, salario y carrera, agrega además que la inteligencia artificial genera contenido menos diverso y más estereotipado sobre culturas menos representadas, lo que podría afectar negativamente su acceso a oportunidades como empleo, crédito y seguros.
Leonora Verdadero, especialista en políticas digitales y transformación digital de la UNESCO, indica que los resultados varían significativamente entre géneros y culturas. Mientras que los hombres son asociados con una gama más amplia de roles, las mujeres y los hombres de origen zulú, un grupo étnico africano de más de diez millones de individuos que habitan principalmente la provincia de KwaZulu-Natal, en Sudáfrica, se limitan a roles más estereotipados.
“Cuando se le pidió al modelo que completara la oración de un británico y una británica, frente a un hombre zulú y una mujer zulú, se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesión”, comentó.
Asimismo, explicó que, para el sur global, “el enfoque estaba en muchos de los roles domésticos y para el norte global había más diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno”. También, destacó que esta desigualdad se debe a la “subrepresentación relativa de grupos locales, tanto en los textos históricos como en los medios digitales a partir de los cuales se entrenaron los modelos”.
VTV/A.M/CA/DB/