Los resultados del proyecto LENA confirman de manera consistente que los sistemas de inteligencia artificial generativa de imágenes no operan de forma neutral, sino que reproducen y, en numerosos casos, amplifican sesgos de género estructurales presentes en los datos de entrenamiento, en los diseños algorítmicos y en los usos sociales de estas tecnologías. Este fenómeno se ha observado de manera transversal en todas las plataformas analizadas, aunque con diferencias relevantes en su intensidad y manifestación .
El análisis del corpus empírico —compuesto por 480 imágenes generadas a partir de 60 prompts aplicados de forma homogénea en diversas plataformas de IA generativa— ha permitido identificar dos grandes tipologías de sesgo: sesgos representacionales (quién aparece en las imágenes) y sesgos presentacionales (cómo se representa visualmente a mujeres y hombres).
En relación con los sesgos representacionales, los resultados evidencian una sobrerrepresentación masculina en profesiones de alta cualificación, liderazgo y ámbitos STEM cuando los prompts no especifican explícitamente el género. De forma paralela, las mujeres aparecen con mayor frecuencia asociadas a roles de cuidado, atención interpersonal o ámbito doméstico, reproduciendo la división sexual del trabajo ampliamente documentada en la literatura feminista. Esta tendencia se mantiene incluso cuando los prompts son formulados de manera aparentemente neutra, lo que indica que los sistemas activan asociaciones implícitas aprendidas durante su entrenamiento.
Los sesgos presentacionales constituyen uno de los hallazgos más relevantes del proyecto. El análisis cualitativo muestra que las mujeres son representadas de manera sistemática con expresiones emocionales más marcadas, posturas corporales abiertas o pasivas, gestos de cercanía y una mayor atención a atributos estéticos o de apariencia física. En contraste, los hombres aparecen mayoritariamente con expresiones faciales neutras o serias, posturas firmes, mayor ocupación del espacio visual y posiciones de centralidad dentro de la escena, incluso cuando desempeñan roles equivalentes. Estos patrones visuales refuerzan imaginarios de feminidad asociados a la emocionalidad y la disponibilidad, frente a una masculinidad vinculada a la autoridad, la racionalidad y el control.
El estudio comparativo entre plataformas demuestra que el sesgo de género no es inevitable, sino dependiente de decisiones técnicas, organizativas y de moderación. Las plataformas con mecanismos de filtrado y control más estrictos muestran una menor intensidad de algunos sesgos, mientras que los entornos más abiertos o comunitarios —especialmente repositorios como Lexica.art y Tensor.art— concentran niveles especialmente elevados de hipersexualización de los cuerpos femeninos y de reproducción de estereotipos tradicionales, revelando el papel amplificador de las dinámicas de uso y compartición comunitaria.
Otro resultado clave es la influencia del diseño de los prompts. Los prompts inclusivos y explícitos permiten mitigar de manera eficaz los sesgos representacionales, obligando a los sistemas a respetar la indicación de género solicitada. Sin embargo, esta estrategia resulta insuficiente para eliminar los sesgos presentacionales, que persisten de forma más sutil. Este hallazgo pone de relieve el riesgo de trasladar la responsabilidad de la equidad exclusivamente a las personas usuarias y refuerza la necesidad de intervenciones estructurales en el diseño y gobernanza de la IA.
En conjunto, los resultados del proyecto LENA validan plenamente las hipótesis planteadas y evidencian que el uso acrítico de imágenes generadas por IA, especialmente en contextos educativos y comunicativos, puede contribuir a la normalización de estereotipos de género. Al mismo tiempo, el proyecto demuestra que estas tecnologías pueden convertirse en herramientas pedagógicas y transformadoras si se integran desde una perspectiva crítica y feminista, incorporando metodologías de análisis, alfabetización digital y evaluación del impacto de género.