Wissenschaftliche Präsentation: Gender Bias in Natural Language Processing: Origins and Consequences

19. September 2024 / IRIS3D

Der Vortrag befasst sich mit den Ursprüngen und Auswirkungen geschlechtsspezifischer Vorurteile in NLP-Modellen und konzentriert sich darauf, zu verstehen, wie diese Vorurteile aus der Sprache entstehen. Anhand einer Reihe von Fallstudien werde ich Ungleichheiten in häufig verwendeten Datensätzen wie Wikipedia, Lehrtexten und Online-Diskussionsforen vorstellen. Diese Fallstudien werden hervorheben, wie subtile Vorurteile in Daten die Ergebnisse von NLP-Modellen beeinflussen und möglicherweise schädliche Stereotypen und Ungerechtigkeiten aufrechterhalten können.

Der Vortrag soll den Teilnehmern der Sommerschule Einblicke in die Bedeutung der Minderung von Vorurteilen in ihrer eigenen Arbeit mit Deep-Learning-Modellen geben. Die Diskussion wird die Notwendigkeit eines sorgfältigen Ansatzes bei der Datenauswahl und Modellentwicklung betonen, um sicherzustellen, dass die von ihnen erstellten Tools zu gerechteren Ergebnissen beitragen.

LINK ZUR PRÄSENTATION

Kontakt

Dr. Agnieszka Faleńska

Zum Seitenanfang