Projekte
The NLP Bias Identification Toolkit
Biaslyze hilft beim Einstieg in die Analyse von Bias in NLP-Modellen und bietet einen konkreten Einstiegspunkt für weitere Folgenabschätzungen und Vermeidungsmaßnahmen. Vor allem für Entwickler*innen, Forscher*innen und Teams mit begrenzten Ressourcen bietet unsere Toolbox einen Ansatz mit geringem Aufwand für Bias-Tests in NLP-Anwendungsfällen.
KI-MoDi - Diskriminierung raus den den Sprachmodellen!
Mit KI-MoDi möchten wir modellhaft zeigen, wie man Diskriminierungsrisiken von KI-Systemen analysieren und ihnen entgegenwirken kann. Am Beispiel des bestehenden Content-Moderation-Assistenz-Systems KOSMO erarbeiten wir ein Modell zur Analyse und Reduktion von Diskriminierung in KI-Sprachmodellen.