Projects
![biaslyze](https://beyond-ai-collective.org/wp-content/uploads/2023/09/biaslyze_logo_farbe.png)
The NLP Bias Identification Toolkit
Biaslyze hilft beim Einstieg in die Analyse von Bias in NLP-Modellen und bietet einen konkreten Einstiegspunkt für weitere Folgenabschätzungen und Vermeidungsmaßnahmen. Vor allem für Entwickler*innen, Forscher*innen und Teams mit begrenzten Ressourcen bietet unsere Toolbox einen Ansatz mit geringem Aufwand für Bias-Tests in NLP-Anwendungsfällen.
KI-MoDi - Diskriminierung raus den den Sprachmodellen!
Mit KI-MoDi möchten wir modellhaft zeigen, wie man Diskriminierungsrisiken von KI-Systemen analysieren und ihnen entgegenwirken kann. Am Beispiel des bestehenden Content-Moderation-Assistenz-Systems KOSMO erarbeiten wir ein Modell zur Analyse und Reduktion von Diskriminierung in KI-Sprachmodellen.