Untersuchung der Fairness von Learning Analytics Systemen (Fair enough?)
Datenbasierte Verfahren zur Analyse, Vorhersage und Bewertung von Lernprozessen (Learning Analytics) können die in den Daten enthaltenen Vorurteile reproduzieren und zu unfairen Ergebnissen führen. Im Projekt sollte untersucht werden, wie die Fairness von Learning Analytics Systemen überprüft und auditiert werden kann.
Die gesellschaftlichen Folgen von algorithmischen Entscheidungsprozessen werden durch die Kombination der implementierten algorithmischen Verfahren mit den verwendeten Daten und dem Verhalten der Nutzenden determiniert. Während die Fairness algorithmischer Verfahren in der Informatik vorrangig nach quantitativen, formal-analytischen Maßstäben beurteilt wird, die nicht alle zur gleichen Zeit erfüllt sein können, beurteilen Nutzende die Fairness algorithmischer Verfahren eher auf ihrer subjektiven, individuellen Wahrnehmung und den gesellschaftlichen Normen.
Deshalb sollte das Thema im Projekt von zwei komplementären Seiten untersucht werden:
- Entwicklung von praxistauglichen Methoden zur Beurteilung von Learning Analytics Systemen und Daten auf ihre Fairness (HTW Berlin),
- Untersuchung der Anforderungen und Erwartungen von Nutzenden an die Fairness von Learning Analytics Systemen (HHU Düsseldorf).
Im Ergebnis des Projektes sollte ein Werkzeug in Form eines 6-stufigen Leitfadens zur Überprüfung von Learning Analytics Systemen hinsichtlich ihrer Fairness entstehen, welcher sowohl die Fairness des Systems aus Daten und Algorithmen als auch den Verwendungsprozess der durch das System getroffenen Aussagen berücksichtigt.
Projektlaufzeit
Projektleitung
- Prof. Dr. Katharina Simbeck (Projektleitung)
Projektmitarbeiter_innen
- Linda Fernsel (Projektmitarbeiter_in)
- Dr. Yannick Kalff (Projektmitarbeiter_in)
- Hassan Tagharobi (Projektmitarbeiter_in)
Mittelgeber
Bundesministerium für Bildung und Forschung (BMBF)
Kooperationspartner
- Heinrich-Heine-Universität (HHU) Düsseldorf
Förderprogramme
Digitale Hochschulbildung