Wie wirken datenbasierte algorithmische Systeme auf Menschen, die besonders vulnerabel sind – und welche Formen von Ungerechtigkeit können dabei entstehen? Die Dissertation untersucht aus rechtsphilosophischer Perspektive, wie staatliche KI-Anwendungen in Bereichen wie Bildung, Sozialstaat, Asyl oder Strafverfolgung individuelle Benachteiligungen erzeugen können. Im Zentrum stehen Bias-Typologien, Grenzen quantitativer Fairness-Tests und das Konzept der „susceptibility to algorithmic disadvantage“. Durch theoretische Werkzeuge und Fallstudien – etwa zum Prognosesystem des österreichischen AMS – zeigt die Arbeit, wie algorithmische Systeme über verschiedene Kontexte hinweg systematische Ungleichheiten verstärken könne.
Dieses Dissertationsvorhaben ist im Studiengang „Interdisciplinary Legal Studies“ der rechtswissenschaftlichen Fakultät der Universität Wien angesiedelt. Es geht dabei um die rechtsphilosophische Betrachtung der Anwendung von datenbasierten algorithmischen Systemen im Kontext des staatlichen Handelns mit Blick auf Individuen – insbesondere, wenn es sich um Individuen handelt, die sich in sensiblen Lebenssituationen befinden: im Bildungswesen, in sozialstaatlichen Kontexten, im Asylwesen, in der Strafverfolgung.
Der technische Betrachtungsbereich umfasst sowohl klassischere KI-Systeme wie etwa Klassifizierungen als auch Generative KI. Ein Fokuspunkt ist das Risiko von Benachteiligung im Zusammenhang mit Daten-Bias. Die Dissertation taucht tief ein in das Thema Bias und erstellt eine dreiteilige Typologie von verschiedenen Bias-Arten, in der es unter anderem auch um die Frage geht, ob ein vorliegender Bias theoretisch repariert oder verbessert werden kann – dies ist nicht immer der Fall. Diese Typologie wurde bereits als peer-reviewed Journalartikel veröffentlicht.
Außerdem wird auch auf die Fallstricke im Zusammenhang mit quantitativem Bias-Testing eingegangen: sämtliche Spannungsfelder und Ambivalenzen, die im Zusammenhang mit Daten und Quantifizierung schon lange betrachtet und studiert werden, sind auch im Kontext des Bias-Testing relevant. Auch das ist ein peer-reviewed Artikel bei der FAccT 2023.
Mit Blick auf die Relation zwischen Staat und Individuum wird der philosophische relationale Egalitarismus als Perspektive verwendet, um die Voraussetzungen einer Konstellation zu formulieren, die Individuen in gerechtigkeitstheoretisch besonderem Ausmaß anfällig macht für benachteiligende Effekte von algorithmischen Systemen: susceptibility to algorithmic disadvantage – auch bereits peer-reviewed und veröffentlicht bei der FAccT 2024.
Die verschiedenen theoretischen und methodologischen Denkwerkzeuge, die im Laufe der Dissertation entwickelt wurden, werden schließlich auf einige Fallstudien angewendet. Eine Fallstudie handelt etwa von einem algorithmischen Prognosesystem des Österreichischen Arbeitsmarktservice (AMS). Diese Fallstudie ist auch als peer-reviewed Paper veröffentlicht worden.
Mit Blick auf susceptibility to algorithmic disadvantage wird schließlich ein roter Faden der Ungerechtigkeit entlang verschiedenster algorithmischer Systeme in heterogenen Anwendungsbereichen und breit gestreuter geografischer Verortung gezogen.
Paola Lopez
Wissenschaftliche Mitarbeiterin
- Gebäude/Raum: Am Fallturm 1, TAB Raum 3.88
- Telefon: +49 (0) 421 218 – 56573
- E-Mail: lopez@uni-bremen.de
