Dr. Anke Stoll (University of Amsterdam, Netherlands) Human Judgments, Machine Decisions: Annotation Bias in Machine Learning Classification
- Datum: 20. May 2026
- Uhrzeit: 16:15
- Strasse: Linzer Str. 4
- Raum: 60.070
In diesem Vortrag gehe ich auf meine aktuelle Forschung zu Verzerrungen in maschinellen Lernsystemen ein und konzentriere mich dabei darauf, wie systematische Unterschiede in menschlichen Urteilen die Entscheidungsfindung von Modellen beeinflussen können, die auf der Grundlage dieser Urteile trainiert wurden. Insbesondere untersuche ich, wie Erkenntnisse aus den Sozialwissenschaften in Forschungsansätze einfließen können, um Verzerrungen bei der Annotation in maschinellen Lernsystemen zu erkennen und zu modellieren. Ich stelle Arbeiten aus meinem aktuellen Projekt an der Universität Amsterdam vor, an dem ich gemeinsam mit Kollegen aus den Bereichen Kommunikationswissenschaft und Sozialpsychologie arbeite. Dabei untersuchen wir, ob die politische Ausrichtung der Annotatoren Einfluss darauf hat, wie KI-Modelle Gesichtsausdrücke (d. h. Emotionen) klassifizieren. Außerdem gehe ich auf meine Arbeit zu Verzerrungen durch Annotatoren bei der Erkennung unhöflicher und polemischer Kommentare in Online-Diskussionen ein und zeige, dass Entscheidungen darüber, was einen wertvollen Nutzerbeitrag ausmacht, durch die formale Bildung der Annotatoren beeinflusst werden können.
Da maschinelle Lernsysteme zunehmend in digitalen Medienumgebungen zum Einsatz kommen, können sie Einfluss darauf nehmen, wie Menschen in medienvermittelten Kommunikationskontexten dargestellt, kategorisiert und moderiert werden. Ich freue mich darauf, zu erörtern, wie die Forschung zu Vorurteilen bei KI mit Perspektiven und Forschungsfragen der Kommunikationswissenschaft verknüpft werden kann.
Lebenslauf:
Dr. Anke Stoll ist Postdoktorandin im Bereich der computergestützten Kommunikationswissenschaft an der Universität Amsterdam und ist den Fachbereichen Kommunikationswissenschaft und Sozialpsychologie angegliedert. In ihrer Forschung untersucht sie, wie Vorurteile in der Bildverarbeitung (z. B. bei der Gesichtserkennung) und der Verarbeitung natürlicher Sprache (z. B. bei der Erkennung unhöflicher Äußerungen) die Entscheidungsprozesse von KI-Systemen beeinflussen, mit dem übergeordneten Ziel, faire und nachvollziehbare Ansätze sowohl für die Forschung als auch für praktische Anwendungen zu entwickeln.
