NewIn: Orestis Papakyriakopoulos
Auf dem Weg zu fairen Digitaltechnologien
Welches Beispiel für eine diskriminierende Technologie ist Ihnen besonders in Erinnerung geblieben?
Ein besonders eindeutiges Beispiel war die Gesichtserkennung eines Handymodells, mit der man das Handy freischalten konnte. Die Technologie konnte bei asiatisch-stämmigen Menschen die Gesichter schlechter unterscheiden, sodass fremde Personen Zugriff auf manche Smartphones bekommen konnten. Wenn diejenigen, die eine Künstliche Intelligenz trainieren, sich mögliche Diskriminierungen nicht bewusst machen, werden die Trainingsdaten die sozialen Asymmetrien der realen Welt replizieren. Deshalb werden Frauen durch Technologien häufiger diskriminiert, deshalb werden dunkelhäutigere Menschen häufiger diskriminiert, indem etwa die Bildoptimierung einer Kamera auf Menschen mit heller Haut ausgerichtet ist.
Gibt es Lebensbereiche, in denen das Risiko, einer unfairen Technologie zu begegnen, besonders hoch ist?
Solche Probleme können uns überall begegnen. Aber die Folgen können natürlich in einigen Bereichen schwerwiegender sein. Zum Beispiel wenn nicht-inklusive Algorithmen in der Medizin eingesetzt werden, wenn eine Künstliche Intelligenz Bewerbungen filtert oder darüber entscheidet, wer einen Kredit bekommt.
Was wollen Sie mit Ihrer Forschung ermöglichen?
Erstens wollen wir Probleme wie Diskriminierung, Hassrede oder Fehlentscheidungen finden und dokumentieren. Zweitens wollen wir der Politik aufzeigen, wie Technologien reguliert werden können, um diese Probleme zu verhindern. Und drittens wollen wir erforschen, wie man Daten inklusiver sammeln und wie man unabhängig von den großen Tech-Unternehmen Modelle entwickeln kann, die fair by Design sind, also vom ersten Entwicklungsschritt an Fairness berücksichtigen.
Die Forschung hat in den vergangenen Jahren schon viele Probleme aufgezeigt. Haben die Unternehmen bei der Entwicklung der jüngsten Technologien, wie der generativen KI, stärker darauf geachtet?
Ja, wir sehen schon, dass deutlich mehr daran gedacht wird, nicht nur bei generativer KI, sondern auch bei klassischen Algorithmen. Weil das inzwischen ein Thema in der Ausbildung der Entwicklerinnen und Entwickler ist. Und weil Modelle, die nicht diskriminieren, heute als genauer und besser gelten.
Bezeichnen Sie sich deshalb als kreativen Optimisten?
Die Probleme gibt es ja nicht, weil den meisten Menschen Diskriminierung egal ist, sondern weil es um komplexe soziale und soziotechnische Prozesse geht, mit oft unerwarteten Effekten. Die meisten Menschen in den Unternehmen und in der Politik möchten Fehler korrigieren. Deshalb wollen wir in einen Dialog kommen, wozu wir das Civic Machines Lab am TUM Think Tank gegründet haben, der genau dieses Ziel hat. Hier organisieren wir Workshops, in denen Forschende, Firmen, NGOs und Politik gemeinsam an Lösungen arbeiten.
Und welche Rolle spielt die Kreativität bei Ihrer Arbeit?
Ich versuche immer, die Lehre kreativer zu gestalten. Die Studierenden sollen in den Kursen ihren eigenen Fragen nachgehen und nicht nur das lernen, von dem ich denke, dass sie es lernen sollen. Auch bei den Promovierenden versuche ich zu sehen, was sie selbst erreichen möchten und ihnen die Ressourcen dafür zu geben – im Unterschied zur deutschen Promotionskultur, die ja lange sehr hierarchisch war. Der Begriff Doktorvater sagt ja schon einiges aus…
Sie haben selbst einen unkonventionellen Lebenslauf, angefangen beim Bauingenieurwesen über Technikphilosophie bis zu Informatik.
Die Sprünge zwischen den Fächern waren nicht ganz so groß, wie es vielleicht klingt. Im Bauingenieur-Studium habe ich sehr viel mathematische Modellierung gemacht. Mich hat schon immer interessiert, gesellschaftliche Aspekte einzubeziehen. Der damalige Masterstudiengang Wissenschafts- und Technikphilosophie der TUM – wie auch der heutige Master in Science and Technology Studies – bot sehr viele Freiheiten, soziale und technische Aspekte zu verbinden. In dieser Zeit kam die erste große Big-Data-Welle und dann bin ich seit meiner Promotion bei diesem Themenbereich geblieben.
Was ist hier die größte Herausforderung?
Heute kam eine Studentin zu mir und hat gesagt: Das Modell, mit dem wir gerade unsere Experimente machen, ist eigentlich zu alt. Wir haben das Modell aber gerade erst vor sechs Monaten entwickelt. Es gibt schon einen großen Druck, sehr schnell zu sein, wenn wir die neuesten Technologien untersuchen wollen, die ja von den Menschen auch schon eingesetzt werden. Aber das ist natürlich auch das Spannende.
Orestis Papakyriakopoulos studierte Bauingenieurwesen an der Nationalen Technischen Universität Athen sowie Wissenschafts- und Technologiephilosophie an der TUM, wo er in Informatik promovierte. Er war Gastwissenschaftler am MIT Media Lab und hat an der Princeton University geforscht. Außerdem arbeitete er als AI Research Scientist bei Sony. Seit 2024 ist er Professor für Societal Computing an der TUM School of Social Science and Technology und leitet das Civic Machines Lab am TUM Think Tank.
Technische Universität München
Corporate Communications Center
- Klaus Becker
- klaus.becker @tum.de
- presse @tum.de
- Teamwebsite
Kontakte zum Artikel:
Prof. Dr. Orestis Papakyriakopoulos
Technische Universität München (TUM)
Professur für Societal Computing
Tel.: +49 89 289 28083
orestis.p @tum.de