Fair AI

Research Fokus

Die Research Area „Fair AI" hat die Aufgabe, faire, vorurteilsfreie Algorithmen und Bewertungsmethoden, die die Risiken von Diskriminierung minimieren und das Vertrauen in KI fördern, zu erforschen und zu entwickeln. In enger Zusammenarbeit mit den anderen Research Areas arbeiten wir am tiefen Verständnis von Kausalzusammenhängen, die falschen Entscheidungen zugrunde liegen. Unser übergeordnetes Ziel ist es, faire Algorithmen und Bewertungsmethoden zu entwickeln, die wesentlicher Baustein einer vertrauenswürdigen KI sind. Wir wollen Nutzer:innen in ihrer selbstbestimmten, kritischen und informierten Entscheidungsfindung und Interaktion mit KI-basierten Systemen (etwa bei Empfehlungssystemen/Recommender Systems) unterstützen.
Biases in Data and Systems

Kognitive und soziale Verzerrungen (Biases) in der Wahrnehmung und im Verhalten von Menschen werden von KI-basierten Systemen erfasst, reflektiert und potenziell verstärkt. Häufige Beispiele sind die Förderung von Popularitäts-Biases und Polarisierung in Online-Informationen oder die Übernahme von geschlechtsspezifischen Vorurteilen in Suchmaschinen. Unsere Forschung zielt auf das Verstehen solcher kognitiver und sozialer Biases in Benutzerinteraktionen und anderen Formen von KI-Trainingsdaten.

Fairness in Algorithmic Decision Support

Um höchstmögliche Transparenz in Systemen unserer Partner zu schaffen, erforschen wir die Gründe für soziale und kognitive Verzerrungen (Biases) in Algorithmen und entwickeln spezielle Modellierungstechniken für einzelne (Gruppen von) Nutzer:innen. Dies wird zu einem Ökosystem beitragen, in dem ein hohes Maß an Transparenz und Fairness durch personalisierte Algorithmen erreicht wird.

Privacy-aware Recommendations

Empfehlungssysteme/Recommender Systems benötigen typischerweise viele persönliche und private Daten um personalisierte Empfehlungen berechnen zu können. Wir erarbeiten Datenschutzkonzepte für Recommender Systems und geben den Benutzer:innen die Kontrolle darüber, wie viele Daten sie weitergeben. Mit hochinnovativen „Verschleierungstechniken“, die mit unseren Partnern in sensiblen Umgebungen wie dem Gesundheitswesen evaluiert werden, halten wir die Balance zwischen Genauigkeit der Daten und Datenschutz.