KI-Fairness and Accountability
Übersicht
In einer Welt, in der KI immer stärker in unserem Alltag präsent ist, ist es wichtiger denn je, die möglichen negativen Auswirkungen dieser Technologie zu verstehen und zu minimieren. Mit unseren Forschungsarbeiten zu den Bereichen KI-Fairness und Algorithmic Accountability, versuchen wir zur verstehen, wie KI-Systeme zu schädlichen Auswirkungen führen können und wie sie gestaltet werden müssen, damit Unternehmen und Individuen gleichermaßen von den Vorteilen von KI profitieren, ohne dabei die Rechte und Würde von Menschen zu verletzen. Dabei untersuchen wir, wie Unternehmen ethische und rechtliche Anforderungen, die aus der Entwicklung und Nutzung von KI entstehen, umsetzten können.
Kooperationen
Keine Kooperationen verfügbar.
Projekte & Vorträge
Projekttitel: „Erklärung und Abmilderung informationslimitierender Umgebungen in personalisierten Nachrichtenplattformen (EMILE)“
Im digitalen Zeitalter erfolgt der Konsum von Nachrichten zunehmend online über personalisierte Nachrichtenplattformen (PNPs). Diese bieten durch algorithmische Nachrichtenempfehlungssysteme (news recommendation systems, NRS) stark personalisierte Nachrichtenfeeds. Trotz entsprechender Vorzüge birgt dies die Gefahr der Entstehung von informationslimitierenden Umgebungen (information-limiting environments, ILEs), zu denen Filterblasen und Echokammern zählen. Filterblasen präsentieren individuellen Nutzern lediglich eine selektive Teilmenge des Nachrichtenangebots, während Echokammern durch überschneidende Filterblasen mehrerer Nutzer beschrieben werden können. Beide Phänomene können Hassrede, Fehlinformationen und Polarisierung fördern und somit die Diskursfreiheit einschränken. Obgleich ILEs konzeptionell beschrieben und teilweise empirisch nachgewiesen wurden, fehlt ein fundierter empirischer Befund darüber, unter welchen Bedingungen ILEs in welchem Ausmaß auftreten. Dies ist auf eine uneinheitliche Operationalisierung von ILEs sowie eine unzureichende empirische Untersuchung vieler potenzieller Ursachen als Hauptursachen für dieses Problem zurückzuführen. Zudem mangelt es an empirischer Evidenz zur Wirksamkeit möglicher Gegenmaßnahmen. Das beantragte Forschungsvorhaben zielt daher zunächst auf die Entwicklung einer einheitlichen Operationalisierung von ILEs ab, welche sowohl eine objektive Verzerrung des Informationskonsums als auch das fehlende Bewusstsein des betreffenden Nutzers darüber berücksichtigt. Mithilfe von Online-Experimenten soll anschließend ein empirisch validiertes Erklärungsmodell für die Entstehung von ILEs entwickelt werden. Anschließend sollen Maßnahmen konzipiert und empirisch evaluiert werden, um die Nutzer zu einem vielfältigeren Konsum von Nachrichten zu motivieren. Dies soll durch eine Erhöhung der Nachrichtenvielfalt in ihrem Newsfeed und durch aktiven Konsum der zusätzlichen Nachrichten erreicht werden. Die Effektivität der Interventionen soll durch eine empirische Vergleichsstudie gemessen werden, welche sowohl die Veränderungen im Konsumverhalten und als auch die Akzeptanz der Interventionen untersucht. Das beantragte Vorhaben basiert auf mehreren Vorarbeiten, die auf einschlägigen Fachkonferenzen der Wirtschaftsinformatik publiziert wurden. Die Projektlaufzeit beträgt drei Jahr. Das Vorhaben würde einen theoretischen Beitrag leisten, indem ein besseres kausales Verständnis von ILEs in PNPs und eine einheitliche, vergleichbare ILE-Metrik entwickelt werden. Des Weiteren würde das Projekt praktische und gesellschaftliche Beiträge leisten, indem evidenzbasierte Maßnahmen zur Reduzierung von ILEs in PNPs entwickelt werden, die von den Nutzern freiwillig angenommen werden. Dies würde PNP-Betreibern und Gesetzgebern ermöglichen, ILEs zu verhindern, ohne die Rechte und Freiheiten der Nutzer einzuschränken, und somit der Zunahme von Fehlinformationen und Hassreden im Netz vorzubeugen.
Projekttitel: „Realisierung Ethisch Verantwortungsvoller Informationssysteme zur Strategischen Entscheidungsfindung (REVISE)“
Wenn Unternehmen oder andere Institutionen datengetriebene Verfahren der Künstlichen Intelligenz einsetzen, um strategische Entscheidungen zu treffen oder zu informieren, stellt sich die Frage, welche ethischen Anforderungen an die betreffenden Informationssysteme zu stellen sind und wie diese technisch realisiert werden können. Ziel dieses Projekts ist, in Zusammenarbeit mit Merck Konzepte und Verfahren zu entwickeln und zu evaluieren, die Entscheidungsträgerinnen und Entscheidungsträger unterstützen, die ethischen Implikationen des Einsatzes solcher Systeme zu antizipieren und deren verantwortungsvollen Einsatz zu gewährleisten.