Exponat:
„Who’s deciding here?!“
Leihgeber: Fraunhofer IAIS
Das Thema Künstliche Intelligenz (KI) ist aus unserem Alltag kaum noch wegzudenken. Sie unterstützt beispielsweise Ärztinnen und Ärzte bei präziseren Diagnosen, optimiert Ressourcen für den Klimaschutz und ermöglicht innovative Lösungen in unterschiedlichsten Bereichen. Doch neben den vielen Vorteilen birgt die Technologie auch Risiken. Eine zentrale Frage lautet: Wie können wir sicherstellen, dass KI vertrauenswürdig und fair arbeitet?
Das Fraunhofer IAIS forscht im Rahmen der Kompetenzsäule Human AI des ADA Lovelace Centers an genau dieser Herausforderung. Dabei steht der Mensch im Mittelpunkt: KI wird nicht nur auf technischer Ebene betrachtet, sondern explizit mit den Bedürfnissen und Perspektiven ihrer potenziellen Nutzer*innen verknüpft. Ziel ist eine Künstliche Intelligenz, die sowohl robust, transparent und ressourcenschonend arbeitet, als auch die Privatsphäre wahrt und niemanden diskriminiert.
Spielerisches Lernen – Das Exponat
Mit dem interaktiven Exponat „Who’s deciding here?!“ können Besucher*innen die aktuell noch vorhandenen Grenzen und Möglichkeiten von KI selbst testen. Es greift lebensnahe Situationen auf, um die Auswirkungen von KI-Entscheidungen verständlich zu machen: Ein Szenario zeigt zwei Bewerber*innen, die sich auf dieselbe Stelle beworben haben. Beide sind gleich alt und gleich gebildet – die Frau sogar noch besser qualifiziert als der Mann. Dennoch entscheidet sich die KI in diesem Fall für den männlichen Bewerber. Ein anderes Beispiel untersucht, ob KI zuverlässig eine Lungenentzündung diagnostizieren kann. Hier lautet die Antwort: Ja.
Die Fragen und Antworten des Exponats verdeutlichen: KI ist nicht automatisch fair und unvoreingenommen. Besonders bei heiklen Themen wie Jobbewerbungen oder medizinischen Diagnosen kommt es auf vertrauenswürdige und vorurteilsfreie Systeme an.
Das Exponat „Who’s deciding here?!“ zeigt auf spielerische Weise, wie wichtig vertrauenswürdige KI ist. Egal ob im Bereich Gesundheit, Bildung oder Wirtschaft, die Technologie muss verantwortungsvoll entwickelt und eingesetzt werden, denn sie beeinflusst zentrale Lebensbereiche.
Warum vertrauenswürdige KI so wichtig ist
Vertrauenswürdige KI wird eine Grundvoraussetzung für gesellschaftliche Akzeptanz und Innovation – da ist sich Dr. Stefan Kamin, Koordinator der Kompetenzsäule Human AI, sicher. Fälle, wie der eines KI-Systems von Amazon, das Frauen bei der Bewerberauswahl diskriminierte, zeigen, wie wichtig es ist, die Datenbasis und die Trainingsmethoden genau zu durchdenken. Denn eine KI kann nur so fair sein wie die Daten, auf denen sie basiert.
Das Fraunhofer IAIS setzt hier an: Bevor ein Forschungsprojekt oder ein Industriepartner konkrete KI-Lösungen entwickelt, sammeln die Wissenschaftler*innen umfangreiches Wissen über die Zielgruppe und die jeweiligen Anforderungen. Dabei kommen sowohl repräsentative Umfragen als auch kleinere Fokusgruppen zum Einsatz. Mit diesen Ansätzen wird die Datenqualität sichergestellt, sodass die KI möglichst objektive und diversitätsbewusste Entscheidungen trifft.