dAIalog.at - Förderung von Fairness und Vertrauen in KI durch Formate der partizipativen Technikgestaltung

Projektdetails

Beschreibung

Unter den vielen Faktoren, die zum Vertrauen in technologische Systeme beitragen oder den Verlust dieser bewirken können, kommt den Auswirkungen der Technologien auf die Gesellschaft eine zentrale Rolle zu. Dies wird besonders deutlich, wenn es um Fragen von Fairness, Diversity und möglicher Diskriminierung geht. Forschungsarbeiten aus den Science, Technology and Society Studies zeigen hierzu, dass während der Technikentwicklung Vorannahmen sowie fehlende Kenntnisse der EntwicklerInnen dazu führen können, dass die entwickelten Technologien Nachteile für bestimmte Personen(gruppen) mitbringen können (Rommes et al., 2004). Oudshoorn, Rommes und Stienstra (2004) beschreiben beispielsweise, dass technologische Innovationen oft basierend auf der unbewussten Annahme eines Durchschnittsmenschen entwickelt werden, der nicht selten männlich, weiß, mittleren Alters und nicht behindert ist. Der bei der Technologieentwicklung fehlende Einbezug von Personen, die diesen und weiteren Kriterien nicht entsprechen, kann negative Folgen für die betroffenen Individuen nach sich ziehen. Ein Beispiel hierfür stellen schwangere Personen, dar, deren mangelhafte Einbeziehung in die Entwicklung konventioneller Anschnallgurte zu zahlreichen Fötusverlusten führte (European Union, 2013).

Auch und insbesondere für Systeme der Künstlichen Intelligenz (KI) hat man entsprechende “Biases” feststellen können. Bekannt geworden sind Bilderkennungsalgorithmen, die es nicht schafften, dunkelhäutige Frauen korrekt als solche zu identifizieren (Zou und Schiebinger, 2018) oder Bewertungsalgorithmen, die weibliche Bewerberinnen auf einen Job aufgrund ihres Geschlechts aussortierten (Dastin, 2018). Entsprechende Problemstellungen können natürlich auch bei KI-Systemen entstehen, die in Österreich entwickelt werden. Ein medial besonders bekannt gewordener Fall betrifft einen Algorithmus des Arbeitsmarktservice Österreich (AMS; Frey, 2019). Wie ein mathematische Analyse (Lopez, submitted) feststellen konnte, diskriminiert dieses sogenannte “Arbeitsmarkt-Chancen-Modell” des AMS Frauen, da bereits der entsprechende Geschlechtseintrag AMS-Datenbank dazu führt, dass die betroffenen Personen als weniger förderfähig eingestuft werden. Konsequenterweise stellt sich die Frage, wie entsprechende Problemstellungen in Bezug auf KI-Systeme in Österreich von vornherein verhindert werden können. Hierzu sondiert das Projekt dAIalog.at einen möglichen Lösungsansatz basierend auf Methoden der partizipativen Technikgestaltung.

Die grundlegende Motivation ist es hierbei, KI-Entwicklungsprozesse in Österreich so zu unterstützen, dass die geschaffenen KI-Technologien keine gesellschaftliche Nachteile mit sich ziehen. Hierzu haben Zou und Schiebinger (2018) den Begriff einer “fairen KI” geprägt, der allerdings im Kontext von Österreich aktuell noch genauer geklärt werden muss. Dies erstmalig auszuloten ist ein weiterer Aspekt des Projekts dAIalog.at.

Zusammenfassend streben wir sodann in diesem Projekt die Entwicklung eines Prozesses an, der die Inklusion diverser Nutzungsgruppen sowie deren aktive Mit-Gestaltung in der Technologieentwicklung ermöglicht. Hierzu bedienen wir uns u.A. bei etablierten Methoden des Participatory Designs um über diese verstärkte Einbindung in den Gestaltungsprozess das Vertrauen der Nutzer, die Repräsentierung diverser Nutzungsbedürfnisse, als auch die Entwicklung fairer KI-Systeme zu fördern.
KurztiteldAIalog.at
AkronymdAIalog.at
StatusLaufend
Tatsächlicher Beginn/ -es Ende1/04/2031/03/21

Systematik der Wissenschaftszweige 2012

  • 102 Informatik