IT&G – Neutrale Maschinen – Gerechte Entscheidungen? Flashcards
Was ist das Problem bei ADM-Systemen?
- Viele ADM-Systeme sind intransparent, d.h. rechtlich geschützt und nicht überprüfbar
- Viele erweisen sich als unfair
Was machen “Weapons of Math Destruction” aus?
- geheim
- wichtig/einflussreich
- zerstörerisch
Was schlägt Cathy O’ Neil vor zur Verhinderung von Biases in ADMs?
- Datenintegritätscheck (Bsp: Verteilung Marihuana-Konsum vs. Verteilung Verurteilung)
- Erfolgsdefiniton (Bsp: Fox News, Beförderung nach 4 Jahren)
- Genauigkeit: Ausmaß und Verteilung von Fehler und Konsequenzen für
verschiedene Betroffene(ngruppen) - Langfristige Effekte
Welche Botschaften hat Cathy O’ Neil als Schlussfolgerung?
- Data Scientists als Übersetzer gesellschaftlicher Realitäten, nicht Schiedsrichter der Wahrheit (arbiters of truth)
- Es geht nicht um Mathematik, sondern Politik im Kampf um die Kontrolle über algorithmische Systeme
Nenne die fünf Punkte, die Barocas & Selbst nennen, wie Data Mining diskriminiert.
- Target Variables & Class Labels
- Training Data
- Feature Selection
- Proxies
- Masking
Wo liegt das Problem mit Zielvariablen?
- Sie können schon eine Verzerrung in sich haben
Was sind Class Labels beim Data Mining?
unterteilen mögliche Werte der Zielvariable in sich gegenseitig ausschließende Kategorien
Wo ist das Problem mit den Trainingsdaten?
Diese können an sich schon verzerrt sein
* Garbage-in, Garbage-out
* Qualität und Repräsentativität von Daten korreliert ggf. mit Geschlecht, Klasse, Rasse, etc.
* Über- und Unterpresentätiertheit als zwei Probleme
Erkläre das Problem der Feature Selection beim Data Mining.
- DatensindReduktionundAbstraktiondeszuerfassendenrealen Phänomens
- Wieumfassendundgenau/grobsindmeineAnnäherungen?
- Unterscheidet sich diese Umfassendheit & Genauigkeit systematisch für verschiedene Gruppen?
- Redlining
Erkläre das Problem der Proxies beim Data Mining.
- Diskriminierungsrelevante Daten einfach nicht
erheben/löschen?
– Proxies & redundante Enkodierung: Klassenzugehörigkeit, Geschlecht ist auch durch andere Daten ersichtbar
Erkläre das Problem des Maskings beim Data Mining.
- neue Formen der beabsichtigten Diskriminierung, durch Verschleierung systematischer Diskriminierung
Was ist das Problem, wenn man Diskriminierung von ML vermeiden/minimieren will
Unterschiedliche Methoden des Nachweises zeigen unterschiedliche Formen von Diskriminierung auf
Was ist das Problem bei einbau von Fairness in ML?
- Manche Anforderungen an Fairness können nicht gleichzeitig erfüllt werden!
- Die Entscheidung über bestimmte Fairnessmaße sollte kontextabhängig entschieden werden und nicht alleine Programmierern überlassen bleiben
- Zur Entscheidung für ein technisches Fairness-Maß bedarf es ethischer Erwägungen und politischer Entscheidungen