Ethics & Fairness Flashcards

1
Q

Nenne Teilbereiche des Gebiets Ethics & Moral in AI

Ethics & Moral

A
  • Transparency
  • Data Privacy
  • Accountability / Trustworthyness (funktioniert nur zusammen)
  • Fairness & Bias
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Beschreibe das Problem für Ethics & Bias in AI. Was sind die Gründe dafür?

Ethics & Bias in AI

A

Es gibt zahlreiche Fälle von AI-Components, die gewisse Segmente der Menschen anders behandelt haben als den Rest.

Die Welt ist auch (leider) biased und unfair. Daten repräsentieren die Welt und trainieren dann das ebenso biased Model.

Es ist wichtig, diesen Bias für alle geschützten Attribute auszugleichen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Definiere Ethik

Ethics & Moral

A

Ethik befasst sich mit dem “Was ist gut für Menschen und Gesellschaft”.

Ziel ist es, moralische Prinzipien abzuleiten, welche Menschen helfen sollen, Entscheidungen zu treffen und ihr Leben zu leben.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Nenne drei verschiedene Kategorien innerhalb der Ethik

Ethics & Moral

A

Meta-Ethics:
- Natur der moralischen Beurteilung
- Bedeutung und Ursprung ethischer Prinzipien

Normative Ethics:
- Studiert was richtig ist und was falsch ist
- Warum machen wir manchmal das kontraintuitive?

Applied Ethics:
- untersucht die Anwendung von ethischen Theorien in kontroversen Themen (Krieg, Tierrechte, …)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Nenne zwei ethische Theorien und erkläre eine kurz

Ethics & Moral

A

Utilitaristische Ethik:
Die Mehrheit profitiert.

Nachteile: Die Minderheit wird geschädigt, während die Mehrheit profitiert

Ergebnisvorhersage ist erforderlich

Deontologische Ethik:
Menschen sollten mit Würde und Respekt behandelt werden.

Nachteile: Meinungsverschiedenheiten über Prinzipien, die zu einer Entscheidung führen

die richtige Wahl kann zu schlechten Konsequenzen führen
mögliche Konflikte in einer Pflicht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Die EU hat Richtlinien für AI erstellt. Nenne diese 7 Key-Requirements für KI

Ethics & Moral

A

7 key requirements for AI:

  • Human agency and oversight
  • Technical robustness and safety
  • Privacy and data governance
  • Transparency
  • Diversity, non-discrimination and fairness
  • Societal and environmental well-being
  • Accountability
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Definiere den Begriff “Bias

Ethics & Bias

A

Bias == Voreingenommenheit

Bias ist eine unverhältnismäßige Befürwortung oder Ablehnung einer Idee oder Sache, normalerweise in einer engstirnigen, voreingenommenen oder unfairen Weise.

Voreingenommenheit kann angeboren oder erlernt sein.

Menschen können Vorurteile für oder gegen eine Person, eine Gruppe oder einen Glauben entwickeln.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was bedeutet Stereotyping im Kontext von Bias?

Ethics & Bias

A

Stereotyping ist eine Form von Bias, bei der Vorurteile oder Bevorzugungen gegenüber bestimmten Dingen, Menschen oder Gruppen gegenüber anderen bestehen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was bedeutet Systematic Error im Kontext von Bias?

Ethics & Bias

A

Systematic Error ist ein systematischer Fehler, der durch eine unsachgemäße Stichproben- oder Berichtsstrategie eingeführt wird und zu Verzerrungen in den Ergebnissen führt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist Automation Bias?

Ethics & Moral

A

Automation Bias ist die Tendenz, Entscheidungen oder Vorschläge von automatisierten Systemen ohne kritische Prüfung zu bevorzugen, auch wenn sie möglicherweise fehlerhaft sind.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist Confirmation Bias?

Ethics & Bias

A

Confirmation Bias ist die Neigung, Informationen zu bevorzugen, die bestehende Überzeugungen oder Hypothesen bestätigen, während widersprüchliche Informationen ignoriert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist Experimenter’s Bias?

Ethics & Bias

A

Experimenter’s Bias tritt auf, wenn Forscher unbewusst ihre eigenen Erwartungen oder Überzeugungen auf das Experiment übertragen, was die Ergebnisse verzerren kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist Group Attribution Bias?

Ethics & Bias

A

Group Attribution Bias ist die Tendenz, das Verhalten eines Einzelnen auf die Eigenschaften der gesamten Gruppe zurückzuführen, zu der er gehört.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist Implicit Bias?

Ethics & Bias

A

Implicit Bias bezieht sich auf unbewusste Vorurteile oder Einstellungen, die unser Verhalten und unsere Entscheidungen beeinflussen, ohne dass wir uns dessen bewusst sind.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was ist In-Group Bias?

Ethics & Bias

A

In-Group Bias ist die Tendenz, Menschen, die zur eigenen Gruppe gehören, zu bevorzugen oder positiver zu bewerten als Menschen aus anderen Gruppen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist Out-Group Homogeneity Bias?

Ethics & Bias

A

Out-Group Homogeneity Bias ist die Wahrnehmung, dass Mitglieder einer fremden Gruppe homogener sind (d.h. sich ähnlicher sind), als sie tatsächlich sind, während die eigene Gruppe als vielfältiger wahrgenommen wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Was ist Coverage Bias?

Ethics & Bias

A

Coverage Bias tritt auf, wenn bestimmte Gruppen oder Merkmale in der Stichproben- oder Berichterstattungsphase über- oder unterrepräsentiert sind, was die Ergebnisse verzerrt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist Non-Response Bias?

Ethics & Bias

A

Non-Response Bias tritt auf, wenn die Personen, die an einer Umfrage oder Studie nicht teilnehmen, sich systematisch von den Teilnehmern unterscheiden, was zu verzerrten Ergebnissen führt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was ist Participation Bias?

Ethics & Bias

A

Participation Bias tritt auf, wenn Personen, die sich entscheiden, an einer Studie teilzunehmen, nicht repräsentativ für die Gesamtbevölkerung sind, was zu einer Verzerrung der Ergebnisse führt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Was ist Reporting Bias?

Ethics & Bias

A

Reporting Bias entsteht, wenn bestimmte Ergebnisse oder Daten systematisch überbetont oder unterdrückt werden, wodurch ein verzerrtes Bild der tatsächlichen Ergebnisse entsteht.

21
Q

Was ist Sampling Bias?

Ethics & Bias

A

Sampling Bias tritt auf, wenn die Stichprobe nicht repräsentativ für die Gesamtpopulation ist, was dazu führt, dass die Ergebnisse nicht verallgemeinerbar sind.

22
Q

Nenne 4 Gründe für Bias in der Data Collection

Ethics & Bias

A
  • Reporting Bias
  • Selection Bias
  • Overgeneralization
  • Unconscious Bias from Real World
23
Q

Beschreibe Reporting Bias und nenne Beispiele / Gründe

Ethics & Bias

A

Die Stichprobe (Trainingsdaten) hat andere Eigenschaften, Häufigkeiten, Ergebnisse als die reale-Welt Daten.

Es werden nur Daten reported, welche einen Teil, der Daten ausmachen, wie gute, interessante, schlechte Dinge.

24
Q

Beschreibe Selection Bias und nenne 3 verschiedene Formen davon

Ethics & Bias

A

Selection Bias beschreibt, dass eine Stichprobe in eine bestimmte Richtung verzerrt ist.

Formen:
- Coverage Bias
- Sampling Bias
- Non-Response Bias

25
Q

Beschreibe Coverage Bias

Ethics & Bias

A

Die Stichprobe repräsentiert nicht die Daten in der Produktion

26
Q

Beschreibe Sampling Bias

Ethics & Bias

A

keine zufällige Auswahl von Daten der Zielgruppe.
(Die Qualität der Daten unterscheidet sich zwischen den Gruppen)

27
Q

Beschreibe Non-Response Bias

Ethics & Bias

A

Beschreibung:
Die von Menschen gesammelten Daten sind verzerrt, weil eine bestimmtes Segment dazu neigt, die Daten nicht zu senden. (Menschen nutzen Opt-out)

28
Q

Beschreibe Overgeneralization

Ethics & Bias

A

Daten einer Gruppe wird dazu verwendet über andere Gruppen zu generalisieren

29
Q

Nenne Human Bias Typen Data Collection. (3 Stereotypische, 3 Systematische Fehler)

Ethics & Bias

A

Stereotypische:
- Automation bias
- Confirmation bias
- Experimenter’s bias
- Group attribution bias
- Implicit bias
- In-group bias
- Out-group homogeneity bias

Systematische Fehlertypen:
- Coverage bias
- Non-response bias
- Participation bias
- Reporting bias
- Sampling bias
- Selection bias

30
Q

Nenne Human Bias Typen in ML Engineering

Ethics & Bias

A
  • Automation Bias
  • Group Attribution Bias
  • In-Group Bias
  • Out-Group Homogenity Bias
31
Q

Definiere Implicit Human Bias, nenne eine typische Bias-Form.

Ethics & Bias

A

Impliziter Bias beschreibt unbewusste Vorurteile oder Annahmen, die auf eigenen Erfahrungen, Prägungen oder Stereotypen beruhen.

-> Siehe Confirmation Bias

32
Q

Inwiefern kann Confirmation Bias dazu beitragen, dass die Ergebnisse / Experimente von ML Engineers verzerrt werden?

Ethics & Bias

A

Confirmation bias: ML engineers verarbeiten Daten unbewusst so, dass ihre eigenen Überzeugungen und Hypothesen bestätigt werden (in Extremfällen trainieren und erstellen Sie Modelle, bis sie Ihren Erwartungen entsprechen -> Experimentator-Bias)

33
Q

Welche Real-World Biasbeispiele muss man bei der Nutzung von Trainingsdaten beachten?

6

Ethics & Bias

A
  • Racisms
  • Sexisms
  • Stereotypes
  • Group-based judgement
  • Unfair conditions (working, treatment, interactions)
  • Beliefs, misconceptions, etc.
34
Q

Welche drei Formen der Bias können in der Pipeline auftreten?

Ethics & Bias

A
  • Storing & Linking Data (misspelling long uncommon names, …)
  • Preprocessing (Default / averaged values might transforming minority groups into majority ones)
  • Data Exploration (Outliers may be cropped away, but might be representing minority groups)
35
Q

Wie kann man Bias identifizieren?

Nenne 3 Red-Flags für potenzielle Bias.

Ethics & Bias

A

Diverse Teams sollten proaktiv prüfen, ob es in irgendeiner Form Bias gibt.

  1. Wichtige Merkmale sind unterrepräsentiert -> Reporting- & Selection-Bias
  2. Unerwartete Merkmalswerte: Weisen auf mögliche Probleme bei der Datenerfassung oder Ungenauigkeiten hin, die Bias einführen könnten
  3. Jegliche Art von Verzerrung, die zu einer Unter- oder Überrepräsentation von Gruppen führt
36
Q

Nenne und beschreibe drei grundlegende Arten von Fairness.

Fairness

A

Group-Level Fairness: Unterscheiden sich Ergebnisse unter bestimmten demographischen Gruppen?

Individual Fairness: Werde ich fair gegenüber anderen behandelt?

Society Fairness: Ist der Vorteil für die Gesellschaft maximiert?

37
Q

Welche Attribute der Bevölkerung müssen geschützt werden vor Unfairness?

6

Fairness

A

Die Bevölkerung umfasst verschiedene Minderheitengruppen
- Ethnisch
- Religiös
- Medizinisch
- Geografisch
- Familienstand
- Sozioökonomischer Status

38
Q

Warum reicht es nicht aus, geschützte Eigenschaften nicht zur Entscheidungsgrundlage zu nutzen? Warum kann dies dennoch in Unfairness resultieren.

Fairness

A

Selbst wenn Ethnie, Geografische Attribute entfernt werden, können sie durch korrelierende Features im Datensatz verbleiben.

39
Q

Was versteht man unter der statistischen Parität im Kontext zu Fairness in ML ?

  • Nenne ein Beispiel.
  • Beschreibe, wann es angewandt werden muss.

Fairness

A

die Wahrscheinlichkeit eines Ergebnisses B muss unabhängig einer geschützten Variable A sein.

Besipiel:
Das Festanstellen von Mitarbeitern muss unabhängig des Geschlechts sein.

Wann sollte es angewandt werden? -> Wenn die reale Welt Daten biased sind und für Fairness korrigiert werden müssen.

– Profit

40
Q

Beschreibe die Fairness Metrik Equal Opportunity

  • Nenne ein Beispiel.
  • Beschreibe, wann es angewandt werden muss.

Fairness

A

Positive Resultate (Model predicts True) sollten gleich für alle Gruppen geschützter Attribute sein.

Beispiel: Zulassungen für Studenten

Wann sollte es benutzt werden? -> Wenn der Fokus auf akkurater positiver Predictions ist und FP nicht schwerwiegend sind.

– Profit

41
Q

Beschreibe die Fairness Metrik Equal Odds

  • Beschreibe, wann es angewandt werden muss.
A

FPR und FNR müssen gleich unter allen Gruppen sein
-> Data must be collected in unbiased way
-> Wahrscheinlich das TPR unter der Balancierung der Fairness leidet

Anwendbar, wenn der Recall des Modells das Projekt nicht gefährdet

– Profit

42
Q

welche beiden Fairness Typen stehen im Konflikt zueinander und warum?

Fairness

A

Group-Level Fairness <-> Individual Fairness

Hohe FP / FN Prozente führen dazu, dass durch die Fokussierung auf GLF vermehrt Individuen falsch klassifiziert werden.

43
Q

Beschreibe das Group-Fairness Impossibility Theorem

Fairness

A

Wenn ein Algorithmus der Predictive Rate Parity unterliegen soll, während Verbreitung / Prävalenz unter den Gruppen unterschiedlich ist, kann das Instrument keine gleichen FPR/FNR erzeugen.

44
Q

Durchlaufe den ML Design Zyklus:

Welche Fragen hinsichtlich Fairness sollten gestellt werden?

Fairness

A

Problem Formation:
Ist ein Algorithmus eine ethisch korrekte Lösung für das Problem?

Daten
Minority Proben? Skewed Data? Debiasing notwendig?

Algorithm Selection
Ist die Zielfunktion konform mit Fairness?

Testing
Welche relevanten Fairness Metriken? Gibt es andere Testdatensätze?

Deploy
Repräsentieren die Trainingsdaten die Produktionsdaten?

Feedback
Kann das Feedbacksystem unfaire Retraining-Resultate erzielen?

45
Q

Nenne vier Möglichkeiten Bias entgegenzuwirken

Fairness

A

Population Bias: Überprüfe Demographische Daten der Zielgruppe

Under- & Überrepresentation sollten verhindert werden

Data Augmentation: Berreichere den Datensatz mit synthetischen Daten von Minderheitengruppen

Sammele mehr Daten von Gruppen mit erhöhten Fehlerraten

46
Q

Welche Methoden können Bias in Pre- & Postprocessing entgegenwirken?

A

Preprocessing:
- Verarbeite die Daten so, dass geschützte Variablen entfernt werden und die Korrelationen mit diesen Variablen verschwinden
- Relabeling (finde Gründe für Bias und behebe sie)
- Reweighting von Minderheitengruppen
- Sammle weitere Daten, sodass eine Daten Parität für Minderheitengruppen erreicht wird

Postprocessing:
- Adversarial Debiasing
- Prejudice Remover

47
Q

Was bedeutet Parität?

Allgemein

A

Gleichgewicht

48
Q

Was ist ein Aversarial Debiasing Model

Fairness

A

Funktionsweise: In einem Adversarial Setting gibt es zwei Modelle:

Das Hauptmodell, das eine Vorhersage treffen soll.
Ein Adversary-Modell, das versucht, geschützte Attribute basierend auf den Vorhersagen des Hauptmodells zu erraten.
Das Hauptmodell wird so trainiert, dass es nicht nur genaue Vorhersagen trifft, sondern auch dem Adversary-Modell die Fähigkeit entzieht, geschützte Attribute korrekt vorherzusagen. Dadurch soll sichergestellt werden, dass die Vorhersagen nicht von diskriminierenden oder unfairen Einflüssen auf die sensiblen Attribute geprägt sind.

49
Q

Was ist ein Prejudice Remover

Fairness

A

Erklärung: Bei dieser Technik wird ein Regularisierungsterm zur Zielfunktion eines maschinellen Lernmodells hinzugefügt. Dieser Term bestraft das Modell, wenn es in Bezug auf geschützte Attribute diskriminiert. Der Regularisierungsterm wird speziell eingefügt, um das Modell dazu zu bringen, keine unfairen oder voreingenommenen Entscheidungen zu treffen.

Funktionsweise: Die Idee ist, das Modell während des Trainings zu bestrafen, wenn es Muster lernt, die zu Diskriminierung führen. Das führt dazu, dass das Modell lernt, faire Entscheidungen zu treffen, indem es jegliche unfaire Behandlung aufgrund geschützter Attribute vermeidet.