Project Management Flashcards

1
Q

Unterschied von Projektprogress in ML vs SE

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was sind Ursachen dafür, dass 87% der ML Projekte scheitern, bzw. 53% der ML Prototypen nicht die Produktion erreichen?

5

A
  • Unklares Projektziel
  • ML Ziel =!= Business Ziel
  • Unkoordinierte Arbeite von DS vs SE
  • Explodierende Kosten für Expertise und Hardware
  • Komplexität des Projektes benötigt versch. Skills (SE, DevOps, Data Science, Data Engineer, …)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was ist Hoftstadter’s Law?

A

It always takes longer than you expect, even when you take into account Hofstadter’s Law.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Nenne Gründe gegen AI Software

3

A
  • Errors Costs > Improvement Costs
  • Entscheidungen müssen erklärbar sein
  • Entwicklung muss schnell gehen -> Starte mit Heuristiken
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

4 Gründe für Automatisierung

A
  • Mehr Effizienz
  • Mehr Sicherheit für Menschen
  • Weniger langweilige Tasks
  • Ermögliche Funktionalität, die Menschen ohne Automatisierung nicht beherrschen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

4 Gründe für Augmentation (Zunahme)

A
  • Höhere Kundezufriedenheit bei Aufgabe
  • Mehr User Control
  • Mehr Kundenverantwortung
  • Mehr Kreativität
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Definiere den Lebenszyklus eines ML-Projekts

(4)

A

Scoping & Planning < Data < Model < Deployment

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was gehört zu Scoping & Planning hinzu? (ML LC)

3

A
  • Define Projekt Goals
  • Specify Requirements
  • Allocate Ressources

Model metric does not align with project goal; performance unsatisfiable/disappointing; requirements revisiting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was gehört zu Data hinzu? (ML LC)

4

A
  • Define and collect Data
  • Preprocessing
  • Label
  • Organize Data

Data mismatch (different distribution in production); rare cases required; bias found

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was gehört zu Model hinzu? (ML LC)

5

A
  • Model Selection
  • Training
  • Experimantation
  • Error Analysis
  • Debugging

*Production performance != training performance; non-functional properties not met; *

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was gehört zu Deployment hinzu? (ML LC)

3

A
  • Deploy model
  • monitor and maintain system
  • feedback loop
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wie geht man an AI-Projekte heran?
Ziel: Budgetierung

4 + Budgetierung

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was sind Probleme an der folgenden Metrik für AI System “Credit Card Fraud”:

“Success the more unauthorized withdrawals we block”

2

A
  • Bestes Outcome wird erreicht, wenn das System alle Transaktionen blockt
  • Je mehr Transaktionen geblockt werden, desto mehr wird sich das herumsprechen, desto weniger Leute werden es bei der Orga versuchen -> Es wird angeblich schlechter über Zeit (bei Design)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Beschrifte die Achsen

A

Impact & Feasibility

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Feasibility Pyramid for Cost Drivers

A

DMD

Difficulty
Availlability of Similar Solutions, Education, Ressource for Training, Deployment

Model Accuracy
Cost of wrong predictions, mininmum accuracy, retrain frequency

Data Availlability
Data aquiration, labeling and amount

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was sollte man bei der Datenverfügbarkeit und der Modellkomplexität beachten, wenn man über die Machbarkeitsanalyse nachdenkt?

Daten(2), Model(1)

A
  • Wie schnelllebig sind die Daten?
  • Zu welchen benötigten Informationen habe ich keinen Zugriff?
  • Wie viel kostet ein Inferenzschritt?
17
Q

Techniken für die Verbesserung der Machbarkeit

4

A
  • keine 100% Accuracy Produktdesigns!
  • Keine Abhängigkeit von einem einzigen Modell
  • Sicherheitsmechanismen für KI-Nutzung (Anzeige bei guter Pseudo-Wahrscheinlichkeiten)
  • Alpha-Test (Experimental)
18
Q

Manage and Mitigate Risk
1. -> 2. -> 3.

A

1.Identify -> 2. Mitigate -> 3. Monitor

  1. Identifizierung
  2. Mildern / Reduzieren
  3. Beobachten
19
Q

Was ist eine von Amazon erfunden gängige Methode für Riskmanagement?

A

Scoreboards in verschiedenen Kontexten:

z. B. :
- Project
- Finance
- Project Processes
- Data Quality
- Summary

20
Q

Nenne die 3 Meilensteine um den Progress und Fokus für Entwicklungsstresspunkte im Auge zu behalten

A
  1. Domain Expertise
  2. Reproduziere Arbeit von anderen mit ähnlichen Zielen
  3. Automatisiere das Training und Inferenz Pipeline abgeleitet von 2.
21
Q

Nenne den 1. Meilenstein in AI-Software Engineering und beschreibe, was ihn ausmacht.

3 + 3

A

Domain Expertise

**Starte einfach **
- kein ML / nur Heuristiken
- Wie lösen Menschen das Problem derzeit?
- Wie würdest du mit den aktuellen Daten es manuell lösen?

Schau dir die Daten zuerst an
- Explanatory Data Analysis (EDA)
- Manuelle Validierung der Annahmen
- Manuelles Labeln für Heuristiken zum Lösen des Problems

22
Q

Nenne den 2. Meilenstein in AI-Software Engineering und beschreibe, was ihn ausmacht.

Idee + 2

A

Reproduziere ähnliche Arbeit

Idee: Was sind die technologischen Einschränkungen

  • Ähnliche open source Repos finden
  • Ähnliche ML / DL Modelle finden
23
Q

Nenne den 3. Meilenstein in AI-Software Engineering und beschreibe, was ihn ausmacht.

A

Simple Pipelining

Baue eine minimalistische einfache Pipeline
a) Training Pipeline
b) Inference / Production Pipeline

24
Q

Nenne mögliche Datenquellen für Training

6

A
  • Web-Archive
  • reddit/r/datasets
  • Kaggle
  • UCI ML Repo
  • Crawling
  • Simple Google Search
25
Q

Nenne mögliche ML-Modell Hubs

A
  • Paperswithcode
  • Huggingface
26
Q

Nenne Steps in der Training Pipeline

7

A
27
Q

Nenne Steps in der Production / Inference Pipeline

7

A
28
Q

Nenne die Project Archetypes für AI-Software Projekte

3

A
  • Improve existing process
  • augment manuel process
  • automate manuel process
29
Q

Definiere den Archytype “Improve existing process” und nenne Beispiele

A

Automatisiere, beschelunige, reduziere Fehler oder verbessere Antworten von existierenden Prozessen

Beispiel: Code Completion, Customized Recommender Systems

30
Q

Definiere den Archytype “augment manuel process” und nenne Beispiele

A

Unterstütze manuelle Aufgaben mit Empfehlungen, Korrekturen und Alternativen

Beispiele:
- Slide Designer
- Transcription Engine
- Rechtschreib und Grammatikhilfe

31
Q

Definiere den Archytype “automate manuel process” und nenne Beispiele

A

Ersetze manuelle Prozesse durch automatische KI-Prozesse

Beispiele:
- Selbstfahrende Autos
- Chatbots
- Customer Support
- Website Designs

32
Q

Nenne verschiedene Projekterwartungen für Ziele

A

Wirtschaftlich: Mehr Profit, Weniger Kosten
Sozial: Nutzerfreundlichkeit, Mehr Nutzerzufriedenheit
Technologisch: Nutzung neuer Technologie im Unternehmen (zukunftssicherheit)

33
Q

Erkläre anhand des Beispieles (Organisatorisch vs Futuristisch) warum verschiedene Ziele von verschiedenen Projekterwartungen abstammen.

A

Organisatorisch: Profit, Umwelt, Sozial
- > Schwer den Bezug zu KI zu finden
- > Wird durch mehr als das KI Projekt beeinflusst
- > Effekte sind nicht direkt messbar

Futuristisch: Kundenzufriedenheit, -engagement
- > Könnte Organisatorische Ziele positiv beeinflussen
- > Effekte durch kleine Änderungen schwer messbar

34
Q

Nenne die 3 Kriterien für Erfolg beim Aufstellen des Produktziels

A

(1) Definiere das gewünschte Ziel
(2) Defniere einen Plan, der beschreibt wie du das Ziel erreichen kannst
(3) Definiere Metriken, die deinen direkten Erfolg messen

35
Q

Under the bottom line: Was ist das ultimative ML Ziel ?

(1) (1)

A

Business: Increase Profit
Non-Profit: Improve Society

36
Q

Wie kann man die Business value messen?

A

Meistens nicht durch die model performance!

  • Logging der Software
  • Nutze nur zielführende Metriken
  • Guardrail Metriken (Gegenmetriken im A/B Test)
37
Q

Was sind Guardrail Metriken?
Beschreibe das Beispiel von Airbnb

A

Guardrail Metriken sind Gegenmetriken in A/B Tests, die gewisse Folgeeffekte messen sollen.

Wenn zum Beispiel eine Änderung einen positiven Effekt auf die Registrierungen des Dienst hat, aber die Käufe zurückgehen, sind die Anzahl der Käufe ein Guardrail-Metrik.

Airbnb hat bei der Prozessänderung “Anzeigen der Hausregeln bei der Buchung” gesehen, dass die Buchungen zugenommen haben, aber die Guardrail Metrik “Bewertung” verschlechterte sich. Stakeholder wurden informiert und der Test wurde eventuell abgebrochen.