Process Mining Flashcards
Traditionelle Verwendung von Geschäftsprozessmodellen
- Einsicht
- Diskussion
- Dokumentation
- Verifikation
- Performance Analyse
- Animation Spezifikation
- Konfiguration
Aktuelle Herausforderung
GP Modellierung für Compliance
- Steigende Anzahl von Regulierungen
- Finanzen Solvency 2, Basel 3
- Steigende Komplexität des Compliance Nachweises
- Viele Facetten
- Wechselseitige Abhängigkeiten
- Aggregation
- Cloud Computen
Was sind Nachteile manueller Prozessmodellierung?
- Manuelle Modelle unterscheiden sich oft von Realität
- idealisierte Sicht auf Prozesse
- nur ausführbare Modellen können Arbeitsweise erzwingen
- Manuelle Erstellung of aufwendig
Wie kann man die Nachteile manueller Prozessgewinnung überwinden?
- Konformanz Laufzeitverhalten <-> Prozessmopdell überprüfen
- Prozessmodell aus Laufzeitverhalten extrahieren
- Process Mining
Process Mining
- (Teil-)automatisierte Extraktion von GP-Modellen aus Laufzeitdaten
- Extraktion von Modellen basierend auf Fakten.
- nicht Erzeugung eines einzelnen Modells des Prozesses.
- verschiedene Sichten auf gleiche Realität auf verschiedenen Abstraktionsebenen.
- Auch gesamtes Verhalten betrachtbar
Process Mining
Im Workflow Lebenszyklus
- Process Discovery: Extraktion des Workflow Designs für ausgeführten WF
- Delta Analysis Vergleich: Workflow Desing mit ausgeführtem WF

Konformanzüberprüfung durch Play-Out
- Aus Prozessmodell Event Logs generieren
- Ist Bebobachtetes Eventlog Teil des generierten EventLogs?
- Ja: Beobachtetes Eventlog Konformant zu Prozessmodell
Extraktion durch Play-In
- Zugehöriges Prozessmodell aus gegebenen Event Logs generieren
- Zugehörig bedeutet:
- Ursprüngliches Eventlog konform zu generiertem Prozessmodell
- Präzises/einfachstes Modell sollten mehrere Möglich sein
Mit Process Mining extrahierte Perspektiven
- Kontrollfluss Perspektive
- Reihenfolge der Aktivitäten
- Betriebliche Perspektive
- Informationen über Ressourcen
- Fall-Perspektive
- Eigenschaften von Fällen
- Zeitliche Perspektive
- Timing/Frequenz von Ereignissen
Process Mining
Verbesserung durch Replay
- Ausführungsfolgen aus extrahiertem Modell generieren und mit ursprünglichen Event-Log vergleichen
- Grad der Konformanz überprüfen
- Modelle nachjustieren
- Vorraussagende Modelle konstruieren
- Betiebsunterstützung
Process Mining
Einschränkungen Modellbasierter Analyse
- Idealisierte Version der Realität.
- Menschliches Verhalten nicht adäquat darstellbar.
- Oft falsche Abstraktionsebene.
- Verifikation und Performanzanalyse braucht hochqualitative Modelle.
- Bei zu großem Unterschied Modell – Wirklichkeit: modellbasierte Analyse sinnlos.
- Oft fehlt Abgleich: handgemachte Modelle – Wirklichkeit.
- Geschäftsprozessmodellierung nicht vorhanden / nicht vollständig bzw. aktuell.
- Wird GP-Dokumentation in der Praxis befolgt ?
Petrinetz-Syntax
Stelle
- Möglicher lokaler Zustand (passiv)
- S: endliche Menge von Stellen

Petrinetz-Syntax
Transition
- Lokaler Übergang (aktiv)
- T: endliche Menge von Transitionen
- T= {t1,t2,t3}

Petrinetz-Syntax
Bogen
- Fluss (automatisch)
- F: Menge von Bögen
- F={(t1,s1), (t1,s2), (s1, t2)…}
- F ⊆ S x T ∪ T x S
- konsumierend
- Von Stelle zu Transition
- Marken werden aus Stellen entnommen
- Von Stelle zu Transition
- erzeugend
- Von Transition zu Stelle
- Marken werden Stellen hinzugefügrt
- Von Transition zu Stelle

Petrinetz-Syntax
Marken (Token)
- Globaler Startzustand
- M0 : S → ℕ0

Petrinetz-Syntax
Bogenvielfachheit
- Gibt an wieviele Marken beim Folgen des Flusses erzeugt oder konsumiert werden
- 1 wird weggelassen
- W: F → ℕ\0
Petrinetz
Syntaxdefinition
- S: endliche Menge von Stellen
- T: endliche Menge von Transitionen
- mit S≠∅, T≠∅ und S∩T=∅
- F: Menge von Bögen:
- F ⊆ S x T ∪ T x S
- W: Bogenvielfachheit (Gewicht):
- W: F→ℕ\0
- M0: Globaer Startzustand
- M0 : S → ℕ0
- ⇒ (S, T, F, W, M0): Petrinetz
Petrinetz
Aktivierung von Transitionen
- Transition t ist aktiviert wenn:
- ∀ p∈Vorgänger von t : W(p ,t)⩽ mp
- W((p,t)): Gewicht des Bogens von p nach t
mp: Anzahl Marken auf p
Petrinetz
Schalten von Transitionen
- Eine der aktivierten Transitionen wird beim Übergang von Zustand Mx nach Zustand Mx+1 geschaltet (nicht deterministische Auswahl)
- Marken auf Voränger-Stellen werden konsumiert
- Marken auf Nachfolger-Stellen werden produziert
- Jede Folgemarkierung ergibt sich aus dem Schalten jweils genau einer Transition


Gibt es eine obere Grenze, wieviele Nachrichten gleichzeitig in dieser Queue enthalten sein können ?
- In der Queue befindet sich höchstens eine Nachricht .
- Ausführung der Transition „Queue füllen“, nachdem die Stellen „Nachricht empfangen“ und „Queue leer“ einen Marker besitzen.
Petrinetz
Erreichbarkeit: Notation und Definition
- M [t> : bei Markierung M ist Transition t aktiviert ( [> symbolisiert Pfeil)
- M [t> M’ : M’ ist direkte Folgemarkierung zur Markierung M nach Schaltung von Transition t
- M [w> : Liste von Transitionen w=[t1,t2,…,tn] ist iterativ aktiviert unter Markierung M, d.h.: M [t1> M1 [t2> M2 … [tn> Mn
- M [{t1, t2, …, tn}> : Liste von Transitionen [t1,t2,…,tn] ist in beliebiger Schaltungsreihenfolge iterativ aktiviert unter Markierung M (= alle Permutationen als Schaltfolgen aktiviert; genannt “nebenläufig aktiviert”)
- [M0> := {M | ∃ w ∈ T* mit M0 [w> M} (Erreichbarkeitsmenge des Systems; die Markierungen M ∈ [M0> heißen erreichbar)
Petrinetz
Erreichbarkeitsalgorithmus (breadth-first)
- Eingabe: Petrinetz Ausgabe: Erreichbarkeitstabelle
- Erstelle Tabelle: Markierungsnummer, Markierung, Schaltunen und Trage M0 ein
- In aktueller Markierung Mi für jede Transition t: aktiviert?
- Falls t aktiviert: Berechne Folgemarkierung
- Folgemarkierung bereits eine Markierung Mj?
- Wenn nicht berechne Folgemarkierung Mj mit j > i und lege neue Zeile in der Tabelle für Mj an
- trage Mi[t> Mj in Zeile Mi ein
- Falls t aktiviert: Berechne Folgemarkierung
- Mi erledigt falls alle Transitionen überprüft
- Alle eingetragenen Markierungen erledigt?
- Ja: Erreichbarkeitsanalyse abgeschlossen
- Nein: Überprüfe nächste Markierung und fahre bei 2 fort
Petrinetz
Erreichbarkeitsalgorithmus als Graph darstellen
- Erreichbarkeitstabelle oft als Graph dargestellt:
- Knoten:Zustände(linkeSpalte;ggf.inkl.Markierungsbelegungen)
- Kanten:Schaltungen(rechteSpalte)

Petrinetz
Analyse von Systemen:
Simulation
- Kann zeigen, dass bestimmte Situationen auftreten können.
- Kann nicht zeigen, dass bestimmte Situationen nicht auftreten.
- Ausschnitt aus Menge aller möglichen Verhalten.
- Keine Aussage über deren Eintrittswahrscheinlichkeit.
Petrinetz
Analyse von Systemen
Verifikation
Verifikation: Beweis von Eigenschaften:
- Statische Eigenschaften: Unabhängig von Markierungen, nur von Netztopologie abhängig.
- z.B. Verklemmungen / Deadlocks
- Dynamische Eigenschaften: Abhängig von der Menge erreichbarer Markierungen.
- Standardhilfsmittel: Erreichbarkeitsgraphen
Petrinetze
Kapazitäten
- K: S → ℕ ∩ {∞} erklärt eine (möglicherweise unbeschränkte) Kapazität für jede Stelle.
- Markierungen M: S → ℕ\0 müssen Kapazitäten respektieren, d.h. für jede Stelle s ∈ S gilt: M(s) ≤ K(s).
- Transitionen sind bei Verwendung von Kapazitäten nur dann aktiviert, wenn Folgemarkierung Kapazitäten respektiert.
Petrinetz
Analyse von Systemen
Sicherheit
- Sei P=(S,T,F,K,M0) Petrinetz.
- Abbildung B: S → ℕ\0 ∪ {∞} ordnet jeder Stelle eine „kritische Markenzahl“ zu.
- Petrinetz P heißt:
- B-sicher (oder B-beschränkt), wenn für alle erreichbaren Markierungen Anzahl der Markierungen pro Stelle durch B begrenzt, d.h.: für alle M ∈ [M0> und s ∈S gilt: M(s) ≤ B(s).
- 1-sicher, 2-sicher usw., wenn B=1, B=2 usw.
- beschränkt, wenn es natürliche Zahl b gibt, für die P b-sicher.
- Stelle s heisst b-sicher, wenn P B-sicher mit B(s)=b, und B(s‘)= ∞ für s’#s.
- Unterschied zwischen Kapazität und Sicherheit:
- Kapazität begrenzt Stellenmarkierung (a priori-Begrenzung).
- Sicherheit beobachtet Stellenmarkierung (a posteriori-Begrenzung).
Petrinetze
Analyse von Systemen
Lebendigkeit von Transitionen
Transition t eines Petrinetz P=(N,M0) heißt:
- aktivierbar: In mindestens einer erreichbaren Markierung aktiviert: existiert M1 ∈ [M0> mit: M1[t>
- lebendig: In allen erreichbaren Markierung aktivierbar: für alle M1 ∈ [M0> gilt: existiert M2∈ [M1> mit: M2[t>
- tot: In keiner erreichbaren Markierung aktiviert: für alle M ∈ [M0> gilt: ¬M[t>
- Tot ist nicht logische Negation von lebendig sondern von aktivierbar !
Petrinetz
Analyse von Systemen
Lebendigkeit von Petrinetzen
Petrinetz P=(S,T,F,K,W,M0) heißt:
- lebendig: In jeder erreichbaren Markierung ist jede Transition aktivierbar: für alle M1 ∈ [M0> und t ∈ T gilt: existiert M2 ∈ [M1> mit: M2[t>
- deadlockfrei: In jeder erreichbaren Markierung ist mindestens eine Transition aktiviert: für alle M1 ∈ [M0> gilt: existiert t ∈ T mit: M1[t>
- tot: Keine Transition aktiviert: ∀t ∈ T: ¬M0 [t>
Petrinetz
Workflownetz
- genau eine Stelle ohne eingehenden Bogen (Start-Stelle)
- genau eine Stelle ohne ausgehenden Bogen (End-Stelle)
- jede Stelle und Transition auf Pfard von Start- zu End-Stelle
- Initiale Markierung
- Start-Stelle genau eine Marke
- Rest: Keine Marke
Petrinetz
AND-Split

Petrinetz
AND-Join

Petrinetz
XOR-Split

Petrinetz
XOR-Join

Petrinetz
Bewertung
- Positiv
- Einfache und wenige Notationselemente.
- Graphisch gut darstellbar.
- Marken: übersichtliche Visualisierung des Systemzustands.
- Syntax und Semantik formal definiert.
- Werkzeuge zur Erstellung, Analyse, Simulation, Code-Generierung vorhanden (z.B. Process Mining).
- Gut geeignet für kooperierende Prozesse.
- Nachteil
- Zunächst keine Datenmodellierung (kann aber dahin erweitern).
Data-Mining vs. Process-Mining
- Process Mining: Data Mining auf Prozess-Daten
- Process-Mining: Ende zu Ende Prozesse
- Data-Mining: Datenbasiert und nicht prozessbasiert
- Qualitätsbewertung
- Viele Ähnlichkeiten, aber auch Unterschiede
- Process-Mining-Techniken können Vorteile aus Erfahrungen im Bereuch Data Mining ziehen.
Data Mining
Variablen
- Datensatz besteht aus Instanzen (Individuen, Entitäten, Fälle, Objekte oder Aufzeichnungen).
- Variablen: als Attribute, Features oder Datenelemente bezeichnet. Zwei Typen:
- Kategorielle Variablen:
- Ordinal (hoch – mittel – niedrig)
- Nominal (true – false, rot – pink – grün)
- Numerische Variablen (geordnet, können nicht einfach aufgezählt werden).
- Kategorielle Variablen:
Data Mining
Überwachtes Lernen
- Klassifizierte Daten (Labeled Data)
- Jede Instanz durch Response-Variable gekennzeichnet.
- Ziel:
- Erkläre Response-Variable (abhängige Variable) in Form von Predictor-Variablen (unabhängige Variable).
- Klassifikationstechniken (z.B.: Lernen mit Entscheidungsbäumen)
- Setzen kategorielle Response-Variablen voraus.
- Ziel: Instanzen anhand Predictor-Variablen klassifizieren.
- Regressionstechniken: Benötigen numerische Response-Variablen.
- Ziel: Zu Daten passende Funktion mit wenigsten Fehlern finden.
Data Mining
Nicht überwachtes Lernen
- Nicht überwachtes Lernen verwendet unlabeled data. Variablen nicht in Response- und Predictor-Variablen unterteilt.
- Beispiele:
- Clustering (z.B.: k-means clustering und agglomerative hierarchical clustering).
- Pattern discovery (association rules).
Data Mining
Entscheidungsbaum generieren:
Grundidee
- Teile Menge der Instanzen auf, sodass Variation in jeder Teilmenge kleiner wird
- Variation messen (z.B. durch Entropie)
- Minimiere durchschnittliche Entropie; maximiere Informationsgewinn pro Schritt
Data Mining
Entropie
- Entropie E
- informationstheoretisches Maß für Chaos in einer Multimenge
- Element v<strong>i</strong> in einer Multimenge ci-mal enthalten
- Multimenge hat n Elemente
- Einzelentropie: -log2(pi), wobei pi=ci/n
- Gesamtentropie: E=−∑(pi log2(pi)) (i=1, k)
Data Mining
Iterative Dichotomiser 3 (ID3)
Entscheidungsbaum generieren
- Anwendung:
- Bei großer Datenmenge viele verschiedene Attribute von Bedeutung.
- Entscheidungsbaum ohne große Berechnungen generieren.
- Bei großer Datenmenge viele verschiedene Attribute von Bedeutung.
- Algorithmus:
- Iterativ
- Benutzt Entropie zur Bestimmung von Baum-Knoten.
- Abbruch, falls jedem Blattknoten eine Klassifikation zugeordnet.
- Eingabe:
- Menge zu klassifizierender Objekte, Wurzelknoten, Menge noch zu vergebener Merkmale
- Ausgabe:
- Struktur mit Tupeln (Entscheidungsbaum)
Data Mining
Iterative Dichotomiser 3 (ID3)
Algorithmus: Informell
- Gegeben: X={x1 ,…,xn}⊂{1,…,v1}×…×{1,…,vp}, y={y1,…,yn}⊂{1,…,c}
- Aufrufen: ID3({1,…,n}, Wurzel,{1,…,p})
- Prozedur ID3(I,N,K)
- Wenn alle y(I) gleich dann abbrechen
- Berechne Informationsgewinn gj((X(I),y(I))) = E(X)−∑j∈y((∣Xj∣)/(∣X∣) ) * E(X j)∀ j∈K
- X: Datensatz, E(X): Entropie im Datensatz, c: Klassifikation
X j : Untermenge von X, ∣X∣: Mächtigkeit von X, ∣Xj∣: Mächtigkeit von X j
- Bestimme Gewinnermerkmal i = argmx{gj((X(I), y(I)))}
- Zerlege I in vi disjunkte Teilmengen
- für j mit Ij ≠ {}
- Generiere neuen Knoten Nj und hänge ihn an N
- Aufrufen ID3(Ij, N, I{i})
Data Mining
Bedingte Entropie

Maß über den Wert einer Zufallsvariable, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable bekannt wird.
Data Mining
Konfusionsmatrix
- tp: Anzahl true positives; korrekterweise als positiv klassifiziert.
- fn: Anzahl false negatives; als negativ klassifiziert, aber positiv.
- fp: Anzahl false positives; als positiv klassifiziert, aber negativ.
- tn: Anzahl true negatives; korrekterweise als negativ klassifiziert.

Data Mining
Konfusionsmatrix
Error
Error = (fp+fn)/N
Data Mining
Konfusionsmatrix
accuracy
accuracy = (tp+tn)/N
Data Mining
Konfusionsmatrix
tp-Rate
tp-Rate = tp/p
p=tp+fn
Data Mining
Konfusionsmatrix
fp-Rate
fp-Rate = fp/n
n = fp+tn
Data Mining
Konfusionsmatrix
precision
precision = tp/p’
p’ = tp+fp
Data Mining
k-Means-Cluster-Analyse
Lloyd Algoritmus: Informell
- Anzahl K zu ermittelnder Cluster vorher festlegen.
- Start (i=0): Positionen der Clusterschwerpunkte zufällig initialisieren.
- Objekte nächstgelegenen Schwerpunkten zuordnen. (i=1)
- Bei jeder Iteration i Schwerpunkt und nächstliegende Kandidaten neu berechnen.
- Dies Wiederholen bis Summe quadratischer Distanz einzelner Objekte zu ihrem jeweiligen Clusterschwerpunkt über alle Cluster ein Minimum erreicht.
- Bild
- xnDatensätze und μk Schwerpunkte der Cluster.
- Entscheidungskriterium für Cluster-Zugehörigkeit der Testobjekte: Abstände der Testvektoren von Clusterschwerpunkten.

Data Mining
Assoziationsregel-Lernen
Ziel
- Regeln der Form “IF X THEN Y” lernen:
- X⇒Y
Data Mining
Assoziationsregel-Lernen
support(X⇒Y)
Relevanz
support(X⇒Y) = NX∧Y/N
(NX: Anzahl Datensätze, die alle Eigenschaften in X erfüllen).
Data Mining
Assoziationsregel-Lernen
confidence(X⇒Y)
Gültigkeit
confidence(X⇒Y) = NX∧Y/NX
(NX: Anzahl Datensätze, die alle Eigenschaften in X erfüllen).
Data Mining
Assoziationsregel-Lernen
lift(X⇒Y)
Aussagekraft
lift(X⇒Y) = (NX∧Y *N) / (NX * NY)
(NX: Anzahl Datensätze, die alle Eigenschaften in X erfüllen).
Data Mining
Assoziationsregel-Lernen
Brute-force-Algorithmus
- Definition: Für gegebenen support-Schwellwert minsup:
- Menge Z heißt frequent item-set, wenn NZ / N >= minsup.
- Assoziationsregeln wie folgt generierbar:
- Generiere frequent item-sets: alle Mengen Z sodass NZ / N größer als gegebener Schwellwert für support und |Z| >=2.
- Für jedes frequent item-set Z betrachte Partition in nicht-leere Teilmengen X, Y.
- Behalte Regeln X => Y, für die confidence gegebenen Schwellwert überschreitet oder gleich ist.
Data Mining
Assoziationsregel-Lernen
Unter welcher Voraussetzung ist Teilmenge einer frequent item-set ebenfalls eine frequent item-set ?
- Beobachtung: Jede nicht-leere Teilmenge einer frequent item-set ist ebenfalls frequent: Durch Teilmengen-Bildung kann sich Menge der zu erfüllenden Eigenschaften allenfalls verringern (nicht vergrößern), daher kann sich der support allenfalls vergrößern (nicht verringern), da es einfacher wird, alle Eigenschaften zu erfüllen.
- Maximale frequent item-sets ausgehend von 1-elementigen frequent item-sets generierbar.
Data Mining
Hidden-Markov-Modell
- Wahrscheinlichkeit der Sequenz berechnen (gegeben Beobachtungssequenz und Hidden-Markov-Modell)
- Gegeben Beobachtungssequenz und Hidden-Markov-Modell, wahrscheinlichsten „hidden path“ im Modell berechnen (= interne Zustandsfolge; kann zur z.T. beobachtet werden).
- Bei gegebener Beobachtungs- sequenz Hidden-Markov-Modell ableiten, welches mit max. Wahrscheinlichkeit Sequenzen erzeugt.

Data Mining
Qualitätsbewertung von Lernalgorithmen: Cross-Validierung
Mit hilfe gegebener Datan testen wie gut der Algo ist.
Ziel des Process-Minings
- Was geschah in der Vergangenheit ?
- Warum ist es passiert ?
- Was wird vermutlich in der Zukunft geschehen ?
- Wann und warum weichen Unternehmen und Leute voneinander ab ?
- Wie kann ein Prozess besser kontrolliert werden ?
- Wie kann ein Prozess neu entworfen werden, sodass die Performanz gesteigert wird ?
Datenbeschaffung
Log-Komponenten
- Prozess enthält Fälle (cases).
- Fall besteht aus Events, jeden Event genau einem Fall zuordnen.
- Events innerhalb eines Falles: geordnet.
- Events können Attribute haben.
- Beispiele typischer Attributnamen: activity, time, costs und resource.
Datenbeschaffung
Herausforderungen beim Extrahieren des Event-Logs
- Korrelation: Events in Event-Log: nach Fällen gruppiert.
- Nicht trivial: setzt Korrelation der Events untereinander voraus.
- Zeitstempel: Events pro Fall ordnen.
- Probleme: nur Datum, unterschiedliche Uhren, verzögertes Loggen.
- Snapshots: Fälle ggf. über Dauer der Aufnahme hinweg aktiv.
- Z.B.: Fall vor Beginn des Event-Logs gestartet.
- Scoping: Welche Tabellen berücksichtigen ?
- Granularität: Events in Event-Log: andere Granularität als für Endnutzer relevante Aktivitäten.
Datenbeschaffung
Event-Log erstellen
- Verschieden Datenquellen zusammenfassen
- Haupttabelle festlegen und Attribut zur Zusammenführung bestimmen
Prozessextraktion
Anforderungen an Event Log
- Minimal: Nummer der GP-Instanz („case“ / Fall), GP-Aktivität, zeitliche Ordnung
- Optional: Genaue Zeit, Nutzer, assoziierte Daten etc.
- „Rauschfrei“: GP-Instanznr. erlaubt irrelevante Daten wegzufiltern.
- Vollständig: Relevante Daten für verschiedene GP-Instanzen vorhanden.
Prozessextraktion
Anforderungen an extrahiertes Modell
-
Angemessenheit (Fitness)
- Verhalten des Event-Logs zulassen.
-
Genauigkeit (Precision)
- vermeide Unteranpassung (underfitting)
- kein Verhalten ohne Bezug zu Inhalt des Event-Logs zulassen.
-
Verallgemeinerung (Generalization)
- vermeide Überanpassung (overfitting)
- Verallgemeinerung des Beispiel-Verhaltens im Event-Log sein.
-
Einfachheit (Simplicity)
- so einfach wie möglich sein.
α-Algorithmus
Grundidee
- α-Algorithmus: aus Menge von Folgen von Log-Daten GP-Modell als Petrinetz extrahieren.
- Idee:
- Informationen über Abfolge der Aktivitäten durch Verwendung geeigneter Ordnungs-Relationen sammeln.
- Ob Aktivitäten in verschiedenen Folgen in Kausal-Beziehung stehen, oder parallel bzw. unabhängig voneinander sind.
- Damit Petrinetz konstruieren.
- Informationen über Abfolge der Aktivitäten durch Verwendung geeigneter Ordnungs-Relationen sammeln.
α-Algorithmus
Annahmen
- Annahmen an zu erzeugende Petrinetze:
- Ausführung: jede Transition erzeugt jeweils ein Ereignis in Log- Datei mit zugehöriger Bezeichnung.
- Verschiedene Transitionen haben verschiedene Bezeichnungen.
- Keine Bogen-Vielfachheiten.
- Annahmen an Folge von Log-Daten:
- Log-Daten alle vom relevanten GP erzeugt. GP durch Petrinetz modellierbar.
- Aufteilung der Log-Daten auf Folgen in gegebener Menge entsprechen verschiedenen GP-Instanzen.
- Abstrahieren von mehrfachen GP-Instanzen mit demselben Verlauf (und von GP-Instanznummern).
Prozessextraktion
Ordnungsrelationen
- Direkte Nachfolge: x >W y
- ∃ σ∈W worin y direkt auf x folgt
- Kausalität x →W y
x >W y und nicht y >W x
- Parralelität x ||W y
x>W y und y>W x
- Unabhängigkeit x #W y
nicht x>W y und nicht y>W x
Welches Petrinetz wird aus der Kausalität
x→y
erstellt?

Welches Petrinetz wird aus der Relation
x→y, x→z, y||z
erstellt?

Welches Petrinetz wird aus der Relation
x→y, x→z, y#z
erstellt?

Welches Petrinetz wird aus der Relation
x→z, y→z, x||y
erstellt?

Welches Petrinetz wird aus der Relation
x→z, y→z, x#y
erstellt?

α-Algorithmus
Vorgehen
- Gesucht: Workflow-Schema als Petrinetz α(W) = (Stellen PW, Transitionen TW, Verbindungen FW)
- Transitionen
- TW ={ t ∈ T | ∃σ∈W t ∈ σ }
- TI={t∈T | ∃σ∈W t=first(σ)} Start-Transitionen
- TO={t∈T | ∃σ∈Wt=last(σ)} End-Transitionen
- Kandidaten für Stellen
- 4. XW = { (A,B) | A ⊆ TW ∧ A ≠ ∅ ∧ B ⊆ TW ∧ B ≠ ∅ ∧ ∀a ∈ A ∀b ∈ B a →W b ∧ ∀a1,a2 ∈ A a1#w a2 ∧ ∀b1,b2 ∈ B b1#W b2 }
- Stellen
- 5. YW = {(A,B) ∈ XW | ∀(A´,B´) ∈ Xw A⊆A´ ∧ B⊆B´ ⇒ (A,B) = (A´,B´)}
- PW={(p(A,B)) | (A,B)∈YW}∪{iW,oW}
- Verbindungen und Resultat
- FW={(a,p(A,B) ) | (A,B)∈YW∧a∈A} ∪ {p(A,B) ,b | ( A,B) ∈ YW∧ b∈B} ∪ {(iW ,t)|t∈TI} ∪ {(t,oW )| t∈TO}
- α(W )=(PW, TW, FW)
Prozessextraktion
Schwierigkeiten
- Rauschen
- Event-Log enthält seltenes und unregelmäßiges Verhalten.
- Nicht typisches Verhalten des Prozesses.
- Lösung z.B. durch Betrachtung der Häufigkeit
- Unvollständigkeit
- Event-Log enthält zu wenig Events, um alle
Kontrollflüsse zu erfassen.

Welche Qualitätskriterien erfüllt dieses Modell in besonderer Weise ?
Paradebeispiel für unterangepasstes Modell:
jedes Verhalten auf Basis der Ereignisse a, …, h zulässig.
Prozessextraktion
Was macht Process-Mining zu so einem schweren Problem?
- Keine negativen Beispiele:
- Logs zeigen, was geschah. Nicht: was nicht passieren kann.
- Durch Nebenläufigkeit, Schleifen, Verzweigungen:
- Suchraum hat komplexe Struktur.
- Log enthält nur Teil des möglichen Verhaltens.
- Kein Zusammenhang zwi. Größe des Modells und seinem Verhalten:
- Kleines Modell kann mehr/weniger Verhalten generieren.
- Klassische Analyse- und Evaluations-Methoden erwarten Monotonie-Eigenschaften.
Konformanzanalyse
Auditierung
- Auditierung: Evaluation von Unternehmen und ihren Prozessen.
- Audits stellen Validität und Zuverlässigkeit von Informationen über Unternehmen und entsprechende Prozesse sicher.
- Test von Ausführung der GP in bestimmten Grenzen (von Managern, der Politik und anderen Interessenvertretern gesetzt).
- Process-Mining: bei Aufdecken von Betrug, Fehlverhalten, Risiken und Ineffizienzen hilfreich.
- Alle Events eines GP evaluierbar, auch während Prozess noch läuft.
Konformanzanalyse
Konformanz messen
Vorgehen
- In jedem Schritt gibt es Zähler:
- p (produzierte Tokens)
- c (konsumierte Tokens)
- m (fehlende Tokens),
- r (überbleibende Tokens).
- Am Anfang: alle leer.
- Umgebung produziert ein Token für Stelle Start →p=1.
- Transition a konsumiert ein Token und produziert 2 Tokens → p = 3, c = 1.
- Am Ende konsumiert die Umgebung ein Token → c inkrementieren.
- Durchführen bei jeder Transition
Konformanzanalyse
Angemessenheit (Fittness) eines Modells zum Log Folge bestimmen
- produced, consumed, missing, remaining
- (1-m/c) berechnet Anteil fehlender Tokens.
- (1- r/P) berechnet Anteil überbleibender Tokens.
- σ: Log, N: Modell.
- 0 ≤ fitness(σ, N) ≤ 1.
- Falls fitness (σ, N) = 1: Keine fehlende oder überbleibende Token.
- fittness(σ, N) = 1/2 * (1 - m/c) + 1/2 * (1 - r/p)

Konformanzanalyse
Angemessenheit (Fittness) eines Modells zu Log Folgen bestimmen

Workflow-Diagnose
Interessante Fragestellungen
- Fehlerfreie Workflow-Ausführung ? Workflow-Ausführung mit geringem oder normalem
- Ressourcenverbrauch ?
- Identifikation kritischer Aktivitäten (hoher Ressourcenverbrauch).
- Wie sehen häufige / typische Ausführungen aus?
Timed Replay
- (Timed) Replay: Timing-Information mit Modellelementen verknüpfen. Ziele:
- Visualisierung
- Analyse
- der Zeit-Informationen
Decission Mining
In Petrinetzen
Motivation
- Entscheidungspunkte in extrahierten Petrinetzen zunächst „nicht-deterministisch“:
- im Modell nicht determiniert, welcher Ausführungszweig in welcher Ausführung gewählt wird
- Nützliche Information !
- Idee: Klassifikationstechniken (s. Abschnitt 2.2) anwenden, um Rationale hinter der in den Ausführungen gewählten Entscheidungen auf Basis der Logdaten zu erkennen.
- => „Decision Mining“
Decission Mining
In Petrnetzen
Was sind Entscheidungspunkte?
Wenn eine Stelle die Wahl zwischen 2 Transitionen hat.

Online-Analyse
Wie kann Process-Mining helfen?
- Flaschenhälse entdecken.
- Abweichungen / Probleme entdecken.
- Performanz-Messungen.
- Verbesserungen vorschlagen.
- Entscheidungshilfe (z.B.: Empfehlung und Vorhersage).
- Rückkopplung geben.
Online Analyse
Arten von Eventdaten
- “Post-mortem”-Eventdaten
- Abgeschlossene Fälle.
- Zur Verbesserung und Auditierung. Nicht, um gegebenen Fall zu beeinflussen.
- “Pre-mortem”-Eventdaten:
- Nicht abgeschlossene Fälle.
- Wenn Fall läuft / „lebt“ (pre-mortem):
- Informationen aus Event-Log über Fall (akt. Daten) verwertbar.
- Korrekte und effiziente Durchführung des Falls sicherstellen.
Lasagne Prozesse
Stark strukturierte Prozesse
Verhalten ist “vorhersehbar”
Spaghetti Prozesse
unstrukturierte Prozesse mit vielen möglichen Pfaden
Agglomerative Hierarchische Cluster-Analyse
- Weise jedem Datenpunkt einen Cluster zu
- Füge die beiden nächsten Cluster zusammen (merge)
- Wiederhole 2 bis nur noch ein Cluster existiert.

Apriori: Effiziente Generierung von Frequent Item sets

Nennen Sie die Kernelemente eines Petri-Netzes aus der Vorlesung und ihre jeweiligen Entsprechungen in der BPMN und EPK.

Erläutern Sie die drei Hauptarten von Process-Mining und ihre Funktion anhand eines Beispiels.
Nehmen Sie als zu untersuchende Umgebung eine Bank an, die aus Mitarbeitern in der Filiale, einem Bank-Automaten und zu tätigenden Überweisungen, sowie dem Kunden, besteht.
- Discovery/Extraktion:
- Es existiert kein Modell, das die Vorgänge in der Bank modelliert. Zuständigkeiten einzelner Mitarbeiter und erlaubte / mögliche Aktionen des Kunden können über Process Mining ermittelt werden.
- Conformance/Konformanz:
- Es existiert ein Modell, das die Bank modelliert. Das Modell wird mit den Logs verglichen, die bei der Ausführung der Systeme entstehen. So können zum Beispiel Indizien gesammelt werden, um festzustellen, ob Mitarbeiter ihre Kompetenzen überschreiten oder das Vier-Augen-Prinzip verletzt wird. Darüber hinaus können auch Lücken im Prozess festgestellt werden: wenn der Bankautomat nach einem Softwareupdate auch Kreditanträge bearbeiten kann und dies nicht im Prozessmodell nachgepflegt wurde, kann dies aufgedeckt werden.
- Enhancement/Verbesserung:
- Ein bereits vorhandener Prozess soll um Informationen angereichert werden. Hier können bspw. lange Laufzeiten einer Kontoeröffnung auf- gedeckt werden und zu einer Optimierung oder Erweiterung eines Prozesses führen.
Ordnen Sie die drei Hauptarten von Process Mining den Methoden Play- in, Play-out und Replay zu.
- Extraktion: Play-in
- Konformanz: Play-out
- Verbesserung: Replay
Ist es aus Ihrer Sicht möglich, dass Process Mining in Zukunft die Modellierung von Geschäftsprozessen ersetzt?
Vielfach werden IT-Systeme und interne Prozesse überhaupt an zuvor modellierten Prozessen ausgerichtet. Hier kann also gar kein Mining-Ansatz benutzt werden, bevor nicht mit GP-Modellierung gearbeitet worden ist.
Welche Unzulänglichkeiten kann es beim Process Mining geben?
- Informationen, die Process Mining liefert, basieren grundsätzlich auf der Auswertung einer begrenzten Zeitspanne. Aktivitäten, die in dieser Zeit nicht im Log auftauchen, aber eigentlich benötigt werden, können so aber nicht beachtet werden.
- Die Abstraktionsebene wird durch das Log bestimmt und nicht dadurch welche Abstraktion sinnvoll ist.
Erläutern Sie den Unterschied zwischen überwachtem und nicht überwachtem Lernen.
Beim überwachten Lernen ist das Ziel eine abhängige Variable (die Response-Variable) durch unabhänige Variablen (die Predictor-Variablen) zu erklären. Beim nicht überwachten Lernen gibt es keine Unterscheidung zwischen den Variablen und das Ziel ist es diese zu Clustern oder ihre Beziehung untereinander darzustellen.
Welche Anforderungen werden an ein Log File gestellt, damit dieses mittels Alpha-Algorithmus analysiert werden kann?
- Fall-Nummer :
- Wird zur Bildung der Sequenzen benötigt. Ohne Fallnummer ist das Extrahieren eines Netzes nur dann möglich wenn es keine parallelen Ausführungen des Prozesses gibt.
- Task :
- Werden in Transitionen überführt. Ohne eindeutigen Bezeichner für einzelne Tasks würden mehrere Transitionen pro Task erzeugt und ein verfälschtes Netz entstehen.
- zeitliche Ordnung :
- Wird zur Bildung der Relationen zwischen Transitionen benötigt.
- Rauschfrei :
- Der α Algorithmus ist nicht in der Lage fehlerhafte oder unvollständige Sequenzen zu filtern.
- Vollständig :
- Das Log File ist vollständig.