13 Data Literacy im Unternehmenskontext Flashcards
Data Science
Befasst sich mit der Gewinnung neuen Wissens aus Daten
Im Zentrum steht die (statistische) Verarbeitung und Auswertung von (häufig sehr großen) Datenmengen, wobei Expertise aus verschiedenen Anwendungsfeldern gebündelt eingesetzt wird.
–> Data Science muss Interdisziplinär betrachtet werden
Wissenspyramide
Die Wissenspyramide veranschaulicht, wie aus Daten Wissen entsteht, welches die Entscheidungsgrundlage für Aktionen darstellt.
Ebenen von unten nach oben
- Zeichen
- Daten
- Informationen
- Wissen
- Aktion
Data Literacy - Definition
Die Fähigkeit, Daten auf kritische Art und Weise zu sammeln, zu managen, zu bewerten und anzuwenden.
Data Literacy: Statistische Literacy
Fähigkeit, statistische Ereignisse zu verstehen und mit ihnen zu argumentieren.
Statistische Literacy: Gütekriterien
Hauptgütekriterien
- Objektivität: Grad, in dem die Werte unabhängig von irrelevanten Einflüssen sind
-Reliabilität: Grad der Genauigkeit, mit der Werte gemessen werden
-Validität: Grad der Güte, mit dem ein Verfahren das misst, was es messen soll
Nebengütekriterien
- Akzeptanz vonseiten der Subjekte, für welche Daten erhoben werden
- Zumutbarkeit der durch Datenerhebung entstandenen Belastungen
- Wirtschaftlichkeit des Erkenntnisgewinns relativ zu eingesetzten Ressourcen
Data Literacy: Ethische Literacy
Ethical Literacy im Rahmen von Data Literacy ist insbesondere die Fähigkeit, die Bedeutung von Daten zur Entscheidungsfindung vollständig zu erfassen, indem mögliche Interpretationen dieser Daten in unterschiedlicher Kontextualisierung reflektiert und kritisch bewertet werden.
Umfasst alle Bereiche (Statistische Literacy, Data Literacy, Information Literacy, Wissen)
Kompetenzrahmen
Ein Kompetenzrahmen ist ein Modell zur Beschreibung von effektivem Verhalten in einem gegebenen Aufgabenkontext und umfasst Kompetenzen, deren Definitionen und daraus abgeleiteten Verhaltensindikatoren (= Operationalisierung).
Data-Literacy-Framework
Das Data-Literacy-Framework im Allgemeinen unterteilt Aspekte der datenbezogenen Entscheidungsfindung auf zwei Dimensionen:
- Kodieren (produktive Prozessschritte hin zur Statistik)
- Dekodieren (rezeptive Prozessschritte von der Statistik zur Interpretation und Anwendung).
Data-Literacy-Framework: Kompetenzbereiche
Kodieren:
- Datenkultur etablieren
- Daten bereitstellen
- Daten auswerten
Dekodieren:
- Ergebnisse interpretieren
- Daten interpretieren
- Handeln ableiten
–> Stellen die oberste Gliederungsebene im Prozess dar (siehe Abbildung)
Daten in produzierenden Unternehmen: Datenarten
- Stammdaten
- Bewegungsdaten
Stammdaten
Dienen als Grundlage für verschiedene Prozesse in einem Unternehmen –> Zeichnen sich durch eine gewisse Statik aus
Lebensdauer lang, Pflegeaufwand hoch
- Materialstammdaten
- Ressourcenstammdaten
- Stücklisten
- Kundenstammdaten
- Lieferantenstammdaten
- Arbeitspläne
Bewegungsdaten
beziehen sich im Wesentlichen auf einen konkreten Zeitpunkt und beschreiben einen Status –> Durch eine Dynamik gekennzeichnet
Lebensdauer nur begrenzt
- Lagerbestandsdaten
- Produktionsauftragsdaten
- Betriebsdaten
- Organisatorische Betriebsdaten
- Technische Betriebsdaten
Datenqualität
Datenqualität so hoch wie möglich, aber nur so hoch wie nötig –> Garbage in, garbage out
- Datenqualität ist, z.B. durch eine unzureichende Messbarkeit, begrenzt.
- Jede Steigerung in der Qualität bringt Kosten mit sich –> Trade-off
- Die Qualität der Daten ist maßgeblich für den Erfolg von Industrie-4.0-Anwendungen
- Daten von unzureichender Qualität erschweren Prozesse innerhalb des Unternehmens und führen somit zu Kosten
- Die Steigerung der Datenqualität ist begrenzt und mit Kosten verbunden
Datenqualität - Bewertungskriterien
- Intrinsische Datenqualität
- Kontextuelle Datenqualität
- Repräsentative Datenqualität
- Zugangsbezogene Datenqualität
Intrinsische Datenqualität
Intrinsische Kriterien beschreiben die Qualität, welche Daten selber besitzen.
- Glaubwürdigkeit
- Genauigkeit
- Objektivität
- Reputation