VL11: Wirksamkeitsforschung & Evaluation Flashcards

1
Q

Evaluation

A

Irgendetwas wird…Programme, Maßnahmen, Organisationen usw. werden …
von irgendjemandem …durch Personen, die zur Bewertung besonders qualifiziert sind …
in irgendeiner Weise …in einem objektiven Verfahren …
nach irgendwelchen Kriterien bewertet.nach explizit auf den Sachverhalt bezogenen und begründeten Kriterien (ggf. Standards) bewertet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Evaluation dient zur Qualitätssicherung von Maßnahmen

P

A

Mittel zur systematischen Überprüfung von Interventionen
Ziel- und zweckorientierter Bewertungsprozess einer bestimmten Maßnahme
Unterschiedliche Vorgehensweisen, z.B.
–> quantitativ vs. qualitativ
–> formativ vs. summativ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Evaluationsmatrix

A
Was soll evaluiert werden?
- Durchführung der Intervention
- Ergebnis der Intervention
Art der Daten
Qualitativ 
Quantitativ
Formativ/Prozessevaluation
Summativ/Ergebnissevaluation
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Quantitative Evaluation: Beispiele

A

Fragebogen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Qualitative Evaluation: Beispiele

A

Teilstrukturierte Interviews

Fokus-Gruppen Interviews „Think-Aloud“ Methode

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Forschungsansätze in der Gesundheitspsychologie

A

Quantitativ (deduktiv)
§Numerische Daten
§Theoriebasiertes, hypothesenbestätigendes Vorgehen
§Theorie à Hypothesen à Hypothese bestätigt/falsifiziert mit Daten?

Qualitativ (induktiv)
§ Sprachlich vermittelte Daten
(z.B. Interview, teilnehmende Beobachtung, Gruppendiskussion)
§ Hypothesengenerierendes, exploratives Vorgehen
§ Auswertung: z.B. Frameworkmethode (Gale, 2013)
Theorie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Forschungsansätze in der Gesundheitspsychologie
Mixed-Methods/“Mixed Methods Design“
P

A

Kombination von qualitativen und quantitativen Verfahren
Beispiele: Nach einer Pilotstudie (Pilot RCT) zusätzliche Abschlussinterviews mit Teilnehmenden führen; Neuentwicklung von Fragebögen (explorative, qualitative Studie gefolgt von quantitativer Studie)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Summative Evaluation

P

A

• wird durchgeführt, wenn die Entwicklung der
Programmkonzeption abgeschlossen ist und das Programm eingesetzt werden soll oder bereits implementiert ist
• Ziel: Bewertung von Wirksamkeit und Nutzen von Programmen
• besser extern durchführen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Formative Evaluation

P

A

§ wird während der Entwicklung und Erprobung eines Programms bzw. einer
Programmkonzeption durchgeführt
§ Ziel: Verbesserung und Weiterentwicklung des Programms
§ KEINE Evaluation der Ergebnisse, hier steht die Durchführung der Intervention im Mittelpunkt
§ Geschieht im Rahmen der Intervention das, was geplant war (sog. Interventionstreue/engl. intervention fidelity)?
§ Ist die Intervention überhaupt durchführbar (engl. feasibility)? Wird die Intervention von den Teilnehmenden angenommen (sog. Akzeptanz)?
§ Gibt es nicht vorhergesehene Nebenwirkungen?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Summative Evaluation:

Wie kann Wirksamkeit gemessen werden?

A
Wirkt die Maßnahme?
 Do they work?
Wie gut wirkt die Maßnahme?
How well do they work?
Warum wirkt die Maßnahme?
How do they work?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Ergebnisevaluation: Ist meine Intervention wirksam?

P

A

§ „Wirksamkeit ist an den Nachweis geknüpft, dass eine Intervention im Vergleich zu einer anderen Form der Intervention oder im Vergleich zur Nicht-Intervention systematische und nicht zufällige Veränderungen im Verhalten der Individuen produziert“ (Michie & Abraham, 2004)
§ Um die Wirksamkeit zu prüfen, benötigen wir ein randomisiertes Kontrollgruppendesign (engl. randomized controlled trial, RCT)
§ Mindestens eine Messung vor und eine nach der Intervention nötig
§ mindestens ein 2x2-faktorielles Design
§ Randomisierungscheck

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Randomisierung ist ein Verfahren, bei dem

P

A

Personen unter Verwendung eines Zufallsmechanismus unterschiedlichen Gruppen zugeordnet werden
Vert. (Var 1, Var 2, …, Var Y)
=
Vert. (Var 1, Var 2, …, Var Y)

P1, P2, …, PX
Gruppe 1
Gruppe 2

Randomisierungscheck:
à Sind jeweilige Variablen auch wirklich gleichmäßig verteilt?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Beispiel für ein faktorielles Design zur Überprüfung der Wirksamkeit einer Intervention P

A

Randomisierung zur Gleichverteilung der Störvariablen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Ist meine Intervention wirksam?

P

A

§ Prüfung auf Signifikanz
§ Wenn signifikant und Effekt in die richtige Richtung, dann ist die Interventionsbedingung
wirksamer als die Kontrollbedingung
§ Aber Achtung: Das Signifikanzniveau sagt nichts über die Stärke des Effekts aus!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wenn sie wirkt: Wie wirksam ist meine Intervention?

P

A

§ Zur Feststellung der Stärke der Wirkung einer Intervention berechnet man die Effektstärke
§ z.B. Cohens d (kann hier berechnet werden: www.uccs.edu/~faculty/lbecker/)
§ .20 kleiner Effekt .50 mittlerer Effekt .80 großer Effekt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was heißt vollständiges, faktorielles Design?

P

A

§ Alle möglichen Kombinationen der Faktorausprägungen (sog. Stufen) werden getestet
§ Sehr aufwändig!

17
Q

Prozess- und Ergebnisevaluation bei digitalen Interventionen

A

§ Wie sehr beschäftigen sich Teilnehmende mit einer (digitalen) Intervention? Wie „engaged“ sind Sie?
Gesundheit und Medizin
Technologische Aspekte der digitalen Intervention (Prozessevaluation)
z.B. Engagement
Verhaltensbezogene Aspekte der digitalen Intervention (Ergebnisevaluation)

Evaluation?

18
Q

Im Duett am besten:

A

Prozess- und Ergebnisevaluation

19
Q

Es werden 3 Ebenen der Zielsetzung unterschieden P

A

§ 1. Programmziele benennen (sog. objectives) = Ergebnis der Bedarfsanalyse
Was ist das übergeordnete Programmziel?
§ 2. Handlungsziele benennen (sog. Performance objectives)
Unterziele: Was sollen die Personen am Ende der Intervention machen/können?
§ 3. Determinanten der Handlungsziele benennen und sog. Change objectives=Veränderungsziele festlegen

20
Q

Evaluationsplan

A

Vollständiger Evaluationsplan enthält

§ Effekt-und Prozessevaluationsfragen
§ Primäre Ergebnisse (primary outcomes)
§ Sekundäre Ergebnisse( secondary outcomes)
§ Entwicklung von Indikatoren und Messinstrumenten
§ Auswahl des Evaluations design mit Bestimmung der Messzeitpunkte
§ Details zur Realisierung der Evaluation (Stichprobengröße, Art der Datensammlung, benötigte Ressourcen, Analyseverfahren, Kommunikation der Resultate an Interessengruppen)

21
Q

Prozessevaluation

A

Wie wird das Programm von den Nutzern angenommen (sog. Akzeptanz/Annahme einer Intervention)?
Wird das Programm so umgesetzt wie ursprünglich geplant (sog. Interventionstreue)?
Installation eines Feedback-Mechanismus zwischen Programmentwicklern und Programmbenutzern

22
Q

Proximale Ziele des Programms (2)

A
  • Programmziel (Program objective)
  • Handlungsziele (Performance objectives)
  • Determinanten der Handlungsziele benennen
  • Lernziele in Bezug auf die Determinanten (Change objectives)
23
Q

Theoriebasierte Methoden und praktische Strategien (3)

A
  • Brainstorming über Methoden/Techniken (= BCTs)

- Methoden/Techniken in praktische Strategien übersetzen

24
Q

Programmproduktion (4)

A
  • Erstellung der Interventionsmaterialien
  • Operationalisieren der Strategien in Pläne, Gedanken über VL und Orte - Materialien zur Durchführung entwickeln
  • Prätests und Pilotstudien mit Versuchsleitern und Zielpopulation
25
Q

Plan zur Umsetzung = sog. Implementierungsplan (5)

A
  • Verbindungssystem entwickeln (Wen oder Was brauchen Sie für die Durchführung?)
  • Ziele zur Umsetzung benennen
  • Determinanten benennen
  • Planungsmatrix erstellen /Pläne zur Implementierung erstellen
26
Q

Evaluationsplan (6)

A
  • Entwickeln eines Evaluationsmodells
  • Fragen zur Effekt- und Prozessevaluation entwickeln - Indikatoren und Maße entwickeln
  • Evaluationsziele benennen
  • Evaluationsplan erstellen