Cap 6 Inchiesta campionaria pt2 Flashcards
Modalità di rilevazione
Fino a non molti anni fa, i ricercatori sociali avevano a disposizione tre metodi fondamentali per somministrare un questionario:
- Intervista faccia-a-faccia:
L’intervistatore si recava presso l’abitazione dell’intervistato e poneva le domande di persona.
- Intervista telefonica: Le domande venivano poste tramite una conversazione telefonica.
- Questionario autocompilato: Tra questi, il questionario postale era la tecnica più importante.
Oggi, dobbiamo aggiungere un quarto metodo:
- Questionario telematico: Anche se rientra nella categoria dei questionari autocompilati, presenta specificità tali da meritare una trattazione separata.
La forma prevalente di somministrazione di un questionario è stata quella dell’intervista faccia-a-faccia.
Tuttavia, a partire dagli anni ‘80, lo sviluppo congiunto di diversi fenomeni ha indotto le ditte di rilevazione a sostituire, almeno come procedura standard, le interviste faccia-a-faccia con le interviste telefoniche.
I questionari autocompilati hanno sempre avuto un certo spazio e continuano ad averlo.
Verso la fine del secolo scorso, anche la rilevazione telefonica ha iniziato a mostrare dei limiti.
La diffusione dei telefoni cellulari, che nelle giovani generazioni ha sostituito il telefono fisso, ha ridotto la rappresentatività dei campioni basati sugli elenchi dei possessori di telefono fisso.
Contemporaneamente, la rivoluzione informatica e la diffusione di internet hanno aperto la strada a un nuovo canale di comunicazione: le interviste telematiche.
Interviste faccia a faccia
Inizialmente, le informazioni sui soggetti studiati erano rilevate mediante una conversazione personale, faccia-a-faccia, tra intervistatore e intervistato.
La rivoluzione informatica ha solo lievemente modificato questo modo di procedere, sostituendo la registrazione carta-e-penna con un personal computer.
L’intervistatore legge le domande e registra le risposte direttamente sul computer (da cui l’acronimo “Capi”: Computer Aided Personal Interviewing).
I vantaggi sono notevoli:
- Il testo dell’intervista scorre sul video di fronte all’intervistatore.
- La risposta viene immediatamente digitata sulla tastiera e immessa in memoria.
- Il computer gestisce lo svolgimento dell’intervista.
Questo metodo elimina alcuni passaggi tra il momento della rilevazione e quello dell’elaborazione, avvicinando i tempi delle due operazioni:
- Scompaiono le fasi di codifica e di immissione dati, che avvengono contestualmente all’intervista.
- L’intervistatore, ovunque si trovi, può trasmettere tramite internet il suo file di interviste al centro di rilevazione alla fine della giornata di lavoro.
Tuttavia, questa innovazione non cambia il meccanismo base di interazione tra intervistatore e intervistato, e la figura dell’intervistatore rimane centrale.
La qualità dell’intervista dipende dalla sua prestazione e dal modo in cui imposta e conduce il rapporto con l’intervistato.
La tecnica utilizzata in questo caso è quella del questionario standardizzato.
Il problema è minimizzare l’influenza dell’intervistatore attraverso la standardizzazione del suo comportamento e la limitazione della sua discrezionalità, grazie a un’adeguata formazione.
È fondamentale che l’intervistatore eviti qualsiasi comportamento che possa influenzare l’intervistato.
Deve astenersi dall’esprimere approvazione o disapprovazione per le affermazioni rilasciate dal soggetto e rispondere con frasi o gesti ambigui e non impegnativi.
Allo stesso tempo, deve assicurarsi che l’intervistato cooperi positivamente, mantenga l’attenzione e l’interesse, comprenda il significato delle domande e non si verifichino fraintendimenti o errori grossolani nelle risposte.
Caratteristiche degli intervistatori:
- I manuali, specialmente quelli americani, approfondiscono le caratteristiche fisiche degli intervistatori, come genere, età, istruzione ed etnia.
- Si suggerisce che siano persone adatte a un lavoro senza grandi aspirazioni professionali, discontinuo, part-time e modestamente retribuito, che si colloca nei momenti liberi della giornata invece che nelle ore più impegnative.
- I manuali enfatizzano anche l’abbigliamento e l’aspetto esteriore dell’intervistatore. Poiché la prima impressione può essere determinante, si raccomanda un aspetto neutrale, non vistoso né eccentrico.
Le aspettative degli intervistatori:
- È fondamentale ricordare come le aspettative degli intervistatori influenzino significativamente le risposte degli intervistati.
- Vi sono 2 tipi di distorsioni (Per Maria pitrone):
- Distorsioni prodotte dall’ideologia e dalla struttura dei valori degli intervistatori.
- Distorsioni più frequenti, generate dalle aspettative che l’intervistatore ha sull’intervistato.
- Se l’intervistatore ritiene che una domanda sia difficile, è probabile che ciò induca un alto tasso di risposte “non so”,
oppure a causa di una trasmissione involontaria di sfiducia agli intervistati, questo può portare l’intervistato a fare meno sforzi per fornire una risposta completa o precisa, risultando in risposte evasive. - Queste aspettative vengono spesso trasmesse inconsciamente durante la dinamica dell’intervista.
La preparazione degli intervistatori:
- È cruciale che gli intervistatori siano consapevoli del tipo di interazione che si stabilisce con l’intervistato e dei meccanismi di acquiescenza e influenza che possono insorgere.
- Gli intervistatori non dovrebbero agire come macchine senza emozioni, ma devono essere in grado di gestire fraintendimenti e richieste di chiarimento. Per questo, sono necessarie istruzioni dettagliate su come comportarsi in queste situazioni, al fine di limitare la variabilità soggettiva e interpretativa e prevenire indicazioni discordanti.
- Devono essere fornite istruzioni scritte e organizzati incontri preparatori preliminari tra gli intervistatori e i responsabili della ricerca.
- Sono necessari incontri di controllo durante la rilevazione e la presenza di supervisori a cui gli intervistatori possano rivolgersi in caso di necessità.
La motivazione degli intervistatori:
- È essenziale considerare la disposizione psicologica dell’intervistatore nei confronti del suo lavoro e dell’intervista specifica.
- Un atteggiamento passivo, stanco e demotivato può influenzare negativamente l’intervistato.
- Al contrario, è fondamentale che l’intervistatore sia convinto dell’importanza del suo lavoro e della ricerca in cui è coinvolto.
- L’intervistatore deve essere partecipe e consapevole delle finalità della rilevazione.
Questionari autocompilati
Trattiamo ora il caso del questionario che il soggetto compila da solo, senza che ci sia un intervistatore.
Il vantaggio principale di questa tecnica:l’enorme risparmio nei costi di rilevazione.
Il limite principale di questa tecnica: l’elemento peculiare del questionario autocompilato sta nel fatto che mentre nei casi precedenti il questionario è compilato da una persona - l’intervistatore - che è stata istruita a tale compito, nel caso che stiamo qui considerando non possiamo contare su questa sicurezza: fra gli intervistati c’è certamente qualcuno che compila un questionario per la prima volta. Di conseguenza, i questionari autocompilati devono esserebrevi, concisi e il più semplici possibile. Un secondo possibile limite sta nell’autoselezione di coloro che rispondono.
Possiamo individuare due casi fondamentali di autocompilazione:
- La rilevazione di gruppo- si pensi a un questionario rivolto a studenti e distribuito in classe.
- La rilevazione individuale- occorre distinguere fra situazioni “con” e “senza” vincoli sulla restituzione del questionario compilato.
Per la rilevazione di gruppo, i due limiti prima ricordati sono assai ridotti. In genere, quando si può effettivamente realizzare una rilevazione di gruppo, il questionario autocompilato rappresenta una tecnica raccomandabile.
Quanto alla rilevazione individuale, un caso di restituzione vincolata è, per esempio, quello del censimento. In questo modo si risolvono i due punti problematici prima menzionati.
Questa tecnica di rilevazione è molto seguita dall’Istat, oltre che per i censimenti, anche nel Sistema di indagini multiscopo sulle famiglie. Si tratta della tecnica di campionamento detta“a grappolo”che permette notevoli risparmi di costo.
Passando infine al caso della compilazione individuale senza vincoli sulla restituzione del questionario, il caso che vogliamo trattare con una certa attenzione è quello del questionario postale. Consiste nell’inviare per posta il questionario a una lista di nominativi che rappresentano la popolazione studiata, allegando una lettera di presentazione della ricerca, il questionario da compilare e una busta per il ritorno con affrancatura a carico del mittente (l’istituto che conduce la ricerca). Naturalmente, condizione essenziale per questo tipo di somministrazione è la disponibilità per il ricercatore degli indirizzi postali delle persone da intervistare.
Vantaggi:
- Risparmi altissimi nei costi (i soli costi vivi di rilevazione sono la stampa del questionario e le spese postali).
- Può essere compilato dall’intervistato quando gli fa comodo.
- Maggiore garanzia di anonimato rispetto all’intervista faccia-a-faccia (il questionario di ritorno non deve contenere elementi atti all’identificazione di chi l’ha compilato).
- Assenza di distorsioni dovute all’intervistatore.
- Accessibilità anche a intervistati residenti in zone molto distanti dal centro di rilevazione o isolate.
Svantaggi:
- Bassa percentuale di risposte (spesso notevolmente inferiore al 50%), anche per l’assenza della sollecitazione personale a concedere l’intervista da parte dell’intervistatore, come accade nell’intervista faccia-a-faccia.
- Distorsione del campione dovuta all’autoselezione; Non è sicuro che le persone che rispondono rappresentino in un campione casuale; di solito non lo fanno, perché chi risponde è spesso diverso da chi non risponde
- Livello di istruzione della popolazione studiata: deve essere medio-alto, in quanto deve potersi trattare di persone che hanno una certa consuetudine con la comunicazione scritta.
- Mancanza di controlli sulla compilazione: per esempio, potrebbe rispondere un familiare invece del destinatario, oppure la sua segretaria.
- Impossibilità di questionari complessi: le domande devono essere semplici e anche la compilazione del questionario deve essere lineare.
- Lunghezza del questionario: non può superare certi limiti, che sono assai inferiori a quelli dell’intervista faccia-a-faccia.
Il problema principale di questa tecnica è rappresentato dai ritorni dei questionari.Non è facile superare il 50% di risposte. Babbie (1979, 335) definisce “adeguato” un tasso del 50% di risposte, “buono” uno del 60% e “molto buono” uno del 70% o superiore, avvertendo tuttavia che si tratta di giudizi a spanna, ricordando e questa è la cosa veramente importante che è molto più importante avere un campione non distorto.
Fattori che influenzano il tasso di ritorno:
- Organizzazione che sostiene la ricerca: il suo credito, il suo prestigio, la misura in cui essa è conosciuta.
- Lunghezza del questionario, forma grafica, facilità o meno delle risposte.
- Caratteristiche degli intervistati: si ha una miglior riuscita quando la popolazione studiata è rappresentata da un segmento particolare accomunato da una qualche caratteristica.
- Tipo di sollecito: le risposte vanno sollecitate almeno una volta; meglio se lo si fa due volte.
Conclusione:Nel caso di questionari autocompilati sono da escludere le domande aperte.
L’assenza dell’intervistatore toglie uno dei prerequisiti della domanda aperta: questa infatti ha senso in un rapporto dinamico con l’intervistatore che può indirizzare, stimolare e registrare.
La domanda aperta, se manca l’intervistatore, si espone a un’infinità di casi soprattutto, di mancata o incompleta trascrizione.
Interviste telefoniche
Interviste telefoniche
L’intervistafaccia-a-faccia, che a lungo ha rappresentato il modo di rilevazione dominante dell’inchiesta campionaria, con il tempo ha mostrato pesanti limiti soprattutto di carattere economico, per i costi crescenti di questo modo di procedere.
Con la diffusione del telefono in tutta la popolazione si è assistito a un incremento delle interviste telefoniche.
La qualità di queste interviste si è rivelata in alcuni casi pari o superiore a quella delle interviste faccia-a-faccia, tanto che negli anni ‘90 l’intervista telefonica aveva quasi completamente sostituito la tecnica tradizionale, specialmente nei sondaggi di marketing o d’opinione su larga scala.
L’intervista telefonica:
-
Permette una grande rapidità di rilevazione: con una buona struttura organizzativa, è possibile effettuare sondaggi su un campione nazionale ampio anche in un solo giorno, il che può essere essenziale per valutare la reazione
dell’opinione pubblica a eventi di attualità. - Comporta costi molto inferioriall’intervista faccia-a-faccia, con una riduzione fino al 75%.
- Presenta minori resistenze alla concessione dell’intervista e maggiore garanzia di anonimato: il telefono entra direttamente nelle abitazioni, permettendo di raggiungere persone che altrimenti non accetterebbero la presenza di un estraneo in casa. Viene percepita come più riservata rispetto all’intervista faccia-a-faccia.
- Permette di raggiungere a parità di costo anche gli intervistati collocati alle periferie della nazione, e quindi non richiede una concentrazione territoriale del campione nelle aree più facilmente accessibili.
- Facilita enormemente il lavoro di preparazione e supervisione degli intervistatori: Le interviste sono raggruppate, formando un gruppo accessibile per formazione e supervisione.
- Consente di utilizzare direttamente il computer in fase di rilevazione, integrando la tecnologia nella raccolta dei dati.
Gli Svantaggi dell’Intervista Telefonica
L’intervista telefonica, sebbene sia uno strumento di indagine rapido ed economico, presenta alcuni svantaggi notevoli.
La mancanza di contatto personale può portare a un coinvolgimento ridotto da parte dell’intervistato, con una tendenza a fornire risposte superficiali o affrettate. Questo distacco si riflette anche sull’intervistatore, che può percepire una maggiore freddezza nel rapporto, influenzando l’impegno nell’intervista.
La durata dell’intervista telefonica è generalmente più breve rispetto a quella faccia-a-faccia, con una media di 20 minuti contro i 40, a causa del deterioramento più rapido del rapporto.
Inoltre, l’impossibilità di utilizzare materiale visivo e la mancanza di dati non verbali limitano la profondità e la ricchezza delle informazioni raccolte.
- Disparità nella diffusione del telefono: Gruppi come gli anziani e le persone meno istruite sono difficilmente raggiungibili.
- Semplificazione dei quesiti: La limitazione del tempo impone domande e risposte più dirette, evitando approfondimenti.
Evoluzione del Telefono e Impatto sulle Interviste:
La crescente sostituzione dei telefoni fissi con i cellulari, le modifiche normative sugli elenchi telefonici e un crescente tasso di rifiuto alle interviste hanno introdotto significativi errori di copertura, compromettendo la rappresentatività dei campioni ottenuti.
Sondaggi Politico-Elettorali:
I sondaggi telefonici politici hanno problemi di copertura, risposta e riluttanza nelle domande chiave, come le intenzioni di voto.
Questi problemi sono importanti per sondaggi su tutta la popolazione e meno per studi mirati, se si hanno tutti i numeri di telefono dei partecipanti.
Questionari telematici
Questionari telematici
Evoluzione della Ricerca Sociale nel Primo Decennio del Secolo
Nel primo decennio di questo secolo si è venuta sempre più affermando nella ricerca sociale la distribuzione, compilazione e raccolta di questionari via internet.
Questa è una rivoluzione iniziata nel marketing, che ha fatto arricciare il naso ai “puristi” della ricerca.
La ricerca online è complessa e ancora in evoluzione.
Inchieste via Web (Web Surveys)
Una prima distinzione va introdotta fra internet come “semplice veicolo di trasmissione di informazioni” oppure come gestore-amministratore della raccolta di informazioni.
Si tratta della distinzione fra email surveys e web surveys.
Nelle email surveys, il questionario viene preparato attraverso un word processor e poi spedito al destinatario come allegato a una email.
Il destinatario compila il questionario e lo invia (sempre come allegato a una email) al mittente.
Nel caso delle web surveys, il soggetto intervistato accede a un sito web e su questo compila il questionario online. Questo modo di procedere presenta diversi vantaggi, come la grafica elegante del questionario, i meccanismi automatici per le domande filtro, la possibilità di inserire esperimenti, e la compilazione del questionario in frazioni di tempo successive.
Panel Online
La questione si fa complicata quando la ricerca deve essere condotta su un campione di tutta la popolazione.
La diffusione di internet in Italia è limitata e presenta differenze sociali.
Non sarà facile ottenere un campione rappresentativo di tutta la popolazione basandosi solo su persone che hanno accesso a internet.
I costi di rilevazione via web su un campione precostituito sono quasi nulli.
Si costituisce così un panel online: un gruppo di persone che accetta di partecipare a inchieste telematiche per un certo periodo di tempo.
Il problema principale di un panel online è la rappresentatività, per cui diventa cruciale il modo di reclutamento delle persone che vi fanno parte.
Nel caso del campione non probabilistico, l’adesione al gruppo avviene su base volontaria e non offre garanzie di casualità e quindi di rappresentatività.
Nel caso del campione probabilistico, il punto di partenza è rappresentato da una lista di persone scelte indipendentemente dalla loro volontà e dalla dimestichezza con internet.
Creare e mantenere un panel online affidabile è molto impegnativo e costoso.
Nel campo del marketing rappresentano ormai una realtà importantissima. L’intervista faccia a faccia ha il vantaggio decisivo della presenza dell’intervistatore che permette una conversazione approfondita e prolungata nel tempo, ma presenta anche lo svantaggio altrettanto decisivo di un costo ormai proibitivo in quasi tutte le situazioni di ricerca.
L’intervista telefonica è economica, ma ha problemi di interazione superficiale e campioni inadeguati.
Il questionario online è molto più economico, ma limitato agli utenti di internet e i partecipanti si autoselezionano. Tuttavia, a causa della pressione dei costi, l’intervista online sta diventando sempre più importante, aiutata anche dalla diffusione di internet.
La scelta del metodo di rilevazione dipende dal tema e dal gruppo studiato.
In alcuni casi, il web può essere preferito per la sua velocità, come in uno studio sulla reazione pubblica a una decisione politica. Probabilmente, in futuro si useranno metodi misti. Si potrebbe iniziare con un’intervista di persona e poi inviare ulteriori questionari online.
Inchieste diacroniche (lo studio del cambiamento nel tempo)
L’itinerario di inchiesta campionaria tradizionale, quello cioè di un ricercatore che conduce le analisi sui dati:
a) da lui stesso raccolti (anche se per il tramite esecutivo di organizzazioni specializzate)
b) nello stesso tempo (o comunque in un arco temporale limitato, per esempio, di qualche settimana), non è l’unico possibile.
Sono oggi frequenti le ricerche condotte su basi dati preesistenti, così come le indagini ripetute nel tempo.
Gli studi “diacronici” sono quelli che durano nel tempo, a differenza degli studi “sincronici” che avvengono in un momento specifico.
L’uso del “tempo” nella ricerca è fondamentale per capire pienamente le situazioni sociali.
Studiare il cambiamento (come “Come è cambiata la religiosità degli italiani negli ultimi 20 anni?” e “Quali sono le cause di questi cambiamenti?”) aiuta a capire le trasformazioni sociali e a cercare di identificare le cause.
Sono due le strade a disposizione del ricercatore sociale per studiare il mutamento sociale:
- replicare nel tempo, su campioni diversi, la stessa ricerca,
- oppure rilevare ripetutamente le stesse informazioni sugli stessi soggetti.
In entrambi i casi la ricerca viene ripetuta rilevando le stesse informazioni in successivi momenti temporali: solo che nel primo caso i soggetti studiati cambiano, mentre nel secondo caso rimangono gli stessi.
Gli studi del primo genere sono detti studi trasversali (cross-sectional) e danno luogo alle inchieste trasversali replicate, quelli di secondo genere sono gli studi longitudinali (longitudinal) e danno luogo a quelle che chiameremo inchieste longitudinali.
Inchieste trasversali replicate
Inchieste trasversali replicate
Si chiamano «inchieste trasversali» in quanto realizzano una sezione trasversale della popolazione studiata in un dato momento.
Ognuna di queste è una fotografia istantanea della popolazione; replicandola ho delle fotografie successive; leggendole in sequenza ho una rappresentazione del cambiamento intervenuto.
In generale, per uno studio effettivo del cambiamento sociale, si tratterà di seguire la trasformazione sociale mediante la rilevazione in più punti temporali successivi.
Esempio:
Un caso classico di inchieste trasversali replicate è rappresentato dai vari National election studies condotti in molte nazioni a ogni elezione dopo il voto su campioni rappresentativi di elettori, utilizzando questionari riportanti in buona parte le stesse domande: in questo modo si può vedere come variano nel tempo le opinioni e i comportamenti politici.
Si tratta della differenza fra dato aggregato e dato individuale.
Con il solo dato aggregato resta assai difficile analizzare le cause del cambiamento, che sono invece più facilmente individuabili quando il cambiamento è rilevato a livello individuale, così da poterlo mettere in relazione con altre variabili individuali.
L’inchiesta trasversale replicata appare quindi uno strumento inadeguato per cogliere il cambiamento individuale.
Inchieste longitudinali
Inchieste longitudinali
La tecnica dell’inchiesta longitudinale, e cioè dell’intervista ripetuta sugli stessi soggetti, venne proposta ai ricercatori sociali negli anni ‘40 del secolo scorso da Lazarsield [1948], il quale l’aveva sperimentata nel corso dei suoi studi elettorali.
Il termine inglese con il quale viene indicato questo tipo di inchiesta è “panel”.
Si utilizza lo stesso campione per effettuare diverse rilevazioni intervallate nel tempo.
Solo se, a distanza di tempo, non solo le persone intervistate, ma anche le domande sono le stesse, allora possiamo parlare di “inchiesta longitudinale”.
Le inchieste longitudinali pongono alcuni specifici problemi che le rendono particolarmente impegnative.
Innanzitutto c’è la questione importante della “mortalità” (attrition) del campione, ovvero alla riduzione della dimensione del campione che avviene ad ogni nuova “ondata” (cioè a ogni nuova rilevazione), per i più disparati motivi (rifiuti, trasferimenti, decessi, ecc.). Questa perdita di casi non avviene in modo casuale e pone una grave minaccia alla rappresentatività dei dati.
Altri problemi pone l’inchiesta longitudinale.
Le precedenti rilevazioni possono influenzare le successive: abbiamo già ricordato gli effetti di memoria e di apprendimento che influenzano la rilevazione delle stesse domande.
Possiamo ancora ricordare il fatto che il soggetto studiato, sentendosi oggetto di una particolare attenzione, può modificare il suo comportamento normale (per esempio, può tenersi più informato sulla politica se sa che verrà interrogato in proposito, ecc.).
In ogni caso un’inchiesta longitudinale su un campione standard di opinione pubblica non potrà durare per molti anni.
Più facili da realizzare sono inchieste longitudinali condotte su settori specifici e molto mirati della popolazione, e motivati a partecipare.
Ancora sulla rilevazione del cambiamento nel tempo
Il panel online (inchiesta longitudinale) consiste in un campione di persone disponibili a compilare i questionari online che vengano inviati loro a intervalli di tempo.
Se le domande sono le stesse, ci troviamo nella situazione di inchieste replicate nel tempo e quindi nella possibilità di studiare il cambiamento.
Le persone che fanno parte del panel sono le stesse, ma data la volontarietà della compilazione del questionario, non avremo gli stessi partecipanti per due (o più) sessioni diverse.
Tuttavia il ricercatore ha la possibilità di estrarre dai due (o più) campioni di rispondenti le persone che hanno risposto a tutte le rilevazioni, assicurando così l’identità dei campioni e la possibilità dello studio del cambiamento individuale.
Le repliche di una rilevazione tramite panel online, quindi, possono essere analizzate in modo duplice, come inchieste trasversali replicate, quando si studierà il cambiamento aggregato (per esempio, la variazione della percentuale di famiglie in stato di povertà sul totale);
come inchieste longitudinali, quando si studierà il cambiamento individuale (quante famiglie sono passate dallo stato di non-povertà a quello di povertà). Naturalmente la possibilità di questo secondo uso è strettamente legata al tasso di permanenza delle persone nel panel.
il costo della replica di una rilevazione tramite panel online è modesto e si prevede una sua espansione nel prossimo futuro anche a fini di studi longitudinali.
Allo stesso tempo, a causa di limitazioni economiche, non sarà possibile investire in metodi costosi per coinvolgere coloro che non rispondono (come richieste ripetute, incentivi, ecc.). Di conseguenza, ci sarà inevitabilmente un alto numero di persone che non rispondono nelle sessioni successive alla prima, il che ridurrà significativamente la qualità dei dati.
Un’altra soluzione è rappresentata dall’inchiesta retrospettiva, che consiste in una normale inchiesta trasversale (che si realizza quindi in un’unica soluzione), nella quale tuttavia si pongono ai soggetti intervistati una serie di domande relative al loro passato.
Sono evidenti i limiti di questo approccio, che fa affidamento sulla memoria e su un corretto resoconto del comportamento passato.
Un metodo di ricerca che è diventato importante recentemente è l’analisi degli eventi. Questo studio si concentra sugli effetti dei cambiamenti, ovvero le variazioni nella vita delle persone. La vita di una persona è definita da una serie di eventi, che possono essere considerati come variabili indipendenti.
Anche in questo caso, i dati sono raccolti attraverso interviste ripetute agli stessi individui in momenti diversi.
Infine, un modo per studiare il cambiamento è collegare file di censimento e amministrativi. Questo significa combinare dati individuali provenienti da diverse fonti.(censimenti, anagrafi comunali, registrazioni presso le unità sanitarie locali, ecc.).
Questo metodo permette di unire dati individuali (come dettagli socioeconomici, eventi demografici, salute, ecc.) provenienti da diverse fonti e raccolti in momenti diversi.
Inoltre, ci permette di osservare come queste informazioni cambiano nel tempo, anche quando provengono dalla stessa fonte.
Un esempio potrebbe essere l’analisi delle differenze nei dati di un individuo tra due censimenti consecutivi.
Il limite di questo approccio è rappresentato dalla povertà di queste informazioni.
Il problema generale di tutti i disegni di ricerca che includono al loro interno la variabile «tempo» è rappresentato dal loro costo: in uno studio effettivo sul cambiamento, in genere non è possibile accontentarsi di sole due rilevazioni, ma sembra indispensabile ripetere l’inchiesta in un lungo periodo di tempo.
Analisi secondaria
Per analisi secondaria intendiamo una ricerca che viene condotta su dati di inchiesta campionaria già precedentemente raccolti e disponibili nella forma della matrice-dati originale.
Si tratta quindi di una forma di rianalisi di file già esistenti.
Nel tempo il modello tradizionale del ricercatore che pone il problema, formula il disegno della ricerca, raccoglie i dati e poi li analizza si è venuto scontrando con alcuni problemi.
Innanzitutto lo sviluppo della disciplina ha spostato sempre più in avanti le esigenze del ricercatore:
La necessità di ricerche più avanzate ha causato un aumento veloce dei costi, rendendola troppo costosa per la maggior parte dei ricercatori. A questo punto, si stanno sviluppando due nuove tendenze.
Da una parte ci si è accorti del fatto che molte delle ricerche condotte in passato offrivano ancora ampi margini per nuovi e originali approfondimenti:
Sia perché normalmente l’analisi dei dati si limita a una parte di quanto essi nel complesso potrebbero dire.
sia per i continui sviluppi teorici di ogni disciplina che con il tempo viene a formulare nuovi interrogativi.
Sia per la messa a punto di nuove tecniche di elaborazione statistica che permettono oggi di rispondere con nuovi strumenti d’analisi a vecchi interrogativi.
Tutto ciò ha spinto i ricercatori a rimettere mano su vecchi file per una loro rianalisi. Facilitato tutto dallo sviluppo dell’informatica, che rende oggi facilmente accessibili (grazie alle reti telematiche) e utilizzabili (grazie a comuni software) file raccolti in qualsiasi parte del proprio paese e del mondo.
E facilitato anche dalla nascita di archivi dati, istituzioni finalizzate alla raccolta dei file relativi a ricerche già concluse, alla documentazione delle modalità di rilevazione, all’uniformazione dei criteri di organizzazione dei dati, alla loro distribuzione (di fronte a un modesto contributo economico) a chiunque ne faccia domanda.
Allo stesso tempo, la comunità scientifica ha iniziato a organizzarsi per raccogliere nuovi dati.
Hanno creato agenzie con l’obiettivo di unire le risorse per questa fase molto costosa, e poi hanno reso i dati disponibili a tutti i ricercatori.
Questo ha portato alla creazione di rilevazioni specificamente progettate per l’analisi secondaria.
I vantaggi di questi sviluppi sono notevoli.
Innanzitutto ci sono enormi vantaggi di tipo economico, in quanto per il singolo ricercatore i costi vivi della ricerca sono praticamente azzerati, dato che nella ricerca sociale consistono soprattutto in costi di rilevazione.
Ciò permette di mettere a disposizione anche del singolo studioso con poche risorse (si pensi, per esempio, a un giovane ricercatore non inserito in un importante gruppo di ricerca) dati raccolti con rilevanti impegni economico-organizzativi.
E questa considerazione è tanto più importante quanto più i costi di ricerca crescono e i finanziamenti alla stessa diminuiscono (come nei tempi attuali).
Oltre ai vantaggi economici, l’analisi secondaria valorizza uno dei principi fondamentali della ricerca scientifica, ovvero la cumulatività.
Ogni risultato empirico è più prezioso se si collega al corpo generale di conoscenze in quel campo, contribuendo così all’accumulo di conoscenza.
Dobbiamo considerare che affidare la raccolta dei dati a istituzioni stabili (come fondazioni, università, la comunità scientifica, ecc.) permette di ripetere la stessa indagine per lunghi periodi.
Questo permette di includere il fattore “tempo” nelle ricerche sociali, realizzando studi longitudinali di grande portata.
Un fattore esterno che ha contribuito fortemente allo sviluppo dell’analisi secondaria è rappresentato dallo sviluppo dell’informatica: in pochi anni la disponibilità (e la facile accessibilità) di dataset è cresciuta in maniera stupefacente, permettendo a qualsiasi singolo ricercatore di accedere con semplicità estrema a basi empiriche sui più disparati oggetti di ricerca sociale.
Non vanno tuttavia trascurati i limiti di questa evoluzione.
La mancanza di controllo sulle fasi di rilevazione può mettere il ricercatore nell’impossibilità di valutare la qualità dei dati.
I dati raccolti nel passato possono avere una carente documentazione sulle modalità di raccolta, sulle caratteristiche del campione, sul modo di operare degli intervistatori, sui tassi di non risposta: inoltre eventuali errori compiuti nella fase di memorizzazione o di trattamento dei dati possono essere non più visibili.
Ci sono ancora alcuni problemi importanti. La divisione del lavoro tra chi fa le domande e analizza i dati e chi raccoglie i dati può portare a limitare le domande che possono essere fatte.
domande importanti possono restare senza risposta per mancanza di dati a esse relative.
Questa stessa divisione, inoltre, può produrre ricerche fatte a partire dai dati disponibili invece che da ipotesi teoriche.
Meta-analisi.
E’un metodo che è diventato popolare negli ultimi anni, soprattutto nei paesi come gli Stati Uniti, dove la ricerca sociale è molto avanzata. Ha prodotto una grande quantità di risultati empirici, che ora richiedono urgentemente nuovi modi per essere sintetizzati.
La meta-analisi è un metodo che seleziona, integra e sintetizza studi che si concentrano sullo stesso argomento. Questo la distingue dall’analisi secondaria, perché si concentra sui risultati degli studi, non sui dati. Quindi, è più un “unione dei risultati” piuttosto che una “nuova analisi dei soggetti”.
La meta-analisi usa metodi statistici per riassumere i risultati di varie ricerche. Questa tecnica è cresciuta insieme all’uso di database bibliografici digitali.
Grazie a questi database, è più facile trovare ricerche su un argomento specifico usando parole chiave.
Ricerca bibliografica
La ricerca bibliografica è un passo iniziale in qualsiasi ricerca empirica. Potrebbe essere descritta come il processo di scoprire ciò che è già stato detto (teoricamente) e fatto (empiricamente) per decidere cosa fare e come farlo, basandosi su lavori precedenti. Questo si fa esplorando le pubblicazioni, o “letteratura”, sull’argomento di interesse.
Questa esplorazione deve precedere qualsiasi operazione empirica e precede il disegno stesso della ricerca, e cioè la sua pianificazione.
Questo perché la rivoluzione informatica ha profondamente modificato il modo di fare ricerca bibliografica, e la consultazione online di archivi bibliografici ha molti punti di contatto con la consultazione di archivi di dati.
Il percorso della ricerca bibliografica è molto soggettivo e anche imprevedibile.
Trattandosi di un itinerario individuale, non ci sono regole fisse o procedure prestabilite che possano guidare il ricercatore inesperto.
La qualità e la completezza della ricerca bibliografica condiziona la rilevanza dei risultati empirici, il loro spessore teorico, il loro interesse per gli studiosi del tema. Un’intelligente rassegna bibliografica, con l’articolazione e la concettualizzazione dei temi, la ricostruzione della storia della ricerca nel settore, può superare per interesse scientifico la stessa parte empirica di cui era semplicemente propedeutica.
La rassegna bibliografica è un’esplorazione che investe sia la dimensione concettuale sia quella empirica.
Una ricerca bibliografica significa passare in rassegna le principali idee e ricerche relative all’area di interesse.
Possiamo individuare tre fasi nel suo procedere: 1) articolazione concettuale e cioè, messa a punto degli interrogativi di ricerca;
2) quando questi fossero definiti, rassegna delle principali ricerche condotte su quegli interrogativi al fine di scegliere un disegno di ricerca;
3) una volta definito il disegno, occorre confrontarsi con le ricerche già condotte in quel modo.
Il primo stadio è puramente teorico, il secondo entra già nella dimensione empirica, mentre il terzo affronta problemi applicativi.
Una caratteristica tipica della ricerca bibliografica è la sua struttura a cascata: si comincia da un articolo o un libro (il più possibile recente) e poi, inseguendo i suoi riferimenti bibliografici, si risale ad altri contributi che ci sembrano utili e importanti, e così via per allargamenti successivi («una ciliegia tira l’altra»).
In questo contesto diventa necessaria una certa capacità selettiva del ricercatore, il quale deve capire quando è il caso di fermarsi: il campo bibliografico è un mare magnum nel quale si può anche affogare.
La citazione bibliografica può essere utilizzata per rinforzare un’affermazione, un’argomentazione, enfatizzare un risultato empirico.
Inoltre, sarebbe di buon gusto limitare al minimo i riferimenti ai propri scritti.
L’informatica ha fatto fare un salto di qualità alla ricerca bibliografica, l’ha facilitata enormemente, attraverso due strumenti fondamentali:
a) la diffusione di banche dati bibliografiche che permettono attraverso parole chiave la rapida individuazione dei testi (soprattutto articoli in riviste accademiche) nei quali sono trattati temi oggetto di ricerca;
b) gli abbonamenti online alle riviste specializzate, che mettono il materiale scientifico a portata di ogni singolo ricercatore.
Archivi dati e dataset nazionali internazionali
Negli ultimi anni in Italia, abbiamo visto un processo di internazionalizzazione della ricerca sociale.
Questo è evidente con l’aumento delle riviste internazionali e degli indicatori di produzione scientifica.
Questi elementi fungono da guide per unire le comunità nazionali, che possono avere dei limiti.
C’è anche un aumento nell’uso di analisi comparative per comprendere meglio i processi sociali.
Le grandi aziende che raccolgono dati richiedono un notevole impegno economico e organizzativo.
La loro durata supera la generazione di ricercatori che le hanno iniziate e possono essere utilizzate da un numero quasi infinito di ricercatori. Questo giustifica il fatto che vengano considerate come infrastrutture per la ricerca scientifica e siano gestite da istituzioni, non da singoli ricercatori.
In questo quadro si sono sviluppate le cosiddette indagini multiscopo: grandi indagini disegnate per raccogliere informazioni e dati su una quantità molto vasta di problematiche.
La loro finalità è quella di produrre informazioni da mettere a disposizione degli operatori politici e degli studiosi.
Insieme a istituzioni nazionali e internazionali che raccolgono queste informazioni, sono stati creati archivi centralizzati per gestire e diffondere i dati.
Lo sviluppo dell’informatica ha reso assai più facile l’archiviazione e la distribuzione dei dati e nello stesso tempo il suo accesso da parte anche del più isolato fra i ricercatori.
Le opportunità sono dunque molte per il ricercatore sociale che vuole condurre un’analisi secondaria.
In fase di raccolta dati, il problema è quello di orientarsi nella molteplicità dell’offerta di file pre-costituiti.
Per archivi dati intendiamo le istituzioni finalizzate alla raccolta, archiviazione e distribuzione dei file.
Per dataset intendiamo l’insieme dei dati (vale a dire il o i file), relativi a un’indagine, organizzati in matrice dati in formato elettronico con relativa documentazione. Si noti che questi dataset, date le loro dimensioni, permettono spesso analisi su subcampioni specifici;
Per il ricercatore sarà importante esaminare la dimensione dei campioni di queste ricerche per valutare se è possibile creare un sottoinsieme di dati utile per la sua ricerca.
Dove cercare il materiale bibliografico?
Uno dei più diffusi archivi bibliografici per le scienze sociali è il Social Sciences Citation Index (Ssci), un archivio interdisciplinare in cui sono presenti i contenuti bibliografici di oltre 2.500 riviste scientifiche che appartengono a più di 50 discipline nel campo delle scienze sociali e umanistiche.
L’archivio viene aggiornato settimanalmente (dall’Institute for Scientific Information- isi), ed è accessibile online attraverso il servizio Web of Science.
Oltre a dare la possibilità di accedere gratuitamente agli abstracts dei lavori, questo archivio è molto utile in quanto permette anche di individuare quali sono gli articoli maggiormente citati su un argomento, e quindi potenzialmente più rilevanti all’interno del dibattito scientifico.
Scopus è un ampio archivio multidisciplinare che contiene abstracts e citazioni di lavori accademici di differenti campi scientifici.
Questo database è molto più ampio rispetto al Ssci, (comprendendo circa 21.000 titoli di riviste che sono pubblicate da oltre 5.000 editori.)
Scopus è pubblicato dalla casa editrice Elsevier che lo aggiorna quotidianamente. Come molti altri archivi, Scopus permette di compiere ricerche semplici o avanzate, per esempio tramite parole chiave o tramite il nome dell’autore.
Scholar.google.it è uno dei più utilizzati motori di ricerca non a pagamento.
Uno dei punti di forza di questo motore di ricerca è la possibilità di poter trovare e visionare anche dei lavori in corso: cioè dei lavori che non sono stati ancora pubblicati in libri e riviste, come contributi presentati a convegni e congressi (paper, poster e manoscritti ancora in fase di pubblicazione), ma anche tesi di laurea e dottorato, recensioni, rapporti di ricerca e studi non accademici.
Il sito di ricerca specifico sui libri books.google.com, collegandosi direttamente ai siti delle case editrici, dà la possibilità di visionare in anteprima alcuni libri, sia pure in maniera parziale.
Tramite la consultazione degli indici e delle bibliografie dei libri in formato elettronico, questo servizio può fornire già un’idea chiara dell’utilità o meno di alcuni libri sull’argomento, semplificando praticamente quelle preliminari consultazioni bibliografiche che una volta venivano fatte direttamente in biblioteca.
Esempio pratico di ricerca di materiale bibliografico:
Immaginiamo di voler individuare, tramite una ricerca bibliografica in Sociological Abstract, i principali studi di ricerca sociale centrati sull’ambientalismo ovvero sulla sensibilità nei confronti della salvaguardia ambientale.
Si può iniziare una ricerca veloce inserendo un termine di ricerca generale, per esempio “environmental concern”. sono numerose le opzioni per poter calibrare la propria ricerca bibliografica;
in questo caso, si è deciso di non limitarne la portata, scegliendo l’opzione «qualsiasi campo», non specificando il tipo di fonte o documento (libri, riviste, rapporti, tesi, ecc.), né limitando la ricerca ai soli lavori peer-reviewed (cioè pubblicati in riviste che vincolano l’accettazione degli articoli al giudizio di colleghi studiosi del settore), oppure in base all’anno o alla lingua.
La videata successiva (fig. 6.2) presenta il risultato della ricerca, e ci dice in alto a sinistra che esistono 3.214 lavori pubblicati che possono essere di interesse per la nostra ricerca. Di lato a destra viene evidenziato il tipo di fonte: la ricerca ci dice che la maggioranza dei lavori (ben 2.460) si trova in riviste accademiche. Di default, la ricerca ordina i risultati in base alla pertinenza dei lavori trovati (sulla base della frequenza nel testo della parola chiave), ma è anche possibile ordinarli in base alla data di pubblicazione. Dopo aver selezionato uno di questi lavori, la pagina seguente permette di leggere gratuitamente l’abstract, in questo caso di un articolo, nonché di avere tutti i riferimenti utili per poterne trovare il testo completo.
Tramite le parole chiave e la lettura dei riferimenti bibliografici dei singoli lavori, si restringe il campo di riferimento, si individuano i termini per una ricerca avanzata e si iniziano a individuare con più precisione gli articoli più utili, in base al proprio interrogativo.
Dove cercare la base di dati secondaria?
Una volta definito il campo di analisi e aver compiuto le ricerche bibliografiche, siamo venuti a conoscenza delle nostre informazioni.
Nel caso si intenda (o non si possa) condurre una propria rilevazione, occorre cercare dataset già esistenti sui quali condurre una propria ricerca e testare le ipotesi che sono state definite in base alla letteratura sull’argomento.
In alcuni casi, nei siti di alcuni istituti di ricerca (per esempio, quello dell’Istat), è anche possibile interrogare i dati su internet e cioè effettuare elaborazioni elementari (distribuzioni di frequenza, tavole di contingenza, ecc.) senza il bisogno di accedere alla matrice-dati. Oltre ai siti di istituti autori delle ricerche, è di grande utilità fare riferimento agli archivi creati proprio con l’obiettivo di promuovere la condivisione e l’analisi di basi dati per le scienze sociali.
Una volta individuato il dataset utile, c’è da capire qual è la procedura da seguire per entrare in possesso della matrice-dati.
ESEMPIO CREDO
Partendo dall’iniziale argomento di ricerca, si decide di cercare proprio una recente base dati incentrata sulla salvaguardia ambientale.
Dopo aver inserito il termine di ricerca “environment”, la ricerca ha prodotto 225 risultati. Selezionando uno dei dataset indicati, se ne potrà leggere il relativo abstract e quindi, se interessati, si potrà continuare a esplorarne il contenuto.
Nello specifico, nella figura 6.4 si è scelto di selezionare l’Eurobarometro numero 68.2, utile per l’oggetto della ricerca, e si sono aperte tutte le possibili informazioni su di esso: descrizione dello studio e del file di dati, questionario, pubblicazioni correlate, descrizione di ogni singola variabile e sua distribuzione di frequenza, ecc. Infatti, ancor prima di scaricare il file di dati, è anche possibile interrogare la base dati direttamente online, tramite alcune elaborazioni che il catalogo Gesis permette di compiere, da tabelle e grafici, fino a correlazioni e regressioni.
Dal menù a tendina presente sulla sinistra si individuano le due variabili utili: in questo caso, «nazione» e «importanza data alla salvaguardia ambientale».
Dopo averle individuate si clicca sul tasto in alto “tabulation”. Grazie a una maschera molto intuitiva, è possibile a questo punto inserire le due variabili di interesse: tramite il tasto del mouse si inseriscono le variabili in riga o in colonna.
Costruire l’andamento nel tempo di un fenomeno sociale
Immaginiamo ora di voler ricostruire l’andamento di un fenomeno nel tempo, in termini quindi diacronici.
Anche in questo caso numerose istituzioni permettono, tramite i loro siti di consultazione dei dati, di ricostruire gli andamenti temporali di svariati fenomeni sociali.
Le statistiche dell’Istat sono quelle più utili e complete per ricostruire gli andamenti di comportamenti sociali a livello nazionale.
Il sito dell’Istat utilizza lo stesso sistema di interrogazione dei dati basato sulla tecnologia datawarehouse dell’Ocse, e si presta a innumerevoli modalità di fruizione.
I dati disponibili sono organizzati per temi strutturati in un albero gerarchico e sono presentati in forma aggregata in tavole multidimensionali, con la possibilità di comporre tabelle e grafici personalizzati, agendo sulle variabili, i periodi e le aree territoriali di riferimento.
ALTRO ESEMPIO CREDO
Per iniziare la nostra ricerca è necessario selezionare un argomento dalla homepage del sito Istat (menù a tendina che si trova in alto a destra).
Visto il nostro interrogativo iniziale, decidiamo di selezionare l’argomento “ambiente ed energia”, quindi, dalla schermata successiva, tramite il menù a tendina a sinistra (fig. 6.7), clicchiamo sull’argomento “rifiuti” e poi su “indicatori sulla raccolta differenziata”.
Decidiamo quindi di ricostruire l’andamento del fenomeno, selezionando l’arco temporale degli ultimi 13 anni. A questo punto, è possibile personalizzare il risultato ottenuto in tabella, tramite numerose opzioni aggiuntive; per esempio, selezionando/deselezionando alcune variabili, cambiando la scala dei valori in tabella, definendo la disposizione degli assi, oppure mostrando/nascondendo altre informazioni nella tabella. Si può anche decidere di rappresentare la tabella tramite un grafico.
Nuove tendenze e nuovi rischi
L’inchiesta campionaria classica era scandita da fasi sempre controllate e direttamente gestite dalla figura del ricercatore (o dell’équipe di ricerca).
Il ricercatore stabiliva le ipotesi e creava un questionario. Conduceva personalmente gran parte dello studio, selezionava e formava gli intervistatori. Durante la rilevazione, manteneva un contatto diretto con loro, organizzava la codifica e analizzava i dati.
Il ricercatore, pur non potendo condurre personalmente tutte le interviste, supervisionava e controllava direttamente l’intero processo di raccolta delle informazioni.
Nell’analisi secondaria, il ricercatore si limita ad esaminare dati già raccolti da altri, saltando le fasi iniziali del modello classico di ricerca.
Spesso il ricercatore crea il questionario, ma affida la sua somministrazione a una società di sondaggi. Questo comporta una netta divisione dei compiti: il ricercatore costruisce il questionario, analizza i dati e interpreta i risultati, mentre l’intervistatore si limita ad eseguire le interviste.
Il ricercatore non ha più un contatto diretto con gli intervistatori, ma con un responsabile della società di sondaggi. L’intervistatore diventa un semplice strumento di raccolta dati.
Si crea una divisione tra le “parti nobili” della ricerca (teoria, analisi, interpretazione) e le “parti volgari” (raccolta dati). Il ricercatore delega la raccolta dati ad altri e rinuncia al controllo. Questa routine porta a una minore attenzione all’accuratezza della raccolta dati e a una diminuzione della qualità.
Più usiamo modelli di analisi complessi, meno consideriamo il significato delle variabili. Questa negligenza sulla qualità dei dati, come Marradi ha evidenziato nel 1990, è rischiosa. Potrebbe portare a ricerche avanzate basate su dati inaffidabili, risultando in ricerche di bassa qualità.
Il secondo problema nasce dall’irruzione dell’informatica nella ricerca sociale.
L’effetto di questo nuovo metodo di raccolta dei dati sulla loro qualità è un vero enigma. Questo problema può essere riassunto in due punti principali: quanto il campione è rappresentativo e quanto l’istituzione che raccoglie i dati è affidabile.
Creare un panel online affidabile è possibile solo per grandi organizzazioni, mentre realizzare un sondaggio online “artigianale” è alla portata di tutti.