Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

La ricerca sociale e le sue pratiche, Dispense di Metodologia della ricerca

Riassunto La ricerca sociale e le sue pratiche per frequentanti - anno accademico 2023/2024

Tipologia: Dispense

2022/2023

In vendita dal 13/02/2024

Canebiancobatuffolo
Canebiancobatuffolo 🇮🇹

4.7

(15)

21 documenti

1 / 90

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica La ricerca sociale e le sue pratiche e più Dispense in PDF di Metodologia della ricerca solo su Docsity! 1 CHE COS’È LA SCIENZA 1. Concetti e linguaggio Tanto nella vita quotidiana quanto nella scienza, alla base della possibilità di conoscere e comunicare ci sono i concetti. Concetto  “un’unità del pensiero non indivisibile, nel senso che se ne possono individuare vari aspetti, che sono a loro volta concetti” (Marradi). Secondo Weber, che ha dimostrato sensibilità per i processi di concettualizzazione, i concetti servono a dare senso alla molteplicità infinita di processi che sorgono e scompaiono in un rapporto reciproco di successione e di contemporaneità “in” noi e “al di fuori di” noi.  ES: il concetto di aula include aspetti/concetti quali cattedra, attrezzatura didattica, capienza, a loro volta scomponibili in altri aspetti/concetti. Il concetto di aula ci permette di riconoscere una data stanza come aula, anche se non abbiamo mai visto un’aula esattamente uguale a quella in cui stiamo entrando. Tipizzazione  Schutz, figura di riferimento della sociologia fenomenologica, ha chiamato questa funzione dei concetti tipizzazione. Per Schutz se noi percepiamo un albero (o un qualsiasi altro elemento), ciò è possibile solo in quanto riferiamo l’esperienza di un tale singolo elemento a un tipo generale di albero. Viviamo in un mondo di oggetti tipificati, e solo sulla base di queste tipizzazioni è possibile la nostra esperienza degli oggetti sia nella loro tipicità, sia nella loro unicità, che può esistere solamente in relazione con la tipicità.  ES: seguendo il ragionamento di Schutz, possiamo dire che è solo grazie al concetto di aula che siamo in grado di cogliere tanto le somiglianze di una data stanza con altre che facciamo rientrare nella categoria aula, quanto le differenze tra quella data aula e altre che abbiamo visto in precedenza. Sensismo e idealismo Molti autori si sono interrogati sui processi di formazione dei concetti, inquadrando questo problema nel dibattito più generale sul rapporto tra pensiero e realtà. Possiamo collocare le posizioni dei protagonisti di questo dibattito lungo un continuum tra due poli: - Sensista / empirista  secondo cui l’esperienza della realtà determina il pensiero - Idealista  secondo cui la percezione stessa della realtà è resa possibile da categorie cognitive e intellettuali dell’essere umano del tutto indipendenti dal mondo esterno Solitamente, Aristotele viene portato come esempio paradigmatico del pensiero ascrivibile al versante sensista / empirista: egli sostiene che le astrazioni derivano dalle percezioni e le categorie concettuali si formano dall’esperienza che abbiamo del mondo esterno attraverso i sensi. Locke e Mill, due esponenti dell’empirismo, condividono con Aristotele l’idea secondo cui i fenomeni empirici costituiscono il materiale con il quale si costruiscono astrazioni e categorie cognitive, ma riconoscono all’intelletto umano un ruolo più attivo di elaborazione delle percezioni. Il fisico e filosofo Mach, invece, ha assunto posizioni sensiste: per lui, la conoscenza è una funzione passiva, le teorie scientifiche devono essere semplici, basate su concetti che si limitano ad organizzare gruppi di sensazioni. Sull’altro fronte, quello idealista, i principali autori di riferimento sono Platone e, soprattutto, Kant. La visione di quest’ultimo, esemplificata dal concetto di categorie a priori, è improntata a un costruttivismo estremo: l’uomo conosce imponendo al mondo esterno una struttura e una forma; per Kant anche l’esperienza sensoriale è frutto di un’attività intellettuale. Nelle sue forme più estreme, l’idealismo gnoseologico arriva a sostenere che la conoscenza non ha come oggetto la realtà, ma la sua rappresentazione fenomenica. 1 Tuttavia, circa il dibattito sulla formazione e sulla natura dei concetti ci sono una serie di posizioni che si pongono trasversalmente rispetto all’antinomia tra sensismo e idealismo: - Weber  come Kant, anche lui ritiene che la realtà sia conoscibile solo operando un ritaglio concettuale che dà significato a ciò che altrimenti sarebbe un flusso di esperienza inintelligibile; ma, al contrario di Kant, non ritiene che tale taglio venga fatto in base a categorie cognitive a priori e assolute, bensì in funzione di obiettivi cognitivi specifici tra i quali non c’è un ordine assoluto di preferenza. Formazione e condivisione dei concetti Il patrimonio di concetti che un individuo abitualmente usa “appartiene” alla comunità (o alle comunità) delle quali l’individuo a sua volta fa parte, ed è molto difficile ricostruire il contributo dei singoli al progressivo mutamento del patrimonio concettuale di una data comunità. Tuttavia, ciò non deve indurre a pensare che un determinato concetto sia pienamente condiviso in tutti i suoi aspetti dalle persone che lo usano abitualmente, né che tra i concetti e il linguaggio per esprimerli ci sia un rapporto di semplice univocità. Inoltre, nei concetti che l’individuo si forma a contatto e per influenza dell’ambiente sociale c’è sempre una componente personale accanto alla componente interpersonale, ed è quest’ultima che permette l’interazione e la comunicazione con gli altri attraverso termini che usiamo per verbalizzare i concetti. Se i concetti servono a dare senso alla realtà, essi devono essere giudicati in funzione della loro utilità: non serve chiedersi se determinati concetti siano veri o falsi (es: razzismo, sviluppo sostenibile), quanto piuttosto in che misura siano utili per capire ed eventualmente modificare la realtà. Si tratta di una questione controversa nel dibattito scientifico – filosofico: come ricorda Marradi, infatti, non è stato facile per il pensiero occidentale raggiungere la piena consapevolezza della natura stipulativa dei concetti, cioè del fatto che essi organizzano il nostro pensiero intorno alla realtà, ma non sono, in sé, né veri né falsi. I concetti sono stipulativi perché essi propongono uno o più criteri di organizzazione semantica della realtà, che, rispetto a essi, ha una sua indipendenza.  ES: il concetto di stalking prevede un atteggiamento assillante e minaccioso che può manifestarsi in vari modi e che genera nella vittima ansia e paura. Tali atteggiamenti sono sempre esistiti, mentre solo da qualche anno si parla di stalking  il concetto di stalking si è affermato come nuovo criterio di senso, alla luce del quale la combinazione e la concomitanza di una serie di comportamenti assume un significato diverso rispetto a quelli che tali comportamenti assumono quando sono considerati singolarmente. 2. Scienza e senso comune Un modo classico per capire che cos’è la scienza è distinguerla dal senso comune. Tradizionalmente, infatti, la definizione di scienza è stata affidata ad un approccio oppositivo, mettendo in luce tutto ciò che la distingue dagli altri tipi di conoscenza. Proprio questa scelta ha però portato la storia del pensiero epistemologico a coltivare una concezione dualistica che, concentrandosi sulla questione della demarcazione tra scienza e non scienza, ha dimenticato gli elementi che accomunano il sapere scientifico ad altri ambiti di conoscenza. La filosofia greca e la scienza moderna Alle origini della concezione dualistica citata sopra può certamente essere indicata la filosofia della Grecia antica che ha formulato una teoria della conoscenza distinta in due livelli: I. doxa, caratterizzata dall’immaginazione e la credenza comune; II. epistéme, caratterizzata da ragione discorsiva e dall’intelletto. A partire dal XIII secolo si è affermata la convinzione che il senso comune influisse negativamente sullo sforzo dell’essere umano di comprendere e acquisire un maggiore controllo sul mondo. Piuttosto, per lo scienziato rapportarsi con l’oggetto di studio significava liberarsi dagli idola, ossia da tutte quelle credenze che ostacolano la conoscenza scientifica. Solo in conseguenza dell’avvento della scienza moderna vi è stata la formalizzazione dei confini scientifici: a fronte di un sapere comune, caratterizzato da frammentarietà e asistematicità, la scienza poteva essere riconosciuta per la logica sperimentale. Si è andata così affermando l’idea 2 è tale perché considerato degno di nota dal gruppo di ricerca, sulla base dei propri punti di vista, delle proprie scelte di valore. Tuttavia, a volte, le scelte di valore possono essere indotte. Weber non vuole liberare gli scienziati dalla necessità di compiere delle scelte di valore, ma vuole evitare che tali scelte si travestano da asserzioni scientifiche, che venga fatto passare per scientifico, cioè oggettivo, un enunciato che è invece di natura etica e quindi soggettivo nel senso che le scelte etiche competono ai soggetti. La sociologia della conoscenza La questione è talmente importante da essere al centro del cosiddetto “programma forte” della sociologia della conoscenza: “forte” perché mira a mettere in discussione il carattere neutro, oggettivo e universalmente valido del sapere scientifico. L’ipotesi di fondo è che ogni forma di sapere, e quindi anche quella scientifica e logico – matematica, è socialmente condizionata. Lo scienziato non solo è storicamente condizionato, ma ha una posizione ben definita a livello sociale, tanto quanto accade agli attori su cui si fa ricerca. Molti sono quindi gli elementi che influenzano il suo lavoro e che fungono da filtro per la nostra osservazione del mondo, già a partire dal momento nel quale definiamo problematica una situazione.  Come garantire un livello minimo di credibilità alla ricerca scientifica? Universalismo, comunalismo, disinteresse, scetticismo sistematico Secondo Merton esiste un ethos della scienza moderna, ovvero un insieme di valori e norme che svolgono un ruolo di guida e di orientamento nello svolgimento della professione scientifica e che vengono trasmessi durante il processo di socializzazione alla ricerca. Merton fa riferimento a quattro imperativi istituzionali della scienza: I. Universalismo  i criteri di validazione della conoscenza devono essere indipendenti dalle caratteristiche sociali degli scienziati II. Comunalismo  i risultati delle ricerche devono essere considerati beni comuni, ovvero appartenenti a tutta la comunità degli scienziati, al fine di promuovere la collaborazione collettiva. In questo senso la conoscenza scientifica è un percorso umano che in alcuni casi può avere degli arresti o degli arretramenti, ma solitamente consente di procedere in una prospettiva cumulativa e progressiva, facendo tesoro dei risultati di indagini precedenti e dei padri fondatori di una disciplina. III. Disinteresse  sostiene la necessità che l’impresa scientifica non venga contaminata dagli interessi di guadagno economico e sia promossa come impresa a beneficio di tutti gli uomini e le donne nel mondo. Stando a questo principio, per la definizione dei criteri e delle procedure di assegnazione di compiti e finanziamenti sono da privilegiare forme di gestione pubblica e comunitaria della scienza, ispirate a modalità democratiche e trasparenti. IV. Scetticismo sistematico  sostiene la necessità di sottoporre a un esame critico ogni risultato scientifico attraverso una valutazione che sia non solo concentrata sui contenuti, ma anche focalizzata sul metodo e sui codici di condotta istituzionali. Intersoggettività e avalutatività Nell'ambito dei problemi empirico scientifici il controllo intersoggettivo può mettere al riparo da distorsione e da pregiudizi di natura extra scientifica. La garanzia della validità del lavoro scientifico non sta nel riferimento a una oggettività del reale che possa essere considerata assoluta, ma sta nell'accuratezza dei procedimenti di indagine, nella disciplina del gruppo di ricerca e soprattutto nella sua consapevolezza a proposito dei meccanismi di interpretazione che usa. In questo senso, la Wertfreiheit intesa come la libertà dello scienziato, il quale dopo aver preso consapevolezza delle diverse prospettive valutative, esplicitando il proprio punto di vista a sé e agli altri, opera poi coerentemente rispetto alla scelta liberamente adottata. Trasparenza, replicabilità, ispezionabilità 5 Trasparenza delle procedure adottate dal gruppo di ricerca  essa attiene alla controllabilità del percorso di formulazione degli asserti, anche se viene praticata in maniera diversa nei vari ambiti disciplinari. Ad esempio, nelle scienze più formalizzate, come la fisica e la chimica, “controllabilità” significa che il gruppo di ricerca deve poter fornire tutte le informazioni e i dati necessari per far sì che l'indagine possa essere ripetuta da un soggetto diverso rispetto a chi l'ha realizzata arrivando agli stessi risultati. In altre parole, secondo questa tradizione la trasparenza e la controllabilità coincidono con la replicabilità. Replicabilità  è stata definita il principio ordinatore della scienza. Tuttavia, nel concreto farsi della ricerca, essa è un principio più spesso sancito che attuato. Molto rari sono infatti casi di ricerche ripetute dallo stesso gruppo di indagine o - ancora meno - da altri: difficilmente si fa una ricerca appositamente per non scoprire nulla di nuovo. Nelle scienze sociali, poi, la replica di uno studio solleva ancora più punti interrogativi: da un lato condivide con le scienze fisiche naturali alcuni problemi, dall'altro si scontra con l'inevitabile mutabilità e complessità umana e sociale. Ispezionabilità  essa può essere intesa come la precondizione della replicabilità vera e propria e consiste nella possibilità, da parte di un esterno, di controllare le scelte compiute dal gruppo di ricerca durante il suo percorso. Anche su questo principio esistono alcune riserve: nonostante sia diventato un requisito molto citato e ricercato nelle pubblicazioni scientifiche, nella realtà dei fatti non tutta la ricerca poggia su una base empirica pienamente ispezionabile. Trasversale a tutte queste prospettive è il carattere argomentativo della scienza: giustificare le scelte fatte, ma soprattutto fornire alla comunità degli esperti di strumenti di valutazione delle stesse. 4. I “prodotti” della scienza; leggi, teorie, ipotesi e paradigmi La distinzione tra scienza e senso comune è stata sviluppata sul piano dei principi, dei valori e delle norme sociali che la regolano come “forma di azione”. Ma la scienza è anche un insieme di risultati e acquisizioni conoscitive sempre in evoluzione. Per questo, occorre focalizzarsi anche su cosa produce la scienza. Paradigmi, teorie, leggi, ipotesi sono il bagaglio basilare di ogni disciplina e rispondono alle esigenze cognitive primarie del sapere scientifico: concettualizzazione, generalizzazione, inferenza, ricerca di connessioni, comprensione della realtà e condivisione dei risultati. Le leggi In base a una concezione tradizionale della scienza, un'esigenza comune a tutte le discipline consiste nello spiegare i fenomeni sistematizzando il materiale empirico ed effettuando nessi significativi tra eventi. Questo compito è affidato a degli asserti specifici che vengono chiamati “leggi”.  Che cosa sono le leggi nella scienza? Sono delle affermazioni che mettono in relazione due o più proprietà o caratteristiche con l'intento di spiegare le connessioni tra loro, limitatamente agli oggetti specificati. Possono essere distinte in: - Deterministiche  si trovano principalmente nelle scienze fisiche naturali dove sono predominanti generalizzazioni universali, cioè riferibili a tutti i fenomeni inclusi in una data categoria, senza eccezione, dando dunque luogo a una certezza deduttiva - Non deterministiche o generali  si trovano nelle scienze umane e sociali, dove l'aleatorietà delle sequenze di eventi e la complessità fenomenologica fanno sì che siano più diffusi altri tipi di regolarità empiriche. In particolare, si parla di: - leggi statistiche o probabilistiche  quando vi è la possibilità di calcolare la probabilità con cui un evento si può verificare all'interno della stessa categoria: La ricerca di regolarità empiriche è il principio che guida la formulazione di tali leggi. 6 - Asserti tendenziali  quando le relazioni tra proprietà o caratteristiche degli oggetti non possono essere espresse attraverso una formalizzazione matematica. Sono molto comuni nelle discipline umane e sociali, per questo si ritiene che le scienze sociali non abbiano a che fare con le leggi in senso stretto. Le teorie A un livello di astrazione maggiore è la teoria. Rispetto alla capacità di generalizzazione e applicazione di una legge, la teoria fornisce quadri di comprensione più ampi e ambiti di riferimento più allargati. Nell'ottica dell'epistemologia contemporanea, la teoria è un sistema di asserti che mette in relazione principalmente concetti e leggi con la funzione di creare un quadro di significato coerente mettendo insieme sia esperienze empiriche sia elementi teorici. Ciò che caratterizza una teoria, dunque, è la sua coerenza e la capacità di riunire in un unico quadro elementi diversi in una relazione quasi di armonia. Alcune teorie sono esprimibili in maniera formalizzata, con nessi interni tra le leggi, come nelle scienze naturali. Esistono poi anche teorie non formalizzate o meno formalizzate, come la maggioranza delle teorie delle scienze sociali. Tuttavia, in tutte le discipline, le teorie hanno una funzione vitale, in quanto guidano la ricerca empirica e fanno emergere nuove idee di ricerca. Le ipotesi Un'altra funzione della scienza è effettuare delle congetture che aiutino a orientare l'osservazione, la raccolta e la sistematizzazione del materiale empirico. Questo compito spetta alle ipotesi. In generale, un'ipotesi ha la stessa forma di una legge in quanto è un asserto che mette in relazione proprietà o caratteristiche di un oggetto. Diversamente dalla legge, però, l'ipotesi è una proposizione che non è stata ancora sottoposta al vaglio empirico. È dunque una congettura che richiede di essere corroborata: lo scienziato formula un'ipotesi, sviluppa la sua indagine e poi conclude valutando se l'ipotesi è corroborata oppure no. Qualora la proposizione ipotetica non superi il vaglio empirico, essa dovrà essere rigettata o cambiata. Essa gioca un ruolo importante all’interno della scelta e selezione del materiale empirico da sottoporre a osservazione, indicando la rilevanza di alcune caratteristiche rispetto ad altre e proponendo un modello di relazione tra le stesse. Per questo le ipotesi aiutano a strutturare un’indagine, procedendo secondo il percorso classico: formulazione di ipotesi formalizzate  raccolta del materiale empirico necessario per controllarle. Tuttavia, nelle scienze umane e sociali questo schema non sempre viene rispettato: più spesso si parte da domande di ricerca ampie che orientano la raccolta delle informazioni e che si trasformano in ipotesi interpretative a valle dell'elaborazione delle informazioni. I paradigmi Il paradigma può essere considerato l'espressione di una comunità di appartenenza. Lungi dal poter essere considerata un'attività svolta in isolamento e autonomia, fare scienza significa mettere in opera idee, ipotesi, teorie, strumenti che un gruppo di ricerca riceve, magari reinterpretandoli e rielaborandoli, da una comunità. Questa appartenenza porta con sé un grande bagaglio di prassi e conoscenze tacite ed esplicite che, stratificandosi e cristallizzandosi, formano un paradigma scientifico. Il termine paradigma è stato introdotto nel celebre testo La struttura delle rivoluzioni scientifiche di Kuhn (1962): su un piano generale esso consiste in ciò che i componenti di una comunità scientifica condividono e che li differenzia da altre comunità. In particolare, un paradigma si caratterizza per l'accumulazione di risultati di indagini consolidati, che costituiscono sempre il punto di partenza di ogni nuova ricerca. Tuttavia, un paradigma consiste pure in un bagaglio specifico di abitudini scientifiche, di strumenti di analisi e di organizzazione della percezione che nel tempo si sono addensati in una tradizione, in uno stile di lavoro: si tratta di procedure, modelli, opere classiche standard di riferimento. Essi assolvono il compito di istruire e orientare la formazione dei nuovi scienziati alla forma mentis specifica di quella data comunità. Un paradigma, quindi, è anche la maniera con cui i membri di una comunità guardano il mondo, e di conseguenza scelgono gli aspetti rilevanti della realtà da studiare e i problemi di ricerca. Del paradigma però c’è un lato oscuro: in quanto coagulazione del consenso e quadro di senso dato per scontato, può infatti diventare autoreferenziale. Fa pensare alla Gestalt, ovvero a un'appartenenza totalizzante 7 Scienza e mondo della vita Per Dewey esiste una relazione molto stretta tra l’indagine scientifica e il mondo della vita. Essa può essere intesa nel duplice senso di relazione genetica, poiché la materia della ricerca deriva dalla vita sociale quotidiana, e di relazione funzionale, poiché compito della scienza è la sistematizzazione e comprensione del materiale esistenziale. Il primo passo di una ricerca consiste nel riconoscere che lo studioso condivide con l’attore sociale la stessa idea della fatticità del fenomeno in analisi: se, infatti, la ricerca sociale è profondamente radicata nel mondo della vita, ciò avviene proprio in virtù della convinzione dell’esistenza del fenomeno, indipendentemente dal fatto che qualche metodo di analisi se ne occupi. Questo ci dice che i fenomeni oggetto di ricerca assumono rilevanza proprio in ragione della condivisione della concretezza della dimensione quotidiana. L’emersione dei problemi sociali Il momento in cui un fenomeno sociale viene definito come problematico, ossia il passaggio da una condizione sociale a un problema sociale avviene attraverso un processo definitorio interno alle dinamiche di costruzione e mutamento dell’opinione pubblica. Ciò dipende sia dai giudizi di valore impliciti in un determinato contesto storico – sociale, sia dall’influenza di particolari gruppi forti in grado di etichettare la realtà, come i claim – makers. A ogni modo i problemi che si pongono i ricercatori sociali sono strettamente connessi alle esigenze pratiche e cognitive della popolazione oggetto di studio. D’altronde, se la specificità delle scienze sociali è attivare una circolarità ermeneutica, in cui il sapere sociologico parte dalla precomposizione degli attori e torna alla collettività civile sotto forma di maggiore consapevolezza, allora è naturale che l’argomento di ricerca possa costituire un vero e proprio elemento di difficoltà e di incertezza per la cittadinanza. Per questo diversi sociologi sostengono che un problema di indagine debba essere riconosciuto come tale anche dai membri della società analizzata. C’è anche chi sostiene che se questa compartecipazione non si verifica, non si ha ricerca sociale in senso proprio. 3. Formulare il problema di ricerca Gli oggetti della ricerca Per avviare una ricerca è necessario individuare un fenomeno sociale e trasformarlo in un problema di ricerca, facendosi alcune domande.  La prima è: quale oggetto o classe di oggetti si intende studiare? Ciascuna disciplina scientifica ha i suoi oggetti. La sociologia può occuparsi di oggetti posti a livelli micro (gli individui), meso (i gruppi) o macro (le istituzioni, le popolazioni ecc). In particolare, possiamo distinguere i tipi di unità di analisi: 1. Individuo  rappresenta l’unità di analisi tipica delle scienze sociali e si ha quando l’unità di analisi è l’essere umano 2. Aggregato di individui  si ha quando l’unità di analisi è un collettivo di individui accomunati da specifiche caratteristiche, come l’aggregato territoriale (ES: popolazione residente in un comune o in una nazione) 3. Gruppo o organizzazione – istituzione  si ha quando l’unità di analisi è un gruppo sociale i cui componenti interagiscono secondo determinati modelli e si costituisce per raggiungere specifici obiettivi o funzioni sociali. In questo caso l’oggetto di studio è rappresentato dal collettivo stesso (ES: l’istituto scolastico) 4. Evento sociale  si ha quando l’unità di analisi è un avvenimento storico e/o culturale che ha carattere di eccezionalità o esemplarità (es: le elezioni, le guerre, le manifestazioni politiche) 5. Prodotto culturale  si ha quando l’unità di analisi è un manufatto con valore comunicativo (ES: articolo di giornale, film, discorso politico, programma elettorale) Il contesto della ricerca: quando e dove Una volta scelte le unità di analisi, è necessario porsi una seconda domanda  In quale ambito/contesto spazio – temporale si intende effettuare lo studio? 10 Definire l’ambito spaziale consente di individuare un contesto specifico di tipo geografico in cui calare lo studio. Circoscrivere il tempo aiuta a definire un contesto storico, dunque, a non dare per scontato che l’ambito temporale sia un generico presente, o un momento assoluto fuori dal tempo. Se il campo di indagine non fosse delimitato, infatti, tutti gli oggetti di un certo tipo diverrebbero potenziali casi di quella ricerca. Le caratteristiche che si vogliono studiare  Relativamente a quali aspetti e caratteristiche si intende rilevare e studiare? Nessuna unità di analisi può essere studiata integralmente, ma sarà sempre necessario un ritaglio sulla realtà per definire quali sono gli interessi specifici di un’indagine. Per questo devono essere individuati quegli elementi di interesse della ricerca che afferiscono all’oggetto di studio. Questi saranno chiamati “aspetti” o “caratteristiche” dell’oggetto di studio e quando verranno riferite all’unità di analisi possono prendere il nome di “proprietà”.  ES: se si ha come unità di analisi l’individuo, la ricerca potrà focalizzarsi su proprietà quali il genere, l’età, il titolo di studio, la residenza. IN SINTESI, le domande utili a formulare il problema di ricerca, delimitando il campo di indagine sono: 1. Cosa/chi studiare 2. Dove e quando 3. Su quali aspetti/caratteristiche focalizzarsi 4. Pratiche di ricerca differenti Pratiche etic/emic Una specificità delle scienze sociali è che chi fa ricerca è parte attiva del mondo e dei fenomeni che studia. Proprio questa peculiarità rimanda a due possibili maniere di concepire la ricerca sociale: - Impostazione etic  che valorizza la rappresentazione dei fenomeni a opera del gruppo di ricerca e il punto di vista esterno, tipico del discorso scientifico classico - Impostazione emic  mette in rilievo soprattutto il punto di vista e il mondo di senso degli attori sociali. Questi differenti approcci hanno dato luogo a differenti modi di fare ricerca. I problemi di ricerca Il primo elemento di differenza esistente tra gli approcci emic ed etic riguarda l’individuazione dei problemi di ricerca. Entrambe i poli riconoscono una stretta connessione tra scienza e mondo della vita: 1. Impostazione etic  si caratterizza per l’accento sull’oggettività e la necessità di una distanza emotiva e osservativa del gruppo di ricerca rispetto a ciò che sta studiando. Essa raccomanda l’assunzione di un punto di vista il più possibile estraneo ed obiettivo; secondo questa prospettiva il distacco è un valore che deve guidare l’indagine, affinché i suoi risultati siano capaci di vedere al di là dello stato di fatto e riescano ad assumere una posizione feconda per il sapere scientifico. 2. Impostazione emic  mette l’accento sulla prospettiva dell’insider: per questo tende a scegliere tematiche che sono vissute come problematiche dagli attori sociali o che afferiscono al contesto biografico, motivazionale e sociale di chi fa ricerca. La ricerca e le sue fasi Un secondo elemento di differenza riguarda la scansione delle fasi della ricerca: - Impostazione etic  visione lineare che concentra l’impostazione dell’indagine nella prima fase - Impostazione emic  mette l’accento sulla ricorsività tipica del percorso di ricerca 11 La differenza riguarda anche il modo in cui si identifica l’unità di analisi e i referenti empirici su cui raccogliere le informazioni (i casi della ricerca), nonché gli aspetti da rilevare (le proprietà) sull’oggetto di studio: - Impostazione etic  la popolazione di riferimento riferibile all’unità di analisi è delimitata in fase di progettazione della ricerca - Impostazione emic  la popolazione di riferimento riferibile all’unità di analisi è delineata in modo generico all’inizio della ricerca e specificata più dettagliatamente solo in corso d’opera. Infine: - Impostazione emic  le varie caratteristiche da studiare emergeranno e saranno definite durante la ricerca; infatti, per la propensione induttiva di tali approcci, gli aspetti da approfondire e le prospettive analitiche da seguire saranno esplicitate in itinere a partire dall’osservazione dei vari referenti considerati significativi per riflettere sull’oggetto di studio. Per questo motivo, a differenza dell’impostazione etic, il dettaglio con cui sono definiti gli argomenti e gli aspetti da indagare in riferimento all’unità di analisi non sarà predisposto in maniera definitiva in fase di progettazione della ricerca, ma emergerà nel corso della rilevazione grazia all’ascolto della realtà oggetto di studio. In definitiva, per definire il proprio campo e ambito di interesse chi fa ricerca si muove sempre in una “tensione” tra pianificazione e pratica, la quale trova il suo punto di equilibrio nel concreto farsi della ricerca. 4 SCEGLIERE IL PIANO DI AZIONE Dopo aver scelto l’oggetto di studio e aver effettuato i primi passi per formulare il problema di indagine, occorre mettere a punto un adatto disegno di ricerca. Il disegno di ricerca serve ad orientare le diverse attività e a far sì che il problema in esame possa essere studiato in modo efficace. Per decidere quale disegno seguire, occorre porsi delle domande: 1. Qual è l’obiettivo cognitivo della ricerca, ovvero quali sono le ragioni e le finalità che muovono l’indagine? 2. In base alle conoscenze pregresse del fenomeno oggetto di studio, quali informazioni è opportuno/utile rilevare? 3. In base alla letteratura esistente, qual è lo stato dell’arte sulla concettualizzazione del fenomeno (teorie e concetti rilevanti)? 4. Quali ipotesi interpretative si possono/intendono fare in merito al fenomeno oggetto di studio? I principali tipi di disegno di ricerca sono: - Esplorativo – descrittivo - Esplicativo - Valutativo 1. I tipi di disegno di ricerca A che cosa serve il disegno di ricerca Il disegno di ricerca serve a integrare le diverse componenti di un’indagine in modo logico e coerente, garantendo che si possa affrontare efficacemente il problema in esame. Esso guida il processo, dalla formulazione delle domande alla condivisione dei risultati, strutturando le diverse fasi, individuando l’approccio e le tecniche di rilevazione, elaborazione e analisi delle informazioni. Quali sono i tipi di disegno di ricerca Nell’ambito della ricerca sociale si distinguono tre macro-tipi di disegno di ricerca: 1. Esplorativo – descrittivo 2. Esplicativo 3. Valutativo 12 Le ipotesi La ricerca esplicativa, a differenza di quella descrittiva, può contare su una base empirica e cognitiva più solida e, quindi, su una maggiore conoscenza del fenomeno oggetto di indagine. Sul tema in analisi, quindi, non solo sono stati effettuati studi precedenti, ma sono anche presenti ipotesi abbastanza strutturate in relazione a influenze e fattori rilevanti per spiegare l’oggetto di studio. Il disegno di ricerca esplicativo mira a sottoporre al vaglio empirico tali congetture e a ottenere un giudizio circa la loro conferma o meno. Questo tipo di disegno “è tale nel senso che tendenzialmente conduce a una struttura esplicativa (inferenza del fenomeno da spiegarsi da leggi e teorie in presenza di date condizioni empiriche), ovvero sottintende una struttura esplicativa” (Statera). La logica delle variazioni concomitanti Una spiegazione può essere sviluppata attraverso il canone delle variazioni concomitanti. Tale canone in sostanza stabilisce che se un dato fenomeno varia costantemente al variare di un altro fenomeno in una data misura e direzione, uno di essi può essere interpretato come la causa dell’altro, oppure tutti e due possono considerarsi come dipendenti da una medesima causa.  ES: questa è la logica esplicativa che si può adottare in una survey. Quando si svolge una ricerca tramite questionario si ottengono informazioni che consentono solo di quantificare il grado di relazione reciproca tra due proprietà/variabili. L’eventuale direzione casuale di tale relazione – A influenza B, o B influenza A – dipende dall’interpretazione che viene fatta di tali dati. Per questa ragione, riprendendo il sistema logico di Mill, possiamo dire che la ricerca tramite questionario rientra nel metodo delle variazioni concomitanti, in quanto consegna l’imputazione causale alla fase di interpretazione. Il legame micro – macro Le spiegazioni dei fenomeni sono spesso complesse e collegano i fattori macro-sociali, relativi, cioè, a cultura, istituzioni e organizzazioni, ai fattori micro sociali, ossia relativi a individui e gruppi.  ES: un esempio di spiegazione che connetti i livelli micro e macro è raffigurato dal modello della Coleman Boat Messo a punto da McClelland negli anni ’60 del secolo scorso a Harvard, ma poi reso famoso da Coleman, il modello rappresenta queste connessioni: le istituzioni sociali (livello macro) influiscono sull’ambiente dell’attore (livello micro), limitandone, insieme agli altri vincoli ambientali esistenti, le possibilità di azione; l’azione sociale (livello micro) così vincolata, in interazione con le azioni degli altri attori tende a produrre il cambiamento istituzionale (livello macro). Sulla base di questo modello, potremmo schematizzare la spiegazione di Weber allo spirito del capitalismo nel modo seguente: - Freccia 1: la dottrina religiosa protestante genera certi valori nei suoi aderenti - Freccia 2: gli individui con determinati valori adottano determinati tipi di orientamento al comportamento economico - Freccia 3: alcuni orientamenti al comportamento economico da parte degli individui aiutano a realizzare l’organizzazione economica capitalista nella società 15 La formulazione del problema di ricerca In un disegno di ricerca descrittivo il percorso di studio deve essere pianificato ex ante, guidato da ipotesi da controllare empiricamente. Questo riguarda sia le fasi di impostazione di ricerca, sia quelle successive di raccolta, elaborazione e interpretazione delle informazioni. In particolare, in riferimento ai criteri di definizione dell’unità di analisi, delimitazione della popolazione e scelta dei casi, l’utilizzo di un disegno esplicativo si caratterizza per una selezione mirata dei soggetti in modo da circoscrivere chiaramente l’ambito di riferimento e saggiare l’applicabilità dell’ipotesi presa in considerazione. Si cerca così di eliminare ogni fattore di perturbazione che possa configurare una variabile interveniente diversa da quella che, in ipotesi, si assume come casualmente rilevante. Anche la specificazione delle proprietà di interesse della ricerca sarà mirata e le operazioni di rilevazione saranno l’esito di una rigorosa progettazione degli strumenti. Vantaggi e svantaggi Il vantaggio di un disegno del genere è che ove l’ipotesi sia ben costruita, si può avere la possibilità di provare il nesso tra le variabili studiate. Gli svantaggi, invece, sono da collegarsi a una certa chiusura nei confronti della scoperta e, quindi, alla difficoltà nel trovare altri nessi di rilievo tra le caratteristiche esaminate. Per questo, nella pratica si suggerisce di tenere presente nella raccolta anche la rilevazione di informazioni non strettamente connesse al controllo delle ipotesi considerate. 3.1. Fare esperimenti Un sottotipo del disegno esplicativo è quello sperimentale. Esso nasce all’interno del contesto epistemologico delle scienze naturali e la sua applicazione nelle scienze umane non è lineare e agevole (è usato in psicologia). Gli obiettivi L’ obiettivo del disegno sperimentale è controllare empiricamente un’ipotesi di spiegazione di un fenomeno, ovvero osservare come varia una proprietà in relazione ad un’altra, tenendo sotto controllo tutte le altre. C’è una differenza fondamentale: MENTRE nel disegno esplicativo ci si limita all’osservazione dei fatti nel loro svolgersi naturale, “nel disegno sperimentale si ha una forma di esperienza che si realizza a seguito di un deliberato intervento modificativo dell’uomo” (Corbetta). In altre parole, questo disegno prevede che le informazioni atte alla rilevazione vengano prodotte apposta, cioè che la situazione di indagine venga di proposito manipolata per far variare e porre sotto controllo le proprietà oggetto di indagine. Dunque, mentre nel disegno esplicativo si potrà solo individuare l’esistenza di relazioni tra proprietà opportunamente operativizzate secondo la logica delle variazioni concomitanti, in quello sperimentale, grazia al controllo esercitato su ogni proprietà/variabile ritenuta rilevante per il fenomeno studiato, sarà possibile anche individuare empiricamente l’eventuale direzione di tale relazione, portando validi elementi fattuali a sostegno della presenza di certi rapporti causali.  ES: relazione tra livello di competenza scientifica e atteggiamento verso i vaccini. In una ricerca con questionario l’analisi statistica delle risposte ci consente di dire solo se tendenzialmente gli intervistati con maggiore (o minore) competenza scientifica dichiarata sono anche quelli più favorevoli (o più scettici) nei confronti dei vaccini. Facendo invece un esperimento per studiare la stessa relazione, potremmo modificare la competenza scientifica, cioè la variabile che ipotizziamo essere indipendente, mostrando, ad esempio, ad un gruppo di soggetti materiale informativo sulla scienza. In una fase successiva potremmo vedere se le persone esposte a tale trattamento hanno un atteggiamento diverso in merito ai vaccini rispetto a un altro gruppo (detto “di controllo”) in tutto simile al precedente, ma a cui non abbiamo mostrato il materiale informativo. 16 La logica del metodo delle differenze La logica con cui procede questo disegno si ispira al metodo della differenza, un altro dei canoni proposti da Mill e in base al quale, se la situazione in cui un certo fenomeno ha luogo concorda in tutte le circostanze con una in cui il fenomeno non ha luogo tranne che in una, quell’unica circostanza risulta determinante perché il fenomeno abbia luogo. Tipi di proprietà Secondo questa logica, il disegno sperimentale prevede che le proprietà vengano divise in tre categorie: 1. Quelle ritenute irrilevanti per il fenomeno in questione e quindi ignorate 2. Quelle ritenute rilevanti e i cui stati vengono tenuti costanti (o in qualche altro modo controllati) affinché si possa escludere una loro influenza sul fenomeno 3. Quelle ritenute rilevanti, i cui stati vengono lasciati o fatti variare. La distinzione tra proprietà rilevanti e irrilevanti non è assoluta, ma relativa al framework di concetti, teorie e ipotesi – in continua evoluzione – cui il gruppo di ricerca si riferisce per impostare l’indagine  i disegni sperimentali dipendono dalle conoscenze teoriche dei fenomeni che si vogliono indagare. Le proprietà rilevanti si dividono in: - Indipendenti  vengono modificate/manipolate al fine di osservare la natura e l’entità delle eventuali variazioni conseguenti nelle seconde - Dipendenti  In questo modo si cerca di stimare l’effetto che il cambiamento di X (proprietà/variabile indipendente) produce su Y (proprietà/variabile dipendente), tenendo sotto controllo, cioè costanti, tutte le altre. È chiaro che nell'ambito della ricerca sociale con disegni sperimentali, lo stimolo manipolativo, ossia il cambiamento controllato delle variabili indipendenti, può assumere diverse forme: la partecipazione ad un programma/evento, l’esposizione a una trasmissione mediatica, il racconto di un fatto ecc. Gruppo sperimentale, gruppo di controllo e randomizzazione Per valutare l’effetto di tali variazioni, i soggetti coinvolti vengono divisi in due gruppi: in uno (gruppo sperimentale) gli stati sulla proprietà/variabile vengono fatti variare in maniera controllata; nell’altro (gruppo di controllo) no. Così eventuali mutamenti della variabile dipendente, se non si manifestano anche nel secondo gruppo, potranno essere ricondotti all’influenza della variabile indipendente. In questa strategia, cruciale è la formazione dei gruppi. Per neutralizzare l’eventuale influenza di terze variabili sulla variabile dipendente, occorrerebbe costruire gruppi sperimentali e di controllo molto simili, se non intercambiabili, rispetto a tali variabili. Spesso questo non è possibile, quindi ci sono degli accorgimenti alternativi tra cui la randomizzazione. Randomizzazione  l’assegnazione causale dei casi al gruppo sperimentale e a quello di controllo; essa consente di ottenere, entro limiti statistici ben conosciuti, gruppi sperimentali e di controllo equivalenti.  ES: viene spesso usata nella sperimentazione medica. Ad esempio, in una terapia si può prevedere che metà dei pazienti vengano sottoposti a un trattamento e che all'altra metà sia somministrato un placebo. L'aspettativa è che la randomizzazione aumenti la probabilità che altre variabili, non considerate nel disegno dello studio, si distribuiscono in maniera uniforme nel gruppo sperimentale e in quello di controllo. Tuttavia, essa non può affatto garantire né che i gruppi generati siano isomorfi, né che le differenze osservate non siano dovute a sbilanciamenti casuali tra i gruppi; può solo garantire che sia nota la probabilità che ciascun caso sia incluso in uno o nell'altro gruppo e che sia possibile, dunque, tenere conto di questa possibilità in termini statistici nella presentazione dei risultati. Le fasi del disegno sperimentale Il disegno sperimentale classico prevede la pianificazione dei seguenti passi: 17 giudizio, è necessario stabilire un sistema di valori che guideranno il processo. L'esplicitazione dei valori aiuta gli attori coinvolti, in particolare lo sponsor e gli utilizzatori, a partecipare alla costruzione del percorso e conseguentemente a un impiego consapevole dei risultati della valutazione. Normalmente le domande valutative hanno tre dimensioni: 1. Descrittiva  cosa succede? 2. Causale  qual è la reale importanza di ciò che accade come effetto dell'intervento? 3. Normativa  il risultato è soddisfacente? Inoltre, la domanda valutativa deve accompagnare la complessità di ciò che viene valutato. Come ricorda Lo Presti “la presa di consapevolezza che le azioni non si sviluppano secondo i dettami dell'unicità degli obiettivi e che nella società attuale i programmi possono produrre risultati diversi e a volte anche contrastanti tra loro, ha spinto di recente valutatore attenti alle dinamiche di mutamento socio culturale e territoriale a riorientare le domande di valutazione, non guardando soltanto l'eventuale raggiungimento del risultato atteso, ma cercando di spiegare anche come e perché si giunti a un determinato risultato.” Valutare ex ante, in itinere, ex post La fase valutativa vera e propria si caratterizza per tre momenti possibili: - Ex ante  ha lo scopo di analizzare le condizioni in cui si potrebbe svolgere un programma/intervento previsto. Ha dunque finalità non esclusivamente esplorative, ma anche descrittive e analitiche, in quanto, partendo da una consistente base cognitiva, mira a valutare il contesto di partenza di un'opzione. - In itinere  si colloca durante il cammino di applicazione del programma e mira a monitorare l'andamento dell'attuazione del programma/intervento stesso. Il fine non è solo teorico cognitivo, ma anche pratico poiché da una giusta lettura delle informazioni rilevate possono scaturire decisioni in merito a possibili aggiustamenti, sospensioni o implementazioni del programma. - Ex post  viene chiesto obbligatoriamente al termine di un programma al fine di stimare l'impatto dei risultati ottenuti di breve, medio e lungo periodo. A seconda delle esigenze cognitive, un disegno di ricerca valutativa può includere tutti e tre i momenti della valutazione o solo uno. In conclusione, l'attività di valutazione richiede l'elaborazione di un disegno di ricerca che faccia da guida al complesso sistema di attività in cui si realizza la valutazione stessa. Tale percorso cooperativo può essere più o meno flessibile e composito, e si prestano a pluralità di approcci e pratiche di ricerca. Tutte le attività coinvolte devono essere tra loro coordinate, finalizzate al conseguimento di un obiettivo di conoscenza, volta a costituire un giudizio. Tra gli aspetti di maggiore delicatezza di questo disegno vi sono i problemi etici legati alla diffusione dei risultati valutativi: i giudizi espressi, infatti, possono incidere su interessi, valori e bisogni di chi è sottoposta alla valutazione e pertanto è necessaria una consapevolezza degli effetti della ricerca e una specifica tutela degli attori coinvolti. Tra i punti di forza troviamo invece l'essere a metà strada tra un disegno cognitivo e uno di intervento, nonché le sue molteplici applicazioni in ambito sociale. 5 COSTRUIRE LA BASE EMPIRICA Il paradigma lazarsfeldiano È consuetudine porre al centro del disegno di ricerca il cosiddetto paradigma lazarsfeldiano, un processo che consta di 4 fasi: 1. Individuazione del concetto di partenza, considerato una rappresentazione mentale (imagery per citare Lazarsfeld) 2. L’individuazione delle dimensioni del concetto (talvolta denominate “componenti”) 3. La costruzione degli indicatori (specificazione del significato) 4. La ricomposizione delle informazioni così ottenute in un indice 20 Questa particolare modalità di partire da un concetto per arrivare a una variabile è detta operativizzazione, fase in cui il gruppo di ricerca si dota di una “definizione operativa”, ossia di un insieme di norme e regole per stabilire come tradurre empiricamente un concetto in una o più variabili. Il richiamo a norme o regole non deve far pensare ad un percorso obbligato: l’unico vincolo che il gruppo di ricerca deve seguire è quello dell’esplicitazione delle scelte compiute, per consentire a chi leggerà il lavoro di poterlo valutare.  ES: per raccogliere informazioni sul titolo di studio dell’intervistato, la definizione operativa includerà almeno il testo della domanda (qual è il suo titolo di studio?) e le possibili risposte che saranno proposte all’intervistato. Non sempre, tuttavia, il passaggio da un concetto a una variabile è così semplice come nell’esempio di cui sopra. Ad esempio, se il concetto riguardasse la propensione ad essere razzisti, non potremmo fidarci di risposte date a domande come “Qual è il suo livello di razzismo?”. Con domande del genere si rischierebbe di ottenere risposte non autentiche, intenzionalmente false. Occorre infatti tener conto della desiderabilità sociale, cioè della tendenza a non rispondere con sincerità alle domande che vengono poste, ma a presentare come proprie le opinioni che si reputano ortodosse e condivise dalla maggioranza, tendenza che inficia la fedeltà delle informazioni così raccolte. Il contesto è sempre importante, e occorre tenerne conto quando ci prepariamo a condurre una ricerca, in qualunque campo. L’esigenza di salvaguardare la fedeltà delle informazioni non è l’unica difficoltà che si frappone tra il concetto e la variabile e nel proporre una definizione operativa. Come potremmo elaborare una definizione operativa nel caso in cui il concetto fosse “l’orientamento valoriale”? anche in questo caso proporre una definizione operativa diretta è possibile, ma le risposte così ottenute non sono affidabili, dal momento che bisognerebbe capire quanti tra gli intervistati capirebbero davvero cosa significa orientamento valoriale. Altre volte ancora la difficoltà risiede nel fatto che ciascuno potrebbe intendere il concetto a proprio modo, infrangendo uno dei totem della ricerca con questionario, ovvero l’uniformità delle domande.  ES: quanto si sente solidale verso gli altri?  ci sono infinite interpretazioni di tale interrogativo; ponendolo non si raccoglierebbero informazioni su un solo concetto, ma su più concetti, molti dei quali sconosciuti Gli indicatori Se il gruppo di ricerca non è in grado di fornire una definizione operativa diretta dei concetti che sta studiando raccoglie comunque informazioni, cercando su concetti “vicini” a quelli di partenza, 21 concetti che ammettono definizioni operative direttive ritenute accettabili, e ai quali si attribuisce una forte relazione semantica con la proprietà che interessa. In quest’accezione, concetti e indicatori sono entità mentali, e il loro legame non può che risiedere nei significati ritenuti condivisi dal gruppo di ricerca che opera la congiunzione concetto – indicatore. Un indicatore sarà giudicato tanto più valido quanto più si ritiene sovrapponibile semanticamente al concetto di partenza: l’area semantica condivisa può essere definita “aspetto indicante”, e tutti i significati che rimandano ad altri concetti, estranei a quello di partenza, “aspetto estraneo”. La “relazione di indicazione” è quindi il legame che il ricercatore stabilisce fra il concetto A e il B. Il fatto che l’indicatore sia un concetto che il ricercatore immagina legato semanticamente a quello che sta tentando di studiare non significa che la scelta sia arbitraria. La libertà della scelta è vincolata dalla necessità di costruire indicatori validi. La congiunzione concetto – indicatori avviene in riferimento a una teoria, a un contesto socio – culturale particolare, in relazione a una specifica unità d’analisi. Le scelte dovranno quindi tenere conto della popolazione oggetto di studio, della letteratura sul tema e del contesto, pur non essendo strettamente vincolato a scelte precedenti altrui. Per questi motivi si parla di natura stipulativa dell’indicatore  una proprietà può essere operativizzata in modi diversi, il che comporta che la stessa proprietà può dar luogo a indicatori diversi, e che è sempre necessario esplicitare e motivare le scelte che hanno portato a un indicatore e non a un altro. La stipulatività richiama l’accordo, spesso implicito, che tale scelta incontra nella comunità scientifica di appartenenza. Concetto, indicatori e indici Dato che generalmente un indicatore ha sia un aspetto indicante che uno estraneo, è opportuno non limitarsi a uno solo e individuare altri cocnetti giudicati semanticamente collegati a quello di partenza e che siano definibili operativamente in modo diretto e affidabile, in un’ottica di pluralità di indicatori. Inoltre, oltre alle informazioni raccolte grazie all’operativizzazione dei vari indicatori, il gruppo di ricerca vuole avere anche delle informazioni sul concetto dal quale è partito. Il passaggio successivo, nell’ottica lazarsfeldiana, è perciò la sintesi di tutte le informazioni così raccolte in un indice. Il modello lazarsfeldiano è stato dominante nelle scienze sociali e in particolare in sociologia per alcuni decenni del secolo scorso, tanto da meritare di essere designato come un paradigma. La grounded theory Non sempre si parte da un concetto per arrivare a una variabile. Molte ricerche sociali fanno a meno di una simile formalizzazione. È il caso delle pratiche afferenti all’impostazione emic o in approcci alternativi, come la grounded theory. La grounded thoery propone una teoria fondata sui dati. Nella versione classica si parte con una domanda di ricerca aperta (what’s going on here?) che solo durante il percorso di indagine si potrà via via precisare. È nel costante richiamo all’aderenza ai dati della teoria che sta il concetto di grounded, che significa al tempo stesso radicato, basato, ma anche tenuto a terra. Una teoria di questo genere non è solo basata sui fatti o ricavata empiricamente dai dati, ma dà il senso di un ancoraggio saldo nell’esperienza vissuta. 2.Come ottenere informazioni La sociologia è una disciplina empirica che, in quanto tale, formula interrogativi sulla base di una riflessione teorica sedimentata e cerca risposte a questi interrogativi sulla base di informazioni raccolte sistematicamente. Storicamente la sociologia si è distinta dalla filosofia sociale proprio grazie al rapporto con l’esperienza. L’indagine empirica consente non solo di superare le proprie esperienze personali, ma anche di liberarsi dalla camicia di forza del pensare solo nei termini del tipo di società che conosciamo nel qui e ora.  Cosa significa in concreto svolgere un’indagine empirica? 22 conservato nella sua interezza nell’interiorità dell’intervistato. L’obiettivo dell’intervista è scavare nella coscienza del soggetto per estrarre le informazioni. In passato si credeva che la relazione tra intervistatore e intervistato dovesse essere totalmente eliminata, a favore della spersonalizzazione e della meccanicità della rilevazione. L’intervista veniva considerata come una performance. Solo più recentemente i manuali hanno riconosciuto che l’interazione sociale tra intervistato e intervistatore costituisce il centro dell’intervista. I primi ad attribuire nuova centralità ai processi sociali e relazionali sono stati Atteslander e Kneubuhler i quali, criticando il modello comportamentista, hanno evidenziato come l'intervista sia un'interazione contestuale e hanno attribuito spessore psicologico e sociale ai soggetti coinvolti. Punto di partenza di tali riflessioni è stato il cognitivismo, secondo cui le domande non stimolano reazioni meccaniche, ma incontrano un humus di significati in cui proliferare, assumere senso e amalgamarsi con le esperienze sedimentate negli anni. Successivamente la riflessione metodologica si è spostata verso l’approccio del sociocostruzionismo che ha enfatizzato la natura interpretativa e processuale della ricerca sociale, riconoscendo che le informazioni sono esito della co – costruzione che avviene all’interno di relazioni sociali. A oggi l’intervista è considerata un processo complesso di tipo cognitivo, relazionale e sociale, in cui tutti i soggetti hanno una parte attiva. Da un lato vi è il coinvolgimento dell’intervistatore, il quale viene considerato non più come un mero esecutore, ma come protagonista, capace di comprendere le esigenze degli intervistati e anche di mediale le necessità del gruppo di ricerca con le esperienze, gli schemi di riferimento e gli interessi differenziati degli interlocutori. Dall’altro lato vi è il coinvolgimento dell’intervistato, il quale viene considerato non più come una banca dati, ma come un soggetto attivo nella costruzione dell’informazione. I processi cognitivi dell’intervista Gli studi condotti dal cognitivismo negli anni ’80 hanno avuto il merito di interrogarsi su come le persone ragionano, spostando l’attenzione, quindi, dai processi di formulazione delle domande al ruolo attivo della situazione di intervista e delle cognizioni degli intervistati. A partire da ciò, a oggi vi è la consapevolezza che i soggetti attivano meccanismi che consentono di collegare le situazioni e gli stimoli alle conoscenze pregresse. Vi sono dunque dei processi cognitivi che presidono sia l’elaborazione delle domande, sia la produzione delle risposte.  Nel rispondere a una domanda una persona attiva in pochi secondi operazioni cognitive complesse: 1. Per attribuire un senso a ciò che gli è stato chiesto, l’intervistato assegna una corrispondenza semantica ai termini presenti nel testo del quesito (prima singolarmente e poi insieme) 2. L’intervistato conferisce un valore pragmatico alla domanda, nei suoi aspetti sia illocutivi (cercando di capire quali siano le intenzioni o fini dell’intervistatore) sia perlocutivi (tentando di comprendere quali effetti sociali possano avere le sue risposte) 3. L’intervistato tenta di farsi un giudizio sul compito richiesto, ovvero su come rispondere e anche sulle aspettative che l’intervistatore ha verso di lui e il suo ragionamento. 4. L’intervistato verbalizza la risposta, adattando il suo giudizio alle costrizioni e ai vincoli propri della situazione sociale in cui si svolge l’intervista. Le dimensioni relazione e sociale dell’intervista Un secondo elemento caratteristico del processo di intervista è la dimensione relazionale. Se negli anni ’50 e ’60 ci si è soffermati sullo studio delle reazioni dell’intervistato di fronte ai comportamenti dell’intervistatore e alla formulazione delle domande, successivamente si è capito che non esiste solo un’influenza monodirezionale dell’intervistatore verso l’intervistato, ma la relazione che si instaura tra i due soggetti è sempre bidirezionale, situazionale e reciproca. Entrare nel merito di tale relazione è essenziale perché essa può essere considerata il motore stesso della co – produzione della base informativa. La relazione che si attiva in un’intervista ha due componenti: - Strumentale – adattiva, legata al compito - Socio – emotiva, legata alla gestione del gruppo e delle emozioni 25 L’intervista è inoltre un processo sociale e comunicativo. Essa si inscrive all’interno di un sistema di aspettative reciproche in cui giocano un ruolo fondamentale le forme di scambio verbale e non verbale, ma anche le appartenenze sociali. Durante un’intervista si attivano almeno tre sistemi normativi che giocano un ruolo nello stabilire delle regole: - Sistema normativo sociale generale (es: le regole della cordialità e della buona educazione) - Sistema normativo del gruppo di riferimento (es: uso di un linguaggio gergale, di un dialetto) - Sistema normativo specifico dell’intervista (es: regole che si stabiliscono all’inizio del colloquio, come il silenziamento del cellulare) Nella situazione di intervista non è possibile escludere la dimensione di strutturazione gerarchica dell’interazione. Alcuni autori parlano del potere che chi fa ricerca e intervista esercita sull’intervistato. Tale tipo di potere può assumere varie forme, ma soprattutto è di natura tecnica, ovvero dipende dalla disparità di conoscenza che esiste tra gli attori della ricerca sociale. Quando nelle interviste è presente una ricompensa simbolica (come la gratitudine per aver partecipato alla ricerca), ma soprattutto materiale (es: incentivi in cambio della disponibilità) , vi è la possibilità che l’intervistatore e il ricercatore esercitino anche un potere di tipo remunerativo nei confronti dell’intervistato. La strutturazione gerarchica non può essere eliminata. Tuttavia, è importante esserne consapevoli per evitare che l’esercizio di tale potere causi sofferenza o danni ai soggetti che partecipano all’intervista. 2.3. Studiando artefatti e documenti Un artefatto è un oggetto, un manufatto realizzato dall’uomo anziché il risultato di un fenomeno naturale; è intenzionale e può essere simbolico (es: messaggi brevi, una legge, un prodotto o una merce). Da un lato essi sono stabili, considerati nella loro forma tangibile, dall’altro sono instabili perché il loro significato esiste all’intersezione tra il produttore, il contesto e il suo pubblico. Tra gli artefatti possiamo distinguere: - Documenti personali  sono espressione di un’esperienza del reale e della sua soggettività e, per estensione, di un’esperienza del sociale, permettendo di cogliere dall’interno, senza mediazioni, il modo di vedere il mondo di ciascun soggetto: quella che più si avvicina a una conoscenza emic.  ES: il diario  racconta il flusso contemporaneo di eventi pubblici e privati significativi per chi scrive, che riporta solo gli eventi, pensieri e sentimenti che hanno importanza per lui. Nel diario l’autore può esprimere sentimenti di sé che altrimenti non sarebbero mai stati pubblici. La registrazione immediata delle esperienze, non alterata da ricostruzioni e distorsioni della memoria, dovrebbe far venir meno la “fallacia dell’attribuzione di motivi”, cioè la tendenza ad attribuire ex post motivazioni a comportamenti passati. Ogni annotazione del diario si sedimenta in un momento particolare nel tempo: non emergono tutte in una volta come riflessioni sul passato, ma registrano un presente in continua evoluzione, anche se sarebbe ingenuo pensare che il diario offra un’immagine completa e sincera solo perché la tecnica non è intrusiva: chi scrive un diario vorrà comunque offrire un’immagine di sé congruente con quella che gli piacerebbe avere.  A differenza dei diari, la lettera ha esplicitamente un pubblico e il documento può rilevare più sulla relazione tra l’autore e il destinatario che su ciascuno dei due attori, pertanto, come suggerisce Allport, nell’analisi delle lettere si deve considerare chi la spedisce e chi la riceve, e la relazione tra loro. Lo stile del discorso, la modalità di presentazione, gli argomenti trattati e la frequenza della scrittura rivelano tutti elementi sulla percezione che una persona ha di un’altra. Tuttavia, diari e lettere sono stati raramente utilizzati dai ricercatori sociali. Più recentemente nuove fonti di informazioni stanno assumendo una centralità maggiore: sempre più diffusi sono gli studi che usano come database i blog, i tweet o i post su Facebook. - Documenti pubblici  sono prodotti da istituzioni o da individui nel contesto della parte istituzionalizzata della loro vita, come lettere formali, discorsi, documenti aziendali, bilanci 26 di aziende private o di enti pubblici, articoli di quotidiani, leggi, sentenze. È un tipo di documento prodotto per fornire “la versione ufficiale della realtà”, il che non significa che “siano riproduzioni neutre e imparziali”. 2.4. Attingendo da fonti secondarie Per analisi da fonti secondarie si intende l’analisi dei dati rilevati da altri ricercatori o enti di ricerca. I manuali di metodologia della ricerca parlano poco dell’analisi secondaria e quando ne parlano è in riferimento alla sola analisi secondaria di dati numeri, mentre è ormai ampiamente riconosciuta l’opportunità e l’utilità di riutilizzar informazioni non solo numeriche, come immagini, trascrizioni di interviste. Perché fare analisi secondaria I motivi per cui ricorrere all’analisi secondaria sono solitamente attribuiti a fattori estrinseci o ai limiti del disegno di ricerca più che alla sua necessità vera e propria (es: scarsità di fondi o di tempo per la ricerca, volontà di controllare i risultati della propria ricerca tramite quelli di altre, esigenza di fare studi comparati su paesi diversi). Negli ultimi decenni, l’analisi secondaria ha assunto sempre più importanza, anche grazie al fatto che numerose banche dati nazionali e internazionali sono diventate sempre più accessibili, offrendo la possibilità di usufruire di dati resi omogenei. All’infrastruttura della ricerca sociale contribuiscono, più o meno volontariamente, anche i singoli ricercatori che acconsentono a rendere pubblici i dati raccolti e le relative matrici dei dati o le trascrizioni delle interviste Il ciclo di vita dei dati Si parla sempre più spesso di un’estensione del ciclo di vita dei dati, che va al di là della semplice pubblicazione dei risultati: alle “solite” fasi si aggiungono quelle legate al data management di lungo termine (conversione, backup, preservazione e mantenimento nel tempo dei dati) e al loro riutilizzo (attraverso analisi secondarie o l’impiego dei dati a fini didattici). Perché si possa parlare di analisi secondaria, però, non è sufficiente che si analizzino dati già raccolti e disponibili per rispondere a una domanda di ricerca definita indipendentemente dalle finalità per cui i dati sono stati originariamente raccolti, ma è necessario che questi siano organizzati in modo sistematico rispetto a una specifica unità di analisi individuale o aggregata. Inoltre, anche se il gruppo di ricerca non si fa carico della rilevazione dei dati e non deve preoccuparsi di come osservare il mondo, gli resta il compito di capire come il mondo è stato organizzato. Chi svolge l’indagine, dovrà porsi domande relative all’affidabilità delle informazioni, a chi ha condotto lo studio, chi l’ha finanziato, con quali finalità, con quale eventuale forma di campionamento, e come è stato recepito dalla comunità scientifica. 2.5. Usando i big data Con l’espressione big data ci si riferisce a più referenti, anche molto diversi tra loro (es: dati amministrativi, impronte elettroniche, comunicazioni elettroniche, dati sul livello di utilizzo degli strumenti elettronici). Che cosa si intende per big data? Sono database caratterizzati da grandi dimensioni, velocità e volatilità (creati e modificabili in tempo reale), con un elevato grado di eterogeneità, esaustivi (perché non deviano da una qualche forma di campionamento), con un alto livello di dettaglio e un’estrema flessibilità. Come per l’analisi secondaria, anche per i big data, il gruppo di ricerca attua delle strategie di riutilizzo delle informazioni rilevate per fini diversi e da attori diversi, e interrogarsi sull’affidabilità della fonte, sui tipi di produttore e di intermediario. Salganik dice che quando sottoponiamo i dati a qualche processo di repurposing, è estremamente utile confrontare il dataset ideale con quello che stiamo utilizzando. La grande dimensione di un dataset non è uno scopo in sé, ma può consentire la realizzazione di certi tipi di ricerche, tra cui lo studio degli eventi rari, la stima della eterogeneità e l’individuazione di piccole differenze che sarebbe difficile, spesso persino impossibile, realizzate 27 ORGANIZZARE ED ELABORARE LE INFORMAZIONI Chi fa ricerca si trova di fronte a due eventualità principali: ricorrere o meno alla matrice dei dati come strumento per organizzare le informazioni. 1. La matrice come strumento per organizzare le informazioni La matrice dei dati Una struttura di dati viene chiamata “matrice” e può assumere forme diverse ì. Matrice casi per variabili  una struttura elementare e usata nella ricerca sociale; gran parte delle altre matrici può essere elaborata a partire da questa. Inoltre, le sue implicazioni logiche, in termini di rappresentazione della realtà oggetto di studio, sono tutt’altro che scontate e naturali, e meritano quindi di essere esplicitate. La matrice C x V Una matrice è una tabella che può essere costruita su due o più dimensioni. La matrice C x V è bidimensionale. Non esistono limiti logici al numero di casi e di variabili (cioè di righe e di colonne) che possono essere inclusi in una matrice C x V. Righe (ossia i casi)  i referenti empirici sui quali sono state raccolte le informazioni Colonne (ossia le variabili)  le caratteristiche che sono state rilevate per ciascun caso Cella  valore che un dato assume in corrispondenza di una data variabile Una matrice può essere costruita su più dimensioni  ES: potremmo immaginare una struttura di dati che, oltre ai casi e alle variabili, includa anche la dimensione tempo. Una matrice tridimensionale di questo tipo potrebbe servire a rappresentare i valori che un dato insieme di casi assume lungo un set di variabili in diverse occasioni di raccolta delle informazioni. L La matrice C x V può essere usata per rappresentare tipi di materiali empirici molto diversi tra loro. I casi in riga possono essere: - Individui (es: quando si intervista un campione di persone per un sondaggio) - Documenti (es: quando si decide di analizzare una serie di testi) - Territori (es: comuni, regioni) 30 Le risposte di un numero di soggetti alle domande di un questionario sono tipicamente predisposte per essere organizzate in una matrice C x V, dove le righe rappresentano gli intervistati, le colonne le domande, e ciascuna cella la risposta di un dato intervistato a una data domanda. I modi della matrice Nella matrice C x V non esiste un limite logico al numero di righe o colonne, ma c’è un vincolo sui tipi di entità che possono essere inseriti in una riga. Modi  nella teoria dei dati sono i tipi di oggetti cognitivi presenti in una matrice (es: individui, documenti e territori sono modi o tipi di entità) NELLA PRATICA, le righe rappresentano n elementi, tutti di uno stesso tipo  in una stessa matrice C x V non troveremo elencati insieme persone, documenti, territori Per le colonne si pone un vincolo definibile in termini relativi rispetto alle righe: le variabili che possono essere poste nelle colonne devono essere “riferibili” al tipo di entità che sta in riga.  ES: in una matrice di individui non troverò in colonna variabili come “tasso di disoccupazione”, che è riferibile ad un territorio, quanto piuttosto “condizione occupazionale”, che invece è riferibile alle persone. Le celle della matrice e il loro condizionamento Nelle celle della matrice viene riportato il dato, cioè l’elemento informativo di base. In una matrice C x V, la cella – incrocio della riga n con la colonna m, ossia il dato, rappresenta il valore che il caso n assume sulla variabile m. Nella teoria dei dati la confrontabilità tra le diverse celle di una matrice si definisce “condizionamento”. Di norma, in tale struttura di dati, le celle sono pienamente e sensatamente confrontabili per colonna, piuttosto che per riga. 31  Si immagini una matrice C x V con in riga molti soggetti e in colonna due sole variabili: “titolo di studio” e “tempo medio giornaliero di utilizzo di Whatsapp”. Le celle poste lungo la prima colonna sono pienamente comparabili, in quanto confrontandole sono in grado di dare un significato immediato alle loro differenze: se la cella in corrispondenza del caso 5 riporta il valore “laurea magistrale” e quella in corrispondenza del caso 7 “laurea triennale”, è chiaro che il caso 5 ha un livello di istruzione maggiore del caso 7. Lo stesso vale per la seconda colonna: confrontando i valori dei due casi lungo tale colonna si può valutare quale dei due usa più WhatsApp ed eventualmente anche quantificare tale differenza. Di norma, questa forma di immediata confrontabilità/comparabilità non si pone tra le celle di una stessa riga.  Immaginiamo di trovare in corrispondenza del caso 5 il valore “laurea magistrale” sulla prima colonna e “2 ore e 30 minuti” sulla seconda: questi due dati non sono direttamente confrontabili perché ciascuno di essi assume significato all’interno di uno schema di riferimento suo proprio e incommensurabile con quello dell’altro. Per queste ragioni le matrici C x V si definiscono column conditional: la confrontabilità tra le celle è sempre ammessa per colonna. Tuttavia, una matrice C x V può anche includere porzioni row conditional, cioè un sottoinsieme di celle direttamente confrontabili per riga.  ES: una matrice che includa, oltre alla variabile “tempo medio giornaliero di utilizzo di Whatsapp”, altre colonne in ciascuna delle quali vengono riportati i tempi di utilizzo di vari social network. IN GENERALE, in una matrice C x V le celle sono confrontabili per riga in riferimento a un eventuale sottoinsieme di variabili/colonne caratterizzate da un comune schema di riferimento, che nell’esempio appena fatto è il tempo medio di utilizzo giornaliero. La matrice C x V come strumento di riduzione della complessità Pattern  in teoria dei dati è l’insieme dei valori delle celle poste sulla stessa riga. Rappresenta l’identikit del referente empirico posto in riga, dato che è costituito dalla lista delle modalità che esso assume su ciascuna delle variabili (colonne) poste in matrice. In una matrice C x V due pattern identici configurano due referenti empirici perfettamente intercambiabili.  ES: questionario per rilevare la propensione delle persone a fare acquisti online e le ragioni per cui preferiscono tale modalità di acquisto. Nella matrice C x V derivata da tale questionario, due soggetti che hanno dato le stesse risposte a tutte le domande si configurerebbero come due righe caratterizzate dallo stesso pattern, cioè due persone tra loro perfettamente intercambiabili. In realtà si tratta di due soggetti diversi: non è difficile immaginare che se nel questionario fossero state incluse domande su altri argomenti o fosse stata anche solo prevista una lista diversa di possibili alternative di risposta alla domanda “ragioni per cui fai acquisti online”, sarebbero potute emergere differenze tra loro. La matrice C x V è condizionato da due tipi di scelte: quali variabili inserire in colonna e quali modalità ammissibili prevedere per ciascuna variabile. L’effetto combinato di queste due scelte definisce uno schema di riferimento unico, valido per tutti i referenti empirici della ricerca (le righe della matrice). Le differenze e le somiglianze tra essi sono “relative” allo schema di riferimento adottato; aggiungendo/sostituendo una variabile e/o cambiando le modalità che possono assumere, muta lo schema di riferimento e, quindi, pure il grado di somiglianza/differenza possibile tra due casi qualsiasi della matrice. La relativa indipendenza tra raccolta e organizzazione delle informazioni 32 particolare. Comte ci provò fissando delle regole di scrittura che però non ebbero fortuna. Tuttavia, nelle scienza fisiche prima e in quelle sociali poi, si è affermato un modello di scrittura sempre più standardizzato per agevolare la circolazione degli articoli scientifici, modello noto come IMRAD (Introduction, Methods, Results and Discussion). Il formato IMRAD è stato codificato e istituzionalizzato come un modello standard per scrivere un articolo scientifico nel 1979. Tale struttura non si riscontra sempre nelle sua forma pura negli articoli sociologici, ma si è comunque sempre più diffusa, soprattutto in psicologia e in alcuni ambiti della sociologia. Questo non solo in pratiche di ricerca che si avvalgono di strategie di costruzione della base empirica standardizzate: Lindlorf paragona il tradizionale articolo di ricerca con approccio emic e che si avvale di strategie di rilevazione non standardizzate a “un gioco in quattro atto” costituito da introduzione/revisione della letteratura, metodi, risultati e conclusione. Va anche notato che il modello IMRAD è diffuso nelle pubblicazioni in inglese. Il rischio delle costruzioni ex post Merton parla polemicamente di “standard scientific article” per alludere alla prassi di molte pubblicazioni (non solo sociologiche) di riferire al pubblico una ricostruzione di facciata della ricerca svolta, omettendo passi falsi e scoperte casuali. Spesso la presentazione dei risultati tende a falsare retrospettivamente il processo che ha permesso di ottenere quei risultati stessi. Come sottolineava Merton è tipico che il saggio o la monografia scientifica si presentino con un aspetto immacolato che lascia intravvedere poco o nulla delle intuizioni, delle false partenze, degli errori che fanno parte del lavoro di ricerca. La documentazione pubblica della scienza non è in grado di fornire gran parte del materiale necessario alla ricostruzione del corso effettivo dello sviluppo scientifico. Goode e Hatt scrivono che “gli scritti scientifici devono permettere al lettore di sapere che cosa è realmente avvenuto, non quello che il ricercatore sperava che avvenisse”: non si dovrebbero nascondere le difficoltà, ma continuare ad adattare il criterio della trasparenza per consentire il più possibile il controllo esterno. La comunicazione dei risultati come parte integrante della ricerca Per molti anni gli scienziati sociali hanno prestato poca attenzione al fatto che i risultati del loro lavoro sono presentati in forma scritta e accennano alla fase di scrittura solo marginalmente. La scrittura di testi sociologici comporta molte decisioni, sebbene vi sia scarsa consapevolezza delle 35 loro conseguenze: la maggior parte dei lavori si è limitata a proporre suggerimenti pratici senza soffermarsi sulla relazione fra teoria, risultati e scrittura. Narrazioni eterodiegetiche e omodiegetiche Oltre che il contenuto di un testo, è importante analizzare come esso viene esposto: possiamo distinguere tra: - narrazione “eterodiegetica”  narratore esterno che racconta in terza persona; l’autore è assente - narrazione “omodiegetica”  narratore interno che usa la terza persona; la presenza dell’autore è ovvia Molto spesso tale distinzione richiama quella tra: - narrazione realista  suggerisce una prospettiva unica, universale, attraverso la “convenzione dell’onnipotenza interpretativa”. Si vuole suggerire l’obiettività del testo minimizzando la presenza del ricercatore, e con essa la sua influenza, la sua soggettività e le sue tante scelte e decisioni. - narrazione creativa, impressionistica, letteraria  attraverso l’uso della prima persona si ammette che la conoscenza dipende dalle esperienze, dai tempi e dal punto di vista degli autori. Anche la scelta tra la prima persona singolare e la prima plurale ha delle conseguenze: seguendo Gobo, il “noi” trasforma un’interpretazione personale in una condivisa, e ancor più quando si usano formule impersonali e metafore visive (es: appare chiaro che) Svolta narrativa Come ricorda Tedeschi è solo con la cosiddetta “svolta narrativa” e l’affermarsi dell’approccio costruttivista e dell’etnografia che forme innovative di scrittura trovano maggiore diffusione e riconoscimento, seppur spesso limitatamente all’accademia. L’etnografia ha probabilmente riconosciuto per prima l’importanza della scrittura da un lato perché in essa la soggettività è più difficilmente removibile, dall’altro perché per l’etnografia la scrittura è indispensabile non solo per la stesura dei rapporti finali, ma per la costruzione / produzione dello stesso dato etnografico, processo che ha inizio con la messa per iscritto delle note che il ricercatore effettua all’interno dello stesso campo di ricerca. La scrittura in ogni campo, scientifico e non, condivide dispositivi retorici, siano essi metafore, immagini; e ogni campo ha i propri dispositivi letterari e richiami retorici specifici. Tali dispositivi sono strumentali al discorso persuasivo della scienza. Si tratta di retoriche che spesso sono trasformate in liturgie, riti da ripetere costantemente, senza possibilità di metterli in discussione. Il linguaggio non è “trasparente”, ma è una forza costitutiva, che crea una visione particolare della realtà: “scrivere comporta sempre il tra – scrivere, ossia interpretare un sistema simbolico all’interno di un altro sistema simbolico, e il ri – scrivere, ovvero interpretare un testo con un altro testo” (Colombo). Con la scrittura non ci si limita a comunicare informazioni ma si contribuisce alla loro stessa creazione. Lo stile di scrittura non è una scelta individuale senza vincoli: il modo in cui si presenta una ricerca dipende da come chi fa l’indagine definisce la propria situazione, cioè il pubblico di riferimento e gli standard di scientificità ai quali egli pensa di doversi assoggettare per veder confermato il proprio status scientifico. 2. Dal numero alla poesia Sebbene lo stile di descrizione realista sia lo stile delle scienze sociali, con l’affermarsi del postmodernismo alcuni autori hanno proposto di superare la rigidità della scrittura scientifica ricorrendo a poesie, performance teatrali, parodie, documentari. In realtà, la volontà di rompere gli schemi della scrittura scientifica è nata con Du Bois, il quale affronta il tema della missione pubblica della sociologia cent’anni prima che diventasse di moda. Con The Soul of Black Folk o Darkwater adotta forme di scrittura tali da permettergli di raggiungere un pubblico molto vasto, che rimane colpito da eccitanti miscele di argomentazione, canto, preghiera, poesia ecc. In The Professional Thief i primi otto capitoli sono dedicati a un lungo 36 resoconto autobiografico scritto da Chic Conwell, mentre nei due capitoli conclusivi, scritti da Sutherland, ci sono un’interpretazione e una conclusione. Wacquant suddivide un articolo di 35 pagine in due parti: nella prima affianca la descrizione del contesto fisico e sociale del centro di Chicago ad alcuni dettagli biografici di Rickey, un imbroglione, e a commenti sulla posizione delle donne nel ghetto, diversificando il carattere tipografico a seconda della fonte utilizzata, quasi a voler evidenziare la differenza tra le voci in campo; nella seconda parte riporta 13 pagine di trascrizione di un’intervista di Rickey. Lo stile adottato da Goffman per aprire il primo capitolo del suo libro sulle condanne di massa e sulla carcerazione sembra quello di un romanzo, che le ha consentito di raggiungere un vasto pubblico non accademico. Indagine poetica Con l’indagine poetica (anche detta “poesia trovata”) l’autore che scrive la ricerca estrae parole chiave dai testi e le combina in strutture poetiche per fondere le voci dei partecipanti con la struttura di ritmo del ricercatore. Richardson trasforma un’intervista in una poesia di 5 pagine, gli appunti sul campo in un dramma etnografico: pubblica un articolo le cui prime 4 pagine riportano nuove poesie, seguite da un epilogo nel quale argomenta la scelta e il perché sia possibile considerarle scrittura etnografica. Lo statuto discorsivo/narrativo della sociologia non è unanimemente riconosciuto e il motivo principale, secondo Jedlowski, è il timore di perdere la specificità scientifica, facendo fare alla sociologia un passo indietro rispetto agli sforzi compiuti per emanciparsi dagli ambiti discorsivi e per avvicinarla alle scienze fisiche. La volontà di difendere la credibilità della sociologia, quindi, sarebbe all’origine della scrittura formalizzata, spesso oscura e inintelligibile. Secondo Bertaux, più la sociologia cerca di darsi un’apparenza scientifica, più la sua scientificità diventa solo formale e più si svuota di contenuti autenticamente sociologici. Inoltre, quando si tratta di comunicare i risultati, la sociologia condivide con le altre scienze un problema: conciliare le esigenze di un pubblico che vuole delle risposte certe con l’esigenza dell’attività scientifica “che ogni asserzione della scienza rimanga per sempre allo stato di tentativo” (Popper). È infatti bene ricordare che la scienza non è un sistema di asserzioni certe, o stabilite una volta per tutte, e non è neppure un sistema che avanzi costantemente verso uno stato definitivo. La scienza non è conoscenza (episteme): non può mai pretendere di aver raggiunto la verità e nemmeno la probabilità. In conclusione, non c’è un’unica forma di comunicazione scientifica lecita. Numero e poesia sono forme di retorica e in quanto tali devono essere scelte dal gruppo di ricerca consapevolmente. I modi con cui si condividono i risultati di una ricerca possono promuovere due processi importanti: 1. Il dibattito che avviene tra pari e che richiede che le scelte del gruppo di ricerca siano adeguatamente giustificate e commentabili 2. La pubblicità della scienza come bene comune, che riguarda il rapporto con tutti gli stakeholders di una ricerca scientifica (committente, persone coinvolte per la rilevazione di informazioni, gruppi di ricerca, istituzioni politiche e culturali). PARTE TERZA STRATEGIE E TECNICHE PER LA COSTRUZIONE DELLA BASE EMPIRICA 9 STRATEGIE DI COSTRUZIONE DELLA BASE EMPIRICA: DUE DIMENSIONI PER UNA TIPOLOGIA Al fine di effettuare la costruzione della base empirica, bisogna tener conto di due dimensioni metodologiche generali: - Intrusività  consente di distinguere strategie e tecniche che riducono al minimo o amplificano al massimo l’intervento di chi fa ricerca sul contesto di indagine 37 I documenti sono solo uno dei possibili tipi di materiale empirico su cui basare una strategia di ricerca non intrusiva. Già negli anni ’60 del secolo scorso alcuni sociologi proponevano la rilevazione delle tracce di comportamento come tecnica di rilevazione delle informazioni a fini di ricerca, facendo riferimento a tipi di tracce molto diversi. Oggi l’evoluzione tecnologica rende rilevabili nuovi tipi di tracce dei comportamenti, tra cui, ad esempio, siti internet visionati, percorsi di mobilità quotidiana tracciati tramite GPS. In molti casi la tracciabilità dei comportamenti per fini di ricerca è soggetta a varie forme e livelli di autorizzazione da parte degli interessati, ma, fermi restando questi limiti normativi, essa apre la strada a forme innovative di ricerca non convenzionali di tipo intrusivo. Ready – made vs. custom – made Nella letteratura metodologica la dicotomia concettuale intrusivo/non (o meno) intrusivo viene definita anche con altre espressioni. In un recente manuale di ricerca sociale digitale, Salganik introduce la distinzione tra: - Ready – made  informazioni prodotte per altri fini e in altri contesti e successivamente utilizzati, così come sono, dal gruppo di ricerca per i suoi obiettivi di indagine (non intrusivi) - Custom – made  informazioni create nel processo di ricerca e, almeno nelle intenzioni del gruppo di indagine, funzionali ai suoi scopi cognitivi (intrusivi) (es: le risposte delle persone a un questionario) L’espressione custom – made richiama uno dei principali vantaggi delle strategie di ricerca intrusive e, come altra faccia della stessa medaglia, un problema strutturale di quelle non intrusive. I questionari sono strumenti che consentono al gruppo di ricerca di disegnare e personalizzare al massimo la fase di rilevazione, mettendolo nelle condizioni di chiedere ai soggetti che parteciperanno allo studio le informazioni di cui ha bisogno. Quando, al contrario, si opta per una strategia non intrusiva per evitare le distorsioni dovute all'intervento del ricercatore si rinuncia anche a un grado di controllo sul contenuto delle informazioni raccolte, affidandosi alle tracce che si trovano e che non necessariamente coincidono con quelle più adatte agli obiettivi conoscitivi della ricerca. 2. La standardizzazione Standardizzazione e matrice dei dati 40 Standardizzazione della rilevazione delle informazioni  il grado in cui la costruzione della base empirica è caratterizzata da procedure vincolanti, uniformi e indipendenti dalle caratteristiche specifiche dei singoli referenti empirici. Più la rivelazione è standardizzata, Più le informazioni sono rilevate secondo una forma e una modalità che le rende pronte per essere organizzate in una matrice dei dati. L'organizzazione dei dati è una fase di indagine che mantiene una relativa indipendenza rispetto alle altre. Più precisamente, essa vincola la fase successiva di analisi delle informazioni (in quanto lo studio della relazione statistica tra variabili richiede, in fase di organizzazione delle informazioni, il ricorso alla matrice), ma è relativamente indipendente rispetto alla fase precedente quella della raccolta dei dati. Strategie di rilevazione diverse possono comunque portare, qualora il gruppo di ricerca lo ritenesse opportuno, alla costruzione di una matrice dei dati. Da questo punto di vista è esemplificativa la differenza tra un questionario e una traccia di intervista non direttiva. Nel primo caso la rilevazione produce informazioni pronte a essere collocate in matrice, dove gli intervistati sono posti in riga, ogni colonna rappresenta una domanda del questionario e ogni cella l'alternativa di risposta scelta dall’intervistato n alla domanda x. Al contrario, l'organizzazione in matrice delle risposte alle interviste in profondità richiede al gruppo di ricerca un lavoro preliminare di classificazione ex post delle risposte e ricodifica del corpus testuale ottenuto. Ovviamente il riferimento alle diverse strategie di intervista è solo esemplificativo, in quanto la standardizzazione, intesa come grado di adattabilità alla logica della matrice delle informazioni raccolte, è caratteristica anche di altre forme di rilevazione, come lo studio degli artefatti e dei documenti. Standardizzazione e ricerca su larga scala nella rilevazione delle informazioni la standardizzazione può essere utile quando il gruppo di ricerca intende svolgere un'indagine su vasta scala, ovvero raccogliere informazioni su un numero elevato di referenti empirici. In questo caso, infatti, la standardizzazione offre indubbi vantaggi di gestione sia del processo (le operazioni di rilevazione) sia dell'esito (il materiale empirico ottenuto).  Si pensi ai censimenti della popolazione che si svolgono sistematicamente in moli paesi, e a cosa significherebbe intervistare cinquanta milioni di persone tramite interviste non direttive. Indubbiamente si raccoglierebbe materiale empirico molto denso, sfaccettato e ricco di spunti; tuttavia, la lettura e l'interpretazione di un corpus testuale così vasto, anche con il supporto di software, risulterebbe di difficilissima gestione ,Al contrario, quando ha senso ed è utile intervistare un numero ridotto di soggetti (ad esempio, i componenti del Consiglio di amministrazione di un'azienda), l'analisi in profondità delle loro risposte può essere agevolmente gestita da un équipe di ricerca; in questo caso sarebbe un peccato, quindi, limitare la rilevazione a un questionario con tutta la riduzione di ricchezza informativa che esso implica. Standardizzazione vs. approccio esplorativo La possibilità di ricorrere a strategie standardizzate non dipende solo da vincoli logistici e organizzativi. Uno strumento di rilevazione strutturato presuppone una concettualizzazione molto definita e articolata del fenomeno oggetto di studio.  Se, ad esempio, un gruppo di ricerca volesse studiare attraverso un questionario problemi sociali come il mobbing o la ludopatia, oppure fenomeni emergenti come le pratiche di consumo sostenibile, deve poter contare su una definizione teorica e concettuale abbastanza consolidata delle varie dimensioni implicate dal fenomeno oggetto di studio; in caso opposto non avrebbe gli elementi di base sufficienti per definire a monte un insieme di domande (e di alternative di risposta) adeguato. Quando, al contrario, un gruppo di ricerca si avvicina a un fenomeno inesplorato o quasi, rispetto al quale non può fare affidamento su un patrimonio di concetti e teorie robusto, risulta più adatta una strategia di rilevazione 41 non standardizzata, attraverso cui mettersi apertamente in ascolto piuttosto che cercare risposte precise a domande circostanziate. Sul piano della concettualizzazione del fenomeno oggetto di studio, la standardizzazione, quando applicata alla forma di rilevazione dell'intervista, pone un altro problema rilevante. Come sottolineano Pavsic e Pitrone, “l'intervista standardizzata è un processo che deve dare informazioni sulle idee e le supposizioni dello stesso ricercatore intorno a problemi di suo interesse. In questo processo, l'intervistato è chiamato a esprimere un'opinione sulle forme di concettualizzazione del ricercatore e non a dire cosa egli effettivamente pensa”. Se, quindi, la concettualizzazione che del fenomeno ha chi fa ricerca è molto diversa da quella delle persone intervistate, l'intervista standardizzata non consente di rilevare informazioni di qualità. 3. Una tipologia di strategie di rilevazione delle informazioni Incrociare intrusività e standardizzazione Intrusività e standardizzazione possono essere incrociate per definire quattro tipi di strategie e tecniche di rilevazione delle informazioni. Le dimensioni illustrare sopra, in particolar modo l’intrusività, possono essere concepite come due continua; in altre parole, due strategie di rilevazione possono differire per gradi di intrusività e gradi di standardizzazione. Per definire la tipologia che segue le due dimensioni verranno semplificate in due dicotomie. 3.1. Tipo I: strategie standardizzate intrusive In questo tipo rientrano i disegni sperimentali e le rilevazioni tramite questionario. Definizione delle strategie standardizzate intrusive In entrambe i casi la strategia di rilevazione delle informazioni è intrusiva: la partecipazione a un’intervista e a un esperimento costituisce una situazione artificiale per i soggetti coinvolti, i quali sono consapevoli di essere oggetto di rilevazione da parte della persona che svolge la ricerca/ l’intervista/ l’osservazione, con tutte le conseguenze che tale consapevolezza implica. Lo strumento di raccolta delle informazioni è strutturato per registrare dati direttamente collocabili in matrice e, quindi, predisposti per l’analisi statistica delle relazioni tra variabili. Tale strutturazione agevola lo svolgimento della rilevazione su vasta scala. Tale strumento può essere disegnato ad hoc per gli scopi conoscitivi che il gruppo di ricerca si prefigge (custom – made), quindi, almeno in linea di principio, consente la rilevazione specifica degli aspetti ritenuti dal gruppo più importanti per la comprensione dei fenomeni oggetto di studio. 3.2. Tipo II: strategie non standardizzate intrusive In questo tipo rientra gran parte delle modalità di rilevazione non standardizzate che implicano una qualche forma di interazione tra chi fa ricerca e i soggetti studiati. Definizione delle strategie non standardizzate intrusive Ci stiamo riferendo alle interviste non direttive, ai focus group, a forme di osservazione, cioè a tecniche particolarmente adatte allo studio in profondità di contesti circoscritti o di piccole comunità sociologiche piuttosto che a ricerche su vasta scala. Queste strategie sono funzionali a obiettivi conoscitivi di tipo esplorativo, vale a dire nei casi in cui chi fa ricerca, con il lavoro sul campo, intende far emergere idee, rappresentazioni e informazioni nuove e non controllare ipotesi definite o mettere alla prova concetti consolidati. 3.3. Tipo III: strategie standardizzare non intrusive 42 b. assiste l'intervistatore (quando presente), guidandolo nelle spiegazioni da dare al soggetto in occasione di una richiesta di chiarimenti annotando specifiche attenzioni che l'intervistatore deve avere per alcune domande o alcune fasi specifiche dell'intervista; c. assiste l'intervistato con specifiche istruzioni alla compilazione Ordine degli argomenti Un questionario segue un flusso logico, ispirato a un percorso comunicativo. Per questo è importante studiare bene l'ordine delle domande di un questionario, raggruppando le per temi affini ed evitando passaggi diretti da un tema a un altro che possono disorientare l’intervistato. Inoltre, proprio come in una qualsiasi interazione/conversazione, anche in un'intervista si susseguono fasi diverse: 1. fase iniziale  in cui si prende confidenza con la situazione e con l'interlocutore e si costruisce il clima che poi caratterizzerà tutta l'intervista/la compilazione 2. fase centrale  in cui l'attenzione e la concentrazione dell'intervistato sulle domande proposte è verosimilmente elevata 3. fase finale  in cui può subentrare un po’ di stanchezza e fretta di arrivare alla conclusione Per questo è opportuno collocare nella parte iniziale del questionario domande generali, in grado di mettere in rispondente a proprio agio (es: su aspetti biografici). Nella parte centrale del questionario, quando ci si può aspettare che il livello di concentrazione del rispondente sia elevato, conviene inserire le domande sugli aspetti cognitivamente più rilevanti per gli obiettivi conoscitivi dell'indagine. Nella parte finale è opportuno inserire domande facili (es: titolo di studio, stato civile) che non richiedono particolari sforzi cognitivi. La fine del questionario è anche la collocazione ideale delle cosiddette “domande obstruttive”, cioè che riguardano argomenti sensibili che potrebbero imbarazzare il rispondente. In questo modo, se nel corso dell'esperienza di risposta si è consolidato un clima collaborativo e di fiducia, il soggetto sarà probabilmente più disposto a rispondere; se, invece, il rispondente si dovesse urtare e decidere di non completare il questionario, avremo comunque ottenuto le risposte alla maggior parte delle domande previste. 1.1. Come è fatto un questionario Indipendentemente dai temi di cui si occupano, le domande di un questionario possono essere classificate in base alla loro forma, cioè al tipo di richiesta cognitiva che pongono all'intervistato. Scelta di una tra n risposte Tipo I: scelta di un’alternativa tra n proposte  è il genere più intuitivo; si fa una domanda all’intervistato, gli si propone un elenco di possibili risposte e gli si chiede di sceglierne una. 45 Quando si pongono domande di questo tipo, bisogna mettere l’intervistato nelle condizioni logiche di poter scegliere una sola alternativa. È necessario, quindi, che le risposte siano formulate in modo tale da essere distinguibili, senza sovrapposizioni semantiche che inducano l’intervistato a individuare due o più alternative che fanno al caso suo. In generale, un piano di chiusura di questo tipo di domande, cioè l’insieme delle alternative di risposta che esse possono prevedere, deve rispettare tre criteri logici: 1. Chiarezza del fundamentum divisionis, secondo cui tutte le alternative di risposta devono essere riconducibili a una sola proprietà/aspetto (es: non si può chiedere all’intervistato di scegliere tra “cattolico”, la cui dimensione di riferimento è la confessione religiosa e “italiano”, la cui dimensione di riferimento è la nazionalità) 2. Mutua esclusività: ogni alternativa deve essere chiaramente distinta dalle e non sovrapponibile alle altre (es: se si chiede agli intervistati di indicare la loro classe d’età, non si possono prevedere due alternative come “20 – 35 anni” e “30 – 45 anni”) 3. Esaustività: le alternative di risposta previste devono coprire la varietà/ampiezza delle scelte possibili (es: quando si chiede all’intervistato la sua confessione religiosa di appartenenza bisogna avere cura di proporgli le alternative ammissibili, per evitare che tra quelle previste non riconosca la sua. La categoria residuale “altro, specificare”, spesso presente in fondo agli elenchi di alternative di risposta, ha proprio la funzione logica di garantire l’esclusività: il soggetto che non si riconosca in una delle alternative esplicite può indicare la categoria altro e specificare la sua risposta. Inoltre, per ottenere un buon piano di chiusura occorre tener conto della sensibilità della definizione operativa; possiamo indicare la sensibilità come “il rapporto tra il numero di stati di una proprietà che consideriamo nel nostro piano di codifica e il numero di stati differenti che la stessa proprietà può assumere” (Marradi), il che ci porta ad affermare che, in molti casi, conviene raccogliere informazioni quanto più dettagliate possibile. Anche il testo della domanda deve essere formulato per evitare che gli intervistati si riconoscano in due o più alternative. Nella figura 1 sono proposte più alternative desiderabili di una professione/occupazione. In questo caso, l’avverbio “soprattutto” ha l’obiettivo di creare la precondizione logica della scelta di una sola alternativa: ammesso che per l’intervistato due o più degli aspetti citati possono essere rilevanti, la richiesta è di indicare quello più rilevante. Passando dal piano logico a quello pragmatico d’uso, questo tipo di domanda richiede un elenco di alternative di risposte non troppo lungo. Più sono le alternative proposte più è difficile per l’intervistato valutarle comparativamente e complessivamente l’una con l’altra per scegliere quella 46 che si addice al suo caso. A questo proposito in letteratura si parla di primacy e recency effects, cioè la tendenza degli intervistati a concentrarsi solo sulla prima parte (primacy) dell’elenco di risposte che vengono loro lette dall’intervistatore o che leggono da sé in caso di questionario auto compilato, o solo sull’ultima (recency). Il rischio di questa distorsione è maggiore proprio quando il numero delle alternative previste è elevato. Check all that apply Tipo II: scelta di più alternative tra n proposte  in questo caso viene richiesto al soggetto di selezionare tutte le alternative di risposta, tra quelle previste, che si addicono al suo caso. Tale formula, detta anche check all that apply, si applica anche per domande su opinioni e atteggiamenti. PER CAPIRE, immaginiamo di modificare la domanda sul lavoro ideale nella figura 1 come si legge nella figura 2 L’elenco di risposte in questo caso propone una serie di aspetti desiderabili, ed è probabile che la rappresentazione complessiva che una persona ha del suo lavoro ideale includa più di uno degli aspetti citati. Permettere agli intervistati di scegliere più risposte è anche un modo per ricostruire le multidimensionalità di un’opinione. D’altra parte, la modalità check all that apply riduce le possibilità di comparabilità tra le risposte  ES: si pensi a due intervistati, il primo seleziona le modalità “stabilità economica” e “utilità per il benessere della società”, il secondo sceglie le stesse due modalità più “essere intellettualmente stimolante”. Per entrambe hanno importanza l’aspetto finanziario e l’utilità sociale; tuttavia, per uno la sicurezza economica potrebbe essere un requisito irrinunciabile, mentre per l’altro potrebbe esserlo l’utilità sociale o l’aspetto intellettuale. La modalità check all that apply non consente di distinguere queste situazioni. Ranking Tipo III, ordinamento o ranking  quando una domanda di un questionario chiede all’intervistato di ordinare una serie di oggetti cognitivi lungo una proprietà di riferimento: figure pubbliche/ grado di fiducia; valori / grado di importanza; opinioni / vicinanza rispetto al proprio modo di pensare. Rispetto al primo tipo di domanda (scelta di una sola alternativa), il ranking consente di ricostruire il pensiero dell’intervistato rispetto a un dato argomento in modo più articolato e sfaccettato; e, a differenza delle domande check all that apply, consente di distinguere gli intervistati in base alle loro priorità. Esempio domanda ranking sul lavoro ideale (figura 3) 47  ES: se l’intervistato si collocasse vicino all’utilità sociale, ciò non deve essere interpretata come una priorità assoluta, ma come una preferenza relativa rispetto alla stabilità economica. Domande a risposta aperta Tipo V, domande a risposta aperta  sono domande senza un piano di chiusura; si offre, quindi, la possibilità di rispondere con parole proprie. Soluzione utile quando le possibili risposte sono molte e/o difficilmente prevedibili, consente a chi risponde una maggiore libertà perché non obbligato a dover necessariamente scegliere una modalità di risposta prefissata. Se inserita in un questionario faccia a faccia, la risposta andrà trascritta integralmente da chi conduce l’intervista. Una domanda a risposta aperta può da un lato facilitare la relazione d’intervista perché evita il fastidio che si prova di fronte a possibili risposte che non si avvicinano al sentire e alle opinioni di chi è chiamato a rispondere; dall’altro in un questionario autosomministrato può indurre una persona a non rispondere o ad abbandonare l’intervista perché le si richiede un impegno maggiore, senza contare che non tutti hanno grande familiarità con la parola scritta. Oltre al maggior tempo necessario per la conduzione dell’intervista e al minor tasso di risposte rispetto alle domande a risposta chiusa, il problema principale delle domande a risposta aperta è il lavoro necessario alla loro analisi, che potrà seguire due strade: 1. Inserire le risposte degli intervistati in una matrice di dati, al pari di tutte le altre domande  sarà necessario procedere alla chiusura delle domande a risposta aperta, cioè assegnare ciascuna risposta a un piano di chiusura creato successivamente alla somministrazione del questionario alla luce dell’insieme delle risposte ottenute (di solito la codifica è contestuale alla creazione stessa del questionario). Per ricondurre una risposta a una modalità del piano di chiusura occorre un grande sforzo interpretativo 2. Lasciare le risposte come risposte aperte, ricorrendo alle tecniche di solito impiegate per le interviste non direttive, allungano così non solo il tempo da dedicare alla somministrazione del questionario, ma anche quello dell’analisi. Ciò a fronte di vantaggi discutibili, visti i bassi tassi di risposta di solito ottenuti con questo tipo di domande. Per questi motivi, le domande a risposta aperta non sono molto utilizzate, soprattutto nelle grandi rilevazioni internazionali. 50 1.2. La comparabilità delle risposte Obiettivo principale di un questionario è la rilevazione di risposte fedeli, cioè corrispondenti alle caratteristiche effettive dei soggetti intervistati, e pienamente comparabili tra loro. A sua volta, la piena comparabilità è funzionale all’analisi statistica delle informazioni rilevate. Comprensione delle domande e comparabilità delle risposte Il ricorso al questionario non è garanzia di comparabilità. È anzi giusto chiedersi se sottoporre a tutti la stessa domanda nella stessa forma produca la condizione ideale, e cioè che gli intervistati stiano effettivamente rispondendo alla stessa domanda perché tutti ne hanno compreso allo stesso modo il testo e l’elenco delle alternative proposto. La comparabilità non è un problema di significante, ossia di come le domande vengono formulate, ma di significato, ossia come vengono capite. Nell’ambito dei processi di comprensione, essa appare un requisito difficile da garantire e controllare. La sfida del questionario è dunque quella di definire una sequenza di domande con alternative di risposta uguale per tutti e compresa da tutti allo stesso modo. La costruzione di un questionario unico per tutti e la conseguente standardizzazione delle interviste serve a gestire rilevazioni di dati su vasta scala, con un numero elevato di intervistati. Questa esigenza può confliggere con quella dell’effettiva comprensione delle domande: in molti casi per far capire a persone diverse la stessa cosa è più utile usare parole diverse con ciascuno, adattando il discorso alle competenze e alle sensibilità di ognuno. Pre test  una fase di ricerca che anticipa la rivelazione sul campo vera e propria e che ha lo scopo di valutare la qualità di un questionario. Uno dei suoi obiettivi principali è trovare un buon equilibrio tra le due esigenze contrastanti descritte sopra: definire un questionario uguale per tutti e fare in modo che persone diverse capiscano le domande allo stesso modo. 1.3. Il pre test del questionario Nella letteratura metodologica, il pre test è considerato una vera e propria fase di ricerca, intermedia tra l’attività di costruzione di un questionario e il suo uso per la rilevazione sul campo. Pre test e qualità di un questionario L’importanza del pre-test è tanto spesso dichiarata in principio quanto poco messa in pratica. Riconoscere l’importanza del pre-test come fase di ricerca implica una concezione “situazionale” della qualità di un questionario. In base a questa idea l’efficacia di specifiche domande e risposte è legata al contesto di indagine in cui vengono applicate. Dunque, non necessariamente un questionario che ha funzionato in una data ricerca può automaticamente considerarsi valido e pronto per essere replicato così com'è in un'altra indagine. Questo non significa rinunciare al principio di cumulatività (i questionari usati in ricerche precedenti su un dato argomento possono costituire una buona base di partenza per il gruppo di ricerca che intendesse svolgere un'indagine sullo stesso tema), ma significa concepire l'affidabilità non come una caratteristica di un questionario in sé, quanto piuttosto dell'interazione tra lo strumento e il contesto di indagine in cui viene applicato. Qui si tratta di una visione radicata nella ricerca sociologica. In altri ambiti disciplinari come la psicologia sociale, invece, si è affermata nel tempo una concezione diversa, che vede il questionario come uno strumento che è possibile validare attraverso procedure metodologico - statistiche ben definite e che, una volta validato, può essere replicato in contesti d'uso diversi senza ricorrere al pre test come descritto in precedenza. Tecniche di pre-test nel tempo sono state sviluppate strategie di pre - test molto diverse tra loro per approcci e il fondo e soluzioni tecniche adottate. Nel panorama della ricerca sociale tre sono le forme principalmente diffuse: 51 - valutazione di esperti  consiste nel chiedere a un panel di studiosi esterni al gruppo di ricerca di valutare i potenziali problemi del questionario. Le valutazioni raccolte possono essere usate sia per modificare direttamente il questionario, sia per definire una nuova versione di esso, da sottoporre a ulteriore pre – test, eventualmente ricorrendo a una delle altre due strategie. Nel panel generalmente vengono coinvolti sia esperti tematici (studiosi che hanno competenze specifiche relazioni al fenomeno che si intende indagare con il questionario) sia metodologici (studiosi esperti del funzionamento delle forme di domanda che si intendono adottare). - verbal interaction coding  è l’osservazione e la codifica del comportamento di intervistatori e intervistati e viene usato per desumere eventuali difetti del questionario dall'analisi dell'andamento dell'intervista condotta su un piccolo gruppo di soggetti. Se in corrispondenza di una certa domanda gli intervistati mostrassero incertezza/indecisione e/o chiedessero chiarimenti, ciò verrebbe interpretato come segnale di un possibile problema nella formulazione della domanda. Questa strategia ha il vantaggio di coinvolgere, anche se in maniera passiva, i protagonisti delle interviste: gli intervistatori e gli intervistati. D’altra parte, limitandosi ad analizzare gli aspetti esteriori dell’interazione intervistatore/intervistato, “la codifica del comportamento verbale è una tecnica eventualmente utile per individuare le difficoltà di intervistatori e intervistati ma non per capirne le cause” (Liani, Martire) - intervista cognitiva  attraverso un coinvolgimento più attivo degli intervistati, l’intervista cognitiva ha proprio l’ambizione di cogliere le cause di eventuali problemi di funzionamento di un questionario, e non solo le loro manifestazioni. Essa può essere considerata uno sviluppo delle procedure di intervista tradizionali: è un incontro tra un intervistatore e un intervistato in cui il primo accompagna la lettura delle domande con la richiesta agli intervistati di approfondire le loro risposte (verbal probing) o verbalizzare spontaneamente i loro pensieri nel rispondere (think – aloud); il secondo viene invitato a indicare tutte le difficoltà incontrate durante l’intervista. In un certo senso, si può dire che si tratti di una metaintervista, nel senso che l’oggetto di rilevazione non sono specifiche caratteristiche dell’intervistato, ma il questionario stesso. L’intervistato è chiamato a verbalizzare i processi cognitivi attraverso cui rispondere al questionario. L’obiettivo è sia individuare eventuali casi di effettiva non comprensione delle domande, sia situazioni in cui una stessa domanda viene compresa in modo diverso da due o più intervistati, che minerebbero l’effettiva comparabilità delle risposte ottenute. 1.4. Il campionamento Nel caso di un questionario, le righe di una matrice C x V rappresentano i soggetti intervistati. Casualità e rappresentatività Tranne nei casi delle rilevazioni censuarie o totali, la ricerca con questionario viene svolta su un campione di intervistati, le cui risposte verranno poi riferite, ossia generalizzate, alla popolazione di riferimento. Per distinguere i principali tipi di campionamento adottati si fa riferimento a due aspetti: - Casualità  è una caratteristica del modo in cui si scelgono le persone da intervistare - Rappresentatività  è una caratteristica del campione, cioè dell’esito del processo di scelta Rappresentatività del campione e casualità del processo di campionamento sono due caratteristiche tra loro indipendenti. Un campione si definisce rappresentativo della popolazione cui si riferisce quando riproduce in proporzione, ossia in scala ridotta, la dimensione quantitativa di alcune sue caratteristiche. Non sempre è utile costruire un campione rappresentativo. A volte, per controllare una specifica ipotesi di relazioni tra variabili, si ricorre a un campione detto “tipologico fattoriale”, ossia un campione equamente distribuito in base alle modalità di una o più variabili, anche se nella popolazione di riferimento esse hanno distribuzioni non perfettamente equilibrate. 52 Il laboratorio, metafora dell’esperimento Agendo in una situazione di laboratorio, il gruppo di ricerca prende il controllo dell’ambiente, dei trattamenti e delle osservazioni per eliminare (o ridurre) le minacce alla validità delle inferenze: il controllo e la manipolazione caratterizzano la ricerca sperimentale e la distinguono da tutte le altre tecniche di raccolta delle informazioni. Nell’esperimento ideale, lo sperimentatore interviene per eliminare interpretazioni alternative rivali, con la speranza di rimanere con una sola, plausibile interpretazione e separare l’effetto dovuto a un particolare fattore causale da quelli dovuti a fattori concorrenti e correlati. Nella fase di costruzione della base empirica, chi conduce un esperimento si deve porre alcune domande. Validità interna PRIMA DOMANDA (relativa alla validità interna, uno dei “requisiti minimi necessari”)  I trattamenti sperimentali ci hanno effettivamente fatto capire quali sono gli effetti della variabile indipendente su quella dipendente? Per rispondere bisogna cercare di capire se i fattori che potrebbero produrre effetti che si confondono con l’effetto della variabile indipendente sono stati tenuti adeguatamente sotto controllo. Validità esterna SECONDA DOMANDA (relativa alla validità esterna, che ha a che fare con la possibilità di generalizzare i risultati)  A quali popolazioni, contesti, variabili e procedure di rilevazione questo effetto può essere generalizzato? Quanto più i risultati osservati a seguito di un qualche trattamento sperimentale sono imputabili al trattamento, tanto più l'esperimento è valido internamente; quanto più i risultati sono generalizzabili tanto più l'esperimento è valido esternamente. L’esperimento nelle scienze umane e sociali La logica dell’esperimento si è sviluppata nell’ambito delle scienze fisico – naturali ed è stata trasportata nelle scienze umane e sociali, diventando una strategia di costruzione della base empirica molto diffusa, soprattutto in psicologia e, più recentemente, nelle scienze economiche. In sociologia inizialmente l’esperimento non era stato preso in considerazione, mentre negli ultimi anni si è assistito a un suo ritorno, anche se in forme diverse rispetto a quelle classiche. Problemi relativi all’applicazione dell’esperimento nelle scienze sociali: 1. Problema della fungibilità  mentre nella scienza naturali si può dare per scontato che gli oggetti dello stesso tipo di comportino sempre nello stesso modo nelle stesse condizioni, nelle scienze sociali non è ragionevole postulare l’intercambiabilità di persone, organizzazioni e istituzioni. Ciò comporta anzitutto una difficoltà nella validità esterna, in quanto non è automatico poter estendere al di là del caso specifico il risultato di un esperimento su oggetti di un certo tipo, generalizzandone i risultati a tutti gli oggetti considerati del medesimo tipo. INOLTRE, è necessario tenere presenti gli effetti che un esperimento ha sui partecipanti alla ricerca: esiste una differenza ontologica insanabile tra un oggetto inanimato delle scienze fisiche e un soggetto cognitivo dotato di emozioni ed espressività, depositario di memoria, costitutivamente incline all’interpretazione degli eventi e alla comunicazione. 2. La possibilità di riprodurre l’ambiente sociale in un laboratorio è molto difficile, quando non impossibile: da un lato perché si perderebbe di vista la complessità della vita sociale e quindi le “reti di relazioni particolarmente estese e articolate”, dall’altro perché gli esseri 55 umani oggetto dell’esperimento non sono semplici ricettori passivi e la consapevolezza di partecipare ad un esperimento può influenzare il risultato per il solo fatto di sapere di essere osservati e studiati. 3. Costi elevati  spesso si sostiene che gli esperimenti non potrebbero essere condotti su larga scala perché troppo alti sarebbero i costi in termini di risorse umane, temporali ed economiche. Per superare questo ostacolo si sta affermando il ricorso a piattaforme online che permettono di reclutare i soggetti da coinvolgere in un esperimento, compensandoli in denaro o tramite buoni acquisto (es: Amazon MTurk  divide un’attività complessa in migliaia di operazioni semplici ognuna compiuta da una o poche persone, permettendo così di risparmiare tempo e denaro e, nel campo delle scienze sociali, raccogliere informazioni con velocità ed efficienza mai viste prima). È tuttavia necessario trovare un modo alternativo al laboratorio per tenere sotto controllo le differenze tra individui di fronte al trattamento sperimentale. La logica dei gruppi sperimentale e di controllo risponde proprio a questa esigenza. La proposta fu avanzata da McCall in questo modo: si assegnano i partecipanti alla ricerca a due (o più) gruppi, uno dei quali viene esposto al trattamento e l’altro funge da gruppo di controllo. Il principio del controllo è centrale nella pratica scientifica, ma il concetto di “gruppo di controllo” è un’invenzione relativamente moderna. Apparve per la prima volta in biologia in una serie di indagini sperimentali intraprese da Charles e Francis Darwin e introdotta nei libri di testo di scienze sociali negli anni ’20 e ’30 del secolo scorso. Secondo la letteratura prevalente in tema di esperimento, se la numerosità di casi randomizzati è adeguata, i gruppi saranno considerati equivalenti e sarà possibile stimare, con un grado di incertezza statistica calcolabile a priori, l’intensità media dell’effetto della manipolazione della variabile indipendente sulla dipendente. (vd. Pagina 163 esperimento Gosnell) Secondo Cook la randomizzazione dei gruppi presenta diversi vantaggi, uno dei quali è che non ci sia effetto di contagio tra i soggetti o che l’effetto del trattamento si mantenga stabile per tutti i partecipanti. L’esperimento gold standard della ricerca sociale? Molti definiscono l’esperimento la stella polare o la chiave mancante che consente di migliorare l’analisi causale nella ricerca sociale garantendo la validità interna. Qualcuno si spinge a definire l’esperimento randomizzato il gold standard, cioè la pietra di paragone rispetto alla quale ogni tecnica dovrebbe essere confermata. In alcuni paesi è stato prescritto per legge il suo necessario utilizzo per accedere a finanziamenti, basti pensare alla legge approvata nel 2001 dal Congresso degli USA che stabilisce che perché una ricerca possa essere finanziata, questa debba usare disegni sperimentali, con una preferenza per gli esperimenti con randomizzazione. In tale legge si leggono anche le sei caratteristiche necessarie per una ricerca rigorosa: 1. Impiega metodi sistematici ed empirici che si basano sull’osservazione o sull’esperimento 2. Comporta rigorose analisi dei dati 3. Si basa su misurazioni o metodi di osservazione che forniscono dati affidabili e validi tra valutatori e osservatori 4. È valutato utilizzando disegni sperimentali in cui individui, entità, programmi o attività sono assegnati a condizioni diverse e con controlli appropriati 5. Garantisce che gli studi sperimentali siano presentati in modo sufficiente e chiaro da consentirle la replica o consentire la possibilità di basarsi sui loro risultati 6. È stato accettato da una rivista sottoposta a revisione paritaria o approvato da un gruppo di esperti indipendenti attraverso una revisione scientifica rigorosa. 56 Tra le varie critiche mosse all’esperimento randomizzato, si ricordano: - Spesso gli assunti alla base dell’esperimento stesso non vengono esplicitati - Dal punto di vista pratico, ci sono diverse difficoltà, allontanandosi dalle prescrizioni che ne alimentano una buona riuscita: molto spesso, nonostante l’assegnazione casuale, i due gruppi di controllo sono tutt’altro che equivalenti. Per questo si può parlare di “randomizzazioni infelici” e di “esperienze postrandomizzazione” per riferirsi ai molti fattori che possono inficiare tanto la validità interna tanto quella esterna di un esperimento. La reattività alle condizioni sperimentali Tra i fattori che possono inficiare tanto la validità interna quanto quella esterna c’è la reattività alle condizioni sperimentali. La distorsione si può presentare quando i soggetti tentano di confermare o smentire l’ipotesi sperimentale (cioè reagiscono ad essa) o gli sperimentatori influenzano involontariamente il comportamento del soggetto. La soluzione più comune è usare tecniche di “accecamento”: - “esperimento in singolo cieco” (single blind)  quando i partecipanti non conoscono l’ipotesi oggetto di indagine e non sanno qual è il loro gruppo di appartenenza (sperimentale o di controllo); non possono agire, quindi, in modo da confermare o smentire tale ipotesi. - “esperimento in doppio cieco” (double blind)  quando sia il soggetto, sia lo sperimentatore non sanno quale sia il gruppo sperimentale e quale quello di controllo. Questo dispositivo è molto usato negli studi clinici in ambito medico. Esso prevede che né lo sperimentatore né chi raccoglie i dati né i soggetti coinvolti siano a conoscenza del trattamento assegnato. Tale sistema mira a ridurre possibili distorsioni sia nella percezione sia nella reattività alla situazione sperimentale. Le minacce alla validità degli esperimenti nella ricerca sociale Campbell e Stanley individuano e sistematizzano una serie di distorsioni che possono minacciare la validità dei disegni sperimentali nella ricerca sociale. Tra i fattori che possono influenzare negativamente la validità interna, si ricordano: - Il fattore “storia”  insieme degli eventi specifici che intervengono fra la prima e la seconda rilevazione (cioè, pre e post trattamento sperimentale) in aggiunta alla variabile indipendente - Il fattore “maturazione”  i processi di maturazione interna dei soggetti che si sottopongono all’esperimento, conseguenza del semplice trascorrere del tempo, non legati specificatamente a eventi particolari (es: invecchiamento) - Il fattore “testing” o misurazioni ripetute  conseguenze prodotte da una rilevazione sui risultati ottenuti in occasione di una rilevazione successiva - Il fattore “strumentazione”  dovuto ad alterazioni dello strumento di rilevazione o i mutamenti riguardanti gli osservatori o i rilevatori impiegati nell’esperimento - Il fattore “selezione”  rinvia alle distorsioni risultanti dall’attribuzione differenziale dei soggetti ai gruppi sperimentale e di controllo - Il fattore “mortalità sperimentale”  la perdita differenziale dei soggetti facente parte dei gruppi sperimentale e di controllo - Il fattore “effetto reattivo del testing”  potrebbe acuire la sensibilità o la reattività alla variabile sperimentale, rendendo così i risultati ottenuti per i soggetti sottoposti all’esperimento non rappresentativi degli effetti che la variabile sperimentale potrebbe indurre sulla popolazione non sottoposta al trattamento 57 Potrebbe sorgere il dubbio che il punteggio medio ottenuto dai due gruppi di reclute dopo il trattamento sia influenzato dalla rilevazione precedente al trattamento, ad esempio perché le persone possono ricordarsi le risposte fornite durante la prima rilevazione; aggiungendo ulteriori due gruppi con assegnazione casuale, una come gruppo sperimentale e l'altra come gruppo di controllo, si può controllare il fattore testing: i punteggi del post test non potranno infatti essere influenzati da un pretest che non c'è stato. In molte situazioni, il pretest può non solo suscitare reattività, ma anche essere impossibile da condurre o estremamente non conveniente. Quando non si può ricorrere a disegni sperimentali in senso stretto, rimane aperta la possibilità di adottare soljuzioni alternative che possono fare a meno della randomizzazione o della rilevazione pre trattamento; le più comuni sono il disegno post test only e quello con il gruppo di controllo non equivalente. Quest'ultimo è molto simile al disegno n.4, ma con una differenza importante: l'assenza di randomizzazione che indebolisce la validità interna. Occorrerà quindi controllare se i gruppi a confronto presentano differenze rispetto ad alcuni importanti fattori di eterogeneità che impattano sulla variabile trattamento e tenendo in debito conto in fase di stima dell'effetto causale. 12 STRATEGIE STANDARDIZZATE NON INTRUSIVE Staretegie standardizzate non intrusive  tutte le tecniche che non entrano in diretta relazione con l’oggetto di osservazione, ma si avvalgono di strumenti di rilevazione standardizzati e usano una logica matriciale per l’organizzazione delle informazioni. Tra queste si ricordano: - strategie di ricerca desk - analisi del contenuto come inchiesta Dunque, sono strategie non intrusive perché il gruppo di ricerca non entra in contatto diretto, e potenzialmente modificante, con l’oggetto di studio. 1. Ricerca desk di dati in matrice Definizione della tecnica Analisi secondaria o desk research  riuso di dati creati in occasione di ricerche precedenti, spesso da soggetti diversi e condivisi con la comunità scientifica. Da qui l’uso del termine desk: è un tipo di ricerca che posso fare a distanza, seduto alla scrivania (desk appunto), senza dover andare sul campo (field) per raccogliere dati di prima mano. NON è un’analisi di secondo livello, MA un processo di riconcettualizzazione che porta il gruppo di ricerca a riconsiderare sotto altra luce informazioni già raccolte da altri. Basi di dati nazionali e internazionali Tra le fonti di dati più usate per la ricerca desk ci sono i censimenti, procedura tramite cui si raccolgono informazioni relative a tutti i membri di una data popolazione. Lo scopo del censimento è offrire una panoramica dello stato del paese e della sua popolazione.  Tale strumento nasce solo quando gli Stati cominciano a dotarsi di una struttura adeguata. Il compito di rilevazione era inizialmente affidato agli ecclesiastici, ad esempio in Svezia, dove nel 1749 fu svolto il primo censimento della popolazione; analogamente in Inghilterra, dove il primo censimento moderno si farà nel 1841. Nel 1790 ci terrà il primo censimento negli Stati Uniti, dove però comincerà ad essere organizzato ogni dieci anni solo dal 1910. La disponibilità di basi dati a livello nazionale e internazionale ha avuto un indubbio effetto positivo per la comunità scientifica in quanto ha contribuito ad eliminare l’orientamento nazionale della 60 ricerca, favorendo la diffusione di ricerche che comparano lo stesso fenomeno attraverso gli Stati (ricerche cross – national o cross – country), potendo anche contare sulla regolarità nel tempo e nello spazio. Open data Gli open data, letteralmente “dati aperti”, sono dati accessibili da tutti, utilizzabili senza dover ricorrere a uno specifico software, valutabili e intellegibili, accompagnati da licenze che non pongano restrizioni sul loro uso e riuso. Da alcuni anni si parla anche di open data movement in riferimento al gran numero di attori che sollecita un accesso aperto ai dati, in particolare a quelli ottenuti da ricerche che abbiano ricevuto finanziamenti pubblici. Le motivazioni sono varie: dal risparmio di risorse sempre più scarse, dalle maggiori possibilità di replicabilità, alla possibilità per i decisori pubblici di migliorare il processo decisionale ecc. I rischi e le sfide dell’analisi secondaria Diversi sono i rischi dell’analisi secondaria. Per le statistiche ufficiali, ad esempio, c’è il rischio di “reificare i dati”, ossia di considerarli validi di per sé: i dati possono anche essere ufficiali, ma non per questo necessariamente affidabili o oggettivi. Già Durkheim manifestava dei dubbi sulla fedeltà dei dati contenuti nelle statistiche ufficiali perché i responsabili della compilazione dei verbali e dei rapporti ufficiali devono decidere come classificare il fenomeno che si trovano a trattare spesso basandosi su criteri divergenti.  ES: nelle statistiche sulla criminalità le espressioni “numero oscuro dei reati” o “criminalità nascosta” sono usate per indicare la differenza tra i reati registrati e quelli avvenuti ma non registrati o scoperti e, quindi, esclusi dal computo. Dal numero oscuro dei reati ne consegue che non solo alcuni reati saranno sottostimati, ma sarà possibile che a un aumento del numero di reati non corrisponda un reale aumento dei crimini commessi, ma solo una rinnovata fiducia nelle istituzioni che porta a maggiori denunce. Paradossalmente, un aumento dei reati registrato dalle statistiche ufficiali potrebbe essere visto positivamente. Viceversa, una diminuzione del numero di reati nelle statistiche ufficiali potrebbe essere dovuta al timore di subire ripercussioni o alla sfiducia nelle istituzioni. I fatti oggettivi riportati sono in larga misura frutto delle interpretazioni che gli individui elaborano – consapevolmente o meno – per identificare e attribuire senso agli eventi con i quali vengono in contatto. Il dato è quindi “il prodotto delle pratiche e negoziazioni tra i pubblici ufficiali coinvolti, anche se non è né può essere in grado di catturare, registrare o riflettere il processo che lo ha prodotto”. Tuttavia, nell’immaginario collettivo un dato aggregato risulta maggiormente affidabile rispetto alla stessa informazione a livello individuale, dimenticano – o ignorando – che la base del primo è pur sempre l’informazione fornita dal soggetto sulla propria condizione occupazionale. Altro aspetto da tenere in considerazione quando si parla di fonti secondarie è la comparabilità nel tempo e nello spazio delle definizioni operative, soprattutto in ambito transnazionale. Un fenomeno si può presentare in forma diversa nel tempo e nello spazio semplicemente perché è differente l’attenzione che vi viene prestata.  ES: si pensi al caso presentato da Morgenstern relativo al divario dei tassi di malattie mentali in Svezia e nella ex Jugoslavia: in Svezia il paziente viene curato in ospedale e quindi registrato come tale, mentre nella ex Jugoslavia veniva affidato alle cure private della famiglia, senza quindi comparire nelle statistiche ufficiali. La combinazione di più fonti di dati Il problema assume una valenza ancora superiore nel caso in cui occorra procedere alla combinazione di più datasets, come in occasione di analisi di inchieste ripetute, di panel, di inchieste comparate, o quando si combinano dati di prima mano con informazioni già raccolte. 61 I dati sono spesso di alta qualità, soprattutto se ci rivolgiamo a organizzazioni come l’ISTAT, l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), l’ONU, perché in questi casi le procedure di campionamento sono di solito accurate. Inoltre, all’interno di queste organizzazioni si sono sviluppate strutture e procedure di controllo della qualità dei dati. Quando si fa analisi secondaria si ha sicuramente un minor controllo sulle procedure adottate per costruire la matrice originaria. Negli ultimi anni, però, grazie alla diffusione del ricorso alle fonti secondarie, è sempre più facile trovare informazioni sulle informazioni, i cosiddetti “metadati”. Metadati  descrivono il processo produttivo e le sue caratteristiche: contenuto informativo, scomposizione in fasi e operazioni, attività di prevenzione, controllo e valutazione dell’errore. La tentazione ad accontentarsi di dati disponibili I dati secondari possono sovvertire il processo di ricerca guidando la domanda, inducendo a limitarsi a porre le domande alle quali è possibile rispondere con i dati disponibili. Informazioni raccolte per fini diversi da quelli della ricerca sociale potrebbero spingere il gruppo di ricerca “a lavorare su dati di fortuna, che rispetto ai suoi problemi avevano solo un’importanza tangenziale”. È giustificato il sospetto che molte ricostruzioni teoriche partano dai dati disponibili invece che da quelli necessari. L’immediata disponibilità dei dati può portare a invertire l’ordine temporale tra la fase di progettazione del disegno della ricerca e il momento della raccolta dati: il ricercatore si accontenta delle informazioni disponibili adattandovi le ipotesi di lavoro, senza accertarsi dell’esistenza di fonti alternative con informazioni più utili, anche se meno facilmente accessibili. Nel caso dell’analisi secondaria, l’espressione “scelta degli indicatori” riflette il modus operandi seguito da molti ricercatori che si trovano a dover lavorare in contesti nei quali la rilevazione delle informazioni è già stata compiuta e l’insieme “di indicatori da cui attingere è quindi finito e limitato da decisioni precedenti”. Secondo Becker, invece, affidarsi a definizioni e dati prodotti per scopi diversi da quelli della ricerca sociale porta con sé una grande quantità di compromessi ed espedienti che possono solo intralciare i nostri sforzi di fare una qualche scienza sociale. La fallacia ecologica A volte ricorrere all’analisi secondaria può risultare l’unica alternativa. Quando mancano informazioni a un certo livello di analisi (es: individui) spesso si è costretti a usare quelli disponibili per un altro livello di analisi (es: territori).  ES (Corbetta): alla domanda “Come votano gli operai?” si dovrebbe intervistare un campione di operai, ma poiché i dati relativi alle percentuali di voti ai partiti e alla percentuale di operai residenti sono già disponibili per tutti i comuni, qualcuno potrebbe calcolare una correlazione sui comuni fra percentuale di operai e percentuali di voti ai diversi partiti, e da lì risalire alla correlazione individuale sugli individui fra partito votato ed estrazione sociale. Così facendo si cade nella “fallacia ecologica”, ossia nell’errore di trarre conclusioni sugli individui basandoci sui dati tratti da allegati. Thorndike, in un articolo di tre pagine, contesta l’uso che spesso viene fatto delle correlazioni sui territori e le conclusioni che se ne traggono: “Se la correlazione tra due tratti, A e B (es: povertà e delinquenza), in n gruppi (es: i residenti di w distretti) ha un certo valore K, la correlazione tra A e B negli individui o nelle famiglie che compongono i gruppi non necessariamente K, salvo in circostanze speciali”.  ES di fallacia ecologica: Il suicidio di Durkheim: per analizzare le cause del suicidio anomico, Durkheim usa dati relativi a unità di analisi aggregate a livello territoriale e riscontra una relazione positiva tra “il numero medio delle persone che vivono delle loro rendite” e il “tasso di suicidi” nei dipartimenti francesi: nei “vari dipartimenti francesi i suicidi 62 Inglehart presso la University of Michigan, e da allora opera in più di 120 società al mondo. Il principale strumento è un’indagine comparata condotta a livello globale ogni cinque anni. - General Social Survey (GSS) Si tratta di una rilevazione per ottenere informazioni su opinioni e comportamenti della popolazione statunitense, condotta dal National Opinion Research Center della University of Chicago a partire dal 1972. A delle domande demografiche, comportamentali e attitudinali, si affiancano argomenti quali le libertà civili, la criminalità e la violenza ecc. - Latinobarómetro È uno studio sull’opinione avviato nel 1995 in America Latina. I principali temi riguardano lo sviluppo della democrazia, dell’economia e della società nel suo complesso. - Arab Barometer È una rete di ricerca che fornisce informazioni sugli atteggiamenti e sui valori sociali, politici ed economici nel mondo arabo; dal 2006 conduce sondaggi sull’opinione pubblica in Medio Oriente e Nord Africa. - International Social Survey Programme (ISSP) Nel 1983, la Social and Community Planning and Research (SCPR) London avvia la British Social Attitudes Survey (BSA) e nel 1984, insieme ad altre organizzazioni, fondano l’International Social Survey Programme, svolta a cadenza annuale e strutturata in moduli tematici, tra i quali si annoverano cittadinanza, ambiente, famiglia e genere, reti sociali, tempo libero e sport. - GESIS È uno dei più importanti archivi europei; dal suo sito si può accedere gratuitamente ai datasets di Eurobarometro, EVS, ISSP e molti altri. - Integrated Public Use Microdata Series (IPUMS) L’IPUMS è parte dell’Institute for Social Research and Data Innovation della University of Minnesota, fornisce dati di censimento e indagini da tutto il mondo, gratuitamente. IPUMS ha creato il più grane database accessibile al mondo di microdati di censimento integrati con alcune grandi surveys nazionali e internazionali, tra le quali la Current Population Survey, la American Community Survey ecc, e una raccolta in espansione di indagini sulla forza lavoro, sulla salute e sull’istruzione. 2. L’analisi del contenuto come inchiesta Definizione della tecnica Un'altra strategia di rilevazione delle informazioni non intrusiva consiste nello studio sotto forma di inchiesta dei messaggi verbali e non verbali. Si tratta di un procedimento che utilizza uno strumento di raccolta delle informazioni a un elevato grado di standardizzazione e che è applicabile a qualunque tipo di messaggio relativo a oggetti vari, quali articoli di giornale, libri, manufatti ecc. Riguardando perlopiù referenti inanimati, la rilevazione non implicherà una relazione con oggetti di studio e pertanto non sarà collegabile né a effetti di reattività né a perturbazione. Inoltre, servendosi di una scheda di rilevazione analoga al questionario, tale strategia si caratterizzerà per una procedura di raccolta delle informazioni standardizzate, e consentirà di poter registrare i dati in una matrice C x V, dove i casi sono costituiti dai prodotti culturali analizzati. Le origini La tecnica ha origini antiche. Da sempre gli uomini hanno avuto la necessità di capire il contenuto di un messaggio e di individuare le sue caratteristiche mettendoli in relazione con altri messaggi 65 della sua specie. Gli esempi classici riguardano l'interrogazione di testi religiosi, ma a oggi oggetti di questo studio possono essere, per esempio, rapporti aziendali annuali. Un'applicazione molto importante della tecnica riguarda la comunicazione e la ricerca sociale sui media e i social media. Il primo esempio di analisi del contenuto può essere fatto risalire alla Svezia nel XVII secolo. La Chiesa luterana svedese commissionò uno studio degli inni inclusi nell'opera anonima Canti di Sion al fine di stabilire se l’opera includesse testi in contrasto con l’ortodossia. Le fasi L'applicazione di questa tecnica presenta le stesse fasi di un'indagine con il questionario. In base al problema di ricerca e alle ipotesi di partenza, il gruppo di ricerca si dovrà occupare di: a. identificare l'unità di analisi e definire i criteri con cui individuare i casi su cui raccogliere le informazioni; b. specificare gli aspetti da rilevare (le proprietà) sull'oggetto di studio; c. costruire la scheda di analisi del contenuto che includa le proprietà ritenute rilevanti; d. effettuare la rilevazione delle informazioni. Per un buon disegno di ricerca sarà necessario definire nella maniera più precisa possibile l'oggetto di studio in modo da poter avere un'idea chiara delle caratteristiche distintive dell'unità di analisi e procedere all'individuazione dei casi su cui effettuare l'indagine. La scelta dei casi In alcune situazioni è possibile effettuare la rilevazione su tutti gli oggetti facenti parte di una determinata popolazione; in altre sarà necessaria una selezione di alcuni esemplari specifici di una data unità di analisi su cui svolgere operativamente lo studio del contenuto. La delimitazione della dimensione spazio – temporale della ricerca, motivi di fattibilità e praticità porteranno a scegliere l’una o l’altra soluzione. Il campionamento degli oggetti di un’analisi del contenuto può avvenire seguendo criteri probabilistici o non probabilistici. Si ricorre a un'estrazione casuale solo quando il gruppo di ricerca ha una conoscenza ex ante del numero e di alcune caratteristiche minime degli elementi ricompresi nell'unità di analisi. In molti altri casi, invece, sarà necessario ricorrere a un campione non probabilistico seguendo una selezione ragionata in base ad alcuni criteri prestabiliti dai ricercatori. La scheda di analisi del contenuto Un'altra fase importante consiste nell'individuazione delle proprietà degli oggetti di studio su cui effettuare la rilevazione e nella costruzione della scheda di analisi del contenuto. Gli aspetti da includere nell'analisi verranno definiti in base agli obiettivi cognitivi della ricerca e alle ipotesi di partenza, e verranno sottoposti a una vera e propria definizione operativa. Le proprietà operativamente definite andranno a costituire le voci della scheda di analisi del contenuto, le quali svolgono la stessa funzione che in un questionario è affidata alle domande. Tale scheda è lo strumento che consente la raccolta e la registrazione delle informazioni considerate rilevanti ai fini della ricerca. Attraverso la scheda gli analisti intervistano i prodotti culturali oggetto della ricerca e registrano gli Stati sulle proprietà dei singoli casi. La scheda è compilata da un gruppo di analisti chiamati a confrontarsi tra loro per dirimere eventuali questioni di divergenza e controllare le scelte di assegnazione a una categoria di risposta. 66 14 L’IBRIDAZIONE Approcci di ricerca ibridi  tipi di strategie di rilevazione caratterizzati dalla combinazione di tecniche e modalità diverse, più o meno intrusive e più o meno standardizzate. Tre sono gli approcci principlai: - mixed methods - case study - etnografia 1. I mixed methods Origini Fin dalle sue origini, la ricerca sociale ha considerato l’uso congiunto di più tecniche di costruzione della base empirica come prassi. Ben presto si è iniziato a discutere su quale possa essere considerato il modo migliore di fare ricerca, e si è aperta una delle dispute più longeve in campo sociologico, ossia quella tra qualità e quantità, differenziazione che ha portato a una progressiva specializzazione e a una vera e propria divisione del lavoro. La triangolazione Dalla metà degli anni ’50 inizia ad essere usato il termine triangolazione: lo stesso fenomeno si afferma, può essere studiato da più punti di vista. Ripresa dalla geodetica, la parola “triangolazione” è riferita alla procedura seguita per stabilire l’esatta posizione di un dato oggetto partendo da più punti di osservazione: usare più di un punto di riferimento permetterebbe una maggiore accuratezza nel processo di rilevazione. 67 La maggior parte dei lavori che parlano di approcci misti alla ricerca tende a dimenticare il passato. L’approccio è infatti stato presentato senza maturare un’adeguata memoria storica, proposto spesso come nuovo paradigma, quando invece le principali idee erano già contenute in nuce nei contributi prodotti durante quella che a buon diritto può essere considerata l’età dell’oro della ricerca empirica. Se l’uso di più modalità di raccolta e analisi delle informazioni non è nuovo, lo è, invece, il tentativo di formalizzare l’approccio. È inoltre aumento il numero di articoli e libri che propongono classificazioni e tipologie di approcci misti. Se da un lato ciò aiuta e serve da guida per molti che cominciano ad addentrarsi nel mondo degli approcci misti, dall’altro si paventa il rischio di ingabbiare la ricerca entro confini arbitrari che potrebbero minare la creatività dei ricercatori, nello stesso tempo favorendo un uso irriflessivo del metodo. Verso un terzo paradigma metodologico? La ricerca mixed methods è “quel tipo di ricerca nella quale un ricercatore o un gruppo di ricercatori combina elementi di approcci di ricerca qualitativa e quantitativa al fine di migliorare la ircerca stessa in termini di ampiezza, profondità e validità dei risultati prodotti e nei livelli di comprensione raggiunti, sia in un singolo studio che in più studi tra loro correlati” (Johnson, Onwuegbuzie, Turner). Gli stessi autori aggiungono che la mixed methods research è il terzo paradigma metodologico, insieme alla ricerca quantitativa e qualitativa. Anche la mixed methods research è criticata: alcuni autori la considerano una diretta discendente del classico sperimentalismo con il quantitativo ai vertici, dove il qualitativo sarebbe relegato a un ruolo secondario, per di più portato al di fuori della sua sede naturale, cioè gli approcci critico e interpretativo. Le differenze ontologiche ed epistemologiche tra il lavoro positivista e postpositivista sarebbero ignorate, non verrebbero riconosciute le differenze nei modi di conoscenza dei diversi gruppi e popoli per imporre una sensibilità e una razionalità occidentali anche quando inadeguate. Secondo Giddens, gli approcci misti rischiano di non essere altro che il vestito nuovo del positivismo. Questo tipo di ricerca dovrebbe essere utilizzato quando si ritiene che, in relazione alle proprie domande di indagine, la ricerca con approcci misti possa aiutarci a raggiungere una migliore conoscenza del fenomeno oggetto di studio, senza considerarla a priori come il miglior modo. 2. Il case study 70 Definizione della tecnica Il case study è un approccio di ricerca che studia in profondità un caso in relazione a un problema specifico, esplorandolo attraverso una molteplicità di tecniche all’interno di un sistema delimitato con l’obiettivo di comprendere e spiegare, attraverso la ricostruzione documentata di una catena di eventi precisi, come e perché si è manifestato. L’origine di tale approccio di ricerca secondo alcuni può essere fatta risalire a Le Play (1855) che nella Francia dell’800 studiò il bilancio delle famiglie attraverso interviste e osservazione partecipante. Le prime applicazioni in ambito sociologico vengono datate negli anni ’20 del ‘900, in concomitanza con la Scuola di Chicago. Secondo Platt (2007), infatti, il case study può essere fatto risalire alla sociologia nord – americana e in particolare al case history o case work degli assistenti sociologici dell’epoca. Ad oggi il case study è usato in moltissime discipline: dall’urbanistica all’antropologia, dalle scienze mediche alla sociologia, dall’ambito giuridico a quello storico e organizzativo. Il case study non è una semplice tecnica per la raccolta delle informazioni, ma può essere considerato un approccio o una strategia che combina più tecniche tenute insieme da un unico disegno di indagine e da un insieme di procedure con obiettivi ben definiti. La scelta del caso di studio Elemento chiave di questo approccio è il caso. Questa parola connota un fenomeno circoscritto, osservato sia in un preciso momento sia nell’arco di un certo periodo di tempo. Un caso può essere una persona, oppure un accadimento, un’organizzazione o una comunità, ma anche un piano di intervento o una politica pubblica. Per essere degno di questo studio, tuttavia, il caso deve essere degno di alcuni aspetti di emblematicità, ovvero dovrà essere considerato paradigmatico rispetto a una classe di fenomeni. QUINDI, un caso non è di per sé significativo, ma lo diventa quando si riferisce ad una categoria analitica o quando assume importanza in base al suo potenziale interpretativo rispetto a una teoria. Per questo la scelta del caso è molto importante, perché aiuta la costruzione teorica, attraverso la generalizzazione analitica e la spiegazione di relazioni e processi. Secondo alcuni autori, infatti, il case study aiuta a capire il perché dal punto di vista teorico di un fenomeno, attraverso un percorso che utilizza un’analisi in profondità e una pluralità di tecniche. Inoltre, la scelta di una caso ha fin da subito una valenza pragmatica, volta a comprendere le questioni attorno a uno specifico problema. Per uno studio di caso possono essere utilizzati più strumenti di raccolta delle informazioni, quali interviste non direttive, osservazione, indagine con il questionario, ricerca documentale. 71 Approccio processuale e multilivello La pluralità delle fonti di informazione e la focalizzazione sul caso fanno sì che questo approccio presenti due elementi caratteristici: 1. Approccio processuale  per studiare un determinato caso sarà sempre necessario non solo analizzarlo nel presente, ma guardarne l’evoluzione storica alla ricerca di quei fattori e problemi specifici che hanno rilevanza per il tema dell’indagine.  ES: il progetto Kendal, di cui sopra, aveva lo scopo di indagare lo sviluppo delle forme tradizionali (dette “congregazionali”) a fronte dei processi di secolarizzazione e al contempo analizzare quali meccanismi sociali consentissero l’aumento delle spiritualità alternative, come quelle new age. 2. Capacità di connettere diversi livelli analitici  uno studio di caso richiede di guardare ad un oggetto nelle sue diverse dimensioni:  a livello macro, in quanto è necessario collocarlo nel contesto storico – culturale in cui il fenomeno si situa;  a livello meso, perché è necessario analizzarlo in relazione al sistema normativo, istituzionale e organizzativo che lo contraddistingue;  a livello micro, perché ogni caso dovrà anche essere studiato considerando i ruoli sociali e le interazioni di gruppo che lo definiscono. Per questo, secondo alcuni autori, il case study è una pratica di ricerca sistemica o olistica, in quanto colloca un oggetto di studio nell’ambito di contesti ampi in senso storico, analitico e persino interdisciplinare. PARTE QUARTA E DOPO? ELABORIAMO E ANALIZZIAMO LE INFORMAZIONI 15 L’ANALISI NELL’APPROCCIO STANDARD 1. Tipi di variabili Classificare le variabili Le colonne di una matrice C x V rappresentano le variabili, ossia le caratteristiche rilevate per ciascun referente empirico, cioè i casi, le righe, della stessa matrice. È possibile distinguere i tipi di variabili potenzialmente presenti in una matrice in base a diversi criteri. Per esempio, Marradi 72 Il grado di autonomia semantica implica differenze non solo sul piano del significato delle singole modalità, ma anche su quello dell’analisi dei dati. (vd. Esempio libro pagina 246) Il grado di autonomia semantica condiziona non solo l’interpretazione delle singole modalità, ma anche l’analisi della variabile nel suo complesso. (vd. Esempio libro pagina 246) Autonomia semantica e tipi di variabili Le variabili categoriali sono caratterizzate da elevata autonomia semantica, mentre le cardinali e le ordinali da scarsa autonomia semantica. Al contrario di quanto avviene per le ordinali e le cardinali, l’analisi e l’interpretazione complessiva delle variabili categoriali sono fortemente condizionate dalle loro modalità. (vd. Esempio libro pag 247). Data l’elevata autonomia semantica che le caratterizza, per le variabili categoriali è molto importante anche il numero delle modalità. Più è alto tale numero più è complicata la lettura complessiva della variabile, dato che ogni modalità è un centro autonomo di significato e di interpretazione rispetto alle altre. DIFFERENZA tra la fase di rilevazione delle informazioni in forma standardizzata e quella dell’analisi/interpretazione: quando si rilevano informazioni in forma standardizzata, un’articolazione molto dettagliata delle alternative di risposta può assumere un valore strategico. Ricodifica ex post delle variabili Un’articolazione molto dettagliata delle modalità di una variabile complica la sua analisi e interpretazione, quando tali modalità sono caratterizzate da elevata autonomia semantica. Per 75 coniugare le esigenze della fase di rilevazione con quelle dell’analisi spesso si ricorre alla cosiddetta “ricodifica ex post”: tenendo conto delle affinità semantiche tra le modalità e della distribuzione dei dati, il gruppo di ricerca aggrega alcune modalità che in fase di rilevazione erano separate, costruendo così una variabile con un numero ridotto di centri semantici autonomi e, quindi, più gestibile. (vd. Esempio pag 247 – 248) Per le variabili ordinali e cardinali, tuttavia, questo discorso non vale, o quantomeno non vale del tutto, in quanto sono caratterizzate da ridotta autonomia semantica. È ovvio che qualora un’eventuale distribuzione di frequenza di una scala 1 – 10 evidenziasse che quasi nessun intervistato ha usato i valori estremi, un’aggregazione dei valori più alti da una parte e più bassi dall’altra avrebbe senso sul piano statistico. Tuttavia, in caso di distribuzione equilibrata dei dati, mantenere in fase di analisi lo stesso livello di dettaglio usato in fase di rilevazione non implicherebbe particolari difficoltà interpretative, anzi sarebbe quasi un valore aggiunto, consentendo forme di analisi più raffinate. Il caso speciale delle variabili dicotomiche Il concetto di autonomia semantica permette anche di cogliere la specificità delle variabili dicotomiche, rispetto alle categoriali con più modalità (politomiche). Le dicotomiche sono un sottotipo di variabili categoriali: tra le due modalità di una dicotomia non si può stabilire un ordine né quantificare la distanza, ma solo stabilire una differenza, come per le variabili categoriali, appunto. L'eventuale natura dicotomica di una variabile non è assoluta e immodificabile, ma dipende dal modo, che può cambiare nel tempo, in cui viene concettualizzata. Dal punto di vista dell'autonomia semantica, sono molto più simili alle variabili ordinali e cardinali, piuttosto che alle categoriali. Quando si descrive la distribuzione di una variabile dicotomica bisogna fare riferimento alle sue modalità. Gradi di libertà Sul piano statistico, questa specificità delle variabili dicotomiche può essere colta facendo riferimento al concetto di gradi di libertà. Per “grado di libertà” di una distribuzione statistica si intende il numero di valori indipendenti che può assumere. Il grado di libertà di una variabile dicotomica è sempre uguale a 1: in essa, infatti, la frequenza relativa di una delle due modalità dipende, ossia è implicata, dalla frequenza relativa dell’altra. INVECE, il grado di libertà di una variabile politomica è pari a n – 1, dove n rappresenta il numero di modalità della variabile. 5. Dalle variabili ai casi: l’analisi delle reti Origini e caratteristiche La cosiddetta network analysis, o analisi delle reti, ha origine con i primi lavori di Mitchell, Barnes e Granovetter. Si tratta di una strategia di ricerca che valorizza pienamente il concetto di relazionalità, rappresentando un dato fenomeno oggetto di studio come una struttura di rapporti tra soggetti, analizzati più in funzione delle relazioni reciproche che delle loro caratteristiche individuali. Quando si parla di relazioni tra soggetti non si intende solo persone, ma anche governi, imprese, città ecc. Per questo nel linguaggio tecnico della network analysis si ricorre al termine astratto di “nodo” per designare gli elementi costitutivi di una rete. I tipi di relazione che possono essere 76 rappresentati/analizzati sono molto diversi, e dipendono ovviamente dalla natura dei nodi considerati. Matrice C x C Anche l’analisi delle reti si configura come una tecnica standardizzata: le caratteristiche delle relazioni studiate vengono, cioè, codificate e organizzate in una matrice, che però è strutturalmente diversa da quella su cui si basa l’analisi delle relazioni tra variabili, ossia la matrice C x V. Possiamo dire che la network analysis si basa su una matrice C x C, ossia “casi per casi”. La fig. 7 rappresenta la logica della network analysis e la forma di organizzazione delle informazioni che da essa deriva. Gli elementi posti in riga coincidono con quelli posti in colonna, formando così una struttura quadrata. Righe e colonne rappresentano i nodi della rete che si sta studiando. IMPORTANTE è la relativa indipendenza tra strategie di raccolta delle informazioni e le forme della loro organizzazione.  ES: una matrice C x C che includa dati sulle relazioni reciproche all'interno di un gruppo di individui può basarsi sull'osservazione diretta da parte del ricercatore delle dinamiche relazionali nel gruppo, oppure sul cosiddetto test sociometrico, cioè un tipo di questionario attraverso cui si chiedono i soggetti informazioni sulle relazioni che anno con gli altri componenti del gruppo. Fonti documentali di varia natura (es: memoranda, verbali di riunioni) sono, invece, la base informativa tipica per l'analisi delle relazioni tra soggetti collettivi come i governi nazionali o le imprese. Nelle celle di una matrice C x C vengono registrate le relazioni tra i nodi, secondo uno schema stabilito a Monte è valido per tutti i nodi (es: in una matrice C x C molto elementare il gruppo di ricerca può decidere di registrare semplicemente la presenza/assenza di relazione). I tipi di relazione possibili tra un insieme di nodi possono essere diversi; tuttavia, una matrice C x C contiene informazioni relative a un solo tipo di relazione (es: se si volesse applicare una network Analysis a una classe scolastica per studiare sia le relazioni affettive sia quelle strumentali si dovrebbero costruire due diverse matrici C x C, che condividono gli stessi nodi e nelle celle riportano informazioni relazionali di natura diversa). In una matrice quadrata C x C le celle poste sulla diagonale restano strutturalmente vuote; da un punto di vista relazionale non hanno senso, rappresentando l'incrocio di un nodo con sé stesso. Inoltre, quando contiene informazioni di tipo simmetrico, una matrice quadrata C x C può essere 77 Analisi lessicale  indica processi automatici o semiautomatici di trattamento, elaborazione e analisi di un corpus testuale, solitamente di grandi dimensioni. Negli ultimi anni di ricerca, questo strumento è stato applicato nell’ambito dell’analisi dei big data o almeno una parte di essi molti significativa per i sociologi, ossia i testi su social network, blog, pagine online ecc. In quanto processo di elaborazione dei testi, l'analisi lessicale non viene usata solo per fini di indagine scientifica: i motori di ricerca sul web si basano su forme di analisi lessicale per organizzare e indicizzare testi, senza partire da uno schema di classificazione stabilito a monte, ma facendo emergere somiglianze e differenze dal basso. È proprio questa la specificità dell'analisi lessicale. Così come l'analisi del contenuto come inchiesta, anche l'analisi lessicale si occupa di testi. Tuttavia, mentre nella prima il gruppo di ricerca è tenuta individuare a monte, cioè prima di entrare in contatto con il materiale empirico, una serie di aspetti, da rilevare, caso per caso è in forma standardizzata, con una scheda di rilevazione, nell'analisi lessicale non viene definito a monte un insieme di caratteristiche in base alle quali classificare i testi. QUINDI, l’'analisi lessicale non prevede una costruzione del materiale empirico che si basa sulla logica della matrice C x V. Anche L'analisi lessicale richiede la preparazione del corpus testuale da analizzare: l'insieme dei documenti deve essere organizzato e suddiviso in unità specifiche confrontabili tra loro; termini ed espressioni devono essere pretrattati per poter diventare oggetto di calcolo e rappresentazioni grafiche. I risultati cui portano tali tecniche non sono interpretabili in termini di relazioni tra variabili stabilite a monte dal gruppo di ricerca, bensì come ricostruzioni quantitative della struttura dei testi, in base alle parole che emergono come più ricorrenti e ai nessi tra tali parole, vale a dire il grado e la forma in cui risultano sistematicamente compresenti nei testi analizzati. 1.1. Preparazione del corpus testuale e lemmatizzazione In linea di principio, un’analisi di tipo lessicale può essere condotta anche su un solo testo, ma generalmente, quando viene svolta a fini di ricerca sociale, essa si applica a un corpus di testi tra loro comparabili (es: l’insieme di tweet relativi a un determinato argomento). L’analisi lessicale di solito viene usata per elaborare corpora di grandi dimensioni. L’analisi vera e propria deve essere preceduta da una fase di preparazione, prevalentemente automatica, ma in parte supervisionata dal gruppo di ricerca. Prima di tutto è necessario organizzare i testi che compongono il corpus in una tabella che, tuttavia, ha forma e scopi sensibilmente diversi rispetto a quelli di una tipica matrice C x V. Si immagini di voler applicare l’analisi lessicale a un insieme di opere letterarie. In una fase iniziale la tabella di organizzazione del corpus potrebbe apparire come segue: 80 Analisi lessicale e analisi del contenuto come inchiesta Differenze tra analisi lessicale e analisi del contenuto standard, proprio in riferimento all’organizzazione del materiale empirico: 1. L’analisi del contenuto standard si basa su una vera e propria matrice C x V 81 Al contrario, l’analisi lessicale non è lo studio delle relazioni tra caratteristiche di un insieme di testi, stabilite e assegnate dal gruppo di ricerca leggendoli e interpretandoli, quanto piuttosto l’elaborazione dei testi in sé, estrapolando da essi termini ed espressioni ricorrenti. Lemmatizzazione Per poter analizzare la ricorrenza e la compresenza di termini ed espressioni nel corpus testuale, il contenuto della colonna “testo completo” deve essere sottoposto alla cosiddetta “lemmatizzazione”, cioè un processo di trattamento che trasforma le parole dalla loro forma flessa, o contestualizzata, alla loro forma canonica, o decontestualizzata. Rientra nella lemmatizzazione per l’analisi lessicale anche l’eliminazione delle cosiddette stop words, cioè parole di uso comune che non veicolano un significato specifico (es: le preposizioni, gli articoli, le coniugazioni). 1.2. Occorrenze e co – occorrenze Le forme di analisi più diffuse nella ricerca sociale si basano tutte sulle cosiddette “occorrenze” e “co – occorrenze” di termini ed espressioni, che possono essere quantificate attraverso ulteriori elaborazioni di tabelle. Occorrenze e co – occorrenze Occorrenza  il caso in cui un termine o un’espressione sia presente in una data unità di testo 82  Analisi lessicale risalente al 2021 delle pubblicazioni scientifiche prodotte da dei docenti tra il 2015 e il 2020. La lemmatizzazione delle parole chiave associate a ciascuna pubblicazione ha prodotto una tabella delle occorrenze strutturata come quella di cui sopra (prima del paragrafo 1.3). L’analisi delle occorrenze ha portato alla word cloud della fig. 1, la quale mostra graficamente la predominanza di temi come comunicazione, social media, giornalismo, ma anche migrazione, identità e genere.  L’interpretazione di una word cloud non dovrebbe limitarsi alle parole con dimensioni maggiori; spunti di riflessione interessanti possono emergere anche in riferimento ai termini che nel grafico risultano sottodimensionati. Nel caso della fig. 1 può essere interessante notare la sottorappresentazione di argomenti di potenziale interesse sociologico come religione, salute, famiglia. Diagramma radiale Un modo efficace di raffigurare le co – occorrende è il diagramma radiale. In questo tipo di rappresentazione si sceglie un termine su cui focalizzare l’attenzione, ponendolo al centro del diagramma. Intorno ad essi vengono collocati tutti gli altri termini con i quali forma co – occorrenze, ciascuno a una distanza dal centro proporzionale al numero di co – occorrenze.  In una ricerca dell'Eurisko condotta nel 2005, 812 persone hanno risposto alla domanda aperta: "Cosa dovrebbe secondo lei cambiare perché la situazione del paese migliori?". Una delle parole più menzionate è stata "giovane". Per capire a cos'è stata associata questa parola e quali significati ha veicolato, è stata condotta una semplice analisi delle co- occorrenze che ha dato esito al diagramma radiale nella fig. 2. Sulla base delle co- occorrenze il software ha mostrato che i lemmi più associati al termine "giovane" sono: "lavoro", "possibilità", "Sud" e "posti di lavoro". 85 Similarity analysis La similarity analysis consiste in una rappresentazione grafica delle co – occorrenze interne a un corpus testuale, e si basa, quindi, su una matrice come quella a pag 302. L’obiettivo è disegnare una mappa complessiva che raggruppi termini ed espressioni in aree tematiche più ampie. Un tipo output di una similarity analysis è nella fig. 3.  Si riferisce all’analisi lessicale di un corpus testuale formato dalle parole chiave di un insieme di pubblicazioni scientifiche, focalizzate, in questo caso, su tematiche di sostenibilità ambientale. Ciascun’area colorata rappresenta un sottoinsieme di parole chiave caratterizzate da un livello minimo di co – occorrenza reciproca. La dimensione di ciascuna parola è proporzionale al numero delle sue occorrenze. Le dimensioni dei legami tra coppie di parole variano a seconda del numero delle co - occorrenze specifiche tra quei due termini. Quantificando e rappresentando occorrenze e co – occorrenze, la similarity analysis permette di far emergere eventuali clusters semantici specifici e i loro legami. Specificity analysis La specificity analysis è un’altra forma di analisi lessicale molto usata nella ricerca sociale. Il corpus testuale complessivo viene suddiviso in sottoinsiemi comparabili e significativi, con 86 l’obiettivo di capire quali termini/espressioni sono tipici o esclusivi di uno o più dei sottoinsiemi individuati.  Si riprenda in considerazione l'analisi lessicale citata nell'approfondimento a pp. 302-3, svolta sulle pubblicazioni scientifiche prodotte dai docenti di un dipartimento universitario tra il 2015 e il 2020. Fare analisi delle specificità significa innanzitutto segmentare il corpus delle pubblicazioni in base a uno o più criteri significativi: anno di pubblicazione del saggio, settore scientifico di appartenenza degli autori ecc. Successivamente, si stabilisce una soglia di occorrenza minima (ad esempio, superiore a so) e per ogni sottoinsieme del corpus si riportano solo le parole chiave che superano tale soglia. In questo modo è possibile individuare, ad esempio, quali parole chiave sono specifiche per ogni anno, cogliendo così eventuali evoluzioni nel tempo degli interessi scientifici di un dipartimento. 2. La sentiment analysis User – generated contents La sentiment analysis ha come oggetto di applicazione privilegiato gli user – generated contents di tipo testuale che popolano le piattaforme di social networking su Internet. user – generated content  qualsiasi contenuto caratterizzato da una qualche forma di creatività/spontaneità, prodotto senza obiettivi professionali o commerciali. Essi non sono risposte a domande strutturate, quanto piuttosto espressioni di idee, opinioni, sentimenti non sollecitate e destrutturate, nel senso che possono assumere forme molto diverse. Per questo possono essere considerati più autentici, più veri. Ad oggi, il collegamento tra spontaneità e veracità è messo in discussione. Il fatto di essere non intrusivi - cioè, di esistere indipendentemente dalle procedure di indagine seguite dal ricercatore - non significa necessariamente che questi dati possano essere considerati genuini. Una vasta tradizione di ricerca sui comportamenti delle persone online ha evidenziato quanto gli user-generated contents si configurino come sottili costruzioni della propria immagine, piuttosto che come espressioni dirette, libere, o addirittura liberatorie, di idee, sentimenti e umori. La sentiment analysis è una tecnica di trattamento ed elaborazione automatica di grandi quantità di user-generated contents di tipo testuale. Il suo principale valore strategico per la ricerca sociale risiede soprattutto in questo: essa consente di analizzare una mole di informazioni relative alle opinioni delle persone di gran lunga maggiore rispetto a ciò che si può fare con le tradizionali surveys con questionario. Si tratta, peraltro, di materiale empirico presente esclusivamente su Internet; quindi, per quanto vasto, esso esclude le persone che non hanno accesso alla rete, o che non usano le piattaforme di social networking. La logica di base della sentiment analysis può essere sintetizzata in termini di trade-off tra dimensione e varietà: al fine di trattare e analizzare quantità notevolissime di testi molto eterogenei tra loro, la sentiment analysis opera una drastica semplificazione, trasformandone l'infinita gamma di modalità di espressione in un sentimento collocabile lungo il continuum positivo/negativo. Questa operazione è anche la sfida maggiore che la sentiment analysis deve affrontare: la complessità del linguaggio, e soprattutto dei modi in cui le persone possono usarlo, pone dei limiti strutturali alle possibilità di classificazione automatica di un testo come positivo o negativo. Problema del riconoscimento del sarcasmo e dell'ironia è molto presente nella letteratura metodologica sulla sentiment analysis: Si pensi a questa recensione postata su Internet da un lettore che ha appena terminato un libro: "Complimenti, un vero capolavoro!". Il testo include termini - "complimenti" e "capolavoro" - ai quali è naturale attribuire una connotazione positiva. Tuttavia, il lettore potrebbe aver postato questo 87
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved