Referendum costituzionale e sondaggi

7 dicembre 2016 - di Twig

Dopo la batosta demoscopica delle elezioni presidenziali USA 2016, che verranno ricordate come la Waterloo dei sondaggi pre-elettorali, molti addetti del mestiere aspettavano con ansia i risultati del Referendum.

Come è andata? Di primo acchito diremmo meglio che negli Stati Uniti.

Il Referendum Costituzionale ha rappresentato un buon banco di prova per quanto riguarda i sistemi di rilevamento dell’opinione pubblica, in particolare i sondaggi preelettorali e gli strumenti di web listening. Proprio per questo motivo, riteniamo sia interessante fornire degli stimoli al dibattito metodologico delle scienze sociali.

Prima di entrare nel merito, vogliamo sgombrare il campo da una tesi che va per la maggiore: i sondaggi sbagliano perché la gente mente e non ci si può fare nulla. In questo caso, i maggiori istituti di sondaggi italiani hanno dato il fronte del No in vantaggio rispetto a quello del Sì. Si può affermare quindi che le stime siano state corrette? Non esattamente, vediamo nel dettaglio perché.

I risultati reali del Referendum hanno visto la vittoria del No con il 59,9% di preferenze, rispetto al 40,1% del Sì. Come mostra la tabella n.1, tutti i maggiori istituti di ricerca hanno ampiamente sottostimato il vantaggio del No: la stima migliore è stata fatta da Eumetra che ha dato il no in vantaggio di circa 12 punti ben 7,6 in meno di quanto realmente avvenuto. Al secondo posto troviamo Ipsos e Demos&Pi che hanno stimato il No al 55%, 5 punti in meno di quanto realmente avvenuto. Gli errori più clamorosi sono stati fatti da Termometro Politico (-18,6), da Demopolis (-15,8) e da IPR Marketing (-14.8).

Il vantaggio reale del No rispetto al Sì, dunque, è stato ampiamente sottostimato. Come mai? Difficile dare una risposta esaustiva. La tesi della spirale del silenzio (demoscopico), per cui alcuni settori della popolazione decidono di non rivelare il proprio voto, difficilmente può essere applicata a questo caso di studio, poiché non c’erano voti “inconfessabili”.

A nostro avviso permangono due elementi che rendono le stime dei sondaggi meno attendibili di quanto vorremmo:

  • La mancanza di un algoritmo di stima solido (i vecchi modelli basati sulla ponderazione dei dati e sulla scarsa mobilità elettorale non tengono più);
  • Fattori metodologici quali l’errore di copertura (nel Cati le persone raggiungibili su telefono fisso sono sempre meno e nel Cawi sono sottorappresentati gli over 65) e/o di mancata risposta (fenomeni di autoselezione).

Per questo motivo Twig da sempre sostiene che il futuro della ricerca sociale passa dall’integrazione di metodi. Ecco perché abbiamo confrontato il dato reale di voto con quello emerso dal nostro monitoraggio delle conversazioni Twitter contenenti gli hashtag #iovotono e #bastaunsi, iniziato il 21 settembre 2016.
Utilizzando questo strumento di web listening abbiamo osservato tendenze molto più vicine a quanto emerso dalle urne.

Si tratta sicuramente di un primo passo da approfondire, ma certamente fornisce degli spunti interessanti nel monitoraggio di una campagna elettorale, sia in termini di accuratezza della stima del fenomeno che spunti di riflessione sui contenuti di un discorso attorno a un tema (vedi le nostre analisi precedenti: monitoraggio #1, monitoraggio #2, monitoraggio #3 e monitoraggio #4).

Condividi questo post

Ti è piaciuto il post?

Iscriviti alla newsletter e ricevi altri contenuti interessanti