El gráfico a continuación muestra la evolución del promedio de sondeos y las encuestas que se publicaron tras el cierre de urnas.
Las encuestas se quedaron cortas con el PP —le daban alrededor del 29,5% de votos y acabaron en un 33%—. A cambio sobrestimaron a Unidos Podemos: la coalición de izquierdas se quedó muy por debajo del 25% al que apuntaban los sondeos. El PSOE estuvo casi dos puntos por encima de lo previsto; y Ciudadanos uno y medio por debajo.
No sabemos qué falló con los sondeos. Pero hay al menos tres posibles hipótesis. La primera es la 'tesis brexit'. Algunas personas creen que las encuestas fallaron porque los votantes cambiaron de voto tras conocerse el resultado del referéndum británico. Yo desconfío de esta teoría porque las encuestas del fin de semana no observaron nada.
La segunda hipótesis tiene que ver con la abstención. Quizá los encuestadores hemos sido incapaces de predecir una abstención que se iba a concentrar en Unidos Podemos. Como no tenemos históricos de los partidos nuevos, esto podría pasar.
La tercera hipótesis es que las encuestas en nuestro país hayan fallado en sus métodos de muestreo y en la gestión de la no-respuesta. ¿Y si no estamos llegando a un cierto tipo de votantes —menos expresivos, discretos, ausentes— que prefieren a los partidos tradicionales? Responder estas preguntas es el trabajo pendiente de quienes producimos encuestas electorales.
EL MODELO ESTADÍSTICO
Las encuestas han sido imprecisas esta vez. También las que he producido yo para EL ESPAÑOL. Pero quiero defender nuestro modelo estadístico: sus predicciones fueron razonablemente buenas y el error de los sondeos no le cogió por sorpresa.
En la tabla siguiente podéis comparar los resultados reales con los intervalos que estimó nuestro modelo estadístico con el 50% y el 90% de confianza.
No hay ningún partido fuera del 90% de probabilidad. Los 137 escaños del PP y los 71 de UP eran sucesos que el modelo no descartaba.
Es evidente que el modelo ofrecía horquillas anchas. No hacía predicciones rotundas ni prometía que iba ser preciso. La razón es evidente hoy: el modelo era consciente de que las encuestas podían equivocarse porque así ha ocurrido otras veces antes.
Las distribuciones de escaños reflejan la misma idea.
LA PREDICCIÓN DE MAYORÍAS
El modelo acertó al considerar dudoso que PP y C's o UP y PSOE lograran alcanzar los 170 escaños. Los resultados cayeron siempre del lado que el modelo consideraba más probable (quizás con algo de fortuna). Ocurre además que —aunque suene paradójico— es más fácil predecir la suma de dos partidos que los resultados de cada uno por separado.
ACEPTAR LA INCERTIDUMBRE
De los resultados del domingo saco varias conclusiones. La primera es que tenemos que transmitir mejor la incertidumbre. En el debate público se plantean preguntas que, simplemente, los datos disponibles no responden rotundamente. Un ejemplo fue el sorpasso. Nuestro modelo estadístico decía que UP tenía un 68% de probabilidades de ser segundo y el PSOE un 29%. Bastaba una tirada de tres para que el PSOE mantuviese el segundo puesto —como así ha sido—, pero como no era la opción más probable, en el debate tendía a pasar desapercibida. Paso algo similar con los sondeos del brexit. Aunque sólo daban una dudosísima ventaja al Remain, muchos analistas, inversores y periodistas la interpretamos como una ventaja clara.
Con esto no quiero decir que las encuestas acertasen. No lo hicieron. Pero fallamos también los analistas al no comunicar bien la idea de incertidumbre. El siguiente gráfico representa los distintos escenarios que nuestro modelo electoral pronosticaba.
El gráfico ilustra algo curioso. El escenario más probable era que UP fuese segundo y que junto al PSOE sumase 170 escaños. Ese escenario tenía un 35% de acuerdo con nuestro modelo estadístico. Cualquier escenario alternativo era menos probable. Sin embargo, al mismo tiempo, lo más probable es que ese escenario no ocurriese. Había un 65% de probabilidades de que se produjese una sorpresa… sólo que no sabíamos cuál.