Ensayo Bibliográfico

La investigación sociológica y los primeros estudios de opinión pública en España1

Juan Díez Nicolás

Académico de número de la Real Academia de Ciencias Morales y Políticas

Fundador y director general del CIS (1976-1979)

La investigación sociológica

La investigación sociológica pretende observar, describir y explicar la realidad social, siguiendo la misma ruta que Bacon estableció hace siglos para cualquier ciencia. Pero no toda investigación sociológica tiene que recorrer las tres etapas, si bien todas tienen que comenzar por la observación, aunque algunas solo pretenden describir, lo más exactamente posible, la realidad social observada. Tampoco debemos olvidar que la mera observación puede modificar el objeto observado, algo que es muy evidente en el caso de las ciencias sociales, pero que también existe en otras ciencias, hasta en la física, como hace ya décadas estableció Niels Bohr, cuando afirmó que el átomo se comporta de forma distinta cuando está siendo observado que cuando no lo está (Bohr, 1934).

Lo que sí es inevitable es que, incluso si solo se quiere observar la realidad social, se deben establecer, con mucho cuidado, los instrumentos de observación, que sirven para medir aquello que se busca observar. La realidad social, como he dicho y escrito en numerosas ocasiones, no está ordenada, la ordenamos nosotros con nuestros sistemas de clasificación, con nuestras taxonomías, igual que hacemos en cualquier ciencia. Por ejemplo, si clasificamos a todos los seres vivos entre mamíferos y no-mamíferos, nos encontramos con que los seres humanos estamos junto a las ballenas entre los seres vivos mamíferos. Pero si nuestro sistema de clasificación fuese entre seres vivos que viven en el agua y seres vivos que viven fuera del agua, ya no estaríamos junto a las ballenas. En consecuencia, la observación exige, más pronto o más tarde, que definamos los conceptos que nos permitan clasificar y ordenar la realidad, social en nuestro caso. Tenemos que definir qué entendemos por desarrollo económico, por democracia, por seguridad, por familia, para establecer los criterios y mediciones que nos permitan incluir o excluir cada aspecto de la realidad en una categoría determinada. Aunque no puedo aquí extenderme en todos los detalles, cada ciencia ha tardado mucho tiempo en que los investigadores, los científicos, se pongan de acuerdo en la definición de los conceptos. En la investigación sociológica hemos asistido durante muchos años a la controversia entre quienes defendían que la sociología podía ser una ciencia siempre que fuera posible llegar a acuerdos sobre cómo definir y medir los conceptos, es decir, cómo operacionalizar cualquier concepto (Lundberg, 1942), y los que creían que no era posible llegar a esos acuerdos, y por tanto negaban la posibilidad de una ciencia social porque no hay ciencia sin conceptos (Blumer, 1930). Por supuesto, desde entonces se ha avanzado mucho y cada vez hay más acuerdo sobre cómo definir y medir algunos conceptos, lo que ha exigido establecer instrumentos de medición cada vez más refinados y precisos, como han hecho todas las ciencias. Por ejemplo, comparemos la definición en 1889 del «metro» para medir longitud: («la distancia entre dos líneas en una barra de aleación de platino-iridio medida en el punto de fusión del hielo», barra que se encontraba en el Museo de Pesas y Medidas de París), con la actual definición: («el metro es la distancia recorrida por la luz en el vacío durante un intervalo de tiempo de 1/299 792 458 de segundo»). Si buscamos en Internet la definición de termómetro para medir la temperatura encontraremos decenas de escalas y definiciones diferentes, si bien las más utilizadas son la escala centígrada (denominada Celsius a partir de 1948), la Fahrenheit y la Kelvin (también denominada absoluta). Asimismo, cabe comentar la diferencia entre los distintos instrumentos para medir el tiempo, desde el reloj de sol hasta los actuales cronómetros de precisión.

Por tanto, cualquier ciencia se está construyendo continuamente, a medida que logramos definir con más precisión los conceptos que nos permiten construir taxonomías, clasificaciones, sistemas de categorías, para medir mejor los fenómenos que queremos observar y describir mediante instrumentos de medición. Como las ciencias sociales son muy recientes, y entre ellas la sociología, como ciencia positiva, cuya historia no va más allá de siglo y medio, es evidente que la investigación sociológica tiene una historia muy corta cuando se la compara con las otras ciencias denominadas «duras», las físicas y naturales. Pero todas las ciencias, incluso estas, requieren acuerdos entre los científicos e investigadores para definir los conceptos y establecer los mejores instrumentos de medición.

Si queremos ir más allá de la mera descripción de la realidad, buscando relaciones causales, estamos hablando de investigación explicativa. En este tipo de investigación, buscamos la posible relación entre dos fenómenos, uno que tomamos como consecuencia o resultado, y otro que tomamos como antecedente o causa del anterior. No obstante, como la realidad social está llena de posibles causas, y no hay tiempo para investigar todas las posibles causas de un fenómeno concreto, procuraremos acotar el número de posibles causas, y eso se hace mediante la formulación de hipótesis, para lo cual es necesario conocer lo que otros investigadores o científicos hayan explorado o encontrado previamente. Esto nos permite ya establecer dos tipos de investigación explicativa: la inductiva (partir de una observación concreta para intentar generalizarla) y la deductiva (partir de una generalización para intentar explicar un caso particular). El gran filósofo, político y economista John Stuart Mill estableció en su Sistema de Lógica (Mill, 1843) los cinco métodos lógicos inductivos (frente a la lógica deductiva de los clásicos griegos), el método de la concordancia, el de la diferencia, el de la concordancia y la diferencia, el residual o de eliminación y el de las variaciones concomitantes.

Así, comenzaba con algo simple: si siempre que A está presente, también está presente B, podemos pensar que hay una relación entre A y B, pero no podemos darlo por seguro. Si, a continuación, encontramos que siempre que no está presente A tampoco lo está B, hay más posibilidades para aceptar que existe una relación entre A y B, y luego continuaba con los demás métodos. Eso nos lleva a una precisión de cautela que todos mis alumnos me han escuchado alguna vez: «el hecho de que dos fenómenos varíen juntos no implica necesariamente que covaríen, que uno sea causa del otro». El ejemplo que los sociólogos hemos utilizado con más frecuencia es el de la gran correlación que existía entre el número de cigüeñas por mil habitantes y la tasa de natalidad, número de nacimientos por mil habitantes.

Durante el siglo xix y gran parte del xx se pudo observar casi en cualquier país que cuanto mayor era el número de cigüeñas por habitante, mayor era el número de nacimientos por habitante. Por supuesto, no es posible aceptar que las cigüeñas traigan los niños, por lo que existe otra variable interviniente que explica esa engañosa relación, la variable rural-urbana. En los pueblos había muchas cigüeñas y también la natalidad era más alta (porque la población rural quería muchos hijos para trabajar el campo y como un seguro para ser cuidado en la vejez), mientras que, en las ciudades, sobre todo en las industriales, había pocas cigüeñas (por la contaminación de la atmósfera), y la natalidad era baja (porque en la ciudad los hijos no contribuyen a crear riqueza sino que aumentan el gasto en ellos, en su educación, su sanidad, su alimentación, etc.). En la actualidad, podríamos poner múltiples ejemplos de fenómenos que varían juntos pero que no implican ninguna relación causal entre ellos. En los años sesenta pude traducir al español un libro sobre indicadores sociales y políticos en el que varios muy reputados sociólogos y politólogos anglosajones, al disponer de grandes ordenadores que podían calcular las correlaciones entre miles de variables o indicadores, simplemente habían calculado la correlación de cada indicador con todos los demás, un trabajo que no servía para nada, pues la mayoría de las correlaciones eran del estilo de las cigüeñas y la natalidad, como así tuve la ocasión de decir y publicar (Russet et al., 1968).

Debe advertirse que el método científico es un método para intentar llegar a la verdad, pero no ha sido ni es el único. El ser humano ha querido siempre llegar a conocer la verdad, y ha utilizado muchas formas, si bien unos métodos han tenido más éxito que otros. Además, no hay un solo método científico para lograr llegar a la verdad que sea común para todas las ciencias (Nagel, 1961), no es igual el método histórico que el biológico o el estructuralista, etc., pero el más utilizado en la investigación sociológica es el inductivo-deductivo, similar al silogismo clásico, partir de una teoría (premisa mayor), establecer los supuestos o condiciones en que hacemos la observación (premisa menor), para llegar a la hipótesis (conclusión). Este es el método deductivo clásico, pero naturalmente no incluye la verificación.

Una vez verificada (no rechazada) la hipótesis, esta se convierte en una generalización empírica, y se pasa al proceso inductivo, los supuestos iniciales se convierten en condiciones básicas y la teoría se va convirtiendo en ley. Cuantas más veces se repita la generalización empírica, es decir, cuantas más veces se verifique (no se rechace) la hipótesis inicial, mayor consistencia van adquiriendo los supuestos iniciales como leyes trans nivel, para establecer una teoría o ley. Pero no hay leyes propiamente dichas en sociología, debido a la gran diversidad de sociedades diferentes en el mundo y su variación en el tiempo. Lo más cercano a leyes serían los tipos ideales de Max Weber (1944), o algunas regularidades que se repiten una y otra vez (aunque siempre con excepciones más o menos numerosas) en el espacio o en el tiempo, como sucede con la denominada «ley de la transición demográfica», según la cual todos los países parecen haber pasado o estar pasando por un proceso desde alta natalidad y alta mortalidad a una baja mortalidad y baja natalidad. Incluso en este ejemplo hay que matizar que no todos los países han seguido ese proceso en las mismas fechas ni con los mismos ritmos y tempos.

Al llegar a este punto hay que aclarar dos cosas. En primer lugar, que ninguna verdad científica, sea en el campo que sea, lo es para siempre, porque por definición no se han podido verificar todas las condiciones iniciales o supuestos (la premisa menor). Por tanto, todas las verdades científicas son «provisionales», mientras no se haya encontrado evidencia en contrario.

El ejemplo más citado es el de Newton. Su física ha sido válida durante varios siglos, y para explicar muchas cosas sigue siendo válida, pero Einstein pudo demostrar que la física de Newton no podía explicar ciertos fenómenos, por lo que elaboró una nueva teoría, la de la relatividad. Hoy sabemos que algunos físicos han podido rechazar también partes de la teoría de Einstein. Por todo ello, hay que repetir otra vez que toda ciencia está en un proceso permanente de revisión y reelaboración. Todos nuestros conocimientos son provisionales, y se toman como verdaderos hasta que alguien puede rechazarlos científicamente. Cuando una hipótesis se rechaza el rechazo es para siempre, pero cuando no se puede rechazar, su aceptación no es para siempre, su aceptación es provisional, porque no se la ha podido rechazar con la evidencia disponible. Esa es la razón, en segundo lugar, por la que la verificación científica exige la replicación, variando los supuestos o condiciones iniciales, que son indeterminados por la complejidad y variedad del mundo y del universo, de manera que cuando se pone a prueba una hipótesis, lo que se pone a prueba es la hipótesis nula, es decir, lo contrario a la hipótesis que queremos verificar. Por ejemplo, si queremos saber si el nivel educativo está relacionado con los ingresos, lo que trataremos de verificar es que el nivel educativo no tiene relación con los ingresos de los individuos. Por tanto, si se rechaza que no tiene relación, aceptamos, de manera provisional, que sí tiene relación, hasta que alguien demuestre que no la tiene. Y si no se pudiera rechazar la hipótesis nula se está aceptando, aunque solo sea de forma temporal, que no hay relación entre el nivel educativo y los ingresos.

Las reflexiones anteriores conducen a sugerir, como afirmó Merton (1957), que teoría e investigación se complementan necesariamente. Las hipótesis surgen de la teoría, pero su verificación contribuye a confirmar, corregir, o modificar la teoría. En cualquier caso, la teoría sin verificación empírica es solo especulación, y la investigación empírica, sin teoría, es solo generalización empírica. Por eso creo que el racionalismo de Descartes y la escolástica siguen siendo válidos en cuanto que nos ayudan a elaborar y formular hipótesis, pero necesitamos el empirismo de Hume para verificarlas.

La verificación continuada, a través de la verificación, cambiando los supuestos o condiciones iniciales, permite consolidar y precisar las teorías. Por eso, podemos evaluar las teorías según su nivel de abstracción y su nivel de generalización. El nivel de abstracción tiene que ver con la definición de los conceptos. Si utilizamos el concepto «desarrollo económico» tendremos que medirlo a través de algún indicador. Por lo general se utiliza el PIB per cápita, pero es evidente que se trata de un indicador fácil de encontrar pero que mide solo un aspecto muy concreto del desarrollo económico. Tampoco existe un consenso universal sobre lo que es un sistema político democrático. Cualquier concepto tiene múltiples dimensiones, y por tanto hay que combinar esas diferentes dimensiones en un índice o indicador, como hace el INE cuando calcula el Índice de Precios al Consumo (IPC). Cuantos más aspectos del concepto abstracto mida nuestro instrumento de medición, mayor será el grado de abstracción, y más amplio será su poder explicativo, y viceversa. Además, para aceptar un índice o indicador, este debe cumplir dos requisitos, el de validez y el de fiabilidad. La validez implica que el indicador mida lo que dice que mide (no utilizamos un metro para medir la temperatura), y la fiabilidad consiste en que reiteradas mediciones nos proporcionen la misma medición (un metro que sea elástico nos proporcionará mediciones diferentes de la misma distancia según estiremos más o menos el metro).

La segunda dimensión se refiere al nivel de generalización. Si yo quiero elaborar una teoría sobre el concepto de «desarrollo económico» y me baso solo en datos de un pueblo de Toledo, el nivel de generalización se limita solo al pueblo de Toledo, y por tanto su nivel de generalización será muy bajo. Para que su nivel de generalización sea máximo, tendré que haber basado mi investigación en datos de todo el mundo y desde hace muchos siglos. Eso me proporcionaría un nivel de generalización máximo, válido para cualquier tiempo histórico de la humanidad y para cualquier país o territorio. No creo necesario insistir en la dificultad de lograr que la investigación nos proporcione teorías explicativas de cualquier fenómeno social que tengan un nivel máximo de abstracción y generalización. Por eso, volviendo a Merton otra vez, lo que la mayoría de los sociólogos pueden hacer es conformarse con teorías de rango medio, con niveles medios de abstracción y generalización. Se necesita mucha teoría y mucha investigación empírica para lograr niveles crecientes de abstracción (lo que requiere mejores definiciones de los conceptos a través de indicadores cada vez más complejos, incluso de lo que Lazarsfeld (1959) denominó «estructuras latentes», similares a los tipos ideales weberianos), y para lograr niveles más altos de generalización, lo que requiere más investigación comparada internacionalmente como sugirieron Merritt y Rokkan (1966). Todo ello requiere disponer de instrumentos de medición cada vez mejores y fuentes de datos cada vez más abundantes.

Personalmente, creo que desde 1963 (Díez Nicolás, 1969) he intentado hacer investigaciones que combinen siempre teoría e investigación, unas más descriptivas y otras explicativas, y buena parte de mis publicaciones se han dedicado a la verificación, mejora y relación entre sí de algunas teorías (Díez Nicolás, 2013) como las de la estructura de los sistemas sociales (Hawley, 1966; Díez Nicolás, 1982), la teoría centro-periferia (Galtung, 1964; Díez Nicolás, 2009), y la teoría sobre el cambio de valores en las sociedades industriales (Inglehart, 1977; Díez Nicolás, 2011). También he dedicado mucho esfuerzo a la definición de conceptos y a la construcción o mejora de índices e indicadores para medirlos, como los de población urbana, población rural, dominación e influencia ecológica, concentración y centralización urbana, posición social, información, felicidad, imagen social de instituciones y personas, xenofobia y racismo, protección medioambiental, soledad, seguridad, exclusión social, valores tradicionales-modernos, generaciones, y otros muchos (como se pueden consultar y leer o descargar en mis publicaciones, todas ellas incluidas en: www.juandieznicolas.es).

La investigación de la opinión pública en España

Las investigaciones sobre opinión pública son, por supuesto, investigaciones sociológicas, pero básicamente descriptivas. En general, no pretenden verificar hipótesis ni teoría, sino que su objetivo es conocer la opinión de la sociedad, en su totalidad o de una parte de ella, sobre determinados asuntos de interés público o privado, con el objetivo de ayudar a establecer o modificar políticas y, en general, para adoptar decisiones con más información por quienes deben adoptar las decisiones. En este caso, hay que volver otra vez a Max Weber y a la distinción que hizo entre el político y el científico. En efecto, el científico quiere más y más información antes de tomar una decisión, por eso verifica una y otra vez sus hipótesis cambiando los supuestos iniciales para asegurarse de que su rechazo o aceptación (provisional) de la hipótesis ha cumplido con los rigores de la metodología científica. El científico, por tanto, no tiene prisa, porque da prioridad a la seguridad de que su aceptación (provisional) o rechazo de una hipótesis esté justificada por la evidencia empírica. Por el contrario, el político está obligado a tomar una decisión en el momento preciso, ni antes ni después, y con la información de que disponga, no puede demorar su decisión porque quiera más información. La necesidad es la que establece el momento de tomar la decisión, aunque el político sea consciente de que carece de la información necesaria para adoptar una decisión informada. Quienes hayan llevado los dos sombreros, el de científico y el de político, sabe lo difícil que es no confundir esos dos «roles» o papeles sociales.

Las investigaciones de opinión pública, en principio, no pretenden verificar teorías, solo conocer la opinión de los individuos para que quien corresponda tenga información a la hora de adoptar decisiones. Otra cosa es, sin embargo, que los datos de esas investigaciones puedan o no ser utilizados para la investigación sociológica no solo descriptiva sino también explicativa, incluyendo la verificación de hipótesis. Pero, en principio, su objetivo prioritario es proporcionar información, lo más exacta y detallada posible, de la opinión de la sociedad o partes de ella sobre cuestiones que pueden requerir la toma de decisiones o el establecimiento de políticas, públicas o privadas.

Para conocer las opiniones de la sociedad, o alguna parte de ella es preciso preguntar a los individuos, y eso es lo que ha llevado a que el instrumento principal utilizado haya sido la encuesta, pero no se trata del único instrumento para conocer las opiniones de los individuos. En primer lugar, creo necesario diferenciar entre valores, actitudes, opiniones y comportamientos (recordados o intencionados). Los valores son difíciles de describir, y por tanto de investigar, puesto que están tan dentro de nosotros y, con frecuencia, ni nosotros mismos los conocemos o queremos conocerlos. En cierto modo, son las «ideas y creencias» de las que hablaba Ortega, y son sentimientos muy profundos que hemos adquirido en el proceso de socialización desde niños, muy condicionado por toda clase de variables del entorno social, que incluye el familiar.

Tradicionalmente se ha dicho que ese proceso de socialización estaba proporcionado por la familia, la escuela y la Iglesia, si bien Cooley añadió el grupo primario (los compañeros de juegos en la infancia), pero con posterioridad hay que añadir los medios de comunicación tradicionales (prensa, radio, televisión, cine) y, en la actualidad, las redes sociales e Internet (incluyendo videojuegos, consolas, etc.).

Las actitudes son algo más fáciles de medir, y son grupos de sentimientos más o menos coherentes entre sí, aunque a veces hay contradicciones entre ellos, como ha demostrado Festinger (1962), pero psicólogos, sociólogos, politólogos, economistas y, en general, científicos sociales, han desarrollado técnicas e instrumentos de medición más precisos para medirlas y explicarlas. Mientras que los valores cambian de manera lenta, como los glaciares, a lo largo de toda la vida de un individuo, las actitudes pueden cambiar más fácilmente, con alguna mayor frecuencia. Es posible cambiar de actitudes políticas, religiosas, éticas o estéticas, a lo largo de una vida, como consecuencia de una mayor información, de experiencias vividas, de situaciones sociales, etc.

Las opiniones, por el contrario, son las que pueden cambiar con mucha mayor facilidad, porque están poco arraigadas en la mente del individuo. Una nueva información, la influencia de un familiar o amigo, una experiencia personal, pueden producir un cambio de opinión muy rápido.

En consecuencia, valores, actitudes y opiniones, no se pueden conocer si el individuo no lo dice o no podemos inferirlas a partir de proxies, aproximaciones, comportamientos, etc. Ciertamente se pueden inferir algunas de estas emociones o sentimientos a través de los comportamientos, y de hecho así comenzaron algunas de estas investigaciones, midiendo comportamientos, por lo general comportamientos de consumo, cualquier tipo de consumo, en su sentido más amplio.

El análisis de comportamientos mediante la observación ha sido el principal método de investigación para los antropólogos, bien fuese a través de la observación participante o no participante. Pero cuando los individuos decimos cuál ha sido nuestro comportamiento en el pasado sabemos que no siempre ha de aceptarse como verdadero, no solo porque podemos mentir, sino porque a veces la memoria nos falla, y a veces porque reinterpretamos el pasado de acuerdo con el presente. Si anotásemos nuestra interpretación de por qué tomamos una decisión cuando teníamos veinte años, y lo volviéramos a escribir cuando llegamos a los cuarenta años, es muy posible que las dos explicaciones, nuestras las dos, y posiblemente sinceras, serían diferentes. Nosotros mismos reinterpretamos de manera diferente las razones por las que tuvimos determinados comportamientos. Algo parecido se puede decir del relato sobre nuestros comportamientos futuros, en realidad no son sino «intenciones de comportamiento», no comportamientos futuros ciertos.

El concepto mismo de opinión pública es relativamente reciente, y en general se acepta que el libro de Walter Lippmann (1922) puso el término en circulación, apuntalado inmediatamente por la creación del American Institute of Public Opinion de Gorge Gallup en 1935. Es inevitable no mencionar estos dos nombres, Lippmann y Gallup, cuando se habla de opinión pública, y no es que no hubiera opinión pública antes de ellos. Siempre ha habido quien ha tomado muy en cuenta a la opinión pública para conocerla y tenerla en cuenta antes de tomar decisiones de cualquier tipo, para crearla a conveniencia, para dirigirla, para manipularla o para cambiarla. Lo que no estaba muy formalizado era el método para conocer la opinión pública, pero siempre ha existido y siempre ha habido expertos en conocerla y utilizarla, aunque no se considerasen científicos sociales.

Lo que importa subrayar aquí es que se quiere conocer la opinión pública para algo, no por puro disfrute personal. Ya lo dijo Augusto Comte, «conocer para prever, para poder». El conocimiento de la realidad (en este caso la opinión de la sociedad o partes de ella) sirve para prever, para anticipar el futuro, que pueden ser opiniones, decisiones, comportamientos, y esa previsión (pronóstico, estimación, predicción, como queramos denominarla) tiene importancia porque nos proporciona información útil (es decir, poder) para intentar modificar o alterar, cambiar, ese futuro previsto. Cuando un vendedor conoce que según sus estudios de mercado va a vender pocos productos el año próximo, tratará de utilizar ese conocimiento para saber cómo puede cambiarlo. Los que hacen investigación sobre la opinión pública preelectoral saben muy bien que la publicación de esos resultados puede modificar la realidad, pero de dos formas antitéticas, puede confirmar a que muchos voten lo que pensaban votar (la predicción que se autocumple) o, por el contrario, provocar que muchos cambien su voto al conocer ese pronóstico (la predicción que se autodestruye).

La mayoría de los que hemos hecho ese tipo de investigación preelectoral sabemos que las dos consecuencias son posibles, pero es difícil prever cuál de las dos consecuencias tendrá más importancia. Lo mismo puede decirse de las previsiones empresariales, y por ello se desarrollaron los business games, los juegos de negocios, en los que se pueden manipular (en teoría, ahora en un ordenador) las variables que se supone pueden tener mayor influencia en el comportamiento de los consumidores (variar el producto, la inversión en publicidad, la retribución de los trabajadores, los beneficios adicionales al consumidor, el precio del producto, etc.). Pero esta técnica de conocer para prever, para poder, se utiliza también por los militares en los war games o juegos de guerra, para prever toda clase de escenarios futuros que permitan anticipar las reacciones del enemigo para planificar las reacciones propias. Finalmente, esta técnica es la que sigue cualquier jugador de ajedrez, de «GO» o de cualquier juego de estrategia.

El Instituto de la Opinión Pública y el Centro
de Investigaciones Sociológicas

En el caso español, el inicio de los estudios de opinión pública, de manera formal, con periodicidad y metodología científica, se debe a la creación del Instituto de la Opinión Pública en 1963 como servicio público del Ministerio de Información y Turismo, siendo ministro Manuel Fraga Iribarne. Todo en la vida tiene precedentes, y esta afirmación no excluye que con anterioridad se haya realizado alguna encuesta de opinión desde alguna institución universitaria, desde algún organismo público o desde alguna entidad privada. Su importancia y trascendencia, no obstante, fueron mínimas, como sus consecuencias. España, dice un conocido sociólogo, es un país sin follow up, un país de grandes ideas, pero con poco o nulo seguimiento, nos gusta el éxito de la creación, pero no la continuidad, que implica trabajo y rutina, pero también acumulación de resultados y experiencias. La fundación del IOP sí ha tenido follow up, como lo demuestra su continuidad a través del CIS, cuyo presidente actual ha querido reconocerlo y demostrarlo con la celebración, durante todo el año 2023, de los sesenta años de funcionamiento del IOP-CIS.

Tuve el honor de participar en la fundación del IOP. En septiembre de 1963, yo estaba iniciando mi tercer curso de posgrado en Sociología en la Universidad de Michigan, en Ann Arbor, con una magnífica beca del Population Council of America para no hacer otra cosa que escribir mi tesis doctoral, cuya propuesta ya había sido aceptada y nombrado el comité de catedráticos para el seguimiento y tutoría de mi trabajo. Pero en ese mes recibí una carta del ministro Fraga Iribarne, en la que me decía que quería fundar un centro para estudiar la opinión pública de los españoles y me ofrecía volver a España para ocuparme de la dirección técnica del mismo, junto al director en funciones que sería Luis González Seara, compañero y amigo mío en la licenciatura de Ciencias Políticas y Económicas de la facultad del mismo nombre. La oferta era no solo irrechazable, sino que era una oferta para trabajar profesionalmente en lo que llevaba dos años preparándome, una institución nueva y con un buen amigo de la facultad. Consulté el ofrecimiento con varios de mis profesores en Ann Arbor, y en especial con Leslie Kish, un experto mundial en estadística y en especial en muestreo, de origen judío y nacionalidad húngara, que al iniciarse la Segunda Guerra Mundial emigró a Estados Unidos, y que desde allí vino a España durante la Guerra Civil para formar parte de las Brigadas Internacionales. Su consejo era muy importante para mí, puesto que yo no ignoraba la dificultad de la tarea en un país cuyo régimen era dictatorial, o autoritario como lo redefinió nuestro gran sociólogo Juan Linz (1964). La opinión del profesor Kish fue que no debía desaprovechar esta oportunidad.

Por tanto, acepté. Llegué a Madrid un domingo de octubre, y el lunes a las nueve de la mañana me recibió Fraga, me indicó que hablase con Seara, que estaba en el despacho de al lado, y que juntos nos fuéramos a ver el edificio que había elegido para sede del IOP, que estaba en Castellana 40, un viejo palacete de dos plantas ahora desaparecido por el paso a nivel desde la Plaza de Rubén Darío a la calle Juan Bravo. No creo necesario repetir aquí detalles que están disponibles en publicaciones muy accesibles (Díez Nicolás, 1976). Lo importante es que, durante el primer año, limitamos las encuestas a la provincia de Madrid, con muestras de ochocientas sesenta personas, pero utilizando y probando todas las técnicas que habríamos de utilizar para las investigaciones nacionales, y como entrenamiento para técnicos que mayoritariamente nunca habían tenido experiencia en investigación social2, utilizando todos los manuales y técnicas de la Universidad de Michigan: muestreo, redacción de cuestionarios, selección y entrenamiento del equipo de entrevistadores, codificación de cuestionarios, entrada de datos en fichas IBM de ochenta columnas, utilización de una clasificadora también IBM para elaborar las tablas. Todo era nuevo para todos.

La primera encuesta se realizó en Madrid en noviembre de 1964 y tuvo como objeto conocer qué sabían los madrileños sobre la situación y la política internacional. En noviembre de 1965 se llevó a cabo la primera encuesta nacional con muestra de 3535 personas, sobre radio y televisión. Todas las encuestas, desde la primera citada de 1964, se publicaron en la Revista Española de la Opinión Pública, con la excepción de una sobre el cierre de la frontera con Gibraltar, porque el entonces ministro de Asuntos Exteriores le pidió a su colega de Gobierno, Fraga, que por razones de Estado se mantuviera sin publicar, aunque como he dicho en muchas ocasiones se podría haber publicado perfectamente porque no revelaba nada que pudiera perjudicar al Estado ni a nadie. En 1966, el IOP participó en su primera encuesta internacional, en un proyecto sobre «Imágenes en el Mundo en el año 2000» (Ornauer et al., 1976) dirigido por el profesor Johan Galtung, en el que representamos al IOP el profesor José Ramón Torregrosa y yo mismo.

Es de justicia señalar que, a partir de 1964, el IOP ayudó a que el Gobierno aceptara que las empresas privadas pudieran también hacer investigaciones sobre opinión pública, y poco a poco fueron surgiendo algunas importantes, como ECO, ICSA-GALLUP, DATA, METRA-SEIS, SOFEMASA, etc., al principio con dificultades, pero luego con creciente normalidad, de manera que a finales de los años sesenta ya era habitual que, además del IOP, hubiera empresas privadas, lo que pienso que fue bueno para todos.

En 1968, Luis González Seara ganó la catedra de Sociología de la Universidad de Málaga, y Salustiano del Campo, que había ganado la de Madrid, se convirtió en director del IOP. Y en 1969, cesó Fraga como ministro de Información y Turismo, ocasión que aproveché para irme a un puesto más tranquilo como asesor en el Gabinete de Estudios de la Dirección de Urbanismo para preparar mi oposición a cátedra, que gané en 1971 en la Universidad de Málaga, ya que Seara había pasado a la de Madrid. Quiero aprovechar para decir que en esos seis años el IOP no solo realizó decenas de investigaciones por encuesta, sino mediante análisis de contenido de medios de comunicación, reuniones de grupo y otras, y que fue ya conocido y respetado académicamente no solo en España sino en el mundo occidental, a través de su revista, en la que colaboraron muy conocidas firmas de las ciencias sociales españolas y extranjeras, revista muy bien dirigida por otro compañero nuestro en la Facultad, el profesor José Sánchez Cano.

Desde 1969 hasta 1976 hubo seis directores del IOP, se siguieron haciendo muchas encuestas que se publicaron en los cincuenta números de la Revista Española de la Opinión Pública. Creo, con sinceridad, que estas encuestas, en un clima político no muy favorable, contribuyeron principalmente a demostrar, tanto al Régimen como a la oposición (clandestina entonces, y en su mayoría PCE), que la población española no era partidaria del continuismo del régimen de Franco, pero tampoco de la revolución, sino que prefería mayoritariamente un cambio sin sorpresas, con reformas claras hacia un régimen democrático y de libertades.

Muerto Franco en noviembre de 1975, y dimitido o cesado Carlos Arias como presidente de Gobierno en junio de 1976, el rey Juan Carlos I nombró a Adolfo Suárez nuevo presidente en julio del mismo año. Y Suárez me nombró a mí, en octubre, director general del IOP, que no solo se convertía en Dirección General, sino que pasaba del Ministerio de Información y Turismo al de Presidencia, cuyo ministro, además de vicepresidente primero, era Alfonso Osorio. A los pocos meses, ya en 1977, cambié el nombre de IOP al de Centro de Investigaciones Sociológicas (CIS).

Las encuestas para la transición política

Como director general del IOP, tuve primero la responsabilidad de las encuestas previas al referéndum sobre la Ley para la Reforma Política (Díez Nicolás, 2004), y luego de las primeras elecciones legislativas de junio de 1977 (Díez Nicolás, 2019). El IOP acertó el resultado del referéndum de 1976, sobre todo el relativo a la participación (el pronóstico fue del 77 %, y el resultado 78 %), y al voto negativo (que algunos estimaban en mucho más alto del 2 % sobre votantes pronosticado por el IOP, y fue exactamente del 2 % sobre votantes).

Acertar el resultado del referéndum no fue difícil, puesto que se trataba de tres opciones: sí, no y abstención, y en un referéndum España es un solo distrito electoral. Lo único más difícil era acertar la participación, y se logró porque, a pesar de los mensajes de algunos para votar no, y de otros para no votar, estaba claro que la gran mayoría de españoles tenía ganas de votar y esta era la primera ocasión de hacerlo, al estar en situación de tránsito hacia la democracia plena.

El IOP recibió después el encargo de realizar el pronóstico para las primeras elecciones legislativas de junio de 1977, y eso era más complicado, pues la ley electoral establecía cincuenta y dos distritos electorales (cincuenta provincias y las ciudades de Ceuta y Melilla), y en cada uno de esos distritos, los escaños se repartían en proporción a los votos de cada partido, y el resto hasta trescientos cincuenta se repartían entre los partidos que concurrían proporcionalmente a su población en el distrito electoral y su distribución entre los partidos mediante la denominada Ley d’Hont (Díez Nicolás, 1977).

En este punto, quiero señalar que desde el primer momento fui muy crítico con esta normativa electoral. Pero, continuemos con las encuestas preelectorales para las primeras elecciones de junio de 1977. Al tratarse de un Estado constituido como monarquía parlamentaria, el jefe del Estado es el rey y, por tanto, no es elegido como lo es el presidente en las repúblicas parlamentarias. La elección del jefe de Gobierno o primer ministro, como se denomina al jefe del Ejecutivo en las monarquías parlamentarias (mal llamado presidente en España), se hace de forma indirecta o secundaria en el Parlamento es decir, son los diputados elegidos en el Congreso los que le eligen por mayoría simple.

Todos los expertos en muestreo saben que cuando el universo al que se quiere generalizar el resultado de una muestra es igual o superior a cien mil unidades (en este caso personas con derecho a voto, es decir, electores) la muestra debe ser de mil o mil doscientas unidades, con un error estadístico del ± 2,5 %, siempre que el resultado (en este caso el voto) sea entre dos opciones (por ejemplo, sí o no). Esto planteó varias dificultades: primera, como los representantes se eligen de manera separada en cada distrito electoral, cada distrito requería su muestra estadísticamente representativa, o sea, una muestra de al menos mil electores en cada una de las cincuenta provincias más las dos ciudades de Ceuta y Melilla; segunda, en cada distrito electoral las posibilidades de elección no eran dos, sino en todos los casos al menos tres, y en algunos más de veinte partidos diferentes que buscaban su escaño; tercera, no era fácil utilizar como ayuda los resultados de las elecciones anteriores, puesto que estas eran las primeras elecciones desde las de la Segunda República, entre 1931 y 1936.

Por todo ello se requería como mínimo una muestra de 52 000 entrevistas para poder elaborar un pronóstico riguroso, ya que en cada distrito había más de dos partidos contendientes. Evidentemente, el coste era muy alto y las garantías de un pronóstico aproximado muy bajas, teniendo en cuenta que no había datos de resultados electorales desde cuarenta años antes. Después de varias deliberaciones se llegó al acuerdo de reducir a la mitad las entrevistas realizadas en cada distrito electoral, aumentando algo las de las provincias de Barcelona y Madrid, y reduciendo algo las de las provincias de menos población, así como las de Ceuta y Melilla. No se hicieron más de seiscientas entrevistas ni menos de trescientas en ningún distrito, y el total fue de alrededor de treinta mil entrevistas en toda España. En compensación, se logró la autorización para llevar a cabo tres oleadas con ese número de entrevistas, una a las pocas semanas de la convocatoria de elecciones, la segunda a mitad del período desde la convocatoria hasta la fecha de las elecciones (en estas primeras elecciones el 15 de junio), y la tercera, con un cuestionario muy reducido, tres semanas antes de la fecha de las elecciones.

A principios de 1977 se cambió el nombre de IOP al de Centro de Investigaciones Sociológicas (CIS), de manera similar a como se cambiaron los nombres de otras instituciones, como el del antiguo Instituto de Estudios Políticos al de Centro de Estudios Políticos y Constitucionales, y además se aumentaron sus funciones, entre otras, la de mayor colaboración con las universidades, los investigadores en ciencias políticas y sociología, y la creación de un Banco de Datos que tardó años en ir convirtiéndose en un auténtico repositorio digital, aunque se podían consultar los datos de las investigaciones en papel, ya que los primeros ordenadores personales y el software adecuado no comenzaron a ser accesibles en España hasta principios de la década de los años ochenta. Entonces, las tabulaciones de grandes encuestas se subcontrataban al Centro de Cálculo de ODEC, en Gandía, como hicieron y han seguido haciendo durante varias décadas posteriores tanto el CIS como la mayoría de las empresas privadas de encuestas.

Por supuesto, entre el referéndum sobre la Ley para la Reforma Política de diciembre de 1976 y la convocatoria de las elecciones de 1977 que se hizo el 15 de abril de 1977, el IOP hizo otras encuestas, entre ellas, la más importante, una para conocer si la opinión pública quería que se legalizara al Partido Comunista de España y a otros partidos considerados entonces como ilegales (no solo de izquierda, sino también de derecha), con el resultado de que más del 70 % de la población con derecho a voto pidió que se legalizaran todos. Debo aclarar que en ningún momento he creído que Suárez legalizara a todos los partidos al conocer el resultado de esa encuesta, sino que lo hizo para saber si la decisión que ya había tomado contaba con el respaldo del electorado.

En la primera de esas investigaciones se pudo comprobar que los españoles tenían un desconocimiento total de cuál sería su comportamiento electoral, pues había varios partidos socialistas, pero especialmente dos, el PSOE-histórico y el renovado, varios partidos comunistas, en particular el de Carrillo y el de Lister, más de una docena de partidos socialdemócratas, entre ellos los de Lasuén, Cantarero del Castillo, varios partidos liberales, varios partidos demócrata-cristianos, varios falangistas, etc., pero no existía la UCD, si bien había varios partidos que se postulaban de «centro». Al terminar esa primera encuesta, yo no sabía si Suárez pensaba presentarse a las elecciones ni con qué partido. En la segunda investigación se vio ya más de forma clara a Alianza Popular, al PSOE-renovado (el de Felipe González), y un partido de centro alrededor de Pío Cabanillas (denominado Partido Popular), pero seguía sin existir la UCD, y por lo tanto no había pronósticos para un partido inexistente, y tampoco estaba claro si se presentaría Suárez y con qué partido. Y en la tercera, ya en mayo, se vio aparecer por fin a la UCD (después del pacto de unificación promovido por Suárez con los grupos democristianos, liberales, socialdemócratas, centristas varios y «azules»). Una anécdota muy conocida es que había un informe reservado para el Gobierno, al parecer realizado por el profesor Juan Linz (que llevaba años en la Universidad de Columbia y luego en la de Yale, en Estados Unidos) y el prestigioso consultor alemán Dieter Nohlen, que atribuía alrededor de sesenta escaños a la Democracia Cristiana. El pronóstico del CIS fue que UCD ganaría las elecciones con 164 escaños, pero que no lograría la mayoría absoluta (el resultado real fue de 165 escaños). Se pronosticaron ciento veinte para el PSOE, que logró ciento dieciocho. Se acertaron plenamente los seis escaños del PSP de Tierno Galván, así como los veinte del PCE de Carrillo. Pero no se veía en absoluto lo que en el informe reservado citado se había pronosticado para la Democracia Cristiana. Los datos de las tres grandes encuestas no permitían pronosticar ni un solo escaño.

Finalmente se pronosticaron dos escaños, sin justificación alguna, para la Democracia Cristiana de Ruiz Giménez (Izquierda Democrática), uno en Madrid para Joaquín Ruiz Giménez, y otro en Valencia. No salieron ninguno de los dos. Ese fue el principal error del pronóstico del CIS, del que me hago responsable, pero me parecía imposible que el pronóstico de Linz y Nohlen fuese tan alejado de los resultados. Sin embargo, en honor de Linz y Nohlen pienso que la Democracia Cristiana estaba presente en todos los partidos, desde el PCE al PSOE, UCD, AP y otros, pero España no siguió el modelo italiano de bipartidismo Democracia Cristiana vs. Partido Comunista, que era el modelo que los dos grandes profesores creyeron que seguiría España. Creo, de todos modos, que la experiencia de esas tres investigaciones con grandes muestras demostró que la maquinaria del CIS estaba preparada, no solo porque ya se contaba con una red nacional de entrevistadores consolidada después de una década, sino porque dado el volumen de entrevistas (siempre personales en el hogar del entrevistado) se logró la colaboración de más de media docena de las principales empresas de estudios de opinión, que realizaron muchas de las entrevistas pero no el análisis de los datos.

En el referéndum sobre la Constitución, de diciembre de 1978, el CIS pronosticó unos resultados otra vez bastante próximos a la realidad. En cuanto a la participación prevista, la estimación del CIS fue del 75 % y la real fue ocho puntos porcentuales inferior, 67 %. Y se estimó un 60 % (sobre el total del censo electoral) para el SÍ (un punto porcentual más del resultado real, también sobre censo electoral).

Aprovecho para señalar que, todavía hoy, muchos analistas de resultados electorales confunden los porcentajes sobre censo con los porcentajes sobre votos válidos. Los primeros sirven para interpretar el respaldo electoral de cada partido o candidato, mientras que los segundos solo sirven para hacer el reparto de escaños. Mientras que los primeros pueden utilizarse para comparar los resultados de dos elecciones diferentes, los segundos no. Los primeros sirven para evaluar el nivel democrático de un país, los segundos no. De esta afirmación se deriva que el primer problema para elaborar una buena estimación, pronóstico o predicción electoral, es estimar la participación, es decir, la proporción del electorado (los ciudadanos con derecho a votar) que finalmente ejercen su derecho a votar.

Al llegar las segundas elecciones legislativas de 1979 se decidió repetir la pauta de tres oleadas de treinta mil entrevistas cada una, y se recurrió nuevamente a las principales empresas de estudios de opinión para ayudar a realizar parte de las entrevistas. En esta ocasión, la participación real (68 %) fue solo tres puntos porcentuales inferior a la prevista (71 %), pero el tema polémico con los pronósticos de algunas empresas privadas fue el de quién iba a ganar las elecciones. En efecto, el último día en que se podían publicar encuestas, un diario nacional muy importante, basándose en los datos de una empresa de gran y merecido prestigio y con un director con gran prestigio también, publicó que UCD ganaría las elecciones en escaños por la ley electoral, pero perdería en voto popular (es decir, se afirmaba que el PSOE tendría más votos que UCD en el conjunto de España, sumando todos los votos en los cincuenta y dos distritos electorales).

El pronóstico del CIS fue que UCD ganaría en escaños, 168 (en realidad fueron 167) frente a 137 del PSOE (en realidad fueron 121), y que también ganaría en voto popular, 23 % del censo electoral frente al 20 % del PSOE, resultado que fue exactamente así. El principal error del CIS fue porque concedió dieciséis escaños más al PSOE de los que obtuvo. En el análisis posterior, señalamos que este error se pudo deber a que pocas semanas antes del día de las elecciones se constituyó un partido nuevo, el Partido Socialista Andaluz (PSA), que quizá le quitó al PSOE varios escaños en Andalucía. Es evidente que ni el CIS ni las empresas privadas pudieron valorar la aparición de este nuevo partido y su captación de votantes con tan poco tiempo de anticipación.

Abandoné el CIS después de las elecciones de 1979 para ocupar otro cargo, pero cuatro de mis trece sucesores al frente de la institución siguieron haciendo tres oleadas de treinta mil entrevistas para las elecciones de 1982, 1986, 1989 y 1993. Se interrumpió en las elecciones de 1996. Desde entonces se aprovechó más la experiencia de elecciones anteriores, y el encarecimiento de la entrevista personal en el hogar condujo a todos los centros de investigación, públicos y privados, a utilizar cada vez más modelos de estimación, y a recoger los datos a través del teléfono u otros medios.

Precisamente, tengo una anécdota sobre las elecciones de 1996. Después de dejar la política y los cargos políticos en junio de 1982, fundé una empresa de estudios de opinión y, en 1986, inicié un estudio mensual nacional, con muestra de mil doscientas personas, cuestionario de casi una hora, y entrevista personal en el hogar. He tenido la suerte de obtener financiación, siempre privada, para continuar esa investigación mensual durante veinticinco años, desde octubre de 1986 hasta noviembre de 2011.

En la investigación previa a las elecciones legislativas de marzo de 1996, hice como siempre mi pronóstico electoral, no de escaños, pues con ese tamaño de muestra no me ha parecido nunca prudente hacer pronósticos de escaños a escala nacional ni por supuesto a escala regional, provincial o municipal, pero desde el punto de vista estadístico sí es legítimo hacer pronósticos de los porcentajes de voto de cada partido para el total nacional, sobre todo para los partidos más importantes. Mi pronóstico fue que ganaría el PP, pero por muy pequeña diferencia, como así fue; recordarán que el PP ganó solo por un punto porcentual al PSOE, (38,79 % el PP y 37,63 % el PSOE, sobre votantes). Cuando envié mi pronóstico, uno de los clientes que lo recibían me comentó que había tres importantes empresas privadas, con investigadores también de alto prestigio, que además publicaron sus pronósticos en tres grandes diarios nacionales, que coincidían en pronosticar una victoria del PP por mayoría absoluta. Pero el cliente «me consoló», asegurándome que seguiría siendo cliente de mi investigación mensual, como así hizo al comprobar que había acertado. Nunca discuto sobre pronósticos electorales, siempre espero a ver los resultados, y procuro aprender de mis errores cuando los he tenido y de los demás cuando los han cometido. Por esa razón, siempre he respetado la metodología utilizada por los que hacen estimaciones, pronósticos o predicciones electorales, si bien personalmente concedo más o menos plausibilidad a cada una de ellas en función de mi experiencia sobre el prestigio profesional del autor de la estimación y su grado de acierto en otras estimaciones. Pero nadie me ha nombrado, ni deseo ser nombrado, juez sobre estimaciones, pues conozco el refranero español, y por ello sé que «cada maestrillo tiene su librillo». Además, siempre me he abstenido de hacer juicios de valor sobre mis sucesores en cargos públicos, académicos o políticos, por un elemental sentido de educación y respeto.

Con el ejemplo anterior no quiero dar lecciones a nadie, por supuesto. Pero sí puedo decir que he procurado no hacer pronósticos de escaños si he creído que no dispongo de muestra suficiente o que no puedo financiar la recogida de datos mediante el método que me ofrece las mayores garantías. Es cierto que cada vez se cuenta con mayor experiencia acumulada, que la tecnología (el software) y los modelos de estimación son cada vez más potentes, incluso que se dispone de algoritmos muy refinados, pero pronosticar escaños con la ley electoral actual es realmente muy difícil, porque tanto los partidos políticos como los ciudadanos también saben más y organizan sus campañas y sus respuestas a las preguntas de las encuestas con más conocimientos y más intencionalidad de influir en los resultados. Además, en ningún país de nuestro entorno he visto que los pronósticos electorales incluyan la estimación de escaños, algo que sería casi imposible teniendo en cuenta que su ley electoral se basa en el distrito unipersonal, por lo que son cientos de distritos electorales los que habría que pronosticar de manera individual para, sumándolos, obtener el total nacional. En España estuvo justificado hacerlo en las primeras elecciones, porque eran las primeras después de cuarenta años, pero su coste y dificultad aconsejan hacer lo que se hace en todas partes, estimar el porcentaje de voto de cada partido en el conjunto de España, algo ya suficientemente difícil teniendo en cuenta lo dicho antes, que un partido local, con votos en solo un distrito electoral, puede, con facilidad, lograr representación en el parlamento nacional. Me pareció lógico que se dejaran de hacer tres encuestas de treinta mil entrevistas a partir de 1996 en el CIS, pues no son necesarias para estimar el porcentaje de voto nacional a cada partido. De igual manera, siempre he respetado la metodología que cada responsable de investigación quiera adoptar. La mejor evaluación es la comparación de los pronósticos con los resultados y, como he dicho antes, no veo qué puede aportar la discusión de pronósticos, cuando lo más seguro es esperar a los resultados y, luego, aprender de los errores para intentar no repetirlos.

Los problemas de los pronósticos se agravan cuando existen muchos partidos. Es más fácil acertar los resultados de las elecciones norteamericanas que las españolas o las italianas. Y más difícil cuando hay muy poca diferencia entre los dos partidos principales, como ocurrió en España en 1996 y en algunas elecciones más recientes, como la de 2023. Y es más difícil acertar el reparto de escaños cuando hay cincuenta y dos distritos electorales y reparto de escaños proporcional a los votos, que cuando solo hay un distrito electoral y bipartidismo.

Precisamente, después de las elecciones de 1996, escribí un artículo (Díez Nicolás, 1996) en el que, con los resultados reales de aquellas elecciones, pude demostrar mediante dos hipótesis que con cambios insignificantes en los votantes, inferiores en las dos hipótesis al 0,6 % del censo electoral entonces, implicando como mucho a la mitad de los cincuenta y dos distritos, con variaciones de voto en cada uno de ellos inferiores al 2,5 % de su censo electoral respectivo (por tanto inferiores al teórico «error muestral», podrían haber provocado cambios tan drásticos como para haber otorgado casi mayoría absoluta en el Congreso de los Diputados al PP, en la primera hipótesis, y una mayoría relativa pero cómoda al PSOE en la segunda hipótesis. En otras palabras, el simple error muestral del 2,5 % que se suele admitir (ya he dicho que en las mejores circunstancias de mil encuestas en cada distrito electoral y con pregunta de solo dos alternativas) es muy superior a la variación que se produciría en las dos hipótesis señaladas. Este resultado demuestra lo difícil que es pronosticar el número de escaños. Pero insisto en que en la mayoría de los países, y también en España, se puede acertar con bastante precisión el porcentaje nacional de cada partido, no el de cada distrito electoral, con muestras inferiores pequeñas. En la mayoría de los países europeos, con sistema electoral por lo general de distrito unipersonal y mayoritario, los pronósticos no suelen incluir el reparto de escaños, en particular, porque al ser distritos unipersonales tendría un coste inasumible hacer una encuesta en cada uno de centenares de distritos, por lo que los pronósticos son sobre el porcentaje de votos de cada partido en el conjunto nacional, algo muy factible con muestras relativamente pequeñas, de alrededor de mil o mil doscientas entrevistas. Traducir el porcentaje nacional de votos a escaños es arriesgado, sobre todo por lo explicado, por la no exigencia de un porcentaje mínimo de voto sobre el censo electoral nacional para tener presencia en el parlamento nacional, por la desigualdad entre distritos al asignar un número fijo mínimo de escaños a cada distrito electoral, por la presentación de listas de candidatos cerradas y por el reparto de escaños proporcional y no mayoritario. Todos estos factores hacen que los pronósticos electorales en España sean más difíciles, y ello no es en absoluto consecuencia de la ley d’Hont.

Bibliografía

Blumer, Herbert (1930). «Science without Concepts». American Journal of Sociology, 36.

Bohr, Neils (1934). Atomic Theory and the Description of Nature. Cambridge: Cambridge University Press.

Díez Nicolás, Juan (1969). Sociología. Entre el Funcionalismo y la Dialéctica. Madrid: Guadiana de Publicaciones.

Díez Nicolás, Juan (1976). Los Españoles y la Opinión Pública. Madrid: Editora Nacional.

Díez Nicolás, Juan (1977). Ecología electoral. En: Centro de Investigación y Técnicas Políticas: Ley Electoral y Consecuencias Políticas. Madrid: CITEP.

Díez Nicolás, Juan (1982). Ecología humana y ecosistema social. En: CEOTMA: Sociología y Medio Ambiente. Madrid: Ministerio de Obras Públicas y Urbanismo.

Díez Nicolás, Juan (1996). «Predicción de escaños electorales mediante encuestas». Revista Española de Investigaciones Sociológicas, 74: 269-289.

Díez Nicolás, Juan (2004). Entrevista con Juan Díez Nicolás. En: C. Torres (ed.). IOP/CIS 1963-2003. Madrid: Centro de Investigaciones Sociológicas.

Díez Nicolás, Juan (2009). Some Theoretical and Methodological Applications of Centre-periphery Theory and the Social Position Index. En: K. van der Veer; A. Hartmann y H. van den Berg (eds.) y J. Díez-Nicolás; J. Galtung y H. Wiberg. Multidimensional Social Science. Amsterdam: Rozenberg.

Díez Nicolás, Juan (2011). «¿Regreso a los valores materialistas? El dilema entre seguridad y libertad en los países desarrollados». Revista Española de Sociología, 15.

Díez Nicolás, Juan (2013). «Teoría sociológica y realidad social». Revista Española de Investigaciones Sociológicas, 143: 7-24.

Díez Nicolás, Juan (2019). La Opinión pública de los españoles y la transición política. En: M. Martínez Cuadrado (dir.). Reforma Constitucional en Europa y en España. Madrid: Ed. Pons.

Festinger, Leon (1962). «Cognitive Dissonance». Scientific American, 207-204: 93-107.

Galtung, Johan (1964). «Foreign Policy Opinion as a Function of Social Position». Journal of Peace Research, 34.

Hawley, Amos (1966). La Estructura de los Sistemas Sociales. Madrid: Tecnos.

Inglehart, Ronald (1977). The Silent Revolution. Princeton: Princeton University Press.

Lazarsfeld, Paul F. (1959). Latent Structure Analysis. En: S. Koch (ed.). Psychology: A Study of a Science. New York: Mc Graw Hill.

Linz, Juan J. (1964). An Authoritarian Regime: The Case of Spain. En: E. Allard e Y. Littunen (eds.). Cleavages, Ideologies and Party Systems. Helsinki: Westermark Society.

Lippman, Walter (1922). Public Opinion. New York: Harcourt, Brace and World, Inc.

Lundberg, George A. (1942). «Operational Definitions in the Social Sciences». American Journal of Sociology, 47.

Merritt, Richard y Stein, Rokkan (1966). Comparing Nations. New Haven: Yale University Press.

Merton, Robert King (1957). «The Bearing of Sociological Theory on Empirical Research». Social Theory and Social Structure, 13(5): 505-515. Glencoe: The Free Press.

Mill, John Stuart (1843). A System of Logic. London: John W. Parker.

Nagel, Ernest (1961). The Structure of Science. New York: Harcourt, Brace and World, Inc.

Ornauer, Helmut; Wiberg, Hàkan; Sicinsky, Andrzej y Galtung, Johan (eds.) (1976). Images of the World in the Year 2000. Berlin: De Gruyter.

Russet, Bruce M.; Alker, Hayward R.; Deutsch, Karl W. y Lasswell, Harold D. (1968). Análisis Comparado de Indicadores Sociales y Políticos. Madrid: Euramérica.

Weber, Max (1944). Economía y Sociedad. México: Fondo de Cultura Económica.


1 Una primera versión de este texto fue presentada en los cursos de verano de la UCM en El Escorial, en el titulado El Estudio de la Opinión Pública en las Sociedades Democráticas, 1 de julio de 2024.

2 Exceptuando a José Luis Martín Martínez, que había trabajado en el IFOP con Mme. Riffault, y a mí mismo, que había tenido experiencia como investigador en el Detroit Area Study (DAS) y el Institute for Social Research (ISR) de The University of Michigan, Ann Arbor.