Estadística, la Ciencia detrás de las elecciones
UNL/DICYT Al cerrarse las urnas comienza una intriga difícil de sobrellevar para los candidatos y el pueblo ¿quién ganó? Mientras que la televisión compite por develar los resultados y las empresas que realizan encuestas viven sus cinco minutos de fama, hay una ciencia que ayuda a bajar los nervios con datos de la realidad: la estadística.
Ricardo Fraiman (Universidad de la República – Uruguay) y Liliana Forzani (FIQ-IMAL UNL-CONICET), doctores en matemática y precursores en la provincia de la investigación estadística, trabajan juntos en un proyecto financiado por el Mercosur. Aprovechando la visita del investigador uruguayo y con un año electoral por delante, analizaron los beneficios y los problemas que plantean los métodos para predecir los resultados electorales.
“Las encuestas a boca de urna, en general le erran, no sólo porque la gente miente sino porque no responde”, explica Fraiman. “Con las mesas testigo, el resultado no se obtiene de una respuesta sino que se proyecta en base a resultados de mesas que uno eligió. En ese caso, el tema es elegir bien las mesas”, indicó.
Sondeos de opinión, cuotas y sesgos
Estados Unidos fue uno de los primeros países en realizar y perfeccionar los sondeos de opinión. Ya en 1916 la revista Literary Digest, era famosa por la notable puntería de sus encuestas pre-electorales. Hasta 1936.
“Ese año se transformó la técnica de muestreo no sólo porque no ganó el candidato que predecían sino que lo hizo el otro por un margen muy grande”, cuenta Forzani. Tal como lo venía haciendo, el Digest mandó por correo su cuestionario a 10 millones de personas, de las cuales 2'4 respondieron dando como ganador a Landon sobre Franklin D Roosevelt que buscaba su reelección. Las urnas mostraron en cambio una victoria de Roosevelt con el 62 por ciento de los votos.
Forzani explicó que en ese momento los encuestadores tuvieron dos problemas. “Primero fue lo que se llama sesgo de selección, es decir que fallaron en decidir a quién le mandaban el cuestionario, porque era gente con teléfono y el candidato que ganó era un demócrata, al que lo votaba más la gente sin teléfono. El segundo es una distorsión llamada sesgo de la no respuesta, porque solo 2'4 de los 10 millones respondieron. Entonces estuvo el problema de quién respondía, porque solo lo hacía el que estaba muy de acuerdo o muy en desacuerdo. De esa elección se aprendió mucho y empezó a cambiar la estadística de muestreo”.
Diez años más tarde, en las elecciones presidenciales de 1948, las encuestas volvieron a fallar rotundamente y eso produjo otra modificación, esta vez en la toma de la muestra. “En esa época se usaba el muestreo por cuotas, donde se selecciona a la muestra con la intención de que se parezca a la población.
Por ejemplo, si las mujeres son el 54 por ciento de la población que vota entonces hay que tener un 54% de mujeres encuestadas. Lo mismo con la edad y otras variables, se ponen cuotas sin nada de azar”, indica Fraiman. “El problema es que es imposible poner cuotas de todo”.
Después de esas elecciones comenzaron a utilizarse las muestras aleatorias. El cambio se relacionó con la aparición de las leyes de los grandes números, que explican mediante teoremas cómo el azar se ocupa de acomodar las muestras para que estén cerca de la media de una población. “Parece raro eso del azar pero funciona mejor”, dice Fraiman. “Por ejemplo, si uno tira 10 mil veces una moneda equilibrada al aire, ¿cuántas veces va a salir cara? Un valor muy cercano al 50 por ciento. Eso es lo mismo con todas las variables”.
Las mesas testigo, beneficios y riesgos
Las encuestas previas sirven para predecir pero muchas veces difieren de lo que realmente pasa en el cuarto oscuro. Por eso hay dos sondeos que se realizan el mismo día de la elección: las encuestas a boca de urna y las mesas testigo.
“Las encuestas de boca de urna, en general le erran, no solo porque la gente miente sino porque no responde”, dice Fraiman. “Si el 40% de los encuestados no contestó hay un sesgo de la no respuesta”. El investigador explica que algunas personas realizan las proyecciones de la no respuesta con resultados de la elección anterior. “Eso es un disparate porque el que no responde cambia en todas las elecciones”.
En el caso de las mesas testigo, la ventaja es que no dependen de las respuestas de los votantes sino que las proyecciones se realizan en base a resultados de mesas previamente elegidas. “Los votos de partido en esa mesa son fidedignos, no tienen error”.
Fraiman indicó que para armar el sistema de las mesas no hacen falta cálculos complicados, sino que lo más importante es dividir la ciudad en zonas que se puedan medir y proyectar. “Hay que buscar zonas homogéneas y ahí la experiencia de buenos politólogos y buenos sociólogos, más la de elecciones anteriores, es fundamental”.
En cada una de esas zonas se eligen mesas que se toman para generar la tendencia mediante un cálculo que saca el promedio ponderado con factores de expansión de cada candidato. “Si elegiste 100 mesas, como en cada uno votaron 300 personas, tenes una muestra de 30.000 personas”.
Para acelerar los tiempos y ajustar la tendencia Fraiman propone elegir tres mesas por zona en lugar de una. “La que manda primero el reporte se toma para hacer la tendencia y después, cuando llega el segundo, se compara con el primero y se van ajustando las proyecciones”.
Ambos investigadores coinciden en que los errores en las tendencias no se deben a una falla en los cálculos estadísticos sino porque están mal elegidas las mesas. “Eso los estadísticos no lo sabemos, es un know-how de gente que tiene otra experiencia”, indica Fraiman. El resto del proceso es muy simple y efectivo. “Es casi gratis para los partidos, es insólito que no lo hagan”, concluye.