Repensar

Electores atrapados por el algoritmo

Los algoritmos encuentran relaciones y patrones en los datos, los comparan con las tendencias históricas, hacen predicciones y generan nuevos contenidos.

En los cincuenta, quienes dirigían campañas electorales en Estados Unidos tenían poca información sobre las inquietudes y expectativas de los electores. En la mayoría de los estados podían comprar el padrón electoral y así saber si un ciudadano estaba registrado en algún partido o era independiente, además de enterarse si había votado en las elecciones anteriores.

Como necesitaban conocer más, empezaron a hacer series de encuestas de opinión pública. Utilizaban muestras pequeñas y cuestionarios muy largos. Presentaban los resultados en dos formatos: un resumen ejecutivo (toplines) con los principales hallazgos y varios volúmenes (banner books) con centenas de tablas de variables cruzadas.

Con el tiempo, fueron depurando su metodología para obtener indicios más claros sobre lo que determina el voto. Por eso las encuestas se convirtieron en la columna vertebral de las campañas.

Lo común era que se hiciera la primera encuesta (benchmark) antes de anunciar una candidatura. Se investigaban las fortalezas y debilidades del aspirante y servía para considerar su viabilidad y decidir si entraba o no a la contienda. Era también el argumento con el que se solicitaban donaciones iniciales.

Se efectuaban después algunos sondeos (brushfire) para probar el efecto de los mensajes, eslóganes y anuncios para diferentes segmentos poblacionales. Se ensayaban también los que posiblemente difundirían los contrincantes.

Se realizaba un levantamiento diario (tracking) para tener un promedio móvil, evaluar el impacto de la campaña y estar seguros de que se estaba avanzando. Cuando había duda se aumentaba el tamaño de la muestra para reducir el margen de error. Era común tener también una encuesta mensual con la misma muestra (panel) para hacer preguntas más complicadas.

En la elección de 1992, Stan Greenberg orientó con sus encuestas la exitosa campaña de Bill Clinton. Ocho años después fracasó estrepitosamente con la candidatura de Al Gore.

El poder de los datos

Ya en este siglo, se incrementó enormemente la capacidad de las computadoras (big data) y se extendió el uso del Internet, lo que dio a los estrategas nuevas herramientas para conocer y aproximarse a los electores.

Se siguen haciendo encuestas, pero ya no conservan el papel protagónico que tuvieron. Ahora las preguntas son diferentes, según el hogar seleccionado; las respuestas se transmiten en tiempo real por medio de tabletas; el procesamiento es instantáneo.

En sus dos campañas, Barack Obama recibió detallados análisis que le recomendaban hacer una alianza amplia para poder ganar. Los atendió, empleando con gran acierto Facebook, YouTube y MySpace.

En cambio, Hillary Clinton recibió reiterados avisos de que su mensaje no estaba siendo aceptado por los electores en el Medio Oeste y, por más que le aconsejaron, hizo un uso tímido de las redes sociales (frente a Trump que estaba todo el día en Twitter). Encerrada en su war room en Brooklyn quiso repetir la campaña de su esposo un cuarto de siglo antes. En su libro de memorias sobre esa etapa (¿Qué pasó?) no reconoce sus errores y culpa de su fracaso a factores exógenos.

Hoy las campañas se basan en la acumulación masiva y continua de datos sobre los electores. Compañías especializadas en recabar información sobre cada persona (data brokers como Grassroots Analytics, i360 y TargetSmart) proporcionan rasgos de personalidad tan detallados como el tipo de ropa que usan o las revistas a las que están suscritos. Todo ello bajo el concepto 360°, es decir, ver a los individuos desde todos los ángulos.

Todo el tráfico de las redes sociales es examinado y medido. Cada usuario es clasificado en diferentes categorías. Por ejemplo, “personas de clase media y con educación universitaria que viven en ciudades pequeñas y que quieren que continúe el apoyo militar a Ucrania”. La categoría “mujeres que viven en suburbios” tiene cerca de ochenta subdivisiones.

Eso permite personalizar la propaganda. Si un profesor le pregunta a Google como amaneció el precio de la gasolina, antes de una hora le llegará a su celular un anuncio encubierto en la forma de una guía para enseñar a los alumnos el concepto de inflación, obviamente señalando como responsable al actual presidente.

Tú y tu vecino pueden estar viendo la misma serie en streaming, sólo que cada uno recibirá un anuncio diferente, adecuado a sus preocupaciones.

No sólo eso. Los algoritmos encuentran relaciones y patrones en los datos, los comparan con las tendencias históricas, hacen predicciones y generan nuevos contenidos.

Lo malo es que tanta ciencia para triunfar no se usa luego para gobernar.

COLUMNAS ANTERIORES

¿Por qué perdieron los demócratas?
Torcido

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.