Inteligencia y Seguridad Frente Externo En Profundidad Economia y Finanzas Transparencia
  En Parrilla Medio Ambiente Sociedad High Tech Contacto
En Profundidad  
 
05/10/2005 | Cómo se reportea una encuesta

Eduardo Arrigada C.

No son las empresas de estudios de opinión serias las que fracasan, porque sus predicciones suelen estar muy cerca de los resultados finales; tampoco aquellas que dejan que se manejen sus cifras: hacen su negocio. Ni siquiera fracasan los clientes que financian esos estudios... La experiencia demuestra que en el tema de las encuestas políticas los que fracasan una y otra vez son los periodistas.

 

Es comprensible que George Bush dijera a los cuatro vientos que las encuestas se equivocarían. Después de todo, como candidato debía animar a sus seguidores. Los estudios de opinión son devastadores para un político en campaña: el caso más extremo fue el de Carter en su derrota con Reagan. Por la diferencia horaria entre las costas de Estados Unidos, en esa oportunidad una encuesta rápida de la CBS adelantó el triunfo cuando faltaban todavía varias horas para que cerraran las mesas en el oeste norteamericano. Pero el colmo fue que por esa información el mismo Carter reconoció su derrota horas antes de que cerraran las mesas de votación...

 

Pero por más que les moleste a muchos candidatos, hoy las encuestas, en la gran mayoría de los casos, incluso en Chile, predicen los resultados de las elecciones.

—¿No perdió la fe en las encuestas de opinión después del resultado del plebiscito? —le preguntó una periodista al entonces Ministro Pablo Barahona.

—No. Fueron todas coincidentes —aseguró.

 

Al hablar de coincidencias, Barahona se refería al trabajo de algunas empresas, aquellas que permitieron que los chilenos y extranjeros correctamente informados pudieran predecir el resultado de esa elección. El Ministro no consideró como encuestas aquellas que el gobierno militar había financiado y se había encargado de difundir.

 

La declaración es un desmentido más de la tesis de que entonces las encuestas habían fracasado. Después del plebiscito de 1988, en los medios se dijo que las encuestas en Chile «tienen escaso y nulo valor predictivo». Fue parte de una actitud general de la prensa que, después del fracaso de sus predicciones, culpó a las empresas que realizaban encuestas para esconder desde actitudes editoriales tendenciosas hasta inaptitudes profesionales. Esto se repitió durante la elección de Aylwin.

 

En la que fue la última entrevista que dio el padre de los estudios de opinión pública en Chile, Eduardo Hamuy, éste acusó a la prensa del período anterior al plebiscito: «Los medios de comunicación actuaron como las instituciones que hicieron encuestas de mala fe. Cada uno destacaba la encuesta que le convenía a la propia opción». Los distintos diarios confundieron a los lectores entregando encuestas sin valor, incluso con más relevancia que las realizadas profesionalmente.

 

El que quiera saber, que crea

Roberto Méndez, encargado de la encuesta de CEP-Adimark, recordó que en junio el 89 su encuesta dio como resultado un virtual empate entre las opciones del plebiscito. El Mercurio se demoró algunos días en publicarlo, a una columna, al interior del cuerpo C, aunque el día anterior había dedicado tres páginas para publicar una encuesta que le daba al Sí un 60%.

 

En su libro El conocimiento inútil, Jean François Revel dice que la gente no valoriza la información correcta sino que amolda la realidad a sus prejuicios porque no tiene interés en saber sino en creer. Las encuestas jamás tendrán valor para quienes no quieren creer. En el análisis del triunfo del »No» que realizó en su momento Roberto Méndez no se calló nada: «El día mismo del plebiscito, El Mercurio en su portada presentaba un titular que yo creo va a pasar a la historia: 55% para el Sí y 46,1 % para el No». Las cifras suman más de ciento por ciento.»

 

Unos días antes, La Época resaltó una encuesta que decía que el Sí no alcanzaría el 20%, cuando la tendencia hablaba de que el oficialismo tenía por lo menos el 39% de la población.

 

«La prensa debió informar la fuente que le entregaba cada resultado», dijo enfáticamente Méndez. «Cualquier periodista tiene la capacidad para evaluar los objetivos que tiene cada fuente al entregar un dato. Ellos debían advertir si un estudio venía de alguno de los bandos para que el lector los considerara con cautela».

 

Arma electoral de los políticos

Otro chivo expiatorio utilizado por los medios son los políticos. Se culpa a ministros que cambian cifras y apolíticos que insisten en contratar estudios sin credibilidad alguna. Se llegó a publicar que el problema había sido un vicio producido por la radicalización vivida y que las menores diferencias ideológicas que quedan en la política chilena lo estaría dando por superado.

 

¿Pero qué pasó en la elección Frei-Irureta en el interior de la Democracia Cristiana? Se trataba de una elección donde prácticamente no había diferencia ideológica alguna y una de las candidaturas informó que una encuesta «seria» aseguraba que Irureta iba a sacar un 60% pocos días antes que le dieran una paliza electoral. ¿Quién respondió por eso?

 

El hecho es que ningún error estadístico pudo permitir que en un universo de votantes con la mayoría que tenía Frei se pudiera haber hecho una encuesta que le diera un 60% a Irureta. Los periodistas no sólo publicaron la encuesta de Irureta sin más, sino que tampoco se ha realizado una investigación posterior que aclare el fraude e individualice a sus responsables.

 

Y es que entre los periodistas sigue latente una tolerancia hacia los fraudes mediante encuestas, una actitud que denota que todavía no se cree en la capacidad de predicción de las encuestas. Eso explica que un periodista no tenga problemas en dar a conocer estudios contradictorios como si fueran simples opiniones de los aspirantes al puesto público.

 

 

Para evitar el engaño

Al cubrir encuestas políticas las presiones vienen de todos los frentes. Una forma para que el profesional defienda su independencia es acompañar siempre las cifras o predicciones con la información resultante de las preguntas del recuadro siempre que se da a conocer una encuesta. Si alguien está entregando una encuesta, debería poder responder gran parte de estas preguntas; el resto se puede investigar.

 

Pongámonos en el caso de que su editor lo mandó a cubrir a entrega de una encuesta. Seguro que se trata de una conferencia de prensa. Lo primero que hay que investigar es si ésta merece ser llamada encuesta. Ésa es la primera gran ayuda para los lectores: ser más avaro a la hora de usar la palabra «encuesta».

 

Seguramente alguna vez le tocó que lo mandaran a la calle a hacer una «encuesta». Así conoció lo que pensaban las personas que caminan por esa calle, que tienen tiempo y ganas para «dar su parecer». La mayor parte de los trabajos que se difunden en tiempos de elecciones no tienen más valor predictivo que el de esa «encuesta».

 

Probabilísticas y de cuotas

Por eso, las primeras preguntas deben ir a ver el carácter científico del trabajo. Algo así como:

 

—Sr. X. para llegar a estas conclusiones su empresa realizó un trabajo de tipo probabilístico...

 

A veces basta mirar la cara de desconcierto del conferenciante. .. Si se trata de un trabajo que no es probabilístico ni de cuotas sólo ha podido desenmascarar un caso muy burdo de encuesta... porque la mayor parte de los engaños en esta materia son bastante más sofisticados.

 

Si nuestro señor X responde que su muestra sí es probabilística o de cuota, por lo menos se sabe que puede ser algo serio. Las dos alternativas, con defensores y detractores, han tenido excelentes resultados en Chile. La diferencia es técnica y, aunque el probabilístico conceptualmente es superior, muchos optan por la alternativa de cuotas por razones de costo. Entre las empresas que han tenido aciertos en el campo político, la única que usa el sistema probabilístico es CEP-Adimark. El director de esa encuesta, Roberto Méndez, justifica la metodología aduciendo la importancia que tiene la precisión en una elección de Presidente, aunque reconoce que sus trabajos han tenido resultados coincidentes con los realizados por el método de cuotas por empresas como Gémines y CERC.

 

Aunque la experiencia chilena muestra que la eficiencia de ambas alternativas depende de la empresa que la use, vale la pena preguntarlo. Por lo menos es un dato que define la calidad de la encuesta y sirve para diferenciar de otros trabajos menos científicos.

 

Pero aquí sí que es clave el quién es quién. Las encuestas han tenido una vida de la mano del periodismo porque, como dijo J. Johnson, el Vice-Presidente de la United Press International (UPI): «No hay duda de que las predicciones por empresas serias tienen popular appeal; mucha gente tiene más interés en leer lo que alguien piensa que va a pasar que el dato concreto de lo que ya ha pasado».

 

Frente al resultado de una encuesta el periodista tiene el riesgo de ver como noticia la originalidad de las cifras, pero al hacerlo se está olvidando de que lo relevante no está en los números; lo que los lectores buscan no son cifras, sino lo que va a ocurrir.

 

Por lo mismo, el periodista debe manejar la relevancia periodística de un determinado resultado dependiendo de la credibilidad que tenga la empresa que realizó dicho estudio. Seguro que ocurrirá que quien da la conferencia esquivará el bulto de contar sus pasadas experiencias; el reportero no tendrá más remedio que recurrir al tan poco visitado archivo. De repente aparecerán notas de otras conferencias donde el mismo que le acaba de presentar sus números, defendió otras cifras. La ventaja para el periodista es que entre ambas conferencias hubo una elección. Otra pregunta que viene de la mano de la trayectoria de los autores de la investigación es quién es el cliente o cómo se financió el trabajo.

 

Eduardo Hamuy se desesperaba al denunciar: «No entiendo cómo algunas empresas siguen teniendo clientes para mediciones de opinión pública. Lo entendería si trabajaran en estudios como los rankings de TV, que no se pueden contrastar con la realidad, pero en los trabajos políticos los clientes tienen un control de calidad excelente: la misma elección».

 

Hamuy no se cansaba de repetir que en los trabajos políticos la ciudadanía tiene una ventaja para distinguir entre empresas que están dando resultados contradictorios: llega el día de la elección y ahí quedan desnudos unos y muy bien vestidos otros.

 

A pesar de esto, son pocos los artículos periodísticos que recuerdan las experiencias previas respecto de las encuestas políticas, siendo que muchos de quienes hacen encuestas ya tienen extensos curricula de aciertos y fracasos.

 

Como simple motivación a una necesaria visita al archivo vale la pena recordar datos. En 1970 Gallup-Chile, el Centro de Estudios Socioeconómicos (CESOC) y el Centro de Opinión Pública (CEDOP) fueron los principales institutos que midieron las intenciones de voto de los chilenos. Entonces el CESOC le dio a Alessandri diez puntos de ventaja sobre Allende. Después de la elección, el Colegio de Periodistas le suspendió los derechos gremiales por uso de información falsa a dos periodistas ligados al centro. Los que montaron para el plebiscito una de las encuestas con mayor desacierto eran miembros del CESOC.

 

Hoy ya se puede afirmar que la encuesta que en julio del 89 decía que el «Sí» tenía el 59,77% frente a un 40,23% del «No» fue o una mentira de quienes difundieron el resultado o una muestra clara de incapacidad profesional de los autores. En un momento se pudo decir que la opinión pública cambió desde esa fecha a la elección, pero el éxito de otros estudios realizados en la misma fecha y que se repitieron días antes del acto electoral demostraron que no hubo tal cambio de opinión en los votantes.

 

En el 70, la Gallup chilena predijo un amplio triunfo para sus empleadores, el comando alessandrista. Para Hamuy, que dirigía entonces el CEDOP y fue el único que adelantó el triunfo de Allende, el resultado del plebiscito permitió que Gallup-Chile, «fiel a su tradición histórica desde la década del 60, volviera a equivocarse». Hamuy aseguró entonces «aquí hay problemas morales graves, no tiene sentido pagarle a una empresa que va a decir lo que el cliente quiere que le diga».

 

Pero el hombre es el único animal que se tropieza dos veces con la misma piedra. Para la elección presidencial del año siguiente volvieron a aparecer viejos conocidos y la Gallup criolla incrementó aun más su récord. El «grupo de académicos de la Universidad de Chile» se convirtió en «Investmerc». Volvió a aparecer Fernando Paredes con la «encuesta» de Investigaciones de Chile.

 

Si para el plebiscito, gracias a los 15 años que habían pasado desde última elección, se justificaba que empresas que ya habían adquirido fama de decir lo que le convenía al cliente hubieran vuelto a tener clientes, otra cosa debió haber sido al año siguiente, en las presidenciales. Pero el hombre es el único animal...

 

El problema no está en los clientes que contratan dichas empresas «dóciles» con el manejo de sus resultados. Algunos las contratan para confundir a la opinión pública e impedir que la sensación de derrota desanime a sus lectores. Los únicos que son engañados una y otra vez somos los periodistas y, por lo tanto, el público.

 

No todo es objetivo

Si es importante la credibilidad profesional del investigador que lleva a cabo la encuesta, más aún lo es en su labor de predecir a partir de dicho trabajo. Un típico error periodístico es considerar todo estudio como una predicción, o no aclarar que con ciertas cifras se ha realizado un trabajo de interpretación.

 

La forma más clara de reconocer una encuesta propiamente tal es por el grado de indecisos que dan los números. Simplificándolo, se puede decir que la interpretación es un poco más que predecir qué va a pasar con ellos el día de la votación. Un poco más, porque se aprovecha de adelantar lo que va a pasar con otros sectores de la población que el investigador sabe que su encuesta no los ha podido medir.

 

Lo que normalmente se da a conocer en una conferencia de prensa es el resultado de una encuesta, pero como 1a noticia es «adelantar lo que va a ocurrir» es mucho más relevante, periodísticamente hablando, lograr que el investigador entregue una predicción basada en esa encuesta. La predicción es una interpretación subjetiva que se realiza a partir de los datos de la encuesta y otros antecedentes, muchos de ellos muy subjetivos. En ella se trabajan los indecisos y otros futuros electores que por diferentes razones son difíciles de representar en las encuestas: militares, personas en situación de extrema marginalidad, etc.

 

Méndez define a la predicción como la parte más artística del trabajo de encuestas y exige que se la respete. «Así como dos médicos frente a un paciente, dos investigadores pueden realizar predicciones muy distintas, estas dependen de los factores que el autor de la misma decida considerar».

 

Pero a pesar de su carácter subjetivo, es básico intentar que el investigador que realizó una encuesta y conoce sus debilidades, haga una predicción. Méndez valoriza su importancia porque permite manejar errores muéstrales. «Para empezar», ejemplifica, «hay un sector de personas que no manifiestan su intención de voto y que luego van a votar; también están los miembros de las Fuerzas Armadas...»

 

El tema no es intrascendente. El mismo día del plebiscito del 88, La Época se equivocó por más de 20 puntos para la alternativa «Sí», porque un periodista no preguntó. Entonces parecía justificado confiar en el resultado de la encuesta del CERC, junto con CEP-Adimark y Gemines. Se trata de los trabajos con más éxito del mercado.

 

La directora del trabajo del CERC para el plebiscito, Marta Lagos, dijo que el error de 20 puntos, en parte se debió a que al realizar dos trabajos muy pegados hicieron que los encuestado-res presionaran a los entrevistados, lo que se reflejó en mayores índices de voto no manifiesto. Entonces Marta Lagos reconoció que el equipo del CERC, al ver los números se dio cuenta de que «el voto del Sí de esa encuesta había sido afectado negativamente por esa situación». Aunque entonces el CERC se limitó a dar a conocer las cifras de la encuesta, ningún periodista pidió que interpretaran el futuro de sus indecisos y publicaron la cifra como si fuera capaz de predecir lo que ocurriría ese día.

 

Esa encuesta del CERC había sido afectada por el espiral del silencio. Antes del plebiscito, quien entonces era arzobispo de Concepción, José Manuel Santos, dijo: «Si opina que va a votar que Sí, no tiene nada que temer; si dice que votará negativamente, tiene algo que temer. Entonces, es lógico que mucha gente se abstenga de contestar». Pero el factor miedo fue más complejo de lo que pensaba el arzobispo Santos. Roberto Méndez dijo que el mes de propaganda política permitió que la mayoría de quienes apoyaban la opción «No» se atrevieran a manifestarlo en las encuestas que se hicieron en los días previos al plebiscito. Pero que, por otro lado, el desarrollo de la campaña produjo temor entre los partidarios del Sí, quienes creyendo que el «No» ganaría, comenzaron a no contestar.

 

Para Marta Lagos, la cifra de un 20% para el Sí fue afectada por el espiral del silencio: «Cuando en el clima de opinión una opción se siente próxima a ser derrotada, sus adherentes tienden a no reconocer esa adhesión a los encuestadores y se produce un voto no manifiesto, producto del fenómeno conocido como espiral del silencio». Éste es otra razón que justifica la importancia de realizar predicciones. El autor de la encuesta es quien más sabe cuáles son sus limitaciones.

 

El tamaño de la muestra

En relación al número de encuestados hay muchos mitos, algunos creados también a través de la prensa nacional. Muchas veces se trata de confundir a la opinión pública sobrevalorando la importancia de realizar muestras gigantes.

 

Antes del plebiscito El Mercurio publicó un artículo sin firma en el cuerpo de Reportajes en el que se presentaba un sondeo de la empresa Skopus. El artículo era ilustrado por una serie de fotografías en cuya lectura de foto se afirmaba que muestras de 700 a 1.500 personas no eran más que aproximaciones y que recién con muestras de veinte mil casos se podía hacer trabajo que reflejaran la realidad.

 

Entonces Eduardo Hamuy descalificó el tamaño de estas muestras: «Lo hacen para impresionar a clientes que no entienden y cobrarles más». En realidad, tanto para Santiago, Chile y China Popular una muestra de 500 casos correctamente realizada puede ser suficiente. En Estados Unidos, con más de 220 millones de habitantes, la típica muestra es de 1.500 casos. Lo que variará con el número de entrevistados es el rango o el margen de error —lo que se presenta como un ±3%, por ejemplo— y la capacidad de la encuesta para realizar predicciones con sus subgrupos.

 

Al elegir un tamaño de muestra se está optando por un margen de error, es decir que la cifra que se está entregando está acompañada de un reconocimiento de cierta limitación por parte de la empresa. Por ejemplo, tomando el trabajo del CERC para la elección presidencial, si adelantó que el resultado de Büchi sería de 25%, con un margen de error de ±2,7 puntos, se estaba prediciendo que los votos de Büchi serían entre un 22,6% y un 27,4% de la votación total.

 

Desde un punto de vista periodístico los márgenes de error que manejaron las encuestas, tanto en el plesbiscito como en la presidencial, eran asumibles por lo significativas que eran las diferencias que mostraban los trabajos serios. En el sentido de poder adelantar resultados, a pesar de lo que se publicó en los diarios en la primera ocasión, las personas bien informadas tenían claro que ganaría el «No» y en la presidencial no había dudas de que la segunda vuelta nunca estuvo cerca de realizarse.

 

Pero cifras como 500 encuestados a nivel nacional con un determinado margen de error no permiten realizar predicciones con seguridad para subgrupos del país. Si uno quiere trabajar con partes, como podría ser Concepción o, más aún, una elección municipal, se requeriría de muestras similares sólo de la parte sobre la que se quiere precisar. Esto es lo que explica muestras mayores a nivel nacional que permiten tener predicciones independientes de ciudades como Santiago, Concepción, etc. Pero, normalmente, para evitar muestras muy grandes en estos subgrupos, se manejan márgenes de errores más amplios. Es importante matizar las predicciones del encuestador cuando investiga dichos subgrupos.

 

Esto fue sólo uno de los elementos que evitaba que las encuestas tradicionales —que se hacen a nivel nacional o de Santiago—pudieran haber sido eficaces para predecir resultados comunales. Además está el elemento de preguntar por partidos, cuando la mayor parte de la gente en las elecciones comunales no vota necesariamente por su partido político más afín.

 

Ojo con el control

Los lectores también necesitan que el periodista pregunte acerca de la calidad del control que ha tenido la encuesta que te entregan. Vale la pena saber si hay una supervisión externa independiente e incluso intentar conseguir el cuestionario que se usó para ver si en las preguntas no existió algún tipo de desviación.

 

Hoy cualquier experto en el tema sabe que un pequeño cambio en el «cómo» se realiza una pregunta tiene enormes efectos en el «cómo» ésta es respondida. Incluso el cambio del orden de las preguntas varía las investigaciones de opinión.

 

Un caso exagerado es el de colocar en una encuesta una lista cerrada de candidatos a optar y otra pregunta abierta por el candidato ideal. Por supuesto, variará el resultado si primero va la lista cerrada: la mayor parte de las personas centrarán sus opiniones entre las personas que la encuesta ha destacado antes.

 

Roberto Méndez destacó la importancia de controlar todos estos aspectos. «Las personas tienden a contestar en la forma que quiere el entrevistador; es un factor común llamado "temor al conflicto", que se agudiza en las mujeres y en las personas de bajo nivel educacional. Ellos cambian su posición frente a personas que piensan distinto».

 

Méndez cree que muchos de los errores de otras empresas estuvieron en descuidar este punto. Para el grupo CEP-Adimark la redacción de las encuestas fue algo básico: «En el plebiscito cuidamos especialmente cómo llamar al candidato. Vimos que decir "Presidente Pinochet" era percibido como oficialista y "General Pinochet" como opositor. Finalmente lo llamamos "Augusto Pinochet Ugarte" porque vimos que esa redacción era percibida como más neutral».

 

Otro control estuvo en la posición política de los encuestadores, que «por ropa, aspecto físico, lenguaje e incluso por las inflexiones en la voz al leer ciertos nombres, trasmiten posiciones políticas», asegura Méndez. Para controlar este factor, CEP-Adimark buscó personas neutrales y también aceptó gente de distintas posiciones políticas entre los encuestadores, para luego equilibrarlos. «Esto también afectó a otras instituciones que realizaron los trabajos, ya sea con funcionarios municipales, que son claramente identificables, o con personas que trabajan en movimientos políticos».

 

Hamuy recordaba ejemplos chilenos sobre el punto. Encuestas realizadas por entrevistadores evangélicos o mormones dan un alto porcentaje de pertenencia de la población a esos credos.

 

Por otra parte, hay muchas formas de que el encuestador engañe a la empresa para la cual está encuestando. A él le han dicho que tiene que encuestar al dueño de casa o a otro miembro de una familia que vive en un número determinado de una casa determinada. Aunque lo normal es que el encuestador cumpla, es fácil que con cualquier adulteración afecte la aleatoriedad de la encuesta. No sólo si responde él la encuesta entera; también afecta la aleatoriedad si la contesta una persona que trabaja en el servicio de dicha casa o que el encuestado comience a responder y luego deje de hacerlo y el encuestador termine el trabajo. Estudios de empresas de supervisión independientes han detectado fraudes que superan el 30% en trabajos serios realizados en el país.

 

Hamuy también denunciaba por este punto las cifras de diez mil a 25 mil encuestados usadas por las empresas financiadas por el gobierno militar: «Es imposible trabajar con esos números y al mismo tiempo hacer un buen sistema de control». El explicó que su confianza en el trabajo que realizaba el CERC, por la existencia de un equipo de control independiente que revisaba el trabajo de los encuestadores en un 50%. Entonces Méndez dijo que ellos reencuestaban al 20% de sus encuestados para revisar si la encuesta había sido hecha correcta y completamente, y en el lugar que el azar había indicado.

 

Cómo se construyó la muestra

Tampoco hay que olvidar preguntar por el tipo de muestra que se utilizó. Guillermo Varas, que trabaja para Gemines, alertó que la construcción de la muestra es una de las formas comunes que usan empresas encuestadoras para ahorrar dinero. Varas recordó que al margen de instituciones como CERC, CEP-Adimark y otras que reciben subsidios para financiar los trabajos, la mayor parte de las empresas se desenvuelven en el mercado con clientes que no valorizan la importancia de una encuesta.

 

«Muchos no pueden cobrar lo suficiente para hacer rentable un buen estudio; entonces, se ven obligados a bajar los costos y un elemento determinante en dichos costos es la construcción de la muestra. Se trata nada menos que del mecanismo de elección de quienes serán los encuestados, es decir, se está jugando la verdadera aleatoriedad de la encuesta. El problema es que eso se puede hacer en forma más económica, por ejemplo cuadriculando un mapa de Santiago y sorteando; ese sorteo ve amenazado su azar en factores como las distintas densidades de diversos sectores de la ciudad, etc.».

 

Con estas prevenciones, no se trata, entonces, de publicar lo que canta el gallo, sin saber dónde ha cantado éste o cómo se preparó para el concierto. Las encuestas se usan —y se seguirán usando, sobre todo mientras los periodistas lo permitamos— como armas. Por eso es tan enfático Roberto Méndez en este punto : «La distorsión de la verdad en cualquier forma no puede ser aceptada éticamente como arma en la lucha política, los resultados de encuestas incluidos. Hacerlo sería aceptar que mañana cualquier cifra, cualquier realidad podría ser manipulada con miras a un resultado electoral: las cifras de desempleo, de inflación, de crecimiento del producto y otras. El resultado sería que todos, gobernantes y gobernados, nos sumiríamos en un mar de desinformación, oscuridad y duda».

 

Las diez preguntas

Todo periodista que cubre la entrega de una encuesta para la opinión pública debería procurar obtener los siguientes datos:

1.- Tipo de encuesta.

2.- Responsable del estudio, empresa o investigador. Cliente o método de financiamiento del trabajo.

3.- Trabajos del tipo realizados previamente por la empresa encuestadora o sus investigadores.

4.- Aclaración de si se trata del resultado numérico de la encuesta o si se ha realizado una predicción sobre la base de

ella.

5.- Número de encuestados y margen de error.

6.- Universo que pretende cubrir geográficamente.

7.- Método de confección de la muestra.

8.- Fecha en que se hizo el estudio en terreno.

9.- Forma de control.

10.- Pedir el cuestionario y la información sobre la totalidad de las respuestas que se obtuvieron en el estudio.

Eduardo Arrigada es Periodista de la Universidad Católica, MBA del Instituto de Empresa de Madrid y profesor en la Escuela de Periodismo de la Universidad Católica.

Universidad Católica de Chile (Chile)

 


Otras Notas Relacionadas... ( Records 1 to 1 of 1 )
fecha titulo
05/10/2005 Las encuestas de opinión pública en las nuevas democracias de América Latina - PDF


 
Center for the Study of the Presidency
Freedom House