Inteligencia y Seguridad Frente Externo En Profundidad Economia y Finanzas Transparencia
  En Parrilla Medio Ambiente Sociedad High Tech Contacto
Medio Ambiente  
 
22/08/2005 | Salud y medio ambiente: Mitos y realidades

Kendra Okonski y Juan Carlos Hidalgo

¿Se encuentran la industria moderna y la actividad económica causando un declive irreversible en el estado del medio ambiente, causando así problemas cada vez mayores para la salud humana? ¿Son los niños las víctimas inconscientes de nuestra sociedad despilfarradora? ¿Nos encontramos en una “carrera hacia el fondo” que ultimadamente nos llevará al fin de la humanidad?

 

El propósito de Ambiente y Salud es ayudar a los lectores a encontrar respuestas a estas interrogantes. Con ese fin, el libro ofrece una reseña de la evidencia científica disponible relacionada al impacto de los pesticidas, dioxina, nitrato, radiación, inhibidores endocrinos (alteradores de géneros), y calentamiento global. En muchos casos, la ciencia es extremadamente compleja, y una respuesta sencilla concerniente a las consecuencias de los mismos no es factible. Sin embargo, en todos los casos resulta claro que la histeria es injustificada y que el nivel de intervención reguladora ya es suficiente o incluso excesivo.

Ácido hídrico: un estudio de caso en la toma de decisiones reguladoras

El tema del ácido hídrico sirve como un valioso punto de partida debido a que durante muchos años ha probado ser una molestia para aquellos que pretenden un mundo libre de riesgos. El ácido hídrico es un químico incoloro, inodoro e insípido que es utilizado en muchos procesos industriales así como en algunas tareas domésticas. Desafortunadamente, el ácido hídrico es responsable por la muerte de miles de personas cada año, principalmente como resultado de la inhalación accidental. Además, una exposición prolongada al estado sólido del ácido hídrico causa daños severos de tejidos. Los síntomas por la ingestión del ácido hídrico incluyen la transpiración y el orinado excesivos, y probablemente un sentimiento de hinchazón, nauseas, vómitos y desequilibrio corporal de electrolitos. Para aquellos que se han vuelto dependientes, el retiro del ácido hídrico significa la muerte segura.1

Las investigaciones indican un apoyo abrumador en muchos lugares por una prohibición del ácido hídrico.2 No obstante, éste permanece ampliamente disponible. Esto podría deberse en parte a que el ácido hídrico se precipita regularmente de la atmósfera, lo cual hace que una prohibición sea no solo impracticable sino que imposible. Otra razón puede ser que debido a que mucha gente es dependiente de la sustancia, cualquier intento por prohibirla podría causar desobediencia civil generalizada.

Un ejercicio valioso se puede llevar a cabo con el ejemplo del ácido hídrico. A un grupo de personas se les brinda la información detallada anteriormente y luego se les pide que escojan entre tres alternativas: (1) una prohibición inmediata en cualquier uso del ácido hídrico; (2) una imposición inmediata de controles extremadamente estrictos sobre todos los usos de la sustancia; (3) ninguna restricción (adicional) dependiendo de mayor información. Usualmente una proporción mayoritaria de las personas escoge las opciones 1 y 2, pero algunos siempre escogen la 3. ¿Qué nos dice esto? Bueno, primero sugiere que la mayoría de la gente tiene un fuerte impulso por imponer restricciones en el uso de químicos que se creen son dañinos, sin tomar en cuenta cuál es el uso preciso del químico y cuáles podrían ser las consecuencias de tales restricciones. Segundo, sugiere que al menos algunas personas entienden que las decisiones regulatorias deben estar basadas en algo más que información superficial del tipo que usan para propaganda algunos grupos de presión.

Químicos en la agricultura y los alimentos

Aunque no estamos enterados de algún intento por presionar a los gobiernos a que prohíban el agua (al menos en su forma natural), éste es uno de los pocos químicos comúnmente usados que parece haber escapado de los ataques de los activistas ambientalistas.

No se puede decir lo mismo de los químicos utilizados en la agricultura y los alimentos. Muchos de éstos químicos le confieren beneficios significativos a los seres humanos—por ejemplo al reducir el costo de los alimentos o incrementar su duración. Algunos químicos incluso han tenido beneficios ambientales discutidos—por ejemplo, los químicos que aumentan la productividad significan que más alimentos pueden ser cultivados en menos tierra, lo cual reduce la presión sobre los terrenos silvestres. Mientras tanto, los químicos que sirven para la erradicación de hierbas con poco labrado reducen la erosión del suelo cuando la tierra es arada.

A pesar de estos beneficios observables, ha habido un fuerte movimiento a favor de la regulación de químicos utilizados en la agricultura y los alimentos. Hasta cierto punto uno puede entender este ímpetu, ya que algunos de los primeros pesticidas eran altamente tóxicos, al mismo tiempo que muchos de los primeros aditivos alimenticios eran venenosos en las dosis presentes en la comida.3 Sin embargo, en la mayoría de los casos estos químicos fueron eliminados de la cadena alimenticia a principios del siglo XX—principalmente a través de las acciones voluntarias de las compañías que buscaban reducir las posibilidades de lastimar a sus consumidores. Como resultado, las preocupaciones se trasladaron a otros asuntos, como el cáncer. Los temores aumentaron en la década de los cincuenta, cuando las pruebas empezaron a demostrar que, dados en concentraciones suficientes, muchos de los químicos utilizados en la agricultura y los alimentos causaban cáncer en roedores.

No obstante, con el tiempo se hizo claro que una gran proporción de todos los químicos, sintéticos y naturales, son carcinógenos—tal y como lo muestran en su capítulo los profesores Bruce Ames y Lois Swirsky Gold:

La exposición humana a carcinógenos naturales comunes en roedores es insignificante y diminuta cuando se trata de la exposición del público general a carcinógenos sintéticos de roedores.

Los compuestos químicos naturales que son conocidos carcinógenos que se encuentran en una simple taza de café son equivalentes en peso a un año de ingestión de residuos de pesticidas sintéticos que son carcinógenos en roedores. Esto es así, aunque sólo 3 por ciento de los componentes químicos naturales presentes en el café hayan sido adecuadamente evaluados para medir su carcinogenicidad. Esto no quiere decir que el café o los pesticidas naturales sean peligrosos, sino que es necesario revisar los supuestos de las pruebas de cáncer con altas dosis en animales para evaluar el riesgo de las bajas dosis sobre seres humanos.

Además, no todas las sustancias que son carcinógenas en altas dosis lo son también en pequeñas dosis. El cuerpo es capaz de lidiar con ciertas cantidades de ciertos tipos de carcinógenos, a través de varios procesos.4 De tal forma que restringir el uso de químicos simplemente sobre las bases de que son carcinógenos en roedores no tiene sentido alguno. Ni siquiera es claro por qué deberíamos intentar reducir todos estos químicos a los niveles más bajos que son requeridos en la mayoría de las regulaciones existentes. Como explican Ames y Gold:

Es oneroso reducir mediante esfuerzos de regulación las exposiciones en bajos niveles de los seres humanos a compuestos químicos sintéticos que son carcinógenos para roedores. Además, las regulaciones no pueden hacer nada más que reducir las concentraciones de compuestos químicos que ya son de por sí minúsculas, y que no es posible que tengan incidencia en las tasas de cáncer. Dichos esfuerzos de regulación confunden la tarea de mejorar la salud pública mediante el incremento de conocimiento científico acerca de cómo prevenir el cáncer (por ejemplo, cuáles aspectos de la dieta son importantes), mediante el incremento del conocimiento del público de cómo el estilo de vida influye en la salud, y mediante la mejora de nuestra habilidad para ayudar a los individuos a alterar sus estilos de vida.

Nuestra obsesión con el potencial efecto carcinógeno de los químicos sintéticos utilizados en la agricultura y la producción alimenticia nos ha distraído de preocupaciones mucho más importantes—preocupaciones sobre qué tipo de alimentos deberíamos consumir si queremos obtener los micronutrientes que ayudan a mantener saludables nuestras defensas corporales, de tal forma que podamos enfrentar la gran cantidad de ataques que nuestro cuerpo enfrenta todo los días, principalmente debido a sustancias y procesos naturales.

La evidencia sugiere que comer frutas frescas y vegetales ayuda al cuerpo humano a defenderse del cáncer. Por el contrario, evitar agroquímicos sintéticos presentes como residuos en la comida no ayuda. De tal forma que la gente que come pocas frutas frescas y vegetales debido a que compran variedades más caras “libres de químicos” están de hecho haciéndose un daño.

Las consecuencias más amplias del ataque anti-científico contra el uso de químicos sintéticos en los alimentos y la agricultura son aún más aterradoras. ¿Qué sucedería si los agricultores en los países latinoamericanos fueran disuadidos o, peor aún, obligados a abandonar estas tecnologías con el fin de garantizarse que lo que producen será aceptable para los consumidores sobreprotegidos de los países ricos? La producción caería y experimentarían mayor incertidumbre (una de las grandes ventajas de los químicos sintéticos es que permiten niveles de producción mucho más estables), lo cual significaría menos comida en sus propios platos así como menores ingresos. ¿De verdad queremos que la obsesión de algunos en los países ricos con el concepto absurdo de alimentos “libre de químicos” termine retrasando el desarrollo en países de bajo ingreso como los latinoamericanos? ¿Cómo calza eso en la conciencia de los que hacen campaña contra los pesticidas y otros agroquímicos?

¿Alteradores de géneros?

La evidencia acumulada por Ames y otros ha hecho cada vez menos convincente la campaña quimofóbica contra los aditivos químicos supuestamente carcinógenos. En respuesta, los activistas han variado el debate a un nuevo—e igualmente dudoso—territorio. En particular, los activistas afirman que ciertos químicos están interviniendo con los sistemas hormonales de peces, mamíferos y otros animales, y que como resultado, están cambiando la proporción de géneros, reduciendo la fertilidad humana, y causando cáncer.

Si estos activistas estuvieran haciendo campaña contra la píldora anti-conceptiva, habrían estado en lo correcto. Porque, por supuesto, la píldora de control de la fertilidad tiene como misión interferir con el sistema hormonal. Pero incluso la pastilla y varios estrógenos no parecen infligir algún daño a los humanos.

No obstante, los activistas ciertamente no están hablando sobre la pastilla anti-conceptiva. Quizás esto se deba a que reconocen que la píldora es percibida favorablemente por una amplia mayoría del público. Tal vez también se debe a que la pastilla no es usada principalmente en la industria y agricultura. Cualquiera que sea la razón, los activistas han escogido un objetivo muy diferente: la misma vieja lista de químicos industriales y agrícolas: PCB, DDE (una variante del DDT), y otros ‘contaminantes orgánicos persistentes’ (POPs), TCDD (una dioxina), entre otros.

Stephen Safe, un profesor de Fisiología Veterinaria y Farmacología en la Universidad de Texas A&M, y director del Centro de Ambiente y Salud Rural analiza los argumentos científicos para la hipótesis de la ‘inhibición endocrina’ y encuentra que:

No existen cambios globales aparentes en el conteo de esperma y la fertilidad, porcentajes de hipospadias y de criptorquidias, así como proporciones de género al momento del nacimiento. El cáncer de testículos está aumentando en la mayoría de los países, pero esto no se correlaciona con otros indicadores de la capacidad reproductiva masculina. Más aún, el cáncer de testículos está aumentando mientras que el DDE y otros POPs están disminuyendo, cosa que sugiere que la exposición a estos compuestos no está relacionada al cáncer de testículos. 

Siempre y cuando Safe acepta que algunos químicos ‘activos endocrinos’ (como los estrógenos naturales y quizás la píldora anti-conceptiva) tienen efectos negativos en ciertas circunstancias sobre los peces y la vida silvestre, el mismo efecto no ha sido observado en los humanos. Además, Safe señala que si estamos preocupados acerca de la exposición humana a los inhibidores endocrinos, entonces deberíamos estar aún más preocupados acerca de las substancias naturales que tienen esta cualidad que por sus similares sintéticos. 

El sinsentido de los nitratos

El Dr. Jean-Louis L’hirondel, un doctor practicante en Caen, Francia, explora los alegatos acerca de los nitratos que han sido utilizados para justificar un sinnúmero de regulaciones. Los nitratos fueron previamente usados como medicinas, y fueron reemplazados con aspirinas y cortisonas a principios del siglo XX. Aproximadamente 30 años atrás, una serie de alegatos fueron hechos sobre cómo los nitratos eran responsables por el ‘síndrome del niño azul’, además de exacerbar el riesgo de cáncer en los adultos.

El análisis de L’hirondel indica que ambos señalamientos “carecen de bases científicas” basados en estudios llevados a cabo hace treinta años:

La causa de la metahemoglobinemia en niños, por ende, no son los nitratos alimentarios, sino los nitritos formados en los biberones, luego de la reducción de los nitratos en nitritos como resultado de una desafortunada pululación de microbios en el recipiente. Esto último es lo que debería prevenirse a todo costo. La metahemoglobinemia infantil provocada por la comida ha sido prácticamente erradicada en los países desarrollados, donde la gente está familiarizada con las reglas básicas de higiene para la preparación de los biberones de leche.

Y como lo ha señalado el Comité Científico de Alimentos de la Comisión Europea en su “Opinión sobre Nitrato y Nitrito” de 1995:

Los estudios epidemiológicos no han logrado hasta el momento brindar evidencia de una asociación causal entra la exposición a nitratos y el riesgo al cáncer humano.

La radiación y el mito del cáncer sin límite

En el caso de la radiación, la “Línea sin Umbral” ha sido una “suposición sagrada”, según la cual incluso las más ínfimas dosis de radiación podría causar cáncer y daños genéticos en los seres humanos. Al igual que con otras causas de cáncer, la línea sin umbral simplemente no se sostiene como una regla general.

Si bien han sido claramente establecidos los efectos perjudiciales de las altas dosis de radiación ionizadora, no es el mismo caso con las dosis bajas. El Dr. Zbigniew Jaworowski del Laboratorio Central de Protección Radiológica en Varsovia, Polonia, indica que:

En algunas áreas del mundo, las dosis de radiación natural al hombre y otras biota son varios cientos de veces mayores que los niveles de dosis actualmente aceptados para la población en general. No se halló ningún efecto adverso en los seres humanos, animales y plantas de estas zonas.

De hecho, Jaworowski sostiene que existen beneficios considerables asociados con ciertos usos de la radiación de baja dosis, incluyendo usos médicos, e incluso podría haber un efecto ‘hormético’. Lo que resulta claro es que los actuales límites regulados de exposición son innecesariamente bajos:

Durante las últimas décadas ha habido una tendencia a disminuir – a valores cada vez menores – la dosis de exposición en los estándares de protección de la radiación… Resulta difícil concebir una justificación para niveles tan bajos, ya que nadie ha estado identificablemente perjudicado por la radiación cuando se aplicaban los estándares establecidos… en las décadas de 1920 y 1930, con niveles de dosis cientos y miles de veces mayores.

Dioxinas

El Dr. Hans E. Müller, químico y físico, y ex director del Laboratorio de Salud Pública en Braunschweig, Alemania, muestra cómo un accidente en Seveso, Italia, en 1976 fue visto por el mundo como una tragedia de proporciones apocalípticas, la confirmación de las peores pesadillas de los activistas ambientalistas, y la justificación para un exagerado número de regulaciones sobre la dioxina.

El accidente en Seveso lamentablemente causó muchas muertes—de animales. Ni una sola persona murió. De hecho, el mayor impacto sobre humanos fue la reubicación de miles de personas que vivían cerca de la fábrica, un gran número de casos de cloroacné—una condición de la piel bastante irritante—y una pequeña cantidad de efectos tóxicos más serios, pero no mortales.

Müller muestra que la dioxina “ha sido frecuentemente el sujeto de historias de terror por parte de los activistas, quienes afirman que induce al cáncer”, e igualmente “los productores de dioxina han buscado contrarrestar tales temores”, de tal forma que se ha generado cierta controversia sobre el ‘verdadero’ impacto de la dioxina.

Las dioxinas—una clase de compuesto químico que incluye al temido TCDD—son producidas durante el proceso natural de combustión y como resultado de ciertos procesos industriales. Si bien la exposición a ciertas dioxinas en concentraciones muy altas podría tener consecuencias negativas sobre la salud, “tales concentraciones rara vez son alcanzadas incluso en humanos expuestos y altamente contaminados”. Ya que los humanos consumen la mayor parte de sus dioxinas de los alimentos que ingieren y debido a que las concentraciones en los alimentos están a niveles que son casi indetectables, además de inofensivos, es muy poco probable de hecho que una dioxina nos esté causando algún daño.

Calentamiento global y la salud humana

Uno de los temas favoritos del movimiento ambientalista mundial es el miedo de que los humanos estemos teniendo un impacto generalizado sobre el ambiente que eventualmente regresará a perseguirnos en algún momento futuro no especificado. Con el fin de concretar un poco más estos conceptos tan ambiguos, algunos activistas han inventado ciertas historias sobre cómo la humanidad va verse golpeada por varias plagas.

Un buen ejemplo es la supuesta amenaza de un incremento en la incidencia de la malaria como resultado del calentamiento global. El profesor Paul Reiter, un experto británico en enfermedades infecciosas, y veterano de 22 años en el Centro de Control y Prevención de Enfermedades de Estados Unidos, analiza esta amenaza, la cual descansa en gran medida en la suposición errónea que la malaria es una enfermedad tropical.

Reiter discute la compleja historia y ciencia de la malaria, la cual fue en su momento una enfermedad endémica en Europa pero que fue ampliamente erradicada durante una época de temperaturas en aumento. No obstante, Reiter indica que Holanda—difícilmente un país tropical—no se libró de la malaria hasta 1970.

La historia de la malaria en Europa es extensamente conocida y fácilmente accesible en cualquier buena biblioteca. Sin embargo, son comunes las predicciones mal informadas sobre la propagación de ésta y de otras enfermedades transmitidas por vectores a las áreas templadas - incluso en la literatura científica - y son extensamente citadas en la discusión pública de la política nacional e internacional sobre calentamiento global.

Al igual que sus colegas, Reiter se muestra preocupado en que, al enfocarse en el calentamiento global, el planeta no está priorizando políticas que se necesitan urgentemente para erradicar la malaria y otras enfermedades transmitidas por vectores.

[Ningún científico] niega que la temperatura es un factor en la transmisión de enfermedades transmitidas por mosquitos, y que la transmisión puede verse afectada si el clima del mundo continúa calentándose. Pero es inmoral que los activistas políticos engañen al público atribuyendo el resurgimiento reciente de estas enfermedades al cambio del clima, particularmente en África. Las verdaderas razones son lejanamente más complejas, y los principales determinantes son la política, la economía, y las actividades humanas. Se necesita de forma urgente un uso creativo y organizado de los recursos para corregir la situación, sin importar el clima futuro. 

Otro problema de salud humana al cual los ambientalistas están ansiosos de responsabilizar al calentamiento global son las muertes relacionadas a cambios en la temperatura. En el verano del 2003, una ola de calor asoló Europa y fue la principal responsable de miles de muertes. Bill Keatinge, profesor emérito de la Escuela de Enfermería y Dentistería de la Escuela Queen Mary de la Universidad de Londres, sugiere que el número real de muertes provocadas por el calor fue mucho menor. Él muestra que aunque la tasa de mortalidad aumenta durante los primeros dos días de una ola de calor, esto es acompañado por tasas de mortalidad más bajas de lo normal. La razón radica probablemente en que muchos de los que mueren ya se encuentran muy enfermos, y habrían muerto de todas formas en las siguientes dos o tres semanas.

De hecho, la realidad es contundente en que las temperaturas frías continúan siendo la principal contribuyente a la mortalidad humana. Keatinge muestra que:

Los estudios sobre los cambios reales de la mortalidad vinculada al calor desde el advenimiento del calentamiento global demuestran que como las temperaturas han subido, el alza en las enfermedades relacionadas con el calor producidas por un nivel particular de temperaturas elevadas ha disminuido. Las temperaturas estivales subieron por los menos 1ºC tanto en Londres como en la región subtropical de Carolina del Norte desde 1971. Sin embargo, la mortalidad relacionada con el calor no se ha incrementado en Londres, y casi ha desaparecido en Carolina del Norte, a pesar de que la humedad también aumentó ahí y el viento se redujo.

Los ajustes psicológicos pueden ser de mucha ayuda en evitar dichas muertes, en cualquier caso, y deberían ser fomentados, dice Keatinge:

La gente de países que tienen veranos más calurosos parece protegerse del calor más efectivamente. La siesta en Europa meridional es un claro ejemplo. En Carolina del Norte, el aumento de la cantidad de acondicionadores de aire en la región parece ser la causa de la virtual desaparición de la mortalidad relacionada con el calor.

Respuestas regulatorias a la ‘quimiofobía’

El profesor Lucas Bergkamp y el Dr. Jaap Hanekamp escriben sobre los regímenes regulatorios tendientes a tratar los riesgos químicos, como la propuesta REACH (Registro, Evaluación, Autorización y Restricción de las Sustancias y Preparados Químicos) de la Unión Europea. La regulación ha sido dirigida en parte por temores infundados por parte del público.

Probablemente sea cierto que debido a una serie de factores, incluyendo la manera en que los medios de prensa cubren las cuestiones químicas y las respuestas del gobierno a estos temas, el público está confundido acerca de los químicos, sus beneficios y riesgos. De hecho, la “quimiofobia” pública puede estar generalizada en Europa.

Bergkamp y Hanekamp sostienen que las acciones regulatorias mal priorizadas no solo desperdician dinero y esfuerzos humanos. Al atacar un objetivo equivocado, podríamos exponernos inevitablemente a riesgos imprevistos.

El costo económico de la regulación del riesgo químico, hasta cierto punto, puede reducir el riesgo, pero una vez que superamos ese punto, en cualquier caso (aunque no incremente más o menos directamente el riesgo) incrementará indirectamente el riesgo haciéndonos más pobres. Como la pobreza está negativamente relacionada con la salud, el promedio de vida y las condiciones ambientales, los enormes costos administrativos del régimen REACH llevarán a Europa a peores condiciones de salud pública y medio ambiente. 

Un dramático ejemplo latinoamericano

Latinoamérica se ha convertido en años recientes en un campo de acción de los activistas que buscan disminuir o eliminar algunos supuestos riesgos químicos a costa de mantener vigentes otros que sí son mortales. Quizás el ejemplo más lamentable fue lo ocurrido en la década de los noventa en el Perú, donde las autoridades locales siguieron el consejo de organismos extranjeros y redujeron la cantidad de cloro en el agua dispuesta por el gobierno peruano. Según estos organismos, los cuales a su vez habían sido influenciados por grupos de activistas, el cloro causa cáncer, y existía un riesgo de que buena parte de la población se viera en riesgo.

El resultado de dicha acción no pudo ser más desastroso: En enero de 1991 se declaró una epidemia de cólera en el Perú que le costó la vida a cerca de 20.000 personas en cinco años y afectó a otras 310.000. La epidemia se propagó por 14 países del continente americano hasta llegar a convertirse, según la Organización Mundial de la Salud, en la séptima pandemia más letal de este siglo.

Como comenta el abogado y periodista peruano Enrique Ghersi, “Aparentemente lo que sucedió fue que los funcionarios peruanos quisieron ponerse en la moda ecológica y convirtieron en ‘verde’ el agua potable. Pero era el verde de la contaminación. El verde del cólera”.

Al igual que en muchas otras situaciones similares, nadie ató los cabos de lo sucedido y los activistas y organismos extranjeros nunca fueron responsabilizados por la muerte de miles de personas. Peor aún, la base sobre la cual se sustentaron las autoridades peruanas para reducir el nivel de cloro en el agua—el principio de precaución—toma fuerza como punto de partida para la elaboración de políticas regulatorias en todo el mundo.

El principio de precaución: ¿una buena guía para la toma de decisiones?

Muchas acciones regulatorias sobre asuntos ambientales y sanitarios, incluyendo al régimen REACH, han sido puestas en marcha debido a la confianza en el principio de precaución. La Organización Mundial de la Salud también promueve el principio de precaución como la base de propuestas de acciones regulatorias para sus miembros.

El principio de precaución emergió a finales de los sesenta en respuesta a las campañas de los ambientalistas tendientes a limitar el uso de nuevas tecnologías—específicamente la energía nuclear.5

A como está actualmente concebido, el Principio de Precaución (PP) consiste de dos componentes claves:

Inversión del peso de la prueba: cualquiera que proponga utilizar una tecnología debe demostrar que es segura antes de usarla.

Aumentar el rigor de la prueba: se requiere de pruebas más rigurosas de las tecnologías antes se que puedan ser declaradas “seguras”.

 

El rigor particular depende de cuál versión del PP se emplee—Fuerte o Débil.

El PP Fuerte demanda la seguridad absoluta. Es así como Jeremy Legget, entonces con Greenpeace, señaló en 1990:

Para organizaciones como Greenpeace, lo primero deben ser las necesidades del ambiente… el modus operandi que nos gustaría ver es: “No se admiten substancias al menos que se tenga una prueba de que no dañará el ambiente”—el principio de precaución… el hecho que la prueba de que algo que hace daño podría llegar muy tarde—o que la prueba es muy difícil de demostrar con certeza absoluta—únicamente aumenta la licencia que se le da a los contaminadores.

El PP Débil es más ambiguo acerca de qué nivel de prueba se requiere. Es así como el Principio 15 de la Declaración de Río indica que:

Cuando existen amenazas de daños serios o irreversibles, la falta de certeza científica total no podrá ser usada como una razón para posponer medidas de costo-beneficio con el fin de evitar la degradación ambiental.

De ser aplicado de manera general, el PP Fuerte detendría a la civilización, ya que cada tecnología conlleva riesgos desconocidos. ¡Claramente es impracticable!

Por otra parte, el PP Débil es sumamente ambiguo. Y la ambigüedad no es un mérito. Ésta permite la arbitrariedad—incluyendo la imposición de restricciones sin importar los costos o beneficios.

La aplicación generalizada del PP podría evitar que la gente se vea expuesta a nuevos riesgos, pero también les impide reducir su exposición a riesgos existentes. Las nuevas tecnologías por lo general brindan beneficios netos; si éste no fuera el caso, no habría un incentivo para producirlas. Ejemplos de estos beneficios incluyen cosechas más abundantes, comunicaciones más rápidas, mejores medicinas, fuentes de energía limpias y confiables, menos contaminación ambiental, y agua más limpia.

Que las nuevas tecnologías han brindado beneficios netos a la humanidad resulta obvio a partir de las tendencias a largo plazo en las reservas alimenticias disponibles, mortalidad infantil, acceso a agua potable y servicios sanitarios, y expectativa de vida, las cuales muestran todas importantes mejoras a través del tiempo. Como resultado, una gran parte de la humanidad se encuentra ahora mejor alimentada, menos expuesta a patógenos transmitidos a través del agua y a la contaminación ambiental, y con menores probabilidades de morir o sufrir secuelas como resultado de las enfermedades.

Los peligros de la sobre-regulación

La puesta en práctica del PP muy probablemente conlleve a la sobre-regulación, la cual podría evitar la adopción de tecnologías que harían del planeta un lugar más seguro. A lo largo del tiempo, la regulación excesiva también tiende a minar las instituciones sociales que históricamente nos han ayudado a manejar los riesgos. Las leyes y normas que se han desarrollado a lo largo de cientos de años y que son claras, abstractas, basada en principios, y universales son reemplazadas con regulaciones constructivistas que son predicadas sobre presunciones falsas, opacas, concretas, estrechas, y aplicables, si es el caso, a un número muy limitado de casos.

Aún cuando las regulaciones sí tienen beneficios sanitarios directos, incluso podrían causar más daño que bien. Este sería el caso si más vidas humanas podrían ser salvadas al reasignar los recursos destinados a cumplir con las regulaciones hacia otros programas. Por ejemplo, supongamos que una regulación que limita las emisiones de cierto contaminante salva diez vidas. Ahora, si cuesta US$1.000 millones implementar la regulación, la pregunta sería: ¿podrían esos US$1.000 millones salvar más vidas? Si la respuesta es que en otro programa esos US$1.000 millones pudieron haber salvado la vida de 1.000 personas, entonces la regulación es responsable por la muerte de 990 personas.

Consideremos, por ejemplo, la regulación para las radiaciones de bajas dosis—la cual valida nuestro ejemplo hipotético. El Dr. Zbigniew Jaworowski escribe:

Sencillamente por adherir a los estándares que establecen tan bajos límites, la sociedad está pagando cientos de miles de millones de dólares sin ningún beneficio aparente. Cada vida humana hipotéticamente salvada por la implementación de las actuales regulaciones, cuesta alrededor de US$ 2.500 millones.

Los profesores Bruces Ames y Lois Swirsky Gold señalan que, “Dado que no existe un mundo libre de riesgos y que los recursos son limitados, la sociedad debe establecer prioridades basadas en la relación costo-efectividad para salvar la mayor cantidad de vidas. Un cálculo dice que Estados Unidos podría prevenir 60.000 muertes al año si empleara los mismos recursos monetarios en programas basados en la relación costo-efectividad”.

El poder de los grupos de presión

Pero si todo esto fuera cierto, se podría preguntar uno, ¿quién es el responsable de estas regulaciones? La respuesta clara que emerge de Ambiente y Salud es que las regulaciones son generadas por las demandas de los grupos de presión, en lugar de ser originadas por la ciencia objetiva. Bajo el pretexto de “proteger la salud pública”, estos grupos de presión se han aprovechado de la ignorancia del público sobre temas científicos complejos con el fin de promocionar sus agendas particulares.

Los grupos de presión que se enfocan en un solo tema son muy exitosos en influir en la agenda política debido a que dedican mucho tiempo, dinero y recursos a promover su causa. Estos grupos, que frecuentemente dicen promover los intereses de otros grupos específicos de personas (como los consumidores, o los ancianos) o incluso entidades (como ‘el ambiente’), típicamente cuentan con una agenda y utilizan la evidencia únicamente cuando ésta calza con esa agenda. En lugar de promover la ciencia objetiva, se concentran en lograr la atención generalizada de los medios de comunicación y en desarrollar relaciones cercanas con los reguladores y políticos.

Como contraste, la gente que recibe las consecuencias negativas de las regulaciones promovidas por los grupos de presión tiende a ser la mayoría, estar ampliamente dispersa y tener muchas otras preocupaciones más importantes. Estas personas permanecen ‘racionalmente ignorantes’ de la evidencia relacionada con las afirmaciones de los activistas, debido a que los costos para el individuo promedio de identificar la evidencia relevante excederían los beneficios. Además, las consecuencias podrían ser invisibles—por ejemplo, los bienes y servicios podrían encarecerse o incluso desaparecer debido a las regulaciones, obligando a los consumidores a gastar más de su dinero por la misma cantidad de bienes o por substitutos más caros.

Los grupos de presión, el gobierno y el declive de la ciencia

Por debajo de esta mala asignación de recursos debido a las malas regulaciones, encontramos la distorsión de la ciencia relacionada al medio ambiente y a los riesgos de la salud. Una razón es el papel dominante que juega el gobierno en el financiamiento de la investigación científica. A través de su control sobre los fondos, el gobierno tiene un gran peso a la hora de decidir cuáles proyectos serán financiados. Si las decisiones gubernamentales de financiamiento fueran hechas por sabios visionarios, entonces probablemente no habría problemas. Desdichadamente, la oferta de dichos sabios parece estar muy limitada.

En lugar de sabios visionarios, el gobierno nombra comités de financiamiento, Al igual que las autoridades gubernamentales que toman decisiones regulatorias, las autoridades en estos comités de financiamiento son susceptibles a las preocupaciones de los persistentes grupos de presión que se enfocan en un solo tema. Como resultado, algunos científicos pueden verse tentados a exagerar los potenciales riesgos en un asunto que están investigando con el fin de ganarse la simpatía de los activistas, quienes los apoyarán en su petición por fondos. Es así como los científicos menos honestos tienden a ser más que los honestos. El profesor Safe observa que:

La preocupación con este tema y otros es que los científicos/reguladores desarrollan intereses personales en problemas específicos, y existe un rechazo de su parte (y la nuestra) a decir “ya fue suficiente”. Con la escasez de financiamiento disponible, esto puede impedir seriamente la investigación de temas más urgentes relacionados a la salud medioambiental y humana.

Al mismo tiempo, los activistas utilizan el resultado de esta investigación distorsionada con el fin de generar temores infundados en el público sobre un tema en particular y de esta forma promover la acción política, como la prohibición de un producto específico. Los activistas hacen llamados atractivos para capitalizar la ignorancia racional del público. Mientras tanto, los científicos que permanecen leales a la realidad son frecuentemente presentados como personas sin corazón, individuos desalmados sin ninguna consideración hacia la humanidad.

Al igual que con las intervenciones regulatorias descritas anteriormente, las prioridades distorsionadas en el financiamiento de la ciencia también cuestan vidas. Cuando la ciencia es financiada selectivamente sobre la base de exageraciones y temores, menos recursos están disponibles para financiar otras prioridades de investigación científica que podrían tener un impacto más positivo sobre la salud humana.

A pesar de las presiones para que la ciencia sea distorsionada, aún se continúa haciendo suficiente investigación de alta calidad que permite una evaluación racional de la mayoría de los temas que han sido promocionados por los grupos de presión. Como se indicara anteriormente, los expertos en este libro tratan algunos de los temas que más atención han recibido. Aquí resumimos algunas de las conclusiones alcanzadas. 

Organización Mundial para ¿la Salud de quién?

De acuerdo con la Constitución de la Organización Mundial de la Salud de 1948, la salud es “un estado de completo bienestar físico, mental y social, y no simplemente la ausencia de padecimientos o enfermedades”. Si bien este es un objetivo loable, también es impreciso y poco claro cómo puede ser alcanzado—a través de las acciones de la OMS, por gobiernos individuales, o quizás al permitirles a las personas perseguir sus propios objetivos sanitarios sin atentar contra sus libertades, incluyendo la libertad de participar en actividades satisfactorias pero al mismo tiempo riesgosas, ya sea por ganancias económicas o simplemente fisiológicas.

La OMS ha incursionado recientemente en un nuevo territorio, relacionado con aspectos regulatorios globales y nacionales de la salud humana. Por un lado, la OMS podría percibir que asuntos sanitarios globales que están emergiendo requieren soluciones tangibles en lugar de simplemente permitirle a cada país decidir sus propias prioridades. En realidad, no es para nada claro que las soluciones regulatorias pretendidas en nombre del “interés público” beneficiarán a todos, pero sí es obvio que el costo de estas decisiones caerán desproporcionadamente sobre los hombros de la mayoría de la sociedad.

Una pregunta fundamental sobre la OMS es sobre cómo prioriza sus propias acciones e intervenciones. Si las acciones deben ser priorizadas para promover la salud humana y el desarrollo sustentable, los riesgos deben ser evaluados en comparación relativa de unos contra otros. Los riesgos para las personas que viven en la pobreza son diferentes, y generalmente mucho mayores, de aquellos que son originados por las tecnologías modernas. De hecho, las tecnologías modernas son fundamentales para el desarrollo económico y la transición asociada de un estilo de vida con altos riesgos a uno con menores. No resulta claro cómo regulaciones mundiales provenientes de una organización en Ginebra pueden tomar en cuenta la gran disparidad de prioridades entre los diferentes pueblos.

¿Por nuestros niños?

En junio del 2005, los ministros de Ambiente y Salud de los diferentes países de América tuvieron su segunda reunión en Buenos Aires, Argentina. Entre los puntos que se consideraron estuvo cómo garantizar un ambiente seguro y saludable “para nuestros niños”.

En discusión durante la cumbre ministerial se encontró la adopción de regulaciones especiales que garantizarán que los niños del presente y futuro se encuentren protegidos de riesgos ambientales a su salud. Sin embargo, quizás la mejor manera de alcanzar este objetivo es permitir el desarrollo económico sin intentar interferir a través de la muy visible mano de los planificadores centrales de la OMS.

El continente americano ilustra muy bien la transición de la pobreza y la contaminación a la riqueza y la salubridad. Por un lado, Canadá y Estados Unidos son países ricos y desarrollados que hace muchos años hicieron esta transición. La gente en esta parte de América generalmente vive muchos años, se beneficia de una economía e infraestructuras totalmente integradas, y tienen pocos problemas ambientales locales como contaminación, aguas sucias, y mala salubridad. Esto trae beneficios a la salud humana—la gente por lo general vive por más años y no tienen que realizar trabajos pesados.

En contraste, los demás países del continente americano—Latinoamérica y las naciones del Caribe—se encuentran en una etapa temprana de desarrollo. Estos países cuentan con diferentes prioridades y muchos aún necesitan llevar a cabo la transición para convertirse en naciones tecnológicamente sofisticadas y completamente desarrolladas. Muchos de los países latinoamericanos aún sufren del subdesarrollo, de la corrupción, y de la carencia de instituciones que permitan el crecimiento económico. Algunos no cuentan con instalaciones sanitarias básicas, y mucho menos con las tecnologías médicas sofisticadas que disfrutan sus contrapartes del Norte. Sus problemas son más básicos, incluyendo en muchas regiones su dependencia por combustibles sólidos como fuentes de energía, con la consecuente contaminación del aire que se respira en los hogares, y por lo general una calidad de vida más deteriorada.

En el caso de estos países latinoamericanos y del Caribe, no tiene mucho sentido hablar de riesgos ambientales cuando hay mucho más qué ganar con la adquisición de mejores tecnologías, el crecimiento económico sostenido, y permitirle a la gente definir sus propias prioridades sobre el ambiente. El papel de la OMS en esto es ambiguo. Tiene a enfocarse excesivamente sobre las consecuencias negativas del desarrollo económico, en lugar de fomentar un debate sobre por qué las personas en las naciones más ricas son de hecho más saludables.

Los más ricos son más sanos, limpios y “verdes”

El desarrollo económico y los aumentos asociados en la riqueza, el incremento en la efectividad de las tecnologías, y las mejoras en la infraestructura han sido los principales motores en el avance de la calidad de vida de millones de niños alrededor del mundo. Más riqueza significa que los niños pueden ir a la escuela en lugar de trabajar en el campo. Tecnologías más efectivas permiten la erradicación de enfermedades que se transmiten a través del agua. Una mejor infraestructura significa que los niños pueden tener acceso a una variedad de alimentos y medicinas que les permitirán crecer sanos y vivir mejor.

La combinación de un aumento de la riqueza y una mejora de la tecnología puede ser una fuerza poderosa para la protección ambiental. Al inicio del siglo XX, los pueblos británicos eran azolados por nubes tóxicas causadas en gran parte por la quema de carbón en fogatas domésticas. A lo largo de las siguientes cuatro décadas, los dueños de las casas fueron cambiando gradualmente—y voluntariamente—a plantillas de gas como parte de sistemas de calefacción cada vez más sofisticados. El resultado fue una reducción dramática en la contaminación y en la incidencia de enfermedades relacionadas con ésta. Al momento en que se aprobó la Ley de Aire Limpio de 1956, la cual obligaba el reemplazo de las fogatas de carbón por plantillas eléctricas o de gas, la transición ya llevaba un largo trecho.

Indur Goklany, el ingeniero e historiador de la tecnología, describe elocuentemente la transición de los países ricos durante el curso del siglo XX:

La prosperidad y la tecnología fueron en algún momento las responsables de la contaminación del aire. Hoy, son esenciales para su limpieza. Su transición—de problemas a soluciones—comenzó hacia finales del siglo [XIX] con la aparición de nuevas y más limpias formas de energía, así como tecnologías de combustión más eficientes, las cuales tomaron impulso en este siglo. Y a lo largo de las décadas, uno por uno, los diferentes contaminantes fueron controlados, cada uno disminuido a través de una transición ambiental. Como si todo fuera parte de un gran plan, los problemas más obvios y los más fáciles de controlar fueron enfrentados antes que los demás, con cada transición del contaminante siendo determinada por factores que dependen últimamente en la prosperidad y la tecnología.6

En una publicación posterior, Goklany amplía su análisis y muestra cómo la preocupación por el ambiente calza con otras prioridades:

Conforme un país se hace más desarrollado económicamente y tecnológicamente, con el fin de mejorar su calidad de vida primero enfrenta necesidades inmediatas como la alimentación, la calidad del agua, los servicios médicos básicos, la electricidad y la educación. Una vez que estas necesidades son resueltas satisfactoriamente, el país vuelve su atención a otros determinantes de su calidad de vida, como la contaminación del aire y otros asuntos ambientales. De tal forma, el país especifica sus deseos por un ambiente más limpio a través de diferentes políticas. Luego, un mayor desarrollo económico y tecnológico ayuda a convertir esas políticas en realidad. Entre más próspero es un país, más puede enfrentar los costos de investigar, desarrollar e instalar tecnologías más limpias.7

Indira Ghandi una vez digo que “la pobreza es el peor contaminante”. Si esto es cierto, y la evidencia ampliamente así lo sugiere, entonces la contaminación sólo puede ser reducida mediante la reducción de la pobreza—en otras palabras, haciéndose más rico. O, como lo dice otro aforismo, los ricos son más sanos, limpios, y “verdes”. Pero los intentos por desviar las prioridades de aquellos que son pobres—obligándolos a preferir lo verde y limpio a lo próspero y saludable—muy probablemente lleven a que no se produzca riqueza en primer lugar y ultimadamente retrasarán el proceso mediante el cual los pobres se convierten en ricos, limpios y “verdes”.

Notas

1. Adaptado de: www.ifst.org/no_dhmo.htm

2. Ver http://www.dhmo.org/

3. Para una reseña, ver la introducción de Morris, J. y Bate, R. (1999) Fearing for Food (Butterworth-Heinemann).

4. Para un análisis más detallado del tema ver: Wilson, J, D. (1997) “Thresholds for Carcinogens: A Review of the Relevant Science and its Implications for Regulatory Policy”, en Bate, R. ed. (1997) What Risk? (Butterworth-Heinemann).

5. En 1960, Suecia aprobó la Ley de Protección Ambiental, la cual revirtió el peso de la prueba a las nuevas tecnologías. También contenía una cláusula que advertía que el “simple riesgo” podría ser suficiente para garantizar medidas protectivas. En 1970, Alemania aprobó su Ley de Aire Limpio, la cual introdujo el concepto de “vorsorgenprinzip”, o principio de previsión, que pretendía evitar efectos dañinos. El vorsogeprinzip presume que la protección ambiental es más importante que el desarrollo económico.

6. Goklany, I. (1998) “The Environmental Transition to Air Quality”, Regulation.

7. Goklany, I (1999). Clearing the Air: The Real Story of the War on Air Pollution. Washington, DC: Cato Institute. P.155.

Kendra Okonski es Directora del Proyecto de Desarrollo Sustentable de la Internacional Policy Network, en Londres, Reino Unido. Juan Carlos Hidalgo es analista de políticas públicas y ex editor de elcato.org. Este ensayo es la introducción del libro Salud y Medio Ambiente: Mitos y Realidades (International Policy Network, 2005), editado por ambos.

El Cato (Estados Unidos)

 



 
Center for the Study of the Presidency
Freedom House