El documento resume los debates sobre la dimensión social y política de la tecnología a lo largo de los últimos 40 años, diferenciando tres etapas: impactos de la tecnología, riesgos de tecnologías complejas e incertidumbre sobre sus efectos. También discute formas de regular y anticipar impactos, como el principio de precaución. Este principio ha sido interpretado de diferentes formas y ha llevado a seleccionar sistemas tecnológicos que eviten problemas de complejidad e incertidumbre.
La dimensión social de la tecnología y el principio de precaución
1. Manuel José Morales Martínez
(Graduado en Prevención y Seguridad Integral, EPSI-UAB)
La dimensión social de la tecnología y el principio de precaución.
Luján y López Cerezo nos muestran las diferentes versiones del debate sobre la autonomía y
las condiciones existentes en los sistemas y organizaciones de las tecnologías, existiendo
divergencias políticas y en la forma de actuar frente a las tecnologías, la regulación de
impactos, los sistemas de riesgo y el principio de precaución.
El texto expone los debates existentes durante los últimos 40 años sobre la dimensión social
y política de la tecnología. Diferenciando tres etapas: la primera se centra en los impactos de
la tecnología (la preocupación social, los análisis y las políticas públicas); la segunda presenta
los riesgos en el control de tecnologías complejas; y la tercera ocupa la incertidumbre
respecto a los efectos sociales, ambientales y sobre la salud. También desarrolla la forma
como regular, anticiparse y prevenir los impactos, y como regular los sistemas organizativos
respecto al control de los riesgos.
A finales de los años 70 se pretendía transformar la tecnología existente hacía una
tecnología alternativa que cambiara la sociedad. Para defender esta teoría se presentaron
una serie de afirmaciones:
Existían divergencias entre la potencia productiva y las capacidades de control y
responsabilidad.
La ciencia se había alejado de los campos más próximos al ciudadano.
La ciencia y la tecnología debía evolucionar.
Dado que los costes sociales, psicológicos y físicos de la ciencia y tecnología cada vez
eran más altos, el sistema debía adaptarse a los nuevos cambios.
Cuando la producción o los proyectos tecnológicos de las organizaciones excedían de
cierto tamaño se producían perdidas en su funcionamiento.
En los procesos centralizados no existía una participación mayoritaria.
El aumento de la producción llevaría a dañar el medio ambiente.
Estas afirmaciones debían conducir a una tecnología alternativa más justa, democrática y
respetuosa con el medio ambiente mediante su control local y la implicación participativa de
los usuarios en su desarrollo. También debía ser de escala humana, utilizar recursos
naturales y ser tecnologías ecológicamente sólidas, de bajo coste y sostenibles.
La administración pública actuó frente a los impactos tecnológicos evaluando y regulando las
tecnologías, ya que el pensamiento era que la previsión de estos impactos posibilitaba su
control, eliminando los impactos negativos. De esta forma se estaba atribuyendo una
autonomía a la tecnología, puesto que tenía la posibilidad de influir sobre la sociedad.
Aunque existían divergencias entre los defensores de la evaluación y de la regulación, que
pensaban que era posible controlar dichos impactos regulando el uso de las tecnologías, y
1
2. Manuel José Morales Martínez
(Graduado en Prevención y Seguridad Integral, EPSI-UAB)
los tecnólogos alternativos, que pensaban que algunas tecnologías eran ingobernables y
acababan imponiendo orden social.
Posteriormente el discurso sobre la dimensión social de la tecnología cambiaria el lenguaje
de los impactos por el de los riesgos. Aparecieron discrepancias a la hora de interpretar la
autonomía de la tecnología. Por una parte las teorías de las catástrofes normales y por otra
los de la alta fiabilidad.
De acuerdo con los teóricos existían dos características de los sistemas tecnológicos
modernos que conducían a estas catástrofes normales. Eran las interacciones complejas y el
acoplamiento o interconexión rígida. Este hecho provocaba que las garantías de que todo
funcionase correctamente no fuesen nunca completas. Los posibles fallos y las interacciones
en los elementos existentes, presentaban una gran diversidad de acontecimientos
imprevistos obligando a tomar decisiones urgentes en situaciones de incertidumbre.
Llegaron a la conclusión de que intentando aumentar la seguridad de los sistemas
complejos, haría que estos fuesen más propensos a fallos y resultarían menos controlables.
Los teóricos ponían de manifiesto que en estos sistemas tecnológicos no podía existir una
seguridad absoluta, puesto que en su propia estructura se originaban las causas de los
posibles fallos del sistema. Los teóricos exponían que las organizaciones siempre tenían más
de un objetivo y que por tanto no se podía esperar que se comprometieran exclusivamente
con la seguridad, convirtiendo al sistema en complejo y poco claro.
Por otra banda los teóricos de la alta fiabilidad consideraban que era posible controlar las
tecnologías complejas mediante estructuras institucionales y organizaciones adecuadas. Su
objetivo era conseguir que la seguridad fuese lo primordial en estas organizaciones;
limitaban los errores del sistema completo evitando fallos de los dispositivos de seguridad,
descentralizaban socialmente el poder para responder flexiblemente a las anomalías y
realizaban pruebas y simulaciones del sistema.
Para la regulación de los riesgos tecnológicos en situaciones de incertidumbre aparece el
principio de precaución. Se planteó para establecer protección a la salud humana o el medio
ambiente, tomando medidas precautorias, aún no existiendo evidencias de relación entre
causas y efectos. Se pusieron de manifiesto dos factores para su interpretación. Por una
parte como se establecían las consecuencias negativas de las aplicaciones tecnológicas, y por
otro como se interpretaba la incertidumbre sobre los impactos o riesgos. En esta
interpretación de la incertidumbre, se distinguían los que afirmaban la incertidumbre como
falta de conocimiento científico fiable, los que veían la incertidumbre como una
característica del conocimiento científico y los que pensaban en la incertidumbre como una
característica de los sistemas tecnológicos complejos.
Como consecuencia de estas divergencias podía observarse en un extremo los que lo
interpretaban en un sentido literal, existían sospechas fundadas de las consecuencias
negativas, y en el otro extremo los que interpretaban el principio de precaución como un
2
3. Manuel José Morales Martínez
(Graduado en Prevención y Seguridad Integral, EPSI-UAB)
criterio para la elección de tecnologías, rechazaban tecnologías complejas que por sí mismas
entrañaban incertidumbre debido a su potencial catastrófico.
Dada la complejidad para controlar los sistemas tecnológicos complejos, se propusieron una
serie de propiedades estratégicas a cumplir por estos de acuerdo con el principio de
precaución:
Debían diversificar sus estrategias para conseguir un mismo objetivo, de esta forma
asegurarían los resultados.
Los sistemas tenían que ser flexibles manteniendo varias estrategias y poder cambiar
dadas condiciones existentes, sin excesivos costes.
Debía mantener los resultados preservando la estructura interna y adaptándose a las
condiciones cambiantes pese a las perturbaciones externas
Como consecuencia de su aplicación se seleccionaban sistemas que evitaban o salvaban en
algún grado los problemas de complejidad, incertidumbre y la autonomía de algunas
tecnologías. De esta interpretación resultaron consecuencias negativas puesto que si una
tecnología sobrepasaba cierto grado de complejidad era difícilmente controlable, y era una
amenaza puesto que algunas de sus características introducían incertidumbres sobre sus
consecuencias y la convertían en peligrosa. Como conclusión a este problema era evitar la
introducción de este tipo de tecnologías y evitar de esta forma sus consecuencias.
En los sistemas complejos existen componentes técnicos, que cuanto mayor es la
complejidad, más difícil es el control de todo el sistema y mayor es la probabilidad de que se
produzcan accidentes. Este sistema de riesgo, presenta la dificultad de realizar imputaciones
causales debido a la complejidad y a la autonomía del funcionamiento del propio sistema
tecnológico. A más aparece el inconveniente que para su funcionamiento requiere un estilo
militar de socialización, aunque las organizaciones evitan la responsabilidad e incluso
encubren los errores del sistema.
A día de hoy los impactos generados por las tecnologías siguen afectando a la sociedad. Si
bien se trata de controlar de una forma más directa estos impactos, la constante evolución e
innovaciones técnicas hace que sigan apareciendo nuevos impactos desconocidos por la
sociedad que hacen que las tecnologías sigan teniendo consecuencias negativas para nuestra
seguridad, como por ejemplo contaminación y las enfermedades, sin que se quiera
reaccionar eficientemente y de una manera global sobre ellas.
La aplicación las teorías expuestas, en determinadas situaciones, se encuentran afectada por
la intervención política, que dificulta que las estrategias se cumplan por las presiones y
objetivos políticos de los estados u organizaciones (intereses económicos, plazos de
ejecución, hermetismo del sistema, etc). Sirva el ejemplo del A.V.E., en su paso por la Baix
Llobregat. Se podía haber aplicado el principio de precaución, ¿el porque no se hizo? La
seguridad como bien se describe en el texto muchas veces no ocupa el vértice superior de
3
4. Manuel José Morales Martínez
(Graduado en Prevención y Seguridad Integral, EPSI-UAB)
los objetivos de las organizaciones, a no ser que ocurra una catástrofe. Entonces se actúa “a
posteriori” y como medida de urgencia para paliar sus efectos. A veces el tomar principios de
precaución significa tomar decisiones muy arriesgadas sin que aparezcan resultados a corto
plazo, y esto supone un riesgo que las personas u organizaciones responsables de su
ejecución y elaboración no están dispuestos a seguir.
La mayoría de nuestras instituciones, organizaciones e incluso nuestras empresas están
influenciadas por las actuaciones políticas que se realizan de forma global. Para pretender
un cambio en los estados más bajos, las empresas en las que trabajamos por ejemplo, se
deben desarrollar unos cambios gubernamentales y estatales que globalmente nos
impliquen a todos, marcando claramente la forma de actuar a todos los organismos
subordinados y así lograr una total implicación. Por ejemplo, como queremos implantar en
España innovaciones tecnológicas sostenibles ecológicamente si nuestro estado no
reacciona frente a las continuos aumentos de CO2. Son incongruencias por la falta de
sensibilidad y capacidad de decisión a nivel global. Finalizo preguntándome si muchas de
nuestras instituciones y organizaciones están preparadas para desarrollar convenientemente
estas teorías. Creo que los conceptos llegan con claridad, pero su aplicación efectiva deja
mucho que desear. Aunque se está evolucionando, creo que la tecnología sigue una
evolución tan continua y rápida que nos adaptamos a ella como buenamente podemos. No
es que sea escéptico, pero llevarlo a cabo va a ser un proceso lento y costoso que acaba de
comenzar y que necesita de la implicación total de los altos representantes internacionales
para su sensibilización.
4