SlideShare una empresa de Scribd logo
1 de 43
Descargar para leer sin conexión
CONFERENCIA SOBRE
"Epistemología política. Ciencia con la gente"
por SILVIO FUNTOWICZ
Buenos Aires, 31 de mayo de 1994
FLACSO / Serie Documentos e Informes de Investigación Nro. 178
CONFERENCIA:
"Epistemología política. Ciencia con la gente"
por SILVIO FUNTOWICZ
Realizada en FLACSO-Facultad Latinoamericana de
Ciencias Sociales
en Buenos Aires, 31 de mayo de 1994
INDICE:
Presentación......................................................................................................1
Introducción .......................................................................................................4
El Centro Común de Investigaciones de la Comisión Europea ...................... 5
Riesgo y conocimiento del público....................................................................7
Riesgo e incertidumbre ...................................................................................13
Riesgo tecnológico y reduccionismos.............................................................18
Ciencia posnormal...........................................................................................19
Sistemas complejos y ciencia posnormal .......................................................33
A manera de conclusión..................................................................................40
1
Presentación
El Programa de Planificación Participativa y Gestión Asociada de
FLACSO presenta a continuación la trascripción de la Conferencia que el
Lic. Silvio Funtowicz realizó el 31 de Mayo de 1994 en la sede de FLACSO.
El Lic. Funtowicz es un epistemólogo de origen argentino, formado en
filosofía de la ciencia; y, particularmente, en filosofía de las matemáticas
(1977). Desde 1981 vive y trabaja en Europa. En la actualidad se
desempeña como investigador en el Centro Común de Investigaciones que
la Comisión de la Comunidad Europea posee en Ispra, Italia.
Como plantea claramente Cecilia Hidalgo en el prólogo al libro que dio
nombre a esta Conferencia, la producción del Lic. Funtowicz "... tiene
amplias implicancias para la actividad científica propiamente dicha, pero
fundamentalmente para el accionar colectivo, responsable ante los
problemas planteados por el riesgo ambiental global y la equidad entre
pueblos, especies y generaciones. La complejidad de tales problemas
involucra de manera ahora explícita a muchos agentes hasta hace poco no
considerados. Todos los que ponen algo en juego en las decisiones públicas
tienen su lugar en el diálogo... y su participación adquiere el carácter de
esencial".
Este encuadre epistemológico señala la emergencia de una nueva
ciencia, la *ciencia posnormal*, en la cual la incertidumbre y los riesgos
que se asumen son cada vez mayores.
2
¿Cómo incorporar, entonces, esa incertidumbre en la búsqueda de
conocimientos?¿cómo incorporar lo "participativo" en cualquier gestión? Y
también ¿cómo vincular el reconocimiento de la incertidumbre, el riesgo que
se asume en la toma de decisiones y la posibilidad de que estas decisiones
correspondan a una asociación amplia de sujetos involucrados en los
problemas?
Quienes formamos parte del Programa de Planificación Participativa y
Gestión Asociada, hemos encontrado puntos de convergencia con los
trabajos de Silvio Funtowicz, para comenzar a responder estos y otros
interrogantes que se nos presentan en el desarrollo de nuestros proyectos.
En este sentido, su propuesta aporta elementos que enriquecen la
Metodología de Planificación que venimos aplicando y desarrollando desde
hace más de dos décadas.
La Metodología FLACSO es un camino probado, una forma de
practicar la ciencia posnormal. La Metodología FLACSO pone en
movimiento la construcción intersubjetiva de soluciones con la participación
de la gente: aquellos portadores de perspectivas parciales involucrados en el
problema a solucionar.
Frente a situaciones de alta conflictividad en las que la toma de
decisiones no puede dilatarse esperando obtener respuestas de la ciencia
aplicada o de la consultoría profesional, esta Metodología permite establecer
el estado del conocimiento actual entre quienes son portadores de
fragmentos de conocimiento -perspectivas disciplinares, sectoriales, en una
sola escala- y elaborar estrategias para la acción, asumiendo el riesgo en
3
común y "manejando" la incertidumbre presente al reconocerla e incorporarla
como parte de las estrategias planteadas.
Esta trascripción intenta respetar fielmente la forma expositiva y de
diálogo que tuvo la Conferencia de Silvio Funtowicz, prefiriendo mantener su
frescura, antes que desvirtuarla en procura de un lenguaje más académico.
Sólo hemos agregado puntuaciones a fin de reproducir por escrito la
entonación del diálogo y subtítulos para hacer más llevadera la lectura. Entre
corchetes aparece la traducción de algunas palabras o frases dichas en otro
idioma.
Queremos dejar constancia que, por haber estado a nuestro cargo la
desgrabación y posterior edición de este documento, cualquier error u
omisión es de nuestra exclusiva responsabilidad.
Claudia E. Natenzon
4
Introducción
1
Me gustaría anticipar lo que voy a desarrollar durante esta charla:
- En el inicio, contarles un poco qué es la institución en la cual trabajo,
fundamentalmente porque no es una estructura universitaria y
probablemente el tipo de experiencia que nosotros tenemos pueda ser
interesante para Uds. Una estructura de investigación no universitaria, un
poco diferente a la que Uds. puedan conocer acá en la Argentina (aunque
FLACSO podría ser dentro del ambiente universitario algo muy parecido,
porque reúne una diversidad de países latinoamericanos);
- después, explicar, describir cuál es el tipo de trabajo que nosotros
hacemos; en particular lo que pueda ser interesante para el tipo de actividad
que Uds. desarrollan;
- finalmente, referirme a mi trabajo especial, un trabajo de carácter
más conceptual, de creación de lo que nosotros llamamos una "nueva
estrategia de resolución de problemas" cuando ellos se refieren o son de
carácter complejo y global.
1
- Las opiniones aquí vertidas son propias de Silvio Funtowicz, y de ninguna manera reflejan
políticas ni perspectivas de la Unión Europea.
5
El Centro Común de Investigaciones de la Comisión Europea
En estos momentos, la Unión Europea es una asociación de doce
países; en 1995 van a entrar otros cuatro, que son los Países Escandinavos
y Austria, si el referéndum que tiene que cumplirse en esos países así lo
aprueba. Entonces, a partir del 1ro. de enero del año próximo la Unión
Europea estará constituida por 16 países.
El gobierno de la Comunidad está en Bruselas, Bélgica. La Comisión
Europea es la administración del gobierno de la Unión Europea. Hay una
Presidencia de la Comunidad que va cambiando, es rotativa; cada seis
meses otro país toma a cargo la Presidencia de la Comisión. En estos
momentos es Grecia, cuando termine este semestre comienza Alemania, y
así sucesivamente, en rotación.
Es un sistema, como Uds. ven, muy complicado. En Bruselas está
toda la administración. Hay un Presidente y existen las llamadas Direcciones
Generales, que se pueden comparar a Ministerios. La Dirección General
nro.12 es la de Investigación y se ocupa de administrar el programa de
investigación a efectuarse en el ámbito de la UE. En estos momentos se
esta terminando lo que nosotros llamamos el 3er. programa marco, y entre
1995 y 1998 se desarrollará el 4to. Programa Marco.
A cada línea de investigación le corresponde un presupuesto y se
desarrollan tareas para que las universidades y otras instituciones de los
países miembro puedan acceder a esos fondos a través de concursos.
6
Una de las características de investigación que nosotros tenemos -que
es muy importante y muy diversa de lo que se puede imaginar- es la idea de
subsidiaridad: nosotros no hacemos investigaciones que se puedan lleva a
cabo en cada uno de los países integrantes, no proponemos hacer cosas
que los países miembro puedan hacer solos. Por lo tanto, las líneas de
investigación tienen que ser inter europeas, tienen que ser de interés para
más de un país miembro. Eso garantiza un nivel de diversidad muy grande.
Todos los proyectos están creados de tal forma que son de interés general a
todos los miembros.
Y lo que se promueve es la cooperación entre distintas instituciones de
distintos países; consorcios o instituciones de 5 o 6 países. Estos grupos son
los que en general tienen más chances de ganar los concursos de
investigación. Por eso, problemas del ambiente, problemas globales, que
cruzan las fronteras, son de un gran interés para nosotros. Porque, en
general, no pueden ser tratados por una perspectiva única y particular.
Dentro de la Dirección General Nro. 12 de Investigación, existe lo que
se llama el Centro Común de Investigación, que es la institución a la que
pertenezco. Tiene sede en cuatro países europeos: Bélgica, Holanda,
Alemania e Italia. La que se encuentra en Ispra, en la región Lombarda
(norte de Italia) es la más grande y tiene 1500 personas trabajando entre
personal científico, técnico e infraestructura. El Centro está organizado en
Institutos.
Nuestro presupuesto tiene dos partes; una parte que se llama
"institucional", corresponde a investigación específica, y otra que llamamos
7
"competitiva" y es que nosotros salimos a ganarnos el dinero en
competencia como consultores (me parece que lo hacen Uds. también, que
en general aquí también se acepta). O sea que si algún gobierno nacional o
una institución requiere un estudio, un trabajo de investigación o de
implementación, entonces nos pueden contratar a nosotros para hacerlo.
Parte de eso es lo que se llama trabajo de sostén o ayuda a la política
comunitaria. En ese sentido, si la Dirección General del Ambiente, que es la
nro. 11, necesita de un input científico y técnico para desarrollar las
directivas y las leyes comunitarias en materia de medio ambiente, nosotros
podemos dar ese apoyo científico. Y así sucesivamente en áreas de
agricultura, de transporte, de biotecnología. O sea: nosotros proveemos los
elementos de carácter científico técnico para que después se establezcan
las propuestas de leyes que van a hacer efectivas en los estados miembros.
El problema es complicado, eso después pasa al Parlamento europeo y
tiene que ser incorporado a cada legislación nacional. Ahora me aproximaré
un poco más al tema de mi competencia.
Riesgo y conocimiento del público
Una de las leyes comunitarias que se acercan mucho al tipo de interés
de este Programa de FLACSO, es lo que se conoce como "la Directiva
Seveso". Yo he trabajado en este proyecto en los últimos años. La novedad
de esta directiva a la que me voy a referir es que, por primera vez en forma
explícita, se establece el derecho de los ciudadanos de la comunidad a estar
informados de los riesgos que corren -en particular en el área tecnológica- y
8
de esta forma participar activamente en la gestión de la planificación de la
protección civil y otras iniciativas que tiendan a garantizar la seguridad de las
personas, de los bienes y del ambiente.
Es un poco menos fuerte que el "derecho a saber", "the rigth to know",
norteamericano. En Europa es la primera vez que a través de una directiva
comunitaria se garantiza a los ciudadanos el conocimiento y la participación.
Hace casi veinte años, en 1976, hubo un accidente en una localidad
italiana, muy cerca de donde esta el Centro, que se llama Seveso. Ahí una
fábrica de productos químicos, en un accidente contamino el área de
alrededor con dioxina.
Lo interesante es que por varias días no se sabia -o la empresa no
quiso decir- que el elemento que había contaminado el área era dioxina. Eso
generó una serie de problemas, la evacuación de toda la población, etc. etc.;
y un gran debate acerca de que las autoridades, la protección civil, los
hospitales e incluso la gestión de la fábrica, no sabían qué hacer en casos
de una emergencia de ese tipo.
La historia es muy interesante, acabo de terminar un artículo para un
libro, un capítulo, que llamo "Seveso, un paradójico, clásico desastre" y va a
ser publicado por la Universidad de las Naciones Unidas, en un volumen
sobre desastres clásicos, que nos enseñan algo y que nos muestran
adelantos en el problema de la gestión y la participación. Otros ejemplos son
el de Miamata en Japón, el de Bopal en India, Chernobil en Ucrania y el del
Exxon Valdés en Alaska.
9
O sea, estos son desastres "clásicos" que han llevado adelante
cambios muy importantes en la legislación y en la forma de tratar y concebir
un desastre de carácter tecnológico y ambiental.
En ese momento, la publicidad decía que la dioxina, junto al plutonio,
era la sustancia más peligrosa de la tierra. Pero hasta la actualidad en
realidad no sabemos si es peligrosa o no. Después de casi veinte años de
investigaciones todavía se sigue discutiendo si la dioxina es tan peligrosa
como se dice.
La mayoría de la evidencia que existe contra la dioxina se basa lo que
se llamaba "agent orange", el agente naranja, que se usaba como
desfoliador en la guerra de Vietnam; por lo tanto no es evidencia que se
pueda tomar muy claramente en relación a las consecuencias que pueda
tener sobre la población. En Seveso, murieron animales pero personas no.
Después de veinte años los resultados epidemiológicos dicen que ciertos
tipos de cáncer raros aumentaron en número pero otros comunes,
disminuyeron.
Y lo que fue en ese momento un desastre de grandes proporciones a
nivel personal, a nivel de comunidad y a nivel político, que desencadenó
después la necesidad de establecer una ley para toda la Comunidad, hasta
hoy no se sabe si efectivamente -más allá de las tragedias personales y a
nivel psicológico y a nivel económico- tuvo consecuencias a nivel físico.
Todavía siguen discutiendo este punto. E incluso el hecho de que no haya
muerto nadie ni hayan aparecido defectos claros en la población, hace que
10
hoy en día el EPA [Environmental Protection Agency] en Estados Unidos
permita que se queme dioxina en ciertas localidades de Arkansas, sobre la
base de estos resultados de lo que fue considerado en su momento un gran
desastre de carácter ambiental.
Lo que estoy tratando de mostrar son los elementos de incertidumbre,
los elementos políticos de gestión, los elementos psicológicos y sociales, los
elementos culturales implicados en este caso.
La gente de Seveso era considerada como portadora de una plaga;
más o menos el síndrome de Seveso era similar a lo que hoy pueden ser
aquellos que portan el HIV. La gente se negaba a recibirlos en hoteles;
incluso es un área donde se producen muebles, y la gente no quería
comprar muebles de esa zona, tal era la psicosis que se creó en relación a
este accidente.
Yo quiero mostrarles todo el contexto y mostrar que si bien el
accidente fue muy simple desde el punto de vista técnico (hubo un defecto
de construcción del reactor químico que produjo un accidente en
circunstancias especiales y la dioxina fue enviada y depositada en los
alrededores de la planta) se convierte en complejo cuando uno estudia todo
el sistema en el cual este estuvo inmerso.
En ese momento se discutía en Italia y se estaba por votar el
referéndum sobre el aborto, y esto fue usado por unos y otros en relación a
la necesidad de que mujeres embarazadas pudieran abortar; y se hizo una
11
disposición especial que otorgaba el derecho al aborto a las mujeres de
Seveso.
También era la época del terrorismo en Italia; el encargado de la
fábrica de Seveso fue asesinado. Por lo tanto fue un accidente (si lo
podemos llamar así) de grandes proporciones, más políticas y sociales que
de carácter médico.
Como decía yo, el estudio de lo que paso en Seveso, junto con otros
accidentes que habían ocurrido en la Europa comunitaria, hizo que los
ministros decidieran que era necesario establecer una ley para todos los
países, que se ocupara de la seguridad industrial.
Y por primera vez, como consecuencia de los estudios que se hicieron
acerca del problema, se incluyó un artículo (el 8º), que dice que la población
de los lugares que están en la cercanía de una fuente de riesgo debe ser
informada acerca de los riesgos que corren. La legislación fue cambiada,
pero para reforzar esta disposición porque los países miembros decidieron
que eso no era suficiente sino que la información debía ser reiterada,
renovada y hecha de tal forma que diera a la población y le explicara cuáles
eran los riesgos. No era simplemente pasiva, sino que se definía como
pro-activa.
Por lo tanto, si pasaba un tiempo en el cual la gente se olvidaba, había
que ir de nuevo y volverles a informar; había que establecer cada fuente
(que se llama "sitio Seveso"), tenían que tener los planes de emergencia, se
12
establecía quién iba a ser la persona encargada de la difusión de la
información, etc., etc.
En ciertos lugares, como las escuelas, se crearon programas
específicos para que los chicos estuvieran enterados sobre cuáles podrían
ser los problemas, y a través de ellos y de sus escuelas se llegó a los
padres. Hay un programa que se puede ver en Cataluña, en la zona de
Tarragón, lugares en los que hay una concentración de sitios Seveso muy
importante, en el cual el maestro de cada clase es el encargado; como una
materia más de estudio esta la materia de la seguridad, lo que hay que
hacer, cuáles son los riesgos, y quiénes los responsables.
Estuve a cargo de la parte de cómo hacer para comunicar esta
información. Porque en general todos estaban de acuerdo en que había que
hacer que la comunidad afectada, primero conociese los riesgos y, en
segundo lugar, participase en el desarrollo de los programas de protección
civil. El problema es que nadie sabía cómo hacerlo.
En general toda la parte de seguridad industrial estaba en manos de
ingenieros, de científicos químicos o físicos, y la parte de los aspectos
socioculturales, antropológicos y comunicativos se desconocía totalmente.
En 1989 empecé a trabajar en este programa, tratando de establecer cuáles
eran las líneas de guía para informar a la población. De acuerdo a mi
trabajo, entendí en ese momento -y entiendo hoy- que no bastaba la
información; lo que hacía falta era un proceso de comunicación. No es que
simplemente uno le dice a la gente lo que tiene que hacer sino que hay que
establecer un proceso comunicativo para que la gente no sólo entienda sino
13
que se haga cargo de la responsabilidad e incluso de establecer cuáles son
los planes de protección civil y actúe en forma coherente en el momento de
un incidente.
Pero para establecer una comunicación, hace falta establecer las
relaciones sociales. El proceso comunicativo es el resultado de una relación
de carácter social que se establece entre participantes. Por lo tanto la
comunicación o la información aislada no sirve, sino que tiene que estar
comprendida dentro de un proceso de participación de la gente, de todos los
que (en inglés yo llamo "stake holders"), o sea todos los que están
interesados en el problema, en el conocimiento de los riesgos pero también,
en la gestión de la emergencia.
Riesgo e incertidumbre
Ahora bien, ¿por qué me encargué de eso? Aquí voy al trabajo que
hice, que me gustaría desarrollar ahora, y que comienza en el año 1981, en
Inglaterra, cuando me empiezo a interesar por los problemas de riesgo,
primero tecnológicos y después ambientales. Yo trabajé hasta el año 1980
en Buenos Aires, en el Posgrado de la Universidad de Belgrano sobre
Metodología de la Investigación, y como Adjunto de Gregorio Klimosky, en
Fundamentos de la Matemática. Y en ese momento yo estaba interesado en
los problemas metodológicos de la ciencia.
Cuando llegue al Depto. de Filosofía de la Ciencia en la Universidad
de Leads, en el norte de Inglaterra, me enteré que había algo que se
14
llamaba riesgo. Porque acá todavía no era un tema que siquiera se
conociera. No hablemos de estudiarlo, y menos aun con gente de ámbitos
de la filosofía o de la epistemología o de la metodología científica. Incluso, a
nivel de la matemática, donde soy graduado en primer lugar, no se conocía
demasiado este tema. No se enseñaba para nada en ninguna de las
estructuras universitarias o de investigación. O sea, yo me enteré que había
algo que se llamaba riesgo -en ese momento riesgo tecnológico- y me
pareció un tema interesante, sobre todo en relación al problema científico:
cómo es que la ciencia se usa para la gestión de riesgo tecnológico, y si es
legítimo el uso que se hace de la ciencia en la gestión de los riesgos.
Ese es un problema que a mi me pareció, para un metodólogo, para
un epistemólogo, fascinante; es que a mi me interesaban los problemas
prácticos, no soy un filósofo de la ciencia pero soy un filósofo de la ciencia.
En este sentido: yo no hago filosofía de la ciencia pero me interesa la
filosofía de la ciencia, en tanto saber cómo se hace la ciencia. O sea, me
interesa cómo se desarrolla, cómo se practica la ciencia. Me interesan los
científicos y lo que están haciendo, y yo trato de hacer una especulación, un
análisis, de lo que se esta haciendo, no de las cosas como deberían ser.
En un sentido, la filosofía de la ciencia se aisló totalmente de la
ciencia. ¿Que hacen los filósofos de la ciencia? se ocupan de la filosofía de
la ciencia. A mi me interesa la ciencia en acción. Yo trato de hacer filosofía y
metodología sobre la ciencia en acción, la ciencia en contexto, la ciencia de
la sociedad.
15
Por lo tanto, el uso legitimador de la ciencia en el proceso de riesgos,
en primer lugar tecnológicos y luego ambientales, era muy importante. Yo en
ese momento quería estudiar si era un uso legítimo. Y por lo tanto -en
nuestra ingenuidad- nosotros empezamos a desarrollar el programa en el
año '81, para tratar de ver si efectivamente la ciencia era utilizada de manera
correcta.
El primer problema como filósofo que uno tiene que afrontar en ese
momento es decir "riesgo, pero ¿qué cosa es el riesgo?". Porque tenemos
que saber de qué estamos hablando.
En un principio, el problema interesante desde el punto de vista
metodológico es tratar de determinar qué es un riesgo, por eso yo traté de
establecer cual era la operacionalización de la noción de riesgo. Tratamos
de ver cómo se mide, cómo se define este concepto.
Lo que inicialmente llama la atención es la relación entre la noción de
"riesgo" y la noción de "incertidumbre". Si hay acá economistas entre
nosotros, saben que los que se ocuparon de eso, en primer lugar, fueron los
economistas. En 1921 Frank Knigth en el libro que se llama "Risk,
Uncertainty and Profit" ["Riesgo, incertidumbre y beneficio"], establece la
distinción básica entre incertidumbre y riesgo, a la que después los
economistas van a seguir haciendo referencia en los años posteriores.
Knight establece una distinción fundamental entre "riesgo", que es
cuando se puede asociar a cierto evento una distribución de probabilidad; e
"incertidumbre", que es cuando no se puede. En otras palabras (para no
16
entrar en tecnicismos porque simplemente estoy tratando de hacer una
historia) riesgo es una incertidumbre cuantificada; o sea que cuando le
podemos asociar un número a la incertidumbre, tenemos el riesgo.
Esto tiene mucha importancia porque de hecho, lo que esta diciendo
Knight es que existen situaciones que no pueden ser cuantificadas y estas
son de "incertidumbre estricta". Usa la noción de incertidumbre estricta, no
cuantificable, para explicar el desarrollo del "entrepreneur"; pero aquí, lo que
es interesante es la época.
En 1921 el único sistema de probabilidades que se conocía o que
existía era el llamado de probabilidades "clásicas", "frecuencial" u
"objetivas". Por lo tanto esta distinción de Knight parecía tener sentido. Pero
en los años '20 comienzan a desarrollarse los sistemas de probabilidades
"subjetivas" y es interesante ver que es otro economista, J. M. Keynes, el
que desarrolla en primer lugar un sistema de probabilidades que llama
"personales" o "subjetivas", e inicia la tradición en probabilidades o
estadísticas que hacen uso del teorema de Bayes.
Es interesante como introduce Keynes las probabilidades personales.
El dice que los ingleses están muy habituados a apostar a los caballos, por
lo tanto la gente tiene un conocimiento intuitivo acerca de lo que es una
apuesta y cuantos son los valores en juego. Entonces, la pregunta que uno
se hace es: una vez que tenemos probabilidades de carácter subjetivo o
personal ¿cuál es la distinción básica?, si la distinción de Knight ya no existe
más, porque en realidad uno personalmente, de manera subjetiva, puede
ponerle números a toda la incertidumbre.
17
De esta manera, a través del desarrollo de lo que podemos llamar las
"probabilidades no objetivas" nosotros podemos cuantificar todas las
situaciones de incertidumbre. Y hemos convertido todas las incertidumbres
en riesgo. Uno puede saltar a esto rápidamente: el problema que tenemos
es el gran salto de carácter metodológico porque de algo que se definía
como objetivo -que era la frecuencia o la probabilidad clásica- pasamos a
una opinión de carácter personal. Y por lo tanto, la legitimación científica
debe ser cambiada. Entonces, los economistas -ver cualquier libro reciente
de economía ambiental- comienzan por citar la definición básica de Knight
diferenciando riesgo e incertidumbre, pero después se la empuja fuera; la
distinción se establece y después, es como si no existiera más, porque todo
se convierte en riesgo, todo es cuantificable.
Existen excepciones a la regla, pero no forman parte de la tradición, lo
que podemos llamar el "main stream" [corriente principal] de la Economía o
de ninguna otra ciencia.
Riesgo tecnológico y reduccionismos
Y esto fue lo que nosotros descubrimos. En 1981 existían dos formas
de tratar el riesgo (en ese momento, el riesgo tecnológico, porque todavía no
se hablaba tanto del ambiente; era una cosa que no existía, o del cual se
recibían cosas gratis y a la cual se le echaban las cosas que no servían, eso
era el ambiente: externalidad).
18
Pero la tecnología sí, los riesgos tecnológicos sí existían, porque en
ese momento se discutía sobre los riesgos de la tecnología nuclear. Por lo
tanto este era un problema importante. Existían dos formas de tratar los
riesgos de manera reduccionista.
La primera era la reducción usando los sistemas de probabilidad
subjetiva o los métodos que se llamaban de "elicitación de la opinión de
expertos"; en otras palabras, la cuantificación de opinión o creencias de
expertos. Y esto se traducía en un número que decía cual era el riesgo de un
accidente en una cierta instalación. Eso se usaba a través de técnicas tales
como el MAUT [Multi-Attribute Utility Theory; teoría de las utilidades multi
atributo] y el "cost benefit análisis" [análisis costo-beneficio], para deberminar
la localización de instalaciones peligrosas.
El otro tipo de reduccionismo, que nos interesa a lo mejor más porque
se refiere a las ciencias sociales, era el reduccionismo antropológico. En un
libro que causó mucho impacto en ese momento, "Riesgo y cultura", Mary
Douglas y A. Wildavsky plantearon que cada sociedad elige los riesgos que
decide exaltar o resaltar, que el riesgo -en este caso, el riesgo relacionado
específicamente a la energía nuclear- no era importante, era una cuestión de
gustos. Y que si había gente que se oponía a la energía nuclear no era por
la energía nuclear en sí, sino porque se oponían al gobierno central; o sea,
el riesgo era un instrumento para la oposición de grupos marginales o
contrarios a una política central.
En ese momento cuando nosotros empezamos a trabajar, existían
estas dos alternativas, o reduccionismos de este tipo, que decía que en
19
realidad riesgo no tenía ninguna importancia, que era simplemente un
instrumento de lucha política, o aquellos que decían que el riesgo puede ser
cuantificable en todos los casos y que una cierta predicción acerca de lo que
iba a pasar o no pasar, se podía hacer.
Ciencia posnormal
Entonces, nosotros producimos una alternativa que después continuó,
fue modificándose y hoy llega a lo que llamamos "ciencia posnormal".
Nosotros propusimos en ese momento distinguir estrategias de resolución
de problemas en relación a dos aspectos, uno que llamábamos la
"incertidumbre del sistema" y el otro que llamábamos "cual es la apuesta en
juego". De acuerdo a esto nosotros distinguíamos entre tres estrategias de
resolución de problemas, en relación a los problemas de riesgo.
Quiero decir algo más en relación a riesgo. Cuando los economistas
pasan al problema de los riesgos tecnológicos hay una transformación muy
importante en la definición de riesgo y en su operacionalización. No es más
simplemente la posibilidad de asignar un número a un evento. Cuando se
habla a fines de los años '70 o en los '80 de riesgo, asociado a la nueva
tecnología o industria, se agrega como segundo elemento las
consecuencias, la magnitud de las consecuencias. O sea, riesgo no es
solamente la posibilidad de que suceda algo, sino la posibilidad de que
suceda algo a lo que se le agrega cual puede ser la magnitud de las
consecuencias.
20
En otras palabras, puede ser simbolizado como una función de una
cierta probabilidad y es donde, en "p" dice cual es la probabilidad o la
posibilidad de que suceda algo y en "x" se mide cuanto pueden ser las
consecuencias:
F (p,x)
Ahora bien, recuerden Uds. la historia que conté de Seveso ¿cómo es
posible allí cuantificar las consecuencias de contaminación con dioxina? Si
todavía no sabemos si existe una consecuencia. Y si existió una
consecuencia, fue en el área de la interrupción de la vida normal, en los
daños mentales, psicológicos, económicos. O sea, esto va muy bien cuando
yo digo: tengo una maquina que produce tantos tornillos por hora y un
porcentaje de estos tornillos es defectuoso. Yo se cuanto me cuesta cada
tornillo, por lo tanto el riesgo va a ser la probabilidad de que salga un tornillo
defectuoso y esto va a ser el costo del tornillo final.
Pero es muy diferente en el caso de un accidente y una instalación
tecnológica que produce una sustancia de la que no se sabe bien cuales son
las consecuencias que tiene para la salud. Y que esas consecuencias
pueden aparecer dentro de 50 años, dentro de 100 años, dentro de 2000
años.
Otra cosa: ¿por qué se trataban así los problemas? -ya que a nosotros
nos interesa también saber porqué se trataban esos problemas así-,
¿porqué se trataba de resolverlos a través de una reducción de todo a la
cultura de una sociedad o a través de la posibilidad de asignar un número y
21
predecirlo? Esto es un síntoma de un cierto mecanismo sociocultural o
desarrollo histórico; y claramente tiene que ver con la tradición moderna y el
papel de legitimación que ha tenido la ciencia en las sociedades de nuestra
civilización.
¿Por qué? La idea de que un accidente es un "accidente" es muy
interesante, porque dice que un accidente es una cosa excepcional; que si
las cosas funcionan bien, las cosas van a andar bien. Sólo
excepcionalmente aparece el accidente. Y nosotros nos ocupamos de esta
cosa excepcional: el accidente. Cuando que en realidad no es así, el
accidente es otro producto natural del sistema funcionando. Por lo tanto, un
sistema tecnológico produce bienes, pero también produce males.
Nosotros siempre nos hemos concentrado en los bienes que produce,
sin pensar en los males. Que son también una producción natural del
sistema funcionando correctamente. Y este es un concepto fundamental.
En un artículo que publiqué hace dos años definía a los sistemas
tecnológicos como "sistemas generadores de incidentes". El incidente es un
output, una salida normal del sistema funcionando bien.
Otro ej.: Todos nos hemos enterado del problema del Exxon Valdés,
cuando un barco petrolero tuvo un accidente en la costa de Alaska y se
contaminó toda esa zona con petróleo. Pero la cantidad de petróleo que
salió en esa oportunidad es menor a aquella con la cual se contaminan los
mares continuamente por operaciones de rutina de los barcos petroleros.
Porque ellos lavan el interior continuamente, como parte de la operación
22
normal. Los depósitos donde almacenan combustibles y otros productos
químicos, petrolíferos y derivados, pierden naturalmente, y lo que pierden
naturalmente es más importante que lo que puede suceder en un desastre.
La contaminación rutinaria es más importante que la contaminación
excepcional.
Pregunta: ¿Una es considerada accidente y la otra no?
Respuesta: La otra no.
¿Porque nosotros prestamos más atención al accidente que a la
rutina? Es muy simple: Porque el primero tiene costos políticos. O sea, el
accidente tiene que ver con lo que un sistema político puede tolerar. Un
sistema puede tolerar que haya miles de muertos en accidentes de tráfico,
pero no puede tolerar cinco muertos en un incendio en un ferry.
Esto me lleva a estudiar el accidente no como una situación especial
sino como parte de la dinámica de un sistema complejo. Yo podría extender
la metáfora más y decir así: Si uno estudia el sistema económico mundial,
puede pensar que si se destruyen ciertos países usándolos como basureros
de residuos tóxicos, uno puede pensar que el resultado es la emigración. Por
lo tanto, si uno fija el precio de las "commodities" [materias primas], y hace
que ciertos países -en general, los países pobres- tengan que vender ciertas
"commodities" a un precio muy desventajoso, el resultado puede ser que un
productor en lugar de plantar bananas produzca coca. La prostitución, la
droga, la emigración, son los "disutilities" [desventajas], los "bads" [males]
23
que forman la otra cara de la moneda de los "utilities" [ventajas], de los
"goods" [bienes], como parte del funcionamiento normal del sistema.
Pregunta: ¿Podría desarrollar su definición de sistemas complejos?
R: Si, pero más adelante; porque mi estilo es tratar de contar una
historia que tenga sentido, que parezca verdadera y después vamos a tratar
de acercarnos a una definición más formal, más clara, acerca de ciertos
conceptos. Yo creo que la gente tiene más o menos una idea intuitiva de lo
que es un sistema complejo. Yo después voy a mostrar que es equivocada.
Hemos trabajado bastante en tratar de entender qué es la
incertidumbre. Y tratar de ver como es la historia, desde los griegos, en
términos de que nuestra sociedad es una civilización que ha tratado de
eliminar o exorcizar la incertidumbre. La búsqueda de la certidumbre es un
elemento fundamental de nuestra civilización.
De esta forma puedo decir que toda la idea del método científico y de
la ciencia como factor de legitimación de la acción o de la política esta
basada en la idea de que podemos eliminar la incertidumbre. Y en general,
eliminar la incertidumbre que proviene de la pasión, como decía Hume.
Todo el proyecto científico moderno apuntaba a eliminar la pasión,
porque este es el elemento que puede introducir más incertidumbre. O sea,
el proyecto era eliminar del cálculo todo lo que se refiere a valores, a
intereses, a pasiones. De tal manera que podemos obtener un resultado
24
que, en términos tradicionales, es neutral, es "value free" [libre de valores].
Esta es la historia que se cuenta, es parte del mito.
Por ejemplo: Cómo la estadística, a través del test de hipótesis, no es
más que una forma de reducir la idea del peso de la prueba. El "peso de la
prueba" no es un concepto científico. El test de hipótesis o los límites de
confianza es la mención de un concepto que tiene que ver más con la
tradición, la historia, de una cierta sociedad y que se refiere al peso de la
prueba. Es muy importante para la gestión ambiental: ¿quién tiene que
probar qué cosa? Porque sabemos que de esto depende todo lo demás.
Cuando hoy en materia ambiental se habla del principio de precaución lo
que se esta intentando hacer es cambiar el peso de la prueba. Y ¿por qué
se intenta hacer eso? Precisamente por la incertidumbre.
En otras palabras, el peso de la prueba es una idea que tiene que ver
con qué tipo de error estamos tratando de prevenir o de evitar. Lo que los
economistas llaman "error costs" o en estadística se llama errores de "tipo 1"
y "tipo 2". En términos jurídicos, la legislación anglosajona establece que es
mejor que un criminar sea declarado inocente a que una persona inocente
sea declarada culpable. Es un principio fundamental, pero que no tiene nada
que ver con la ciencia. Tiene que ver con la cultura, tiene que ver con la
tradición histórica.
¿Qué tipo de error nosotros estamos tratando de evitar cometer con
relación al ambiente? ¿Quién tiene que probar qué cosa? ¿Es la defensa o
es la acusación? ¿Son los que contaminan los que tienen que probar que no
contaminan o son aquellos que se oponen a un determinado tipo de
25
actividad que tienen que probar que esa actividad es contaminante? De ahí
se deriva todo. Y este no es un problema científico.
Ya en relación a los problemas tecnológicos, Alvin Weinberg, que fue
uno de los creadores del programa nuclear norteamericano, creo el termino
"trans-science" en un editorial de la revista científica Science, en la década
del 70. ¿Qué es lo transcientífico?. El lo definió de la siguiente manera: un
problema es transcientífico cuando puede expresarse científicamente pero
no puede resolverse científicamente. O sea, parece problema científico,
porque podemos usar el lenguaje científico para expresarlo, pero no tiene
solución dentro de lo que es la ciencia y la actividad científica.
Weinberg se refería a un problema muy específico, a las radiaciones
rutinarias de las fuentes de energía nuclear. No aquellas de los accidentes
sino aquellas de rutina, "low radiation" [baja radiación]. Y el decía que para
resolver el problema científicamente -en el sentido experimental- había que
usar una cantidad de ratas de laboratorio tan grande que era incluso enorme
para los Estados Unidos. O sea que si bien se podía plantear la posibilidad
del experimento, no era posible implementarlo.
Si bien es muy interesante esta idea, y fue aceptada (después publicó
un artículo en la revista Minerva que se llamaba "Science and Trans
Science" [Ciencia y Transciencia], en la cual explicaba esto con más detalle),
a mí no me convence demasiado, porque parece que soló se trata de un
problema de factibilidad. Parece que simplemente si toda la humanidad, a lo
largo de toda la historia se pusiera como empresa el resolver ese problema,
científicamente lo podría hacer. Podemos incluso imaginar un experimento
26
mental. O sea, yo me puedo imaginar un experimento que pueda resolver
eso.
No se si en Argentina se conoce a este autor que se llama Douglas
Adams, que escribió una serie de libros muy interesantes, que comenzaba
con "La guía del que hace dedo al Universo", y todo el libro era en realidad
un gran experimento al final del cual la respuesta era 42. O sea, si nosotros
pensamos toda nuestra historia en términos de un gran experimento al final
podemos pensar también en un número 42 que sea el resultado; o podemos
pensar, como Tolkien en el cuento Silmarillion, que en realidad esto no es
más que parte de un gran experimento que hace dios para mostrar que uno
de los ángeles sonaba la melodía incorrecta. Sustancialmente no hay
ninguna diferencia cualitativa, es un problema de recursos.
En cambio, para nosotros, los problemas de este tipo son
cualitativamente diferentes. No es simplemente un problema de decisión de
toda una civilización a hacer o a imaginar el experimento. Y nosotros
llamamos a eso la "ciencia posnormal".
En estos diez o más años en que nosotros estamos trabajando este
tema, no sólo nosotros cambiamos, envejecimos, etc. sino también el mundo
cambió. La forma como miramos las cosas cambió. Ahora los problemas
tecnológicos están subsumidos en lo que podemos llamar "problemas
ambientales". Mientras que en los '80 no se hablaba de esto, no solo acá
sino que tampoco en el resto del mundo. Eran pocos los que hablaban de
civilizaciones globales, de las relaciones globales.
27
Ahora tenemos conciencia de que existen los problemas ambientales,
quien más o quien menos. La leche es ecológica, el detergente es
ecológico... Es decir que no sólo reconocemos estos problemas sino que
además, este reconocimiento esta apropiado por el sistema. Lo que es un
reconocimiento de que esto ya forma parte de nuestro bagaje cultural.
La otra cosa que cambio se refiere a la actividad científica en sí.
Nosotros empezamos con la definición de Knight, el primer sistema de
probabilidades personales de Keynes, y esa línea continuó. Ahora bien,
¿porqué son los economistas los que se ocuparon de esta distinción y
comenzaron a desarrollar este sistema? Hay otros que se ocuparon,
aquellos que desarrollaron los fundamentos en relación a la evidencia, tales
como K.Poper. Pero esto tenía muy poco que ver con las actividades de
todos los días.
Entonces, fueron los economistas los que se ocuparon de este tema
porque eran los que influían en las decisiones de todos los días. Cumplían
un rol muy importante en el proceso de decisiones. Por lo tanto tenían que
tratar con la incertidumbre de manera práctica.
Eso continúa y durante la segunda guerra mundial surge lo que
después se llamo "decisión analysis" [análisis de las decisiones], o más
frecuentemente, "policy analysis" [análisis de las políticas]; son las teorías
formales de decisión que surgen y se desarrollan, pero que no son más que
una continuidad de la extensión del concepto de probabilidades. ¿Porqué
surgen y se desarrollan? Es por el éxito que tuvo el uso de estas técnicas en
28
problemas de transporte y logística militar. Wiener y Von Neumman
resolvieron el problema de las colas: El problema de transporte de las
fábricas e industrias hacia los puertos, y el problema de transporte de los
puertos americanos a Europa.
Sobre la base de ese éxito se desarrolla lo que fue llamado la "teoría
de la decisión". Y es interesante que en primer lugar eso da origen a algo
muy restricto, no por eso menos importante, que es la investigación
operativa. Pero eso mismo daba origen a la "teoría del juego" que se ha
usado para la estrategia nuclear o la estrategia del terror.
Y acá nos acercamos a algo que se hacía cuando yo hablaba de los
tornillos. Es el mismo salto. Porque un problema es saber cuáles son las
industrias, cuáles son las minas, los lugares, las fuentes de recursos, los
puertos y a donde hay que ir, etc.; los problemas de logística, en donde más
o menos todo se sabe (de la misma manera que se sabía cuantos tornillos
defectuosos produce una máquina, y cuanto cuesta cada tornillo) y otro
cuando se salta a un problema de estrategia nuclear. La culminación, que a
su vez es la derrota, de esta concepción es el uso de las estrategias
decisionales para la planificación de la guerra de Vietnam, donde los
sistemas formales decían "la guerra se ha ganado", cuando en realidad se
perdió.
Sin embargo, la inercia de la legitimación científica y de los procesos
formales es tan fuerte y los intereses son tan grandes, que la evidencia no
es suficiente. Pero es interesante que las probabilidades que son subjetivas,
los sistemas de elicitación de opiniones de expertos, la teoría de juegos, se
29
continúan desarrollando; en este caso, ya no aplicadas a la estrategia
nuclear sino al nuevo problema, que es el del riesgo tecnológico: dónde
ponemos una instalación peligrosa, cómo decidimos si ella es peligrosa o no.
Por lo tanto se produce un cambio cualitativo. Toda esta gente que
esta haciendo sistemas formales, se dedica al problema de riesgo. Los
nuevos clientes, el nuevo mercado está en ese ámbito, sobre todo en
Estados Unidos.
Y se empiezan a aplicar todas estas "teorías de decisiones en
contextos de incertidumbre", incertidumbre reducida a riesgo a través de
cuantificaciones. La base ideológica de estas teorías es el utilitarismo; es el
individuo aislado, egoísta, tratando de maximizar su beneficio personal. Y
esto tiene una tradición bastante explícita. Eso es el sustento ideológico de
todas las teorías formales de decisión.
Pero en el transcurso de cambiar el problema, el fondo del problema,
lo que se hace es un salto muy grande de carácter epistemológico y
metodológico. Ahora lo que estamos tratando de cuantificar es la opinión de
ciertos expertos. No hablamos más de experimentos. No es más el resultado
de usar datos de carácter controlado sino que el dato, en estos momentos,
es la opinión de un experto. Y como decía Savage, que en los principios de
los años 50 desarrollo otro sistema de probabilidades subjetivas: "Y ¿cómo
hace Ud. para elegir a su experto?". Es un problema interesante. El decía:
"Ud. elige el experto que le ha hecho ganar más dinero en el pasado". (Lo
escribe en un libro sobre introducción a la teoría de la probabilidad).
30
Y este problema es el meta-problema que ahora tenemos. O sea,
podemos licitar la opinión de un experto pero ¿cómo elegimos al experto?
Hay un problema interesante, todos nos estamos "avivando". Por lo tanto,
comenzamos a subir el meta-nivel; hacemos las cosas ya pensando en los
problemas y cómo contraatacarlos. Ya no se habla más de optimización. Se
va a un concepto que puede ser el de Simon, de "satisfying" [lo que da
satisfacción]. O incluso hoy se habla de "defendible"; el sistema nuestro hoy
tiene que ser defendible. Y esto me hace acordar un poco cuando nosotros
estudiamos los modelos de explicación, donde uno comienza con el modelo
de explicación nomológico-deductivo, y después, como hay cosas que
suceden, uno comienza a debilitar las condiciones, y al final todo es posible
con la explicación.
De la misma manera ahora, el modelo lo único que tiene que hacer es
ser defendible; esa es una condición suficiente. Ya no se trata más de
optimizar, porque nadie más cree en la optimización. O incluso los que
creen, saben que no la pueden defender.
Lo otro que está pasando es que todas estas nuevas modas formales
tienen una curva. Surge una moda, todos los investigadores hacen eso y
vuelven a dejarlo cuando aparece una nueva moda. Y el tiempo de duración
de cada una es cada vez menor. Las probabilidades subjetivas duraron
cuarenta años, las otras van durando cada vez menos (¿cuánto duró la
teoría de catástrofes?¿o de los fractales y el caos?). Todos son sistemas
para resolver el problema de la incertidumbre, o distintos tipos de
incertidumbre. El problema que tratan de solucionar los conjuntos borrosos,
es el de la ambigüedad lingüística, según dicen.
31
El hecho es que cada moda de estas, no es que no sirve para nada. Al
contrario, sirve. Por ej. el sistema de lógica borrosa se usó en los chips. Pero
para lo que sirven no es precisamente para lo que fueron creados. Y lo que
se necesita que hagan no es precisamente lo que hacen. Esos sistemas
formales fueron creados para resolver problemas de decisión. Y este es el
problema que no resolvieron.
Pero no solo la frecuencia aumenta y las modas cambian muy
rápidamente. Todas estas cosas nos hicieron más "piolas". Por ej. la teoría
de catástrofes nos enseñó que las cosas pueden cambiar dramáticamente
de forma incontrolable de un momento a otro. El caos nos enseña que la
dinámica de sistemas complejos es impredecible e incontrolable.
Hoy hemos llegado a cerrar el círculo y volvemos a nada. Hoy nuestra
concepción de cómo son los sistemas que estudiamos y en los cuales
nosotros vivimos es un sistema en el cual existe la incertidumbre no
cuantificable. Reconocemos que existe una incertidumbre no reducible.
Comenzamos en una época en la cual todavía había una batalla entre la
teología y la ciencia. Por lo tanto, nociones como "sistema" en términos de
von Bertalanfy, o de "entelequia" o de "vitalismo" (principio vital), para los
científicos eran sospechosas, porque toda la tarea, todo el programa, era
eliminar eso del proyecto de la ciencia.
Por lo tanto todo lo que fuera principios de ese tipo o nociones
sistémicas era sospechoso de introducir la "mística" de alguna forma,
32
entidades de ese tipo. Y esto tiene que ver también con cuál era el
paradigma científico, las ciencias referentes: la física-matemática.
Hoy sucede que ese paradigma esta siendo reemplazado, en forma
similar. Y en su lugar esta surgiendo como ciencia paradigmática la biología.
No es extraño que la economía neoclásica se haya moldeado como la física.
Y que ahora la nueva economía comience a ver problemas de
termodinámica, de entropía, etc. que corresponden a un nivel de los
sistemas disipativos y de la ecología. Y esto pasa en todas las disciplinas.
Podemos decir, es la nueva moda en un sentido. Ahora los sistemas son
complejos. Los psicólogos hablan de problemas complejos, los
antropólogos, los sociólogos. Todos hablan de sistemas complejos. Uno no
es un científico serio si no habla de sistemas complejos, en el mismo sentido
que uno no era serio si no hacía teoría de catástrofes. Si la geografía no
hacía modelos matemáticos no era científica ¿cierto?.
Sistemas complejos y ciencia posnormal
Hablemos entonces un poco de qué es un sistema complejo (no voy a
hacer termodinámica ni ecología de sistemas). "Sistema complejo" no es un
sistema complicado; tampoco tiene que ver con los números complejos.
Sistemas muy simples pueden ser complejos. Como Uds. saben el problema
de los dos cuerpos tiene solución en física y el problema de los tres cuerpos
no tiene solución (por eso en comercio, un problema tiene solución cuando
involucra a dos países y no cuando son tres, pues está tomado de la física).
33
Complejidad no tiene nada que ver con complicación. Tiene que ver
con otras cosas: con las interacciones, con la interdependencia, con la
naturaleza de los mecanismos disipatorios, con la jerarquía del sistema y
sobre todo, con la auto organización.
Nosotros tratamos de proveer una definición de sistema complejo o de
problema complejo, equivalente a las definiciones que se pueden dar en
termodinámica, o incluso en ecología de sistemas. Pero expresado un poco
más en términos socioculturales. Un sistema, un problema, es complejo
cuando existe una pluralidad de perspectivas legítimas que no son
reducibles una a las otras. O sea, uno tiene distintas perspectivas, visiones,
que no pueden ser reducidas unas a las otras. En términos de teorías, no
existe una teoría que las abarque a todas.
Y sobre la base de esto nosotros formulamos una idea acerca de
cómo se hace la ciencias posnormal. ¿Cuáles son las características que
tienen estos sistemas, estos problemas, de los cuales se ocupa esta ciencia
que llamamos posnormal?
En primer lugar los hechos son inciertos. Clásicamente un hecho es un
hecho, no hay incertidumbre en un hecho. Y acá los hechos son inciertos.
En segundo lugar los valores están en disputa. Hay conflicto de
valores.
En tercer lugar, lo que esta en juego es muy elevado. La apuesta en
juego es alta.
34
En cuarto lugar, las decisiones son urgentes. No se puede esperar.
Si Uds. lo piensan haciendo un poco de historia, pueden ver que cada
una de estas características es totalmente diversa a las condiciones de la
ciencia normal.
Nosotros decimos que cuando la incertidumbre es de carácter técnico
y la apuesta en juego es baja, lo que tenemos es ciencia aplicada. Que
cuando la incertidumbre crece, es de carácter metodológico, y también crece
la apuesta en juego, tenemos lo que se llama actividad profesional, un
ingeniero, un arquitecto, un médico, que usan ciencia aplicada pero que no
es un científico aplicado. La naturaleza del problema cambia, la
incertidumbre cambia, el costo también. Los practicantes de este tipo de
solución, son distintos a los científicos; está visto por el tipo de contrato
social que tienen. El contrato social de un ingeniero, de un médico, es
distinto al de un científico. E históricamente, ellos han creado su colegiación
que negocia su contrato social con el estado o con su estructura jurídica.
Históricamente, por ej., el código de Hammurabi ya establecía estas
condiciones, ya legisla acerca de cuánto va a pagar un ingeniero si la casa
se cae: lo paga con la vida. Ningún científico pagó con la vida equivocarse
en teoría. O sea que el costo a nivel personal es alto. Otro ejemplo es el
contrato social de los médicos en la sociedad china, que se les pagaba
mientras la persona estaba sana.
35
Cuando la incertidumbre es de carácter epistemológico o ético, o la
apuesta en juego es muy elevada, tenemos lo que nosotros llamamos la
ciencia posnormal. Esta ciencia posnormal no es nueva.
La cosmología es un ejemplo de ciencia posnormal. Una reunión sobre
cosmología no puede ser integrada solamente de astrofísicos; teólogos
también pueden hablar de cosmología. Quiere decir que la legitimidad debe
ser extendida a otros. No se puede "cerrar" la legitimidad. Es decir, nosotros
somos los expertos en cosmología.
Y los mismos científicos juegan con esto. Y tenemos a Dawkins y a
Hawkings diciendo que ellos conocen "la mente de dios". Ellos mismos
juegan con la ambigüedad, para convertirse en personalidades de televisión.
La cosmología, entonces, es un ejemplo de ciencia posnormal en el sentido
de que ningún cosmólogo puede cerrarle la puerta al otro en forma legítima.
Hay otro caso en donde a lo mejor la incertidumbre es baja para
comenzar, pero la apuesta en juego es muy elevada: El Exxon Valdés, de
nuevo. ¿Cuánto tiene que pagar Exxon en reparación por la contaminación
petrolífera? En principio, existe lo que se llama la "evaluación de
contingencias", teoría de los economistas que se usa para calcular esas
cosas.
Lo interesante es esto: como Exxon no estaba conforme con lo que
tenía que pagar, contrató a tres o cuatro economistas importantes para
discutir la metodología empleada en el cálculo. O sea, lo que estaba en juicio
en ese momento ya no era cuánto tenía que pagar sino toda la metodología
36
de "contingens valuation" [valuación de contingencias]. Y así, cuando la
apuesta en juego es elevada, se crea incertidumbre. Porque si la
incertidumbre no esta a nivel técnico, se pasa a jugar a nivel metodológico, y
si es necesario, se pasara a jugar a nivel epistemológico. Y en última
instancia se pasa a jugar a nivel ético. Por lo tanto, la incertidumbre se crea.
A medida que sube la apuesta en juego, comienza a subir también la
incertidumbre. O sea que en este sentido, la incertidumbre técnica es
simplemente un acuerdo. Y por eso digo que en ciencia aplicada la
incertidumbre es técnica, simplemente porque a nadie le interesa demasiado
lo que se pone en juego.
El mismo problema hecho en un laboratorio de Universidad, puede ser
ciencia aplicada, mientras que si se hace en una empresa farmacéutica se
puede convertir en un problema posnormal. ¿Porqué? Si una determinada
droga, una vez que esta vendida, después de veinte años comienza a
saberse que causó efectos colaterales, que mato gente, etc. etc. no es más
un caso de ciencia aplicada, no son más los científicos en un laboratorio que
se ocupan de eso. Se convierte en otra cosa. Por lo tanto, el contexto en el
que se observa un problema es fundamental.
Para terminar, quisiera mostrar otra forma de entender el sistema
complejo. Es un poco más técnico. Si Uds. entienden el sistema complejo
como sistema multidimencional -voy a usar una metáfora- en donde se usan
como "dimensiones bajas" ellas corresponden a la actividad científica
tradicional, a las dimensiones mensurables, medibles, tales como el tiempo o
37
la masa. En otras dimensiones más "altas", ya entra valores, tales como la
conciencia.
Cuando nosotros usamos como paradigma la actividad científica, la
ciencia físico matemática, lo que estamos haciendo es proyectar las
dimensiones altas sobre las bajas. Esto es lo que pasaba siempre en la
antropología, en la sociología, en las ciencias humanas y sociales: No eran
tan "científicas" como las otras. Los científicos sociales estaban siempre
discutiendo sobre los fundamentos, sobre la metodología; nunca se ponían
de acuerdo.
Lo que pasaba era que estaba tratando de proyectar sobre un espacio
de menos dimensiones que correspondía a aquello que podía ser medido o
cuantificado. Y de ahí también la insatisfacción. La idea de que "hacemos
esto, y es lo que hay que hacer para ser científico", pero así y todo, nosotros
tenemos el complejo, la envidia hacia esa ciencia en donde uno mide la
longitud o la temperatura y ¡funciona bien! En cambio nosotros no estamos
totalmente satisfechos, simplemente porque siempre hay algo que queda
afuera.
Lo puedo decir también de los problemas científicos normales. En
general, la ficción reduccionista funcionaba en la medida que dejábamos
afuera todos los problemas interesantes. Para hacer un modelo de
dispersión atmosférica yo tengo que imaginar partículas que no existen en la
realidad, y claramente funcionaba la manipulación técnica o cuantificación de
la incertidumbre, simplemente porque la otra parte de la incertidumbre se la
dejaba fuera en la formulación y definición del problema.
38
En ese sentido, la incertidumbre es una propiedad sistémica, y lo que
se hacía era lo mismo: proyectar todas las dimensiones del sistema sobre
las dimensiones inferiores. Por lo tanto, la única incertidumbre reconocida
científicamente era la técnica, aquella que se podía cuantificar. Yo pongo un
ejemplo en mi último artículo del libro de Abott, "Flatland" [País Plano], una
novela de ciencia ficción victoriana en donde sus habitantes, los habitantes
de la Línea, solamente podían ir hacia ahí y hacia ahí. Los que habitaban el
Plano podían tener otro movimiento pero no podían imaginar la Esfera. Y la
realidad es que los matemáticos -por eso creo yo que la metáfora funciona
bastante bien- los matemáticos sabemos que cuando se proyecta para abajo
pueden salir cosas muy interesantes pero si uno quiere inferir las
propiedades de todo el sistema a partir de las proyecciones, eso es
prácticamente imposible, porque aparecen propiedades que ni siquiera
imaginábamos, como lo de la cinta de Möebius o la botella de Klein.
Por lo tanto, lo que nosotros hemos intentado a través de todo el
proceso reduccionista es el eliminar las cosas interesantes, que realmente
nos podían dar explicación de cómo las cosas funcionaban. Y tratar de inferir
las propiedades de todo el sistema (los sistemas reales) a partir de lo que
sabíamos de las proyecciones. Ahora la moda -no es que de golpe los
sistemas son "complejos", porque los sistemas siempre lo fueron, lo que
pasa es que ahora a lo mejor nosotros creemos que son complejos y dentro
de veinte años también pasa esta moda- pero ahora creemos que los
sistemas son complejos; hablamos de sistemas abiertos, de sistemas
cerrados, de sistemas disipativos y leyes de equilibrio; que tenemos que
entender a los sistemas complejos en función de sus interacciones.
39
Claro que esto es un cambio fundamental, no sólo en términos de la
ciencia sino en terreno de todo nuestro proyecto de civilización. Porque lo
que tenemos que entender es la naturaleza dialéctica de las cosas. (Para
nosotros es dialéctica, para las filosofías orientales puede ser la
complementariedad, el yin y el yang). La idea es que, como decía en el caso
de los "goods" y los "bads", las "utilities" y las "disutilities", no se puede
producir una sin producir la otra. No se puede producir conocimiento sin
producir incertidumbre.
Por lo tanto todo el proyecto de eliminación de la incertidumbre y de la
determinación científica de las acciones debe ser abandonado. Todo el
programa es abandonado. Del mismo modo que el proyecto de Hilbert de
1910, para resolver los problemas fundamentales de la matemática, tuvo
que ser abandonado.
Entonces, para terminar, si relacionamos la ciencia posnormal con la
idea de sistema complejo y con la definición sociocultural que yo traté de dar
sobre sistema complejo, está claro que no existen "soluciones" sino formas
de aproximar el problema. Para ello nosotros necesitamos pluralidad,
necesitamos tratar de abarcar todas las diferentes perspectivas. Esto nos
lleva a extender la noción de racionalidad, que había sido capturada por la
"racionalidad científica". Extender la noción de conocimiento, reducida al
conocimiento científico. No negar el conocimiento científico, simplemente
entender que es otra perspectiva. Y mover al científico como elemento
neutral, del centro a un vértice.
40
Quiere decir que no hay ninguna necesidad de que la gente deba
traducir el conocimiento que tiene a un lenguaje físico matemático para que
sea legítimo. Así como es mejor que la gente conozca esto, es mejor que los
científicos conozcan el lenguaje de la gente. Cada uno tiene pares de
distinto tipo, y todos son parte, configuran, estudian, se refieren, a una
perspectiva diferente de una problemática común.
A manera de conclusión
Sé que en algunos sentidos lo que estoy diciendo no es satisfactorio,
simplemente porque todavía lo tenemos en la cabeza como cosa
satisfactoria es la tradición. Yo para escribir un libro tengo que escribir en el
último capítulo cómo se resuelve el problema, sino para qué voy a escribir el
libro. Porque nosotros tenemos decir cómo se resuelven las cosas, tenemos
que dar la receta para solucionar el problema. Y si yo digo que no existe
receta eso no es satisfactorio. Pero por otra parte, así son las cosas. O
nosotros aprendemos que así son las cosas y aprendemos a convivir con la
incertidumbre, que no es reducible a riesgo, que no es cuantificable; o si no,
vamos a continuar haciendo nuestros trabajos muy independientemente de
como cambian las cosas. Y así vamos a seguir haciendo teorías de
catástrofes, teorías del caos, que podrán servir para justificar una cierta
carrera académica, pero que no sirven para solucionar los problemas que
tenemos que enfrentar.
Y como a cada vuelta de tuerca nosotros estamos más "piolas", ya no
hay tanto que justificar, porque ya todos saben que los científicos en las
41
universidades cuando hay dinero disponible van a decir que lo que hacen
ellos es lo que resuelve el problema. Van a cambiar el título del proyecto y
van a seguir haciendo lo que hacían siempre. Ahora sabemos que la tarea
de investigación es una más entre las necesidades de la sociedad y va a
tener que competir cada vez más con otras de las necesidades humanas,
porque todos pagamos por eso y por lo tanto todos decidimos cuáles son las
prioridades.
Por lo tanto lo que esté en crisis es una cierta concepción que llevó
necesariamente a la ciencia industrializada a convertir a muchos científicos
en proletarios y en lumpen, y a llegar a la crisis de legitimación que está
ocurriendo en estos momentos. Es cierto, es insatisfactorio, pero es así
cuando uno lo mira con una concepción, creo yo, que hoy es obsoleta.
Creo que en estos momentos soy muy optimista porque existe la
posibilidad de cambio; ciertas concepciones están en estos momento en
discusión y claro está, yo no me puedo llamar de científico en el sentido
moderno de la palabra; nosotros podemos calificarnos más de filósofos
naturales que es lo que eran los científicos antes de ser científicos.
--------------------------------

Más contenido relacionado

Similar a Funtowicz conferencia flacso 1994

Pierre bourdieu sobre el campo politico
Pierre bourdieu sobre el campo politicoPierre bourdieu sobre el campo politico
Pierre bourdieu sobre el campo politico
Javier Castro
 
Justificacion v05
Justificacion v05Justificacion v05
Justificacion v05
No Existe
 
Charla sillahoz. los estudios postdoctorales en la unefa
Charla sillahoz. los estudios postdoctorales en la unefaCharla sillahoz. los estudios postdoctorales en la unefa
Charla sillahoz. los estudios postdoctorales en la unefa
Angela Chikhani
 
Boletín sceps nº 1
Boletín sceps nº 1Boletín sceps nº 1
Boletín sceps nº 1
CanaSCEPS
 
Programa Acción Politológica - CECIP 2014
Programa Acción Politológica - CECIP 2014Programa Acción Politológica - CECIP 2014
Programa Acción Politológica - CECIP 2014
Joaoacharan
 
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.MonasterioEventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
UNLZ - UNIVERSIDAD DE LOMAS DE ZAMORA
 
37principios nee politicos
37principios nee politicos37principios nee politicos
37principios nee politicos
Atenas Quintal
 
Principios de-nee-para-politicos
Principios de-nee-para-politicosPrincipios de-nee-para-politicos
Principios de-nee-para-politicos
Marta Montoro
 
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
Universidad Autonoma del Estado de México
 
Propuesta de formación parcial simulada de una cooperativa de abogados
Propuesta de formación parcial simulada de una cooperativa de abogadosPropuesta de formación parcial simulada de una cooperativa de abogados
Propuesta de formación parcial simulada de una cooperativa de abogados
Alvaro Mejia
 
Diapositivas seminario
Diapositivas seminarioDiapositivas seminario
Diapositivas seminario
Jhon Escobar
 

Similar a Funtowicz conferencia flacso 1994 (20)

La geopolitica de los think tanks
La geopolitica de los think tanksLa geopolitica de los think tanks
La geopolitica de los think tanks
 
Orientacion profesional y escolar
Orientacion profesional y escolarOrientacion profesional y escolar
Orientacion profesional y escolar
 
Pierre bourdieu sobre el campo politico
Pierre bourdieu sobre el campo politicoPierre bourdieu sobre el campo politico
Pierre bourdieu sobre el campo politico
 
Actividades de Formación FUNCEJI 2008
Actividades de Formación FUNCEJI 2008Actividades de Formación FUNCEJI 2008
Actividades de Formación FUNCEJI 2008
 
Justificacion v05
Justificacion v05Justificacion v05
Justificacion v05
 
Charla sillahoz. los estudios postdoctorales en la unefa
Charla sillahoz. los estudios postdoctorales en la unefaCharla sillahoz. los estudios postdoctorales en la unefa
Charla sillahoz. los estudios postdoctorales en la unefa
 
Educar orientar copoe-n1_noviembre2014
Educar orientar copoe-n1_noviembre2014Educar orientar copoe-n1_noviembre2014
Educar orientar copoe-n1_noviembre2014
 
Boletín sceps nº 1
Boletín sceps nº 1Boletín sceps nº 1
Boletín sceps nº 1
 
Ochopasos paso 1 pdf
Ochopasos paso 1 pdfOchopasos paso 1 pdf
Ochopasos paso 1 pdf
 
Programa Acción Politológica - CECIP 2014
Programa Acción Politológica - CECIP 2014Programa Acción Politológica - CECIP 2014
Programa Acción Politológica - CECIP 2014
 
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.MonasterioEventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
Eventos ceremonial y protocolo - Apuntes de clase UNLaM Lic.Monasterio
 
37principios nee politicos
37principios nee politicos37principios nee politicos
37principios nee politicos
 
Principios de-nee-para-politicos
Principios de-nee-para-politicosPrincipios de-nee-para-politicos
Principios de-nee-para-politicos
 
Planproyectolista2
Planproyectolista2Planproyectolista2
Planproyectolista2
 
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
2.5 evaluación de programas. una guía práctica en ámbitos sociales educativos...
 
Propuesta de formación parcial simulada de una cooperativa de abogados
Propuesta de formación parcial simulada de una cooperativa de abogadosPropuesta de formación parcial simulada de una cooperativa de abogados
Propuesta de formación parcial simulada de una cooperativa de abogados
 
258100553 10-discurso-snte-32
258100553 10-discurso-snte-32258100553 10-discurso-snte-32
258100553 10-discurso-snte-32
 
Conceptos básicos de las políticas publicas
Conceptos  básicos de las políticas publicasConceptos  básicos de las políticas publicas
Conceptos básicos de las políticas publicas
 
Diapositivas seminario
Diapositivas seminarioDiapositivas seminario
Diapositivas seminario
 
¿Quién manda aquí?. poder político, instituciones y competencias. Autoría: Fc...
¿Quién manda aquí?. poder político, instituciones y competencias. Autoría: Fc...¿Quién manda aquí?. poder político, instituciones y competencias. Autoría: Fc...
¿Quién manda aquí?. poder político, instituciones y competencias. Autoría: Fc...
 

Último

Inteligencia estrategica en la solucion del problema de desechos solidos en C...
Inteligencia estrategica en la solucion del problema de desechos solidos en C...Inteligencia estrategica en la solucion del problema de desechos solidos en C...
Inteligencia estrategica en la solucion del problema de desechos solidos en C...
Enrique Posada
 
La Sostenibilidad y los ODS Normas y proyectos
La Sostenibilidad y los ODS  Normas y proyectosLa Sostenibilidad y los ODS  Normas y proyectos
La Sostenibilidad y los ODS Normas y proyectos
Enrique Posada
 

Último (20)

PRESENTACION CAÑO DE AGUAS PRIETAS[3].pptx
PRESENTACION CAÑO DE AGUAS PRIETAS[3].pptxPRESENTACION CAÑO DE AGUAS PRIETAS[3].pptx
PRESENTACION CAÑO DE AGUAS PRIETAS[3].pptx
 
sesion 1-salud publica-repaso de preguntas de examen 2 grupo.pdf
sesion 1-salud publica-repaso de preguntas de examen 2 grupo.pdfsesion 1-salud publica-repaso de preguntas de examen 2 grupo.pdf
sesion 1-salud publica-repaso de preguntas de examen 2 grupo.pdf
 
bioindicadores acuaticos DE RIOS-carchi.pptx
bioindicadores acuaticos DE RIOS-carchi.pptxbioindicadores acuaticos DE RIOS-carchi.pptx
bioindicadores acuaticos DE RIOS-carchi.pptx
 
Atlas del socioecosistema Río Grande de Comitán.pptx
Atlas del socioecosistema Río Grande de Comitán.pptxAtlas del socioecosistema Río Grande de Comitán.pptx
Atlas del socioecosistema Río Grande de Comitán.pptx
 
TRIPTICO DE LA BIODIVERSIDAD EN EL MEDIO AMBIENTE
TRIPTICO DE LA BIODIVERSIDAD EN EL MEDIO AMBIENTETRIPTICO DE LA BIODIVERSIDAD EN EL MEDIO AMBIENTE
TRIPTICO DE LA BIODIVERSIDAD EN EL MEDIO AMBIENTE
 
Libro-Rojo-de-Peces-Marinos-de-Colombia.pdf
Libro-Rojo-de-Peces-Marinos-de-Colombia.pdfLibro-Rojo-de-Peces-Marinos-de-Colombia.pdf
Libro-Rojo-de-Peces-Marinos-de-Colombia.pdf
 
Nematodirus parásitos intestinales en los rumiantes
Nematodirus parásitos intestinales en los rumiantesNematodirus parásitos intestinales en los rumiantes
Nematodirus parásitos intestinales en los rumiantes
 
LCE - RLCE -2024 - PeruCsdddddddddddddddddddompras.pdf
LCE - RLCE -2024 - PeruCsdddddddddddddddddddompras.pdfLCE - RLCE -2024 - PeruCsdddddddddddddddddddompras.pdf
LCE - RLCE -2024 - PeruCsdddddddddddddddddddompras.pdf
 
Inteligencia estrategica en la solucion del problema de desechos solidos en C...
Inteligencia estrategica en la solucion del problema de desechos solidos en C...Inteligencia estrategica en la solucion del problema de desechos solidos en C...
Inteligencia estrategica en la solucion del problema de desechos solidos en C...
 
La Sostenibilidad y los ODS Normas y proyectos
La Sostenibilidad y los ODS  Normas y proyectosLa Sostenibilidad y los ODS  Normas y proyectos
La Sostenibilidad y los ODS Normas y proyectos
 
CAPITULO 6 DISEÑO DE FILTROS BIOLOGICOS.pdf
CAPITULO 6 DISEÑO DE FILTROS BIOLOGICOS.pdfCAPITULO 6 DISEÑO DE FILTROS BIOLOGICOS.pdf
CAPITULO 6 DISEÑO DE FILTROS BIOLOGICOS.pdf
 
CAUSAS Y CONSECUENCIAS DE LOS fenomenos y desastres naturales.pptx
CAUSAS Y CONSECUENCIAS DE LOS fenomenos y desastres naturales.pptxCAUSAS Y CONSECUENCIAS DE LOS fenomenos y desastres naturales.pptx
CAUSAS Y CONSECUENCIAS DE LOS fenomenos y desastres naturales.pptx
 
MEJORAMIENTO DEL SERVICIO DE AGUA PARA RIEGO.pptx
MEJORAMIENTO DEL SERVICIO DE AGUA PARA RIEGO.pptxMEJORAMIENTO DEL SERVICIO DE AGUA PARA RIEGO.pptx
MEJORAMIENTO DEL SERVICIO DE AGUA PARA RIEGO.pptx
 
ASEO PERINEAL.pptx,.,...............................
ASEO PERINEAL.pptx,.,...............................ASEO PERINEAL.pptx,.,...............................
ASEO PERINEAL.pptx,.,...............................
 
Captación de aguas superficiales norma 777 parte 1.pdf
Captación de aguas superficiales norma 777 parte 1.pdfCaptación de aguas superficiales norma 777 parte 1.pdf
Captación de aguas superficiales norma 777 parte 1.pdf
 
ENFERMEDADES DEL GANADO BOVINO EXPOSICION.pptx
ENFERMEDADES DEL GANADO BOVINO EXPOSICION.pptxENFERMEDADES DEL GANADO BOVINO EXPOSICION.pptx
ENFERMEDADES DEL GANADO BOVINO EXPOSICION.pptx
 
La infografía reglas para relaizar UNO sera
La infografía reglas para relaizar UNO seraLa infografía reglas para relaizar UNO sera
La infografía reglas para relaizar UNO sera
 
La Cuenca del Lagunas de Montebello .pdf
La Cuenca del Lagunas de Montebello .pdfLa Cuenca del Lagunas de Montebello .pdf
La Cuenca del Lagunas de Montebello .pdf
 
Exposicion sobre el viaje Charles+Darwin.ppt
Exposicion sobre el viaje Charles+Darwin.pptExposicion sobre el viaje Charles+Darwin.ppt
Exposicion sobre el viaje Charles+Darwin.ppt
 
TULIPAN AFRICANO utizado en el sector de la arquitectura.pptx
TULIPAN AFRICANO utizado en el sector de la arquitectura.pptxTULIPAN AFRICANO utizado en el sector de la arquitectura.pptx
TULIPAN AFRICANO utizado en el sector de la arquitectura.pptx
 

Funtowicz conferencia flacso 1994

  • 1. CONFERENCIA SOBRE "Epistemología política. Ciencia con la gente" por SILVIO FUNTOWICZ Buenos Aires, 31 de mayo de 1994 FLACSO / Serie Documentos e Informes de Investigación Nro. 178
  • 2. CONFERENCIA: "Epistemología política. Ciencia con la gente" por SILVIO FUNTOWICZ Realizada en FLACSO-Facultad Latinoamericana de Ciencias Sociales en Buenos Aires, 31 de mayo de 1994 INDICE: Presentación......................................................................................................1 Introducción .......................................................................................................4 El Centro Común de Investigaciones de la Comisión Europea ...................... 5 Riesgo y conocimiento del público....................................................................7 Riesgo e incertidumbre ...................................................................................13 Riesgo tecnológico y reduccionismos.............................................................18 Ciencia posnormal...........................................................................................19 Sistemas complejos y ciencia posnormal .......................................................33 A manera de conclusión..................................................................................40
  • 3. 1 Presentación El Programa de Planificación Participativa y Gestión Asociada de FLACSO presenta a continuación la trascripción de la Conferencia que el Lic. Silvio Funtowicz realizó el 31 de Mayo de 1994 en la sede de FLACSO. El Lic. Funtowicz es un epistemólogo de origen argentino, formado en filosofía de la ciencia; y, particularmente, en filosofía de las matemáticas (1977). Desde 1981 vive y trabaja en Europa. En la actualidad se desempeña como investigador en el Centro Común de Investigaciones que la Comisión de la Comunidad Europea posee en Ispra, Italia. Como plantea claramente Cecilia Hidalgo en el prólogo al libro que dio nombre a esta Conferencia, la producción del Lic. Funtowicz "... tiene amplias implicancias para la actividad científica propiamente dicha, pero fundamentalmente para el accionar colectivo, responsable ante los problemas planteados por el riesgo ambiental global y la equidad entre pueblos, especies y generaciones. La complejidad de tales problemas involucra de manera ahora explícita a muchos agentes hasta hace poco no considerados. Todos los que ponen algo en juego en las decisiones públicas tienen su lugar en el diálogo... y su participación adquiere el carácter de esencial". Este encuadre epistemológico señala la emergencia de una nueva ciencia, la *ciencia posnormal*, en la cual la incertidumbre y los riesgos que se asumen son cada vez mayores.
  • 4. 2 ¿Cómo incorporar, entonces, esa incertidumbre en la búsqueda de conocimientos?¿cómo incorporar lo "participativo" en cualquier gestión? Y también ¿cómo vincular el reconocimiento de la incertidumbre, el riesgo que se asume en la toma de decisiones y la posibilidad de que estas decisiones correspondan a una asociación amplia de sujetos involucrados en los problemas? Quienes formamos parte del Programa de Planificación Participativa y Gestión Asociada, hemos encontrado puntos de convergencia con los trabajos de Silvio Funtowicz, para comenzar a responder estos y otros interrogantes que se nos presentan en el desarrollo de nuestros proyectos. En este sentido, su propuesta aporta elementos que enriquecen la Metodología de Planificación que venimos aplicando y desarrollando desde hace más de dos décadas. La Metodología FLACSO es un camino probado, una forma de practicar la ciencia posnormal. La Metodología FLACSO pone en movimiento la construcción intersubjetiva de soluciones con la participación de la gente: aquellos portadores de perspectivas parciales involucrados en el problema a solucionar. Frente a situaciones de alta conflictividad en las que la toma de decisiones no puede dilatarse esperando obtener respuestas de la ciencia aplicada o de la consultoría profesional, esta Metodología permite establecer el estado del conocimiento actual entre quienes son portadores de fragmentos de conocimiento -perspectivas disciplinares, sectoriales, en una sola escala- y elaborar estrategias para la acción, asumiendo el riesgo en
  • 5. 3 común y "manejando" la incertidumbre presente al reconocerla e incorporarla como parte de las estrategias planteadas. Esta trascripción intenta respetar fielmente la forma expositiva y de diálogo que tuvo la Conferencia de Silvio Funtowicz, prefiriendo mantener su frescura, antes que desvirtuarla en procura de un lenguaje más académico. Sólo hemos agregado puntuaciones a fin de reproducir por escrito la entonación del diálogo y subtítulos para hacer más llevadera la lectura. Entre corchetes aparece la traducción de algunas palabras o frases dichas en otro idioma. Queremos dejar constancia que, por haber estado a nuestro cargo la desgrabación y posterior edición de este documento, cualquier error u omisión es de nuestra exclusiva responsabilidad. Claudia E. Natenzon
  • 6. 4 Introducción 1 Me gustaría anticipar lo que voy a desarrollar durante esta charla: - En el inicio, contarles un poco qué es la institución en la cual trabajo, fundamentalmente porque no es una estructura universitaria y probablemente el tipo de experiencia que nosotros tenemos pueda ser interesante para Uds. Una estructura de investigación no universitaria, un poco diferente a la que Uds. puedan conocer acá en la Argentina (aunque FLACSO podría ser dentro del ambiente universitario algo muy parecido, porque reúne una diversidad de países latinoamericanos); - después, explicar, describir cuál es el tipo de trabajo que nosotros hacemos; en particular lo que pueda ser interesante para el tipo de actividad que Uds. desarrollan; - finalmente, referirme a mi trabajo especial, un trabajo de carácter más conceptual, de creación de lo que nosotros llamamos una "nueva estrategia de resolución de problemas" cuando ellos se refieren o son de carácter complejo y global. 1 - Las opiniones aquí vertidas son propias de Silvio Funtowicz, y de ninguna manera reflejan políticas ni perspectivas de la Unión Europea.
  • 7. 5 El Centro Común de Investigaciones de la Comisión Europea En estos momentos, la Unión Europea es una asociación de doce países; en 1995 van a entrar otros cuatro, que son los Países Escandinavos y Austria, si el referéndum que tiene que cumplirse en esos países así lo aprueba. Entonces, a partir del 1ro. de enero del año próximo la Unión Europea estará constituida por 16 países. El gobierno de la Comunidad está en Bruselas, Bélgica. La Comisión Europea es la administración del gobierno de la Unión Europea. Hay una Presidencia de la Comunidad que va cambiando, es rotativa; cada seis meses otro país toma a cargo la Presidencia de la Comisión. En estos momentos es Grecia, cuando termine este semestre comienza Alemania, y así sucesivamente, en rotación. Es un sistema, como Uds. ven, muy complicado. En Bruselas está toda la administración. Hay un Presidente y existen las llamadas Direcciones Generales, que se pueden comparar a Ministerios. La Dirección General nro.12 es la de Investigación y se ocupa de administrar el programa de investigación a efectuarse en el ámbito de la UE. En estos momentos se esta terminando lo que nosotros llamamos el 3er. programa marco, y entre 1995 y 1998 se desarrollará el 4to. Programa Marco. A cada línea de investigación le corresponde un presupuesto y se desarrollan tareas para que las universidades y otras instituciones de los países miembro puedan acceder a esos fondos a través de concursos.
  • 8. 6 Una de las características de investigación que nosotros tenemos -que es muy importante y muy diversa de lo que se puede imaginar- es la idea de subsidiaridad: nosotros no hacemos investigaciones que se puedan lleva a cabo en cada uno de los países integrantes, no proponemos hacer cosas que los países miembro puedan hacer solos. Por lo tanto, las líneas de investigación tienen que ser inter europeas, tienen que ser de interés para más de un país miembro. Eso garantiza un nivel de diversidad muy grande. Todos los proyectos están creados de tal forma que son de interés general a todos los miembros. Y lo que se promueve es la cooperación entre distintas instituciones de distintos países; consorcios o instituciones de 5 o 6 países. Estos grupos son los que en general tienen más chances de ganar los concursos de investigación. Por eso, problemas del ambiente, problemas globales, que cruzan las fronteras, son de un gran interés para nosotros. Porque, en general, no pueden ser tratados por una perspectiva única y particular. Dentro de la Dirección General Nro. 12 de Investigación, existe lo que se llama el Centro Común de Investigación, que es la institución a la que pertenezco. Tiene sede en cuatro países europeos: Bélgica, Holanda, Alemania e Italia. La que se encuentra en Ispra, en la región Lombarda (norte de Italia) es la más grande y tiene 1500 personas trabajando entre personal científico, técnico e infraestructura. El Centro está organizado en Institutos. Nuestro presupuesto tiene dos partes; una parte que se llama "institucional", corresponde a investigación específica, y otra que llamamos
  • 9. 7 "competitiva" y es que nosotros salimos a ganarnos el dinero en competencia como consultores (me parece que lo hacen Uds. también, que en general aquí también se acepta). O sea que si algún gobierno nacional o una institución requiere un estudio, un trabajo de investigación o de implementación, entonces nos pueden contratar a nosotros para hacerlo. Parte de eso es lo que se llama trabajo de sostén o ayuda a la política comunitaria. En ese sentido, si la Dirección General del Ambiente, que es la nro. 11, necesita de un input científico y técnico para desarrollar las directivas y las leyes comunitarias en materia de medio ambiente, nosotros podemos dar ese apoyo científico. Y así sucesivamente en áreas de agricultura, de transporte, de biotecnología. O sea: nosotros proveemos los elementos de carácter científico técnico para que después se establezcan las propuestas de leyes que van a hacer efectivas en los estados miembros. El problema es complicado, eso después pasa al Parlamento europeo y tiene que ser incorporado a cada legislación nacional. Ahora me aproximaré un poco más al tema de mi competencia. Riesgo y conocimiento del público Una de las leyes comunitarias que se acercan mucho al tipo de interés de este Programa de FLACSO, es lo que se conoce como "la Directiva Seveso". Yo he trabajado en este proyecto en los últimos años. La novedad de esta directiva a la que me voy a referir es que, por primera vez en forma explícita, se establece el derecho de los ciudadanos de la comunidad a estar informados de los riesgos que corren -en particular en el área tecnológica- y
  • 10. 8 de esta forma participar activamente en la gestión de la planificación de la protección civil y otras iniciativas que tiendan a garantizar la seguridad de las personas, de los bienes y del ambiente. Es un poco menos fuerte que el "derecho a saber", "the rigth to know", norteamericano. En Europa es la primera vez que a través de una directiva comunitaria se garantiza a los ciudadanos el conocimiento y la participación. Hace casi veinte años, en 1976, hubo un accidente en una localidad italiana, muy cerca de donde esta el Centro, que se llama Seveso. Ahí una fábrica de productos químicos, en un accidente contamino el área de alrededor con dioxina. Lo interesante es que por varias días no se sabia -o la empresa no quiso decir- que el elemento que había contaminado el área era dioxina. Eso generó una serie de problemas, la evacuación de toda la población, etc. etc.; y un gran debate acerca de que las autoridades, la protección civil, los hospitales e incluso la gestión de la fábrica, no sabían qué hacer en casos de una emergencia de ese tipo. La historia es muy interesante, acabo de terminar un artículo para un libro, un capítulo, que llamo "Seveso, un paradójico, clásico desastre" y va a ser publicado por la Universidad de las Naciones Unidas, en un volumen sobre desastres clásicos, que nos enseñan algo y que nos muestran adelantos en el problema de la gestión y la participación. Otros ejemplos son el de Miamata en Japón, el de Bopal en India, Chernobil en Ucrania y el del Exxon Valdés en Alaska.
  • 11. 9 O sea, estos son desastres "clásicos" que han llevado adelante cambios muy importantes en la legislación y en la forma de tratar y concebir un desastre de carácter tecnológico y ambiental. En ese momento, la publicidad decía que la dioxina, junto al plutonio, era la sustancia más peligrosa de la tierra. Pero hasta la actualidad en realidad no sabemos si es peligrosa o no. Después de casi veinte años de investigaciones todavía se sigue discutiendo si la dioxina es tan peligrosa como se dice. La mayoría de la evidencia que existe contra la dioxina se basa lo que se llamaba "agent orange", el agente naranja, que se usaba como desfoliador en la guerra de Vietnam; por lo tanto no es evidencia que se pueda tomar muy claramente en relación a las consecuencias que pueda tener sobre la población. En Seveso, murieron animales pero personas no. Después de veinte años los resultados epidemiológicos dicen que ciertos tipos de cáncer raros aumentaron en número pero otros comunes, disminuyeron. Y lo que fue en ese momento un desastre de grandes proporciones a nivel personal, a nivel de comunidad y a nivel político, que desencadenó después la necesidad de establecer una ley para toda la Comunidad, hasta hoy no se sabe si efectivamente -más allá de las tragedias personales y a nivel psicológico y a nivel económico- tuvo consecuencias a nivel físico. Todavía siguen discutiendo este punto. E incluso el hecho de que no haya muerto nadie ni hayan aparecido defectos claros en la población, hace que
  • 12. 10 hoy en día el EPA [Environmental Protection Agency] en Estados Unidos permita que se queme dioxina en ciertas localidades de Arkansas, sobre la base de estos resultados de lo que fue considerado en su momento un gran desastre de carácter ambiental. Lo que estoy tratando de mostrar son los elementos de incertidumbre, los elementos políticos de gestión, los elementos psicológicos y sociales, los elementos culturales implicados en este caso. La gente de Seveso era considerada como portadora de una plaga; más o menos el síndrome de Seveso era similar a lo que hoy pueden ser aquellos que portan el HIV. La gente se negaba a recibirlos en hoteles; incluso es un área donde se producen muebles, y la gente no quería comprar muebles de esa zona, tal era la psicosis que se creó en relación a este accidente. Yo quiero mostrarles todo el contexto y mostrar que si bien el accidente fue muy simple desde el punto de vista técnico (hubo un defecto de construcción del reactor químico que produjo un accidente en circunstancias especiales y la dioxina fue enviada y depositada en los alrededores de la planta) se convierte en complejo cuando uno estudia todo el sistema en el cual este estuvo inmerso. En ese momento se discutía en Italia y se estaba por votar el referéndum sobre el aborto, y esto fue usado por unos y otros en relación a la necesidad de que mujeres embarazadas pudieran abortar; y se hizo una
  • 13. 11 disposición especial que otorgaba el derecho al aborto a las mujeres de Seveso. También era la época del terrorismo en Italia; el encargado de la fábrica de Seveso fue asesinado. Por lo tanto fue un accidente (si lo podemos llamar así) de grandes proporciones, más políticas y sociales que de carácter médico. Como decía yo, el estudio de lo que paso en Seveso, junto con otros accidentes que habían ocurrido en la Europa comunitaria, hizo que los ministros decidieran que era necesario establecer una ley para todos los países, que se ocupara de la seguridad industrial. Y por primera vez, como consecuencia de los estudios que se hicieron acerca del problema, se incluyó un artículo (el 8º), que dice que la población de los lugares que están en la cercanía de una fuente de riesgo debe ser informada acerca de los riesgos que corren. La legislación fue cambiada, pero para reforzar esta disposición porque los países miembros decidieron que eso no era suficiente sino que la información debía ser reiterada, renovada y hecha de tal forma que diera a la población y le explicara cuáles eran los riesgos. No era simplemente pasiva, sino que se definía como pro-activa. Por lo tanto, si pasaba un tiempo en el cual la gente se olvidaba, había que ir de nuevo y volverles a informar; había que establecer cada fuente (que se llama "sitio Seveso"), tenían que tener los planes de emergencia, se
  • 14. 12 establecía quién iba a ser la persona encargada de la difusión de la información, etc., etc. En ciertos lugares, como las escuelas, se crearon programas específicos para que los chicos estuvieran enterados sobre cuáles podrían ser los problemas, y a través de ellos y de sus escuelas se llegó a los padres. Hay un programa que se puede ver en Cataluña, en la zona de Tarragón, lugares en los que hay una concentración de sitios Seveso muy importante, en el cual el maestro de cada clase es el encargado; como una materia más de estudio esta la materia de la seguridad, lo que hay que hacer, cuáles son los riesgos, y quiénes los responsables. Estuve a cargo de la parte de cómo hacer para comunicar esta información. Porque en general todos estaban de acuerdo en que había que hacer que la comunidad afectada, primero conociese los riesgos y, en segundo lugar, participase en el desarrollo de los programas de protección civil. El problema es que nadie sabía cómo hacerlo. En general toda la parte de seguridad industrial estaba en manos de ingenieros, de científicos químicos o físicos, y la parte de los aspectos socioculturales, antropológicos y comunicativos se desconocía totalmente. En 1989 empecé a trabajar en este programa, tratando de establecer cuáles eran las líneas de guía para informar a la población. De acuerdo a mi trabajo, entendí en ese momento -y entiendo hoy- que no bastaba la información; lo que hacía falta era un proceso de comunicación. No es que simplemente uno le dice a la gente lo que tiene que hacer sino que hay que establecer un proceso comunicativo para que la gente no sólo entienda sino
  • 15. 13 que se haga cargo de la responsabilidad e incluso de establecer cuáles son los planes de protección civil y actúe en forma coherente en el momento de un incidente. Pero para establecer una comunicación, hace falta establecer las relaciones sociales. El proceso comunicativo es el resultado de una relación de carácter social que se establece entre participantes. Por lo tanto la comunicación o la información aislada no sirve, sino que tiene que estar comprendida dentro de un proceso de participación de la gente, de todos los que (en inglés yo llamo "stake holders"), o sea todos los que están interesados en el problema, en el conocimiento de los riesgos pero también, en la gestión de la emergencia. Riesgo e incertidumbre Ahora bien, ¿por qué me encargué de eso? Aquí voy al trabajo que hice, que me gustaría desarrollar ahora, y que comienza en el año 1981, en Inglaterra, cuando me empiezo a interesar por los problemas de riesgo, primero tecnológicos y después ambientales. Yo trabajé hasta el año 1980 en Buenos Aires, en el Posgrado de la Universidad de Belgrano sobre Metodología de la Investigación, y como Adjunto de Gregorio Klimosky, en Fundamentos de la Matemática. Y en ese momento yo estaba interesado en los problemas metodológicos de la ciencia. Cuando llegue al Depto. de Filosofía de la Ciencia en la Universidad de Leads, en el norte de Inglaterra, me enteré que había algo que se
  • 16. 14 llamaba riesgo. Porque acá todavía no era un tema que siquiera se conociera. No hablemos de estudiarlo, y menos aun con gente de ámbitos de la filosofía o de la epistemología o de la metodología científica. Incluso, a nivel de la matemática, donde soy graduado en primer lugar, no se conocía demasiado este tema. No se enseñaba para nada en ninguna de las estructuras universitarias o de investigación. O sea, yo me enteré que había algo que se llamaba riesgo -en ese momento riesgo tecnológico- y me pareció un tema interesante, sobre todo en relación al problema científico: cómo es que la ciencia se usa para la gestión de riesgo tecnológico, y si es legítimo el uso que se hace de la ciencia en la gestión de los riesgos. Ese es un problema que a mi me pareció, para un metodólogo, para un epistemólogo, fascinante; es que a mi me interesaban los problemas prácticos, no soy un filósofo de la ciencia pero soy un filósofo de la ciencia. En este sentido: yo no hago filosofía de la ciencia pero me interesa la filosofía de la ciencia, en tanto saber cómo se hace la ciencia. O sea, me interesa cómo se desarrolla, cómo se practica la ciencia. Me interesan los científicos y lo que están haciendo, y yo trato de hacer una especulación, un análisis, de lo que se esta haciendo, no de las cosas como deberían ser. En un sentido, la filosofía de la ciencia se aisló totalmente de la ciencia. ¿Que hacen los filósofos de la ciencia? se ocupan de la filosofía de la ciencia. A mi me interesa la ciencia en acción. Yo trato de hacer filosofía y metodología sobre la ciencia en acción, la ciencia en contexto, la ciencia de la sociedad.
  • 17. 15 Por lo tanto, el uso legitimador de la ciencia en el proceso de riesgos, en primer lugar tecnológicos y luego ambientales, era muy importante. Yo en ese momento quería estudiar si era un uso legítimo. Y por lo tanto -en nuestra ingenuidad- nosotros empezamos a desarrollar el programa en el año '81, para tratar de ver si efectivamente la ciencia era utilizada de manera correcta. El primer problema como filósofo que uno tiene que afrontar en ese momento es decir "riesgo, pero ¿qué cosa es el riesgo?". Porque tenemos que saber de qué estamos hablando. En un principio, el problema interesante desde el punto de vista metodológico es tratar de determinar qué es un riesgo, por eso yo traté de establecer cual era la operacionalización de la noción de riesgo. Tratamos de ver cómo se mide, cómo se define este concepto. Lo que inicialmente llama la atención es la relación entre la noción de "riesgo" y la noción de "incertidumbre". Si hay acá economistas entre nosotros, saben que los que se ocuparon de eso, en primer lugar, fueron los economistas. En 1921 Frank Knigth en el libro que se llama "Risk, Uncertainty and Profit" ["Riesgo, incertidumbre y beneficio"], establece la distinción básica entre incertidumbre y riesgo, a la que después los economistas van a seguir haciendo referencia en los años posteriores. Knight establece una distinción fundamental entre "riesgo", que es cuando se puede asociar a cierto evento una distribución de probabilidad; e "incertidumbre", que es cuando no se puede. En otras palabras (para no
  • 18. 16 entrar en tecnicismos porque simplemente estoy tratando de hacer una historia) riesgo es una incertidumbre cuantificada; o sea que cuando le podemos asociar un número a la incertidumbre, tenemos el riesgo. Esto tiene mucha importancia porque de hecho, lo que esta diciendo Knight es que existen situaciones que no pueden ser cuantificadas y estas son de "incertidumbre estricta". Usa la noción de incertidumbre estricta, no cuantificable, para explicar el desarrollo del "entrepreneur"; pero aquí, lo que es interesante es la época. En 1921 el único sistema de probabilidades que se conocía o que existía era el llamado de probabilidades "clásicas", "frecuencial" u "objetivas". Por lo tanto esta distinción de Knight parecía tener sentido. Pero en los años '20 comienzan a desarrollarse los sistemas de probabilidades "subjetivas" y es interesante ver que es otro economista, J. M. Keynes, el que desarrolla en primer lugar un sistema de probabilidades que llama "personales" o "subjetivas", e inicia la tradición en probabilidades o estadísticas que hacen uso del teorema de Bayes. Es interesante como introduce Keynes las probabilidades personales. El dice que los ingleses están muy habituados a apostar a los caballos, por lo tanto la gente tiene un conocimiento intuitivo acerca de lo que es una apuesta y cuantos son los valores en juego. Entonces, la pregunta que uno se hace es: una vez que tenemos probabilidades de carácter subjetivo o personal ¿cuál es la distinción básica?, si la distinción de Knight ya no existe más, porque en realidad uno personalmente, de manera subjetiva, puede ponerle números a toda la incertidumbre.
  • 19. 17 De esta manera, a través del desarrollo de lo que podemos llamar las "probabilidades no objetivas" nosotros podemos cuantificar todas las situaciones de incertidumbre. Y hemos convertido todas las incertidumbres en riesgo. Uno puede saltar a esto rápidamente: el problema que tenemos es el gran salto de carácter metodológico porque de algo que se definía como objetivo -que era la frecuencia o la probabilidad clásica- pasamos a una opinión de carácter personal. Y por lo tanto, la legitimación científica debe ser cambiada. Entonces, los economistas -ver cualquier libro reciente de economía ambiental- comienzan por citar la definición básica de Knight diferenciando riesgo e incertidumbre, pero después se la empuja fuera; la distinción se establece y después, es como si no existiera más, porque todo se convierte en riesgo, todo es cuantificable. Existen excepciones a la regla, pero no forman parte de la tradición, lo que podemos llamar el "main stream" [corriente principal] de la Economía o de ninguna otra ciencia. Riesgo tecnológico y reduccionismos Y esto fue lo que nosotros descubrimos. En 1981 existían dos formas de tratar el riesgo (en ese momento, el riesgo tecnológico, porque todavía no se hablaba tanto del ambiente; era una cosa que no existía, o del cual se recibían cosas gratis y a la cual se le echaban las cosas que no servían, eso era el ambiente: externalidad).
  • 20. 18 Pero la tecnología sí, los riesgos tecnológicos sí existían, porque en ese momento se discutía sobre los riesgos de la tecnología nuclear. Por lo tanto este era un problema importante. Existían dos formas de tratar los riesgos de manera reduccionista. La primera era la reducción usando los sistemas de probabilidad subjetiva o los métodos que se llamaban de "elicitación de la opinión de expertos"; en otras palabras, la cuantificación de opinión o creencias de expertos. Y esto se traducía en un número que decía cual era el riesgo de un accidente en una cierta instalación. Eso se usaba a través de técnicas tales como el MAUT [Multi-Attribute Utility Theory; teoría de las utilidades multi atributo] y el "cost benefit análisis" [análisis costo-beneficio], para deberminar la localización de instalaciones peligrosas. El otro tipo de reduccionismo, que nos interesa a lo mejor más porque se refiere a las ciencias sociales, era el reduccionismo antropológico. En un libro que causó mucho impacto en ese momento, "Riesgo y cultura", Mary Douglas y A. Wildavsky plantearon que cada sociedad elige los riesgos que decide exaltar o resaltar, que el riesgo -en este caso, el riesgo relacionado específicamente a la energía nuclear- no era importante, era una cuestión de gustos. Y que si había gente que se oponía a la energía nuclear no era por la energía nuclear en sí, sino porque se oponían al gobierno central; o sea, el riesgo era un instrumento para la oposición de grupos marginales o contrarios a una política central. En ese momento cuando nosotros empezamos a trabajar, existían estas dos alternativas, o reduccionismos de este tipo, que decía que en
  • 21. 19 realidad riesgo no tenía ninguna importancia, que era simplemente un instrumento de lucha política, o aquellos que decían que el riesgo puede ser cuantificable en todos los casos y que una cierta predicción acerca de lo que iba a pasar o no pasar, se podía hacer. Ciencia posnormal Entonces, nosotros producimos una alternativa que después continuó, fue modificándose y hoy llega a lo que llamamos "ciencia posnormal". Nosotros propusimos en ese momento distinguir estrategias de resolución de problemas en relación a dos aspectos, uno que llamábamos la "incertidumbre del sistema" y el otro que llamábamos "cual es la apuesta en juego". De acuerdo a esto nosotros distinguíamos entre tres estrategias de resolución de problemas, en relación a los problemas de riesgo. Quiero decir algo más en relación a riesgo. Cuando los economistas pasan al problema de los riesgos tecnológicos hay una transformación muy importante en la definición de riesgo y en su operacionalización. No es más simplemente la posibilidad de asignar un número a un evento. Cuando se habla a fines de los años '70 o en los '80 de riesgo, asociado a la nueva tecnología o industria, se agrega como segundo elemento las consecuencias, la magnitud de las consecuencias. O sea, riesgo no es solamente la posibilidad de que suceda algo, sino la posibilidad de que suceda algo a lo que se le agrega cual puede ser la magnitud de las consecuencias.
  • 22. 20 En otras palabras, puede ser simbolizado como una función de una cierta probabilidad y es donde, en "p" dice cual es la probabilidad o la posibilidad de que suceda algo y en "x" se mide cuanto pueden ser las consecuencias: F (p,x) Ahora bien, recuerden Uds. la historia que conté de Seveso ¿cómo es posible allí cuantificar las consecuencias de contaminación con dioxina? Si todavía no sabemos si existe una consecuencia. Y si existió una consecuencia, fue en el área de la interrupción de la vida normal, en los daños mentales, psicológicos, económicos. O sea, esto va muy bien cuando yo digo: tengo una maquina que produce tantos tornillos por hora y un porcentaje de estos tornillos es defectuoso. Yo se cuanto me cuesta cada tornillo, por lo tanto el riesgo va a ser la probabilidad de que salga un tornillo defectuoso y esto va a ser el costo del tornillo final. Pero es muy diferente en el caso de un accidente y una instalación tecnológica que produce una sustancia de la que no se sabe bien cuales son las consecuencias que tiene para la salud. Y que esas consecuencias pueden aparecer dentro de 50 años, dentro de 100 años, dentro de 2000 años. Otra cosa: ¿por qué se trataban así los problemas? -ya que a nosotros nos interesa también saber porqué se trataban esos problemas así-, ¿porqué se trataba de resolverlos a través de una reducción de todo a la cultura de una sociedad o a través de la posibilidad de asignar un número y
  • 23. 21 predecirlo? Esto es un síntoma de un cierto mecanismo sociocultural o desarrollo histórico; y claramente tiene que ver con la tradición moderna y el papel de legitimación que ha tenido la ciencia en las sociedades de nuestra civilización. ¿Por qué? La idea de que un accidente es un "accidente" es muy interesante, porque dice que un accidente es una cosa excepcional; que si las cosas funcionan bien, las cosas van a andar bien. Sólo excepcionalmente aparece el accidente. Y nosotros nos ocupamos de esta cosa excepcional: el accidente. Cuando que en realidad no es así, el accidente es otro producto natural del sistema funcionando. Por lo tanto, un sistema tecnológico produce bienes, pero también produce males. Nosotros siempre nos hemos concentrado en los bienes que produce, sin pensar en los males. Que son también una producción natural del sistema funcionando correctamente. Y este es un concepto fundamental. En un artículo que publiqué hace dos años definía a los sistemas tecnológicos como "sistemas generadores de incidentes". El incidente es un output, una salida normal del sistema funcionando bien. Otro ej.: Todos nos hemos enterado del problema del Exxon Valdés, cuando un barco petrolero tuvo un accidente en la costa de Alaska y se contaminó toda esa zona con petróleo. Pero la cantidad de petróleo que salió en esa oportunidad es menor a aquella con la cual se contaminan los mares continuamente por operaciones de rutina de los barcos petroleros. Porque ellos lavan el interior continuamente, como parte de la operación
  • 24. 22 normal. Los depósitos donde almacenan combustibles y otros productos químicos, petrolíferos y derivados, pierden naturalmente, y lo que pierden naturalmente es más importante que lo que puede suceder en un desastre. La contaminación rutinaria es más importante que la contaminación excepcional. Pregunta: ¿Una es considerada accidente y la otra no? Respuesta: La otra no. ¿Porque nosotros prestamos más atención al accidente que a la rutina? Es muy simple: Porque el primero tiene costos políticos. O sea, el accidente tiene que ver con lo que un sistema político puede tolerar. Un sistema puede tolerar que haya miles de muertos en accidentes de tráfico, pero no puede tolerar cinco muertos en un incendio en un ferry. Esto me lleva a estudiar el accidente no como una situación especial sino como parte de la dinámica de un sistema complejo. Yo podría extender la metáfora más y decir así: Si uno estudia el sistema económico mundial, puede pensar que si se destruyen ciertos países usándolos como basureros de residuos tóxicos, uno puede pensar que el resultado es la emigración. Por lo tanto, si uno fija el precio de las "commodities" [materias primas], y hace que ciertos países -en general, los países pobres- tengan que vender ciertas "commodities" a un precio muy desventajoso, el resultado puede ser que un productor en lugar de plantar bananas produzca coca. La prostitución, la droga, la emigración, son los "disutilities" [desventajas], los "bads" [males]
  • 25. 23 que forman la otra cara de la moneda de los "utilities" [ventajas], de los "goods" [bienes], como parte del funcionamiento normal del sistema. Pregunta: ¿Podría desarrollar su definición de sistemas complejos? R: Si, pero más adelante; porque mi estilo es tratar de contar una historia que tenga sentido, que parezca verdadera y después vamos a tratar de acercarnos a una definición más formal, más clara, acerca de ciertos conceptos. Yo creo que la gente tiene más o menos una idea intuitiva de lo que es un sistema complejo. Yo después voy a mostrar que es equivocada. Hemos trabajado bastante en tratar de entender qué es la incertidumbre. Y tratar de ver como es la historia, desde los griegos, en términos de que nuestra sociedad es una civilización que ha tratado de eliminar o exorcizar la incertidumbre. La búsqueda de la certidumbre es un elemento fundamental de nuestra civilización. De esta forma puedo decir que toda la idea del método científico y de la ciencia como factor de legitimación de la acción o de la política esta basada en la idea de que podemos eliminar la incertidumbre. Y en general, eliminar la incertidumbre que proviene de la pasión, como decía Hume. Todo el proyecto científico moderno apuntaba a eliminar la pasión, porque este es el elemento que puede introducir más incertidumbre. O sea, el proyecto era eliminar del cálculo todo lo que se refiere a valores, a intereses, a pasiones. De tal manera que podemos obtener un resultado
  • 26. 24 que, en términos tradicionales, es neutral, es "value free" [libre de valores]. Esta es la historia que se cuenta, es parte del mito. Por ejemplo: Cómo la estadística, a través del test de hipótesis, no es más que una forma de reducir la idea del peso de la prueba. El "peso de la prueba" no es un concepto científico. El test de hipótesis o los límites de confianza es la mención de un concepto que tiene que ver más con la tradición, la historia, de una cierta sociedad y que se refiere al peso de la prueba. Es muy importante para la gestión ambiental: ¿quién tiene que probar qué cosa? Porque sabemos que de esto depende todo lo demás. Cuando hoy en materia ambiental se habla del principio de precaución lo que se esta intentando hacer es cambiar el peso de la prueba. Y ¿por qué se intenta hacer eso? Precisamente por la incertidumbre. En otras palabras, el peso de la prueba es una idea que tiene que ver con qué tipo de error estamos tratando de prevenir o de evitar. Lo que los economistas llaman "error costs" o en estadística se llama errores de "tipo 1" y "tipo 2". En términos jurídicos, la legislación anglosajona establece que es mejor que un criminar sea declarado inocente a que una persona inocente sea declarada culpable. Es un principio fundamental, pero que no tiene nada que ver con la ciencia. Tiene que ver con la cultura, tiene que ver con la tradición histórica. ¿Qué tipo de error nosotros estamos tratando de evitar cometer con relación al ambiente? ¿Quién tiene que probar qué cosa? ¿Es la defensa o es la acusación? ¿Son los que contaminan los que tienen que probar que no contaminan o son aquellos que se oponen a un determinado tipo de
  • 27. 25 actividad que tienen que probar que esa actividad es contaminante? De ahí se deriva todo. Y este no es un problema científico. Ya en relación a los problemas tecnológicos, Alvin Weinberg, que fue uno de los creadores del programa nuclear norteamericano, creo el termino "trans-science" en un editorial de la revista científica Science, en la década del 70. ¿Qué es lo transcientífico?. El lo definió de la siguiente manera: un problema es transcientífico cuando puede expresarse científicamente pero no puede resolverse científicamente. O sea, parece problema científico, porque podemos usar el lenguaje científico para expresarlo, pero no tiene solución dentro de lo que es la ciencia y la actividad científica. Weinberg se refería a un problema muy específico, a las radiaciones rutinarias de las fuentes de energía nuclear. No aquellas de los accidentes sino aquellas de rutina, "low radiation" [baja radiación]. Y el decía que para resolver el problema científicamente -en el sentido experimental- había que usar una cantidad de ratas de laboratorio tan grande que era incluso enorme para los Estados Unidos. O sea que si bien se podía plantear la posibilidad del experimento, no era posible implementarlo. Si bien es muy interesante esta idea, y fue aceptada (después publicó un artículo en la revista Minerva que se llamaba "Science and Trans Science" [Ciencia y Transciencia], en la cual explicaba esto con más detalle), a mí no me convence demasiado, porque parece que soló se trata de un problema de factibilidad. Parece que simplemente si toda la humanidad, a lo largo de toda la historia se pusiera como empresa el resolver ese problema, científicamente lo podría hacer. Podemos incluso imaginar un experimento
  • 28. 26 mental. O sea, yo me puedo imaginar un experimento que pueda resolver eso. No se si en Argentina se conoce a este autor que se llama Douglas Adams, que escribió una serie de libros muy interesantes, que comenzaba con "La guía del que hace dedo al Universo", y todo el libro era en realidad un gran experimento al final del cual la respuesta era 42. O sea, si nosotros pensamos toda nuestra historia en términos de un gran experimento al final podemos pensar también en un número 42 que sea el resultado; o podemos pensar, como Tolkien en el cuento Silmarillion, que en realidad esto no es más que parte de un gran experimento que hace dios para mostrar que uno de los ángeles sonaba la melodía incorrecta. Sustancialmente no hay ninguna diferencia cualitativa, es un problema de recursos. En cambio, para nosotros, los problemas de este tipo son cualitativamente diferentes. No es simplemente un problema de decisión de toda una civilización a hacer o a imaginar el experimento. Y nosotros llamamos a eso la "ciencia posnormal". En estos diez o más años en que nosotros estamos trabajando este tema, no sólo nosotros cambiamos, envejecimos, etc. sino también el mundo cambió. La forma como miramos las cosas cambió. Ahora los problemas tecnológicos están subsumidos en lo que podemos llamar "problemas ambientales". Mientras que en los '80 no se hablaba de esto, no solo acá sino que tampoco en el resto del mundo. Eran pocos los que hablaban de civilizaciones globales, de las relaciones globales.
  • 29. 27 Ahora tenemos conciencia de que existen los problemas ambientales, quien más o quien menos. La leche es ecológica, el detergente es ecológico... Es decir que no sólo reconocemos estos problemas sino que además, este reconocimiento esta apropiado por el sistema. Lo que es un reconocimiento de que esto ya forma parte de nuestro bagaje cultural. La otra cosa que cambio se refiere a la actividad científica en sí. Nosotros empezamos con la definición de Knight, el primer sistema de probabilidades personales de Keynes, y esa línea continuó. Ahora bien, ¿porqué son los economistas los que se ocuparon de esta distinción y comenzaron a desarrollar este sistema? Hay otros que se ocuparon, aquellos que desarrollaron los fundamentos en relación a la evidencia, tales como K.Poper. Pero esto tenía muy poco que ver con las actividades de todos los días. Entonces, fueron los economistas los que se ocuparon de este tema porque eran los que influían en las decisiones de todos los días. Cumplían un rol muy importante en el proceso de decisiones. Por lo tanto tenían que tratar con la incertidumbre de manera práctica. Eso continúa y durante la segunda guerra mundial surge lo que después se llamo "decisión analysis" [análisis de las decisiones], o más frecuentemente, "policy analysis" [análisis de las políticas]; son las teorías formales de decisión que surgen y se desarrollan, pero que no son más que una continuidad de la extensión del concepto de probabilidades. ¿Porqué surgen y se desarrollan? Es por el éxito que tuvo el uso de estas técnicas en
  • 30. 28 problemas de transporte y logística militar. Wiener y Von Neumman resolvieron el problema de las colas: El problema de transporte de las fábricas e industrias hacia los puertos, y el problema de transporte de los puertos americanos a Europa. Sobre la base de ese éxito se desarrolla lo que fue llamado la "teoría de la decisión". Y es interesante que en primer lugar eso da origen a algo muy restricto, no por eso menos importante, que es la investigación operativa. Pero eso mismo daba origen a la "teoría del juego" que se ha usado para la estrategia nuclear o la estrategia del terror. Y acá nos acercamos a algo que se hacía cuando yo hablaba de los tornillos. Es el mismo salto. Porque un problema es saber cuáles son las industrias, cuáles son las minas, los lugares, las fuentes de recursos, los puertos y a donde hay que ir, etc.; los problemas de logística, en donde más o menos todo se sabe (de la misma manera que se sabía cuantos tornillos defectuosos produce una máquina, y cuanto cuesta cada tornillo) y otro cuando se salta a un problema de estrategia nuclear. La culminación, que a su vez es la derrota, de esta concepción es el uso de las estrategias decisionales para la planificación de la guerra de Vietnam, donde los sistemas formales decían "la guerra se ha ganado", cuando en realidad se perdió. Sin embargo, la inercia de la legitimación científica y de los procesos formales es tan fuerte y los intereses son tan grandes, que la evidencia no es suficiente. Pero es interesante que las probabilidades que son subjetivas, los sistemas de elicitación de opiniones de expertos, la teoría de juegos, se
  • 31. 29 continúan desarrollando; en este caso, ya no aplicadas a la estrategia nuclear sino al nuevo problema, que es el del riesgo tecnológico: dónde ponemos una instalación peligrosa, cómo decidimos si ella es peligrosa o no. Por lo tanto se produce un cambio cualitativo. Toda esta gente que esta haciendo sistemas formales, se dedica al problema de riesgo. Los nuevos clientes, el nuevo mercado está en ese ámbito, sobre todo en Estados Unidos. Y se empiezan a aplicar todas estas "teorías de decisiones en contextos de incertidumbre", incertidumbre reducida a riesgo a través de cuantificaciones. La base ideológica de estas teorías es el utilitarismo; es el individuo aislado, egoísta, tratando de maximizar su beneficio personal. Y esto tiene una tradición bastante explícita. Eso es el sustento ideológico de todas las teorías formales de decisión. Pero en el transcurso de cambiar el problema, el fondo del problema, lo que se hace es un salto muy grande de carácter epistemológico y metodológico. Ahora lo que estamos tratando de cuantificar es la opinión de ciertos expertos. No hablamos más de experimentos. No es más el resultado de usar datos de carácter controlado sino que el dato, en estos momentos, es la opinión de un experto. Y como decía Savage, que en los principios de los años 50 desarrollo otro sistema de probabilidades subjetivas: "Y ¿cómo hace Ud. para elegir a su experto?". Es un problema interesante. El decía: "Ud. elige el experto que le ha hecho ganar más dinero en el pasado". (Lo escribe en un libro sobre introducción a la teoría de la probabilidad).
  • 32. 30 Y este problema es el meta-problema que ahora tenemos. O sea, podemos licitar la opinión de un experto pero ¿cómo elegimos al experto? Hay un problema interesante, todos nos estamos "avivando". Por lo tanto, comenzamos a subir el meta-nivel; hacemos las cosas ya pensando en los problemas y cómo contraatacarlos. Ya no se habla más de optimización. Se va a un concepto que puede ser el de Simon, de "satisfying" [lo que da satisfacción]. O incluso hoy se habla de "defendible"; el sistema nuestro hoy tiene que ser defendible. Y esto me hace acordar un poco cuando nosotros estudiamos los modelos de explicación, donde uno comienza con el modelo de explicación nomológico-deductivo, y después, como hay cosas que suceden, uno comienza a debilitar las condiciones, y al final todo es posible con la explicación. De la misma manera ahora, el modelo lo único que tiene que hacer es ser defendible; esa es una condición suficiente. Ya no se trata más de optimizar, porque nadie más cree en la optimización. O incluso los que creen, saben que no la pueden defender. Lo otro que está pasando es que todas estas nuevas modas formales tienen una curva. Surge una moda, todos los investigadores hacen eso y vuelven a dejarlo cuando aparece una nueva moda. Y el tiempo de duración de cada una es cada vez menor. Las probabilidades subjetivas duraron cuarenta años, las otras van durando cada vez menos (¿cuánto duró la teoría de catástrofes?¿o de los fractales y el caos?). Todos son sistemas para resolver el problema de la incertidumbre, o distintos tipos de incertidumbre. El problema que tratan de solucionar los conjuntos borrosos, es el de la ambigüedad lingüística, según dicen.
  • 33. 31 El hecho es que cada moda de estas, no es que no sirve para nada. Al contrario, sirve. Por ej. el sistema de lógica borrosa se usó en los chips. Pero para lo que sirven no es precisamente para lo que fueron creados. Y lo que se necesita que hagan no es precisamente lo que hacen. Esos sistemas formales fueron creados para resolver problemas de decisión. Y este es el problema que no resolvieron. Pero no solo la frecuencia aumenta y las modas cambian muy rápidamente. Todas estas cosas nos hicieron más "piolas". Por ej. la teoría de catástrofes nos enseñó que las cosas pueden cambiar dramáticamente de forma incontrolable de un momento a otro. El caos nos enseña que la dinámica de sistemas complejos es impredecible e incontrolable. Hoy hemos llegado a cerrar el círculo y volvemos a nada. Hoy nuestra concepción de cómo son los sistemas que estudiamos y en los cuales nosotros vivimos es un sistema en el cual existe la incertidumbre no cuantificable. Reconocemos que existe una incertidumbre no reducible. Comenzamos en una época en la cual todavía había una batalla entre la teología y la ciencia. Por lo tanto, nociones como "sistema" en términos de von Bertalanfy, o de "entelequia" o de "vitalismo" (principio vital), para los científicos eran sospechosas, porque toda la tarea, todo el programa, era eliminar eso del proyecto de la ciencia. Por lo tanto todo lo que fuera principios de ese tipo o nociones sistémicas era sospechoso de introducir la "mística" de alguna forma,
  • 34. 32 entidades de ese tipo. Y esto tiene que ver también con cuál era el paradigma científico, las ciencias referentes: la física-matemática. Hoy sucede que ese paradigma esta siendo reemplazado, en forma similar. Y en su lugar esta surgiendo como ciencia paradigmática la biología. No es extraño que la economía neoclásica se haya moldeado como la física. Y que ahora la nueva economía comience a ver problemas de termodinámica, de entropía, etc. que corresponden a un nivel de los sistemas disipativos y de la ecología. Y esto pasa en todas las disciplinas. Podemos decir, es la nueva moda en un sentido. Ahora los sistemas son complejos. Los psicólogos hablan de problemas complejos, los antropólogos, los sociólogos. Todos hablan de sistemas complejos. Uno no es un científico serio si no habla de sistemas complejos, en el mismo sentido que uno no era serio si no hacía teoría de catástrofes. Si la geografía no hacía modelos matemáticos no era científica ¿cierto?. Sistemas complejos y ciencia posnormal Hablemos entonces un poco de qué es un sistema complejo (no voy a hacer termodinámica ni ecología de sistemas). "Sistema complejo" no es un sistema complicado; tampoco tiene que ver con los números complejos. Sistemas muy simples pueden ser complejos. Como Uds. saben el problema de los dos cuerpos tiene solución en física y el problema de los tres cuerpos no tiene solución (por eso en comercio, un problema tiene solución cuando involucra a dos países y no cuando son tres, pues está tomado de la física).
  • 35. 33 Complejidad no tiene nada que ver con complicación. Tiene que ver con otras cosas: con las interacciones, con la interdependencia, con la naturaleza de los mecanismos disipatorios, con la jerarquía del sistema y sobre todo, con la auto organización. Nosotros tratamos de proveer una definición de sistema complejo o de problema complejo, equivalente a las definiciones que se pueden dar en termodinámica, o incluso en ecología de sistemas. Pero expresado un poco más en términos socioculturales. Un sistema, un problema, es complejo cuando existe una pluralidad de perspectivas legítimas que no son reducibles una a las otras. O sea, uno tiene distintas perspectivas, visiones, que no pueden ser reducidas unas a las otras. En términos de teorías, no existe una teoría que las abarque a todas. Y sobre la base de esto nosotros formulamos una idea acerca de cómo se hace la ciencias posnormal. ¿Cuáles son las características que tienen estos sistemas, estos problemas, de los cuales se ocupa esta ciencia que llamamos posnormal? En primer lugar los hechos son inciertos. Clásicamente un hecho es un hecho, no hay incertidumbre en un hecho. Y acá los hechos son inciertos. En segundo lugar los valores están en disputa. Hay conflicto de valores. En tercer lugar, lo que esta en juego es muy elevado. La apuesta en juego es alta.
  • 36. 34 En cuarto lugar, las decisiones son urgentes. No se puede esperar. Si Uds. lo piensan haciendo un poco de historia, pueden ver que cada una de estas características es totalmente diversa a las condiciones de la ciencia normal. Nosotros decimos que cuando la incertidumbre es de carácter técnico y la apuesta en juego es baja, lo que tenemos es ciencia aplicada. Que cuando la incertidumbre crece, es de carácter metodológico, y también crece la apuesta en juego, tenemos lo que se llama actividad profesional, un ingeniero, un arquitecto, un médico, que usan ciencia aplicada pero que no es un científico aplicado. La naturaleza del problema cambia, la incertidumbre cambia, el costo también. Los practicantes de este tipo de solución, son distintos a los científicos; está visto por el tipo de contrato social que tienen. El contrato social de un ingeniero, de un médico, es distinto al de un científico. E históricamente, ellos han creado su colegiación que negocia su contrato social con el estado o con su estructura jurídica. Históricamente, por ej., el código de Hammurabi ya establecía estas condiciones, ya legisla acerca de cuánto va a pagar un ingeniero si la casa se cae: lo paga con la vida. Ningún científico pagó con la vida equivocarse en teoría. O sea que el costo a nivel personal es alto. Otro ejemplo es el contrato social de los médicos en la sociedad china, que se les pagaba mientras la persona estaba sana.
  • 37. 35 Cuando la incertidumbre es de carácter epistemológico o ético, o la apuesta en juego es muy elevada, tenemos lo que nosotros llamamos la ciencia posnormal. Esta ciencia posnormal no es nueva. La cosmología es un ejemplo de ciencia posnormal. Una reunión sobre cosmología no puede ser integrada solamente de astrofísicos; teólogos también pueden hablar de cosmología. Quiere decir que la legitimidad debe ser extendida a otros. No se puede "cerrar" la legitimidad. Es decir, nosotros somos los expertos en cosmología. Y los mismos científicos juegan con esto. Y tenemos a Dawkins y a Hawkings diciendo que ellos conocen "la mente de dios". Ellos mismos juegan con la ambigüedad, para convertirse en personalidades de televisión. La cosmología, entonces, es un ejemplo de ciencia posnormal en el sentido de que ningún cosmólogo puede cerrarle la puerta al otro en forma legítima. Hay otro caso en donde a lo mejor la incertidumbre es baja para comenzar, pero la apuesta en juego es muy elevada: El Exxon Valdés, de nuevo. ¿Cuánto tiene que pagar Exxon en reparación por la contaminación petrolífera? En principio, existe lo que se llama la "evaluación de contingencias", teoría de los economistas que se usa para calcular esas cosas. Lo interesante es esto: como Exxon no estaba conforme con lo que tenía que pagar, contrató a tres o cuatro economistas importantes para discutir la metodología empleada en el cálculo. O sea, lo que estaba en juicio en ese momento ya no era cuánto tenía que pagar sino toda la metodología
  • 38. 36 de "contingens valuation" [valuación de contingencias]. Y así, cuando la apuesta en juego es elevada, se crea incertidumbre. Porque si la incertidumbre no esta a nivel técnico, se pasa a jugar a nivel metodológico, y si es necesario, se pasara a jugar a nivel epistemológico. Y en última instancia se pasa a jugar a nivel ético. Por lo tanto, la incertidumbre se crea. A medida que sube la apuesta en juego, comienza a subir también la incertidumbre. O sea que en este sentido, la incertidumbre técnica es simplemente un acuerdo. Y por eso digo que en ciencia aplicada la incertidumbre es técnica, simplemente porque a nadie le interesa demasiado lo que se pone en juego. El mismo problema hecho en un laboratorio de Universidad, puede ser ciencia aplicada, mientras que si se hace en una empresa farmacéutica se puede convertir en un problema posnormal. ¿Porqué? Si una determinada droga, una vez que esta vendida, después de veinte años comienza a saberse que causó efectos colaterales, que mato gente, etc. etc. no es más un caso de ciencia aplicada, no son más los científicos en un laboratorio que se ocupan de eso. Se convierte en otra cosa. Por lo tanto, el contexto en el que se observa un problema es fundamental. Para terminar, quisiera mostrar otra forma de entender el sistema complejo. Es un poco más técnico. Si Uds. entienden el sistema complejo como sistema multidimencional -voy a usar una metáfora- en donde se usan como "dimensiones bajas" ellas corresponden a la actividad científica tradicional, a las dimensiones mensurables, medibles, tales como el tiempo o
  • 39. 37 la masa. En otras dimensiones más "altas", ya entra valores, tales como la conciencia. Cuando nosotros usamos como paradigma la actividad científica, la ciencia físico matemática, lo que estamos haciendo es proyectar las dimensiones altas sobre las bajas. Esto es lo que pasaba siempre en la antropología, en la sociología, en las ciencias humanas y sociales: No eran tan "científicas" como las otras. Los científicos sociales estaban siempre discutiendo sobre los fundamentos, sobre la metodología; nunca se ponían de acuerdo. Lo que pasaba era que estaba tratando de proyectar sobre un espacio de menos dimensiones que correspondía a aquello que podía ser medido o cuantificado. Y de ahí también la insatisfacción. La idea de que "hacemos esto, y es lo que hay que hacer para ser científico", pero así y todo, nosotros tenemos el complejo, la envidia hacia esa ciencia en donde uno mide la longitud o la temperatura y ¡funciona bien! En cambio nosotros no estamos totalmente satisfechos, simplemente porque siempre hay algo que queda afuera. Lo puedo decir también de los problemas científicos normales. En general, la ficción reduccionista funcionaba en la medida que dejábamos afuera todos los problemas interesantes. Para hacer un modelo de dispersión atmosférica yo tengo que imaginar partículas que no existen en la realidad, y claramente funcionaba la manipulación técnica o cuantificación de la incertidumbre, simplemente porque la otra parte de la incertidumbre se la dejaba fuera en la formulación y definición del problema.
  • 40. 38 En ese sentido, la incertidumbre es una propiedad sistémica, y lo que se hacía era lo mismo: proyectar todas las dimensiones del sistema sobre las dimensiones inferiores. Por lo tanto, la única incertidumbre reconocida científicamente era la técnica, aquella que se podía cuantificar. Yo pongo un ejemplo en mi último artículo del libro de Abott, "Flatland" [País Plano], una novela de ciencia ficción victoriana en donde sus habitantes, los habitantes de la Línea, solamente podían ir hacia ahí y hacia ahí. Los que habitaban el Plano podían tener otro movimiento pero no podían imaginar la Esfera. Y la realidad es que los matemáticos -por eso creo yo que la metáfora funciona bastante bien- los matemáticos sabemos que cuando se proyecta para abajo pueden salir cosas muy interesantes pero si uno quiere inferir las propiedades de todo el sistema a partir de las proyecciones, eso es prácticamente imposible, porque aparecen propiedades que ni siquiera imaginábamos, como lo de la cinta de Möebius o la botella de Klein. Por lo tanto, lo que nosotros hemos intentado a través de todo el proceso reduccionista es el eliminar las cosas interesantes, que realmente nos podían dar explicación de cómo las cosas funcionaban. Y tratar de inferir las propiedades de todo el sistema (los sistemas reales) a partir de lo que sabíamos de las proyecciones. Ahora la moda -no es que de golpe los sistemas son "complejos", porque los sistemas siempre lo fueron, lo que pasa es que ahora a lo mejor nosotros creemos que son complejos y dentro de veinte años también pasa esta moda- pero ahora creemos que los sistemas son complejos; hablamos de sistemas abiertos, de sistemas cerrados, de sistemas disipativos y leyes de equilibrio; que tenemos que entender a los sistemas complejos en función de sus interacciones.
  • 41. 39 Claro que esto es un cambio fundamental, no sólo en términos de la ciencia sino en terreno de todo nuestro proyecto de civilización. Porque lo que tenemos que entender es la naturaleza dialéctica de las cosas. (Para nosotros es dialéctica, para las filosofías orientales puede ser la complementariedad, el yin y el yang). La idea es que, como decía en el caso de los "goods" y los "bads", las "utilities" y las "disutilities", no se puede producir una sin producir la otra. No se puede producir conocimiento sin producir incertidumbre. Por lo tanto todo el proyecto de eliminación de la incertidumbre y de la determinación científica de las acciones debe ser abandonado. Todo el programa es abandonado. Del mismo modo que el proyecto de Hilbert de 1910, para resolver los problemas fundamentales de la matemática, tuvo que ser abandonado. Entonces, para terminar, si relacionamos la ciencia posnormal con la idea de sistema complejo y con la definición sociocultural que yo traté de dar sobre sistema complejo, está claro que no existen "soluciones" sino formas de aproximar el problema. Para ello nosotros necesitamos pluralidad, necesitamos tratar de abarcar todas las diferentes perspectivas. Esto nos lleva a extender la noción de racionalidad, que había sido capturada por la "racionalidad científica". Extender la noción de conocimiento, reducida al conocimiento científico. No negar el conocimiento científico, simplemente entender que es otra perspectiva. Y mover al científico como elemento neutral, del centro a un vértice.
  • 42. 40 Quiere decir que no hay ninguna necesidad de que la gente deba traducir el conocimiento que tiene a un lenguaje físico matemático para que sea legítimo. Así como es mejor que la gente conozca esto, es mejor que los científicos conozcan el lenguaje de la gente. Cada uno tiene pares de distinto tipo, y todos son parte, configuran, estudian, se refieren, a una perspectiva diferente de una problemática común. A manera de conclusión Sé que en algunos sentidos lo que estoy diciendo no es satisfactorio, simplemente porque todavía lo tenemos en la cabeza como cosa satisfactoria es la tradición. Yo para escribir un libro tengo que escribir en el último capítulo cómo se resuelve el problema, sino para qué voy a escribir el libro. Porque nosotros tenemos decir cómo se resuelven las cosas, tenemos que dar la receta para solucionar el problema. Y si yo digo que no existe receta eso no es satisfactorio. Pero por otra parte, así son las cosas. O nosotros aprendemos que así son las cosas y aprendemos a convivir con la incertidumbre, que no es reducible a riesgo, que no es cuantificable; o si no, vamos a continuar haciendo nuestros trabajos muy independientemente de como cambian las cosas. Y así vamos a seguir haciendo teorías de catástrofes, teorías del caos, que podrán servir para justificar una cierta carrera académica, pero que no sirven para solucionar los problemas que tenemos que enfrentar. Y como a cada vuelta de tuerca nosotros estamos más "piolas", ya no hay tanto que justificar, porque ya todos saben que los científicos en las
  • 43. 41 universidades cuando hay dinero disponible van a decir que lo que hacen ellos es lo que resuelve el problema. Van a cambiar el título del proyecto y van a seguir haciendo lo que hacían siempre. Ahora sabemos que la tarea de investigación es una más entre las necesidades de la sociedad y va a tener que competir cada vez más con otras de las necesidades humanas, porque todos pagamos por eso y por lo tanto todos decidimos cuáles son las prioridades. Por lo tanto lo que esté en crisis es una cierta concepción que llevó necesariamente a la ciencia industrializada a convertir a muchos científicos en proletarios y en lumpen, y a llegar a la crisis de legitimación que está ocurriendo en estos momentos. Es cierto, es insatisfactorio, pero es así cuando uno lo mira con una concepción, creo yo, que hoy es obsoleta. Creo que en estos momentos soy muy optimista porque existe la posibilidad de cambio; ciertas concepciones están en estos momento en discusión y claro está, yo no me puedo llamar de científico en el sentido moderno de la palabra; nosotros podemos calificarnos más de filósofos naturales que es lo que eran los científicos antes de ser científicos. --------------------------------