Revista argentina. Publicada entre 1970 y 1975. Expone las teorías generales, informa sobre el planteo, el desarrollo y la discusión de la investigación contemporánea, en todos los dominios, desde la física hasta las ciencias del hombre. Presenta los trabajos de los especialistas, escritos por los especialistas mismos, debate los problemas de política científica.
Aborto Enzootico Ovino.pptx La clamidiosis ovina (aborto enzoótico de las ove...
Ciencianueva14
1. Qué es la biofísica
Problemas de Go
Premios Nobel 1971
Max Perutz:
HEMOGLOBINA
2. Calculadora
electrónica
con impresión
¿ ^ ^ - "•**
CIFRA 311: Lógica de 3? generación, memoria de 4? generación.
CIFRA 311: Mayor potencialidad, diseño expeditivo, costo menor.
•CIFRA 311: Creada en el pais, es la solución más actualizada
a las vertiginosas exigencias de precisión y caudal de cálculo
de las empresas modernas.
Comercialización y Ventas: Garay 1, Tel. 34-6034/5/6/7/8.
cifro 311Un producto FATE S.A.I.C.I. División Electrónica
3. 11
HEMOGLOBINA
Daniel Goldstein
José J. Lunazzi
Hernán Bonadeo
Max Perutz
Thomas Moro Simpson
Rolando Y. García
Marcelino Cereijido
Manuel Risueño
Julio Moreno
Grupo Trabajadores
de la Ciencia
José Babini
3
6
7
12
14
19
26
28
34
37
39
40
45
46
56
57
60
61
63
64
Revista
de ciencia y tecnología
La ley antiuniversitaria
El mito de la libre elección de temas
Earl W. Sutlierland: Premio Nobel de Medicina
Dennis Gabor: Premio Nobel de Física
Gerhard Herzberg: Premio Nobel de Química
Hemoglobina: El pulmón molecular
¿Qué posibilidades tiene el desarrollo científico
en la Argentina de Hoy?
¿Qué liaría usted con una computadora?
¿Qué es la Biofísica?
Novedades de ciencia y tecnología
1. Taxis sin chofer
2. Criminalidad y cromosomas
3. Diseño de anteojos por computadora
4. Alimentos hechos con diarios viejos
5. Los sorprendentes parecidos entre los hongos y los hígados
6. Más desconcierto entre los bioquímicos del ADN
7. La periodicidad de las aguas
La Ingeniería Genética en células humanas es un
hecho
Problemas de Go
Los Flexágonos
Humor nuevo
Actividad científica y realidad nacional
Libros nuevos
Comentarios de libros
Acerca de los Congresos Científicos
Cursos y reuniones científicas
Correo del lector
Metegol N9
10 y solución a Metegol N9
9
Conferencias
De las opiniones expresadas en los artículos firmados
son responsables exclusivos sus autores.
1
4. Año III / N" 14 / enero 1972 / Buenos Aires
Av. Roque Sáenz Peña 825, 99
piso, Of. 93 - Buenos Aires
TcL: 45-8935
Es una publicación de Editorial Ciencia
Nueva S.R.L., Av. R. Sáenz Peña 825,
9? P of. 93, Buenos Aires, República Ar-
gentina, Tel.: 45-8935. Distribuidores: en
la República Argentina Ryela S.A.I.C.I.F.
y A., Paraguay 340, Capital Federal, Tel.:
32-6010 al 29; en Capital Federal, Vaccaro
Hnos., S.R.L., Solís 585, Capital Federal.
Impreso en Talleres Gráficos DIDOT
SC A., Luca 2223, Buenos Aires. Precio
del ejemplar: ley 18.188 $ 4 (m$n. 400).
Suscripciones: Argentina, ley 18.188 $40
(m$n 4.000) por año; exterior, por vía
ordinaria, u&s. 15 anual. Registro de la
propiedad intelectual n° 1.049.414. Hecho
el depósito de ley. Derechos reservados
en castellano y cualquier otro idioma para
los trabajos originales, y_ en castellano
para colaboraciones traducidas.
Ricardo A. Ferraro
Héctor Abrales
Daniel Goldstein
Ricardo Schwarcz
Hernán Bonadeo
Horacio Speratti
Lucía Bonadeo
Katia Fischer
Isabel Carballo
Fernando Díaz
Julio Moreno
Hebe Mitlag
Ana Tedeschi
Director
Asesores
Secretario de redacción
Redacción
Diseño gráfico
Dibujo
Humor
Producción
María Susana Abrales Secretaria
Frankfurt: Jan Kovarik
Haifa: Eduardo Fischbein
Londres: Eduardo Ortiz
Nueva York: Roberto Lugo
París: Jorge Schvarzer
Praga: Jan Rehacek
San Pablo: Ricardo Albizuri
Santiago de Chile: J. Pablo Schifini
New Scientist; Sciences; Science et Avenir;
Science-Progrés-Découverte; Science et Yie;
Science Journal; Scientific World; Sapere;
Cooperation Technique; Science Service; Associated Press;
APN; TASS; CTK; ADN; Agencia DAN; ICA press.
Corresponsales
Servicios
del exterior
5. La ley antiuniversitaria
Hipólito Yrigoyen se destacó por su lenguaje dife-
rente. Gustaba usar vocablos poco corrientes, frases de
compleja construcción. Sin embargo, difícilmente pueda
acusarse a su oratoria de desnaturalizar el lenguaje en
su esencia, de alterar el sentido universal de las palabras
y de las expresiones.
El recuerdo de Yrigoyen viene a colación porque fue
durante su gobierno, que tuvo lugar ese movimiento de
bases, conocido con el nombre de Reforma Universi-
taria. Y, 54 años después, no solamente las aspiraciones
de aquel movimiento siguen teniendo validez por no
realizadas, sino que se intenta satisfacer las necesidades
actuales de la comunidad universitaria con postulacio-
nes expresadas en palabras, esta vez de uso corriente,
pero de sentido desnaturalizado.
Así como se llama revolucionarios a quienes detentan
el poder público para frenar todo proceso de cambio,
no se hesita el llamar rectores a interventores de las
universidades nombrados por militares y en proponer
una ley universitaria que no está al servicio de la Uni-
versidad, que no surgió de la Universidad ni fue elabo-
rada por universitarios.
Acaso pudiera haber sido inspirada esa ley en las
aspiraciones de los sectores sociales más desposeídos que
reclaman igualdad de posibilidades. O siquiera sugerida
por los empresarios nacionales que desean tecnificar sus
campos y sus industrias para competir con mejores ar-
mas frente a las grandes empresas internacionales.
La ingenuidad se disipa rápidamente frente a ante-
proyectos de ley que comienzan por marginar a los uni-
versitarios que pretenden ignorar el proceso de cambio
que está en marcha pese a la magnitud de la represión,
que comienzan por no aceptar nuestra situación de país
dependiente y que parten inexorablemente de un pos-
tulado enfermizo cual es el de considerar potencialmente
peligroso todo aprendizaje, delictiva toda protesta, con-
denable toda la inquietud que es inseparable del que-
hacer universitario.
La entelequia que se pretende regir es una creación
mágica de los legisladores de turno. Universidad es otra
cosa: vive, existe y exige que toda reglamentación esté
a su servicio y se estructure sobre su realidad y su razón
de ser, únicamente válidas cuando se integran en el con-
texto de la realidad social, política y económica del país
y de sus necesidades reales.
El mito de
libre elección de temas
Durante el mes de noviembre de 1971 se efectuó en la
ciudad de La Plata una reunión internacional sobre bio-
síntesis de proteínas y ácidos nucleicos, que contó con
la asistencia de disertantes europeos, norteamericanos
y latinoamericanos. Una de las sesiones se dedicó a dis-
cutir el futuro de la biología molecular. A poco de co-
menzar el debate, sin embargo, la discusión derivó a
otros problemas: la responsabilidad social del científico
y el cuestionamiento de la ciencia en los mundos des-
arrollados y dependiente. Surgieron así dos posiciones
claramente antagónicas: la gente joven criticó dura-
mente una actividad científica enajenante y divorciada
del contexto social, a la vez que reclamó una mayor
autocrítica por parte del científico de los países depen-
dientes, cuya actividad, enmarcada en una global falta
de autonomía —económica y política— requeriría otros
puntos de referencia que los que tradicionalmente se le
atribuye. La posición opuesta sostenía que la depen-
dencia económica y política no influye significativamen-
te sobre la actividad científica y que, en nuestros países
6. latinoamericanos, los jóvenes y algunos viejos tienen un
gran complejo de inferioridad que actúa como lastre.
Considerando este complejo como el único obstáculo
para la obtención masiva de logros culturales, bastaría
tan sólo con una nueva actitud mental para pasar a un
desarrollo científico pujante e independiente.
Personalmente, me impresionó la existencia de un
común denominador entre los participantes latinoame-
ricanos del simposium: el aceptar que los temas tratados
durante la reunión científica y el futuro desarrollo de la
biología molecular efectivamente dependían de la vo-
luntad individual de cada uno de los científicos reuni-
dos, y que la elección de los temas de investigación en
esta área era efectivamente una elección libre. Yo no
creo que esto sea así y me atrevo a iniciar el debate
sobre el problema con mi versión —parcial, sin duda—-
del desarrollo pasado, presente y futuro de la biología
molecular.
El mito de la "libertad de elección" de los temas
científicos es uno de los más arraigados entre los pro-
fesionales de la ciencia. Aún los jóvenes científicos disi-
dentes que critican al Establishment por lo general no
se detienen a examinar las motivaciones que existen
detrás de sus propios temas de trabajo e incluso la de-
formación de sus aspiraciones.
Durante el Cold Spring Harbor Symposium de 1967,
mientras bebía cerveza con parsimonia, Francis Crick
explicó en rueda íntima, con elegante frialdad, sus pla-
nes para el desarrollo de la biología molecular. "La con-
signa es terminar Escherichia cotí-, la quiero terminada
antes de morirme. Son apenas 3.000 genes. Lo que ne-
cesitamos son «operators» (operadores) que liquiden
el proyecto E. coli."
Por supuesto, Francis Crick no dedica más esfuerzos
a E. coli. Ahora estudia problemas de diferenciación en
eucariotas. Por supuesto, Siclney Brenner no piensa más
en E. coli. Ahora se dedica a problemas de neurobio-
logía, a obtener mutantes neurológicas de sus gusanitos
mágicos. Por supuesto, Seymour Benzer no piensa más
en E. coli. Ahora se dedica a disecar genéticamente el
sistema nervioso central de la Drosophila. Por supuesto,
Jim Watson no piensa más en E. coli. Ahora le inte-
resan los virus oncogénicos. Y sus tesistas están colabo-
rando con los nuevos problemas, mientras los tesistas
de laboratorios periféricos —dentro y fuera de Estados
Unidos e Inglaterra— se dedican afanosamente a com-
pletar E. coli.
Porque para la mayoría de los estudiantes graduados
norteamericanos terminar con E. coli tiene sus ventajas.
Por empezar, la biología molecular de las bacterias y
sus virus ya no es ni revolucionaria ni riesgosa y esto
implica que existe una inmediata aceptabilidad de los
resultados en las revistas científicas, cuyos Editorial
Boards están controlados precisamente por los mayores
interesados en terminar con E. coli (si caben dudas,
puede revisarse la nómina de editores del Journal of
Molecular Biology, Journal of Bacteriology, Virology,
Biochemical and Biophysical Research Communications
o quienes hacen de referees en Science o Nature). Es
decir, no existe un hiato de credibilidad. Por otra parte,
las técnicas genéticas y bioquímicas aplicables a E. coli
y sus virus están tan estandarizadas que desde el punto
de vista experimental, el desafío es mínimo. Cuanto
más, se trata de aguzar un poco el ingenio para adaptar
técnicas y mejorar las existentes. Por último, dado que
los Crick, los Brenner, los Watson y compañía son los
amos y señores de los dólares o libras o francos o mar-
cos, siempre habrá dinero más o menos fácil para los
buenos operadores que quieran colaborar dócilmente en
la resolución de los antojitos de los semidioses del
olimpo de la biología molecular.
Mientras las universidades periféricas del mundo de-
sarrollado se dedican a terminar E. coli, las universi-
dades realmente importantes y los laboratorios indepen-
dientes de gran categoría se pasan en bloque a otros
problemas. El Cold Spring Harbor Laboratory prepara
sus cursos sobre neurobiología y virus oncogénicos, la
Rockefeller University apunta sus baterías hacia la neu-
robiología y la psicología experimental. Por ahora no
importa dar más ejemplos de este cambio de línea, sino
examinar qué sucede en los países periféricos. En estos,
con casi 20 años de atraso, se descubre la temática de
la biología molecular. Los mejores cuadros —tanto for-
mados como en formación— son reclutados para los
temas de biología molecular cuando ya los grandes pro-
blemas de la biología molecular están conceptualmente
terminados. Porque no se trata de discutir si Gunther
Stent tiene o no razón cuando dice que la biología mo-
lecular está terminada; lo cierto es que los problemas
ele la replicación del material genético, su transcripción
y su traducción y la regulación de la expresión de la
información genética si no están completamente re-
sueltos, están perfectamente delimitados. Enzima más,
enzima menos, las soluciones están a la vista, y como
la historia de la ciencia lo demuestra una y otra vez,
aún los problemas más refractarios al ataque experi-
mental están resueltos en un 50 por ciento cuando las
preguntas están claramente explicitadas. Es decir, la te-
mática de la biología molecular, desprovista de su desa-
fío intelectual, desemboca inexorablemente en una tec-
nología, más o menos sofisticada, pero esencialmente
destinada a desarrollar y pulir mecanismos ya descu-
biertos y no a aportar saltos cualitativos en la compren-
sión de la naturaleza.
Pero la cuestión no reside en discutir si trabajar en
los temas actuales de la llamada biología molecular equi-
vale a desarrollar una tecnología, sino en ver que como
problema intelectual NOS ES COMPLETAMENTE
AJENO, pues la prioridad no la fijamos nosotros sino
una docena de personas que viven en los Estados Uni-
dos, en Inglaterra y en Francia y que, por otra parte,
nada tuvimos que ver con su génesis, porque cuando
ésta ocurría la ignorábamos totalmente. Hacer biología
molecular clásica, aquí y ahora, es convertirse en "ope-
rators" para que Crick y compañía se den el gusto de
entender completamente a E. coli. El alto status que
otorga el trabajar en América latina en biología mo-
lecular —que equivale a realizar lo que los sociólogos
de la escuela norteamericana llaman "modernización" de
las sociedades subdesarrolladas—, proviene de un cri-
terio de evaluación de qué se debe hacer o no en bio-
logía en la Argentina en 1972, que no surge de una
decisión colectiva y discutida por todos los científicos
interesados en el problema. Los conceptos de prioridad
se importan como la moda de tal o cual modisto, como
un corte de pelo o un hábito alimenticio.
Consideremos los temas nuevos, es decir, la "moder-
nización' de los modernos. Hace quince años se publico
7. en Estados Unidos un impresionante volumen de propa-
ganda científica del más alto nivel imaginable, llamado
Biophysical Sciences: a Study Program, destinado a re-
clutar gente para la biología molecular. Ahora ocurrió
lo mismo con las "neurociencias" y con los virus onco-
génicos. Corresponde pues examinar a qué se deben
estos cambios de línea de la dirección de la ciencia
norteamericana.
Estos cambios de línea son cambios políticos. Porque
los intereses del Establishment científico casi siempre
coinciden con los intereses del Establishment político
norteamericano. Los temas tienen la aprobación explí-
cita de los amos de ambos sectores. Un ejemplo claro
es el de la investigación sobre los virus oncogénicos.
Nixon decidió construir su imagen electoral en salud
pública en base a la lucha contra el cáncer; los biólogos
moleculares dicen que dada la falta de recursos finan-
cieros para apoyar investigaciones "puras", han optado
por "engañar" al Establishment político aceptando co-
laborar en la cura del cáncer a cambio de dinero que
en última instancia se dedica a biología molecular "pu-
ra". Así corren los millones para Watson, Spiegelman y
compañía. Pero es una racionalización mentirosa. Lo que
sucede es que estos emperadores presuntuosos de la bio-
logía se han convencido de su propia omnipotencia y al
verse tan inteligentes, tan astutos, tan agudos, han de-
cidido pasar definitivamente de la categoría de semi-
dioses a la de dioses, acabando con el terrible flagelo del
cáncer, "el principal flagelo de la humanidad" (J. D.
Watson). De la humanidad fina, limpia, distinguida y
alfabeta como ellos y nosotros, que resulta ser, ¡oh!
sorpresa, una humanidad muy minoritaria, una huma-
nidad escasa, comparada a la que muere por desnu-
trición, cólera, parásitos, es decir, de los que se mueren
de miseria.
Pero, lamentablemente, estas coincidencias entre el
Establishment científico y el Establishment político no
siempre son tan inocentes. Si los semidioses de la bio-
logía molecular descubren finalmente la clave de la
transformación neoplásica, en buena hora. Y aún si no
la descubren en esta generación, el by-product de estas
investigaciones será una mejor comprensión de la bio-
química de las células eucariotas y de sus virus. En
cambio, el problema de la resistencia bacteriana a los
antibióticos fue y es un problema militar. Quien domine
a voluntad la propagación de los factores extracromosó-
micos que transportan los genes que confieren la resis-
tencia a los antibióticos podrá disponer de un arma
monstruosa, incomparablemente más letal y más barata
que las armas nucleares, ya que la conversión masiva
de poblaciones bacterianas en formas antibiótico-resis-
tentes puede obliterar no sólo ejércitos o ciudades sino
países enteros. La guerra biológica no es un fantasma
sino un peligro real y contemporáneo. La defoliación
criminal que el ejército expedicionario norteamericano
comete en Vietnam no es más que un ejemplo de lo que
se puede hacer.
El mayor-general Marshall Stubbs, director del Army
Chemical Corps de los Estados Unidos, lo dijo clara-
mente durante una audiencia ante el subcomité de pre-
supuesto de la Cámara de Representantes del Parla-
mento norteamericano, en 1963:
"En los laboratorios del ejército norteamericano los
estudios genéticos sobre microorganismos —bacterias,
virus, rickettsias y hongos— están recibiendo creciente
atención. Interesan especialmente los estudios básicos
en genética para comprender sus mecanismos, elaborar
nuevos conceptos y aumentar el conocimiento en general
alterado o transformado para ajustado a los deseos del
sobre este tema. La ingeniería biológica (permite cono-
cer) la forma en que el material genético puede ser
alterado o transformado para ajustado a los deseos del
hombre. Este esfuerzo del ejército, particularmente en
genética de bacterias, está suplementado por subsidios
a universidades, consultas frecuentes y correspondencia
con otros expertos en esta ciencia y mediante la concu-
rrencia del personal científico a reuniones académicas.
Aunque los laboratorios biológicos (del ejército) con-
ducen un programa vigoroso y dinámico en muchas
áreas de la genética básica y aplicada, es también cierto
que necesariamente este esfuerzo será mayor en el fu-
turo próximo. No es improbable que la principal con-
tribución al arsenal biológico provendrá de la investi-
gación y de una mejor comprensión de la genética."
En rigor, toda la biología molecular tiene en sus orí-
genes algunas motivaciones poco "puras": el ejército
norteamericano debía resolver el problema de la resis-
tencia a los antibióticos, un problema clínico de sus
soldados inmediatamente después de la Segunda Guerra
Mundial y durante la Guerra de Corea. Y así fue como
la National Academy of Science movilizó a la univer-
sidad y la bacteriología se convirtió en la vedette de la
nueva biología, el Proceedings the National Academy
of Sciences pasó a ser el órgano oficial de la bacterio-
logía moderna, la National Science Foundation la fuente
de subsidios "incontaminados" (ninguna conexión polí-
tica, ¿no? ) para la bacteriología.
En cuanto al auge de las neurociencias, basta exa-
minar la política de la sociología norteamericana para
comprender que la neurobiología forma parte de un mo-
vimiento de pinzas destinado a controlar las decisiones,
opiniones, sentimientos e inclinaciones de la población.
Las técnicas de manipulación de la opinión por los
medios masivos de difusión se deben articular con el
control de los mecanismos psicológicos del hombre in-
dividual. Y para esto último hace falta comprender
cómo funciona el sistema nervioso central. Y por lo
tanto, toda la competencia y la inteligencia debe ser
dirigida, guiada, lo más sutilmente posible a interesarse
por este problema. El método es el habitual: subsidios,
status, recompensas académicas, políticas y sociales.
La experiencia de los físicos atómicos indica que el
hombre de ciencia no puede colaborar impunemente en
proyectos sobre los cuales no ejerce ningún poder de
decisión, sobre cuyos resultados no puede ejercer ningún
control. La biología molecular —cualquiera fuese su for-
ma, ya sea microbiológica como hasta el presente, o
neurobiológica como se insinúa para el futuro— no está
exenta de esta ley: si quienes la edifican no son concien-
tes de las implicaciones bélicas de sus hallazgos y no
toman medidas efectivas para participar en las decisio-
nes sobre los posibles usos en detrimento de la huma-
nidad, ele hecho se convierten también en criminales de
guerra.
Por todo esto creo que, efectivamente, importa hablar
y discutir sobre el futuro ele la biología molecular, por-
que es un futuro del que somos colectivamente res-
ponsables. O
Daniel Golclstein
7
8. Earl W, Sutherland
Premio Nobel de Medicina
El descubrimiento del nucleótido
adenosina-3',5'-monofosfato (AMPc)
que permitió originalmente explicar
la glucogenólisis hepática y muscu-
lar desencadenada por la adrenalina
y el glucagon, pasó a ser el punto
pivotal para la comprensión del me-
canismo de acción de numerosas
hormonas de vertebrados y además
iluminó complejos problemas de re-
gulación metabólica en bacterias.
Earl W. Sutherland, autor de este
descubrimiento en 1957 y tenaz cla-
rificador del papel del AMPc en la
economía de los seres vivientes aca-
ba de recibir el Premio Nobel de
Medicina de 1971.
Sutherland es un discípulo de C.
F. Cori y por lo tanto comenzó su
carrera estudiando aspectos relacio-
nados a la glucogenólisis hepática.
En un laboratorio considerado sinó-
nimo de la enzima fosforilasa, su
primer trabajo consistió en develar
la incógnita de la estimulación de la
glucogenólisis por la adrenalina. Los
resultados indicaron que se trataba
de una estimulación de la forma ac-
tiva (fosforilada) de la fosforilasa,
y fue persiguiendo la clave de esta
activación que encontró una sustan-
cia termorresistente de bajo peso
molecular, el AMPc, que era la res-
ponsable del efecto. La adrenalina
—y el glucagon, hormona polipeptí-
dica sintetizada por las células alfa
de los islotes de Langerhans pan-
creáticos— estimulan la enzima ade-
nilciclasa, que utilizando ATP como
sustrato y Mg2 +
como activador,
aumenta la concentración celular de
AMPc.
Este hallazgo en sí fue de una im-
portancia extraordinaria, porque se
demostró por primera vez el meca-
nismo de acción de una hormona:
el receptor de la adrenalina (y del
glucagon) en la célula hepática es
la enzima adenilciclasa.
La sorpresa se multiplicó cuando
se observó que una gran cantidad de
hormonas alteran los niveles intra-
celulares de AMPc en sus órganos
efectores. Entre las que aumentan la
concentración de AMPc se encuen-
tran las catecolaminas, el glucagon,
la ACTH, la MSH, la LH, la vaso-
presina, la hormona paratiroidea, las
prostaglandinas, la TSH y la tirocal-
citonina. Cuando se estudió más de-
tenidamente el fenómeno, se encon-
tró que también en los órganos
efectores de estas hormonas la esti-
mulación de la adenilciclasa era la
primera respuesta metabólica y se
traducía precisamente en una activa-
ción de la síntesis de AMP cíclico.
La insulina, la melanotonina y
también las prostaglandinas y las ca-
tecolaminas, en algunos órganos y
en determinadas circunstancias, de-
terminan el descenso del AMPc. To-
davía se desconoce el mecanismo de
esta depresión de la concentración
del AMPc tisural pero se ha podido
correlacionar este efecto con el an-
tagonismo conocido de estas hormo-
nas con aquellas que elevan el con-
tenido de AMPc en los mismos teji-
dos. De estos trabajos surgió la
hipótesis del "segundo mensajero".
El primer mensajero químico es la
hormona en sí, que llega a su órgano
o tejido efector. Allí encontraría la
adenilciclasa —que operacionalmen-
te cabe ser definida como el receptor
de la hormona— y a través de la
estimulación o inhibición de la en-
zima altera el contenido intracelular
de AMPc —el segundo mensajero
químico, intracelular— que a su vez
es el responsable de desencadenar
los cambios metabólicos que caracte-
rizan la actividad de la hormona.
Esta hipótesis contempla pues la
existencia de adenilciclasas específi-
cas en cada órgano, que reconocen a
ciertas hormonas y no a otras, y que
dependiendo del tipo de hormona
reaccionan aumentando la produc-
ción de AMPc o reduciendo signifi-
cativamente su producción.
En 1965 Sutherland incursionó en
un terreno nuevo para él: las bacte-
rias Escherichia coli. Las E. coli tie-
nen varias ventajas sobre los verte-
brados: son los organismos donde
la regulación genética de los proce-
sos metabólicos está mejor estudia-
da. Sutherland, como veterano rela-
tor de los famosos Cold Spring Har-
bor Symposia on Quantitative Bio-
logy estaba conceptualmente prepa-
rado para encarar los problemas me-
tabólicos de E. coli. Y como tocio
biólogo moderno, el problema de la
represión catabólica —la oblitera-
ción de la síntesis de enzimas cata-
bolizantes de azúcares y otras pro-
teínas en presencia de glucosa— lo
preocupa seriamente. Así fue como
descubrió que el efecto de la glucosa
en E. coli consistía en determinar
un descenso violento de la concen-
tración de AMPc intracelular.
Los biólogos moleculares se aba-
lanzaron sobre las implicaciones bio-
químicas de este descubrimiento y
así emergieron los procesos por los
cuales el AMPc regula la transcrip-
ción —es decir la síntesis de RNA
mensaje— de ciertas unidades gené-
ticas de expresión coordinada en
E. Coli.
Otros asombrosos resultados con-
movieron la microbiología: el efecto
de la exotoxina del Vibrio cholera
sobre las células epiteliales del in-
testino de los vertebrados también
está mediado por el AMPc. La to-
xina estimula la adenilciclasa intes-
tinal. Inyectada en el torrente circu-
latorio produce en ciertos territorios
efectos análogos a los de las cateco-
laminas y el glucagon.
Posteriormente se encontró otro
nucleótido cíclico, el GMPc, que en
la actualidad está siendo estudiado
con detenimiento. Los problemas
con el AMPc no están completamen-
te resueltos. Todavía existen zonas
de oscuridad y discrepancia: ciertas
hormonas con efectos fisiológicos di-
ferentes (paratohormona y tirocalci-
tonina, por ejemplo) tienen como
común denominador la característica
de elevar los niveles celulares de
AMPc. La insulina y el glucagon,
que difieren en casi todas sus pro-
piedades hormonales, afectan de la
misma manera la inducción enzimá-
tica en hígado.
Como se puede apreciar, la obra
de Sutherland es de una importan-
cia y amplitud notables. El AMPc
pasó definitivamente a integral, con
otros núcleotidos claves como el
ATP y el GTP, la constelación de
las moléculas imprescindibles para
los organismos vivientes.
Di' G.
6
9. Dennis Gabor
Premio Nobel de Física
> Un nuevo principio
1
microscópico
"El nuevo principio puede ser
^ aplicado en todos los casos en que
o : se dispone de radiación monocromá-
o tica coherente y de suficiente inten-
a . sidad como para producir figuras de
J | difracción con un fondo coherente
! relativamente fuerte. Mientras que
la aplicación a la microscopía elec-
' trónica promete la resolución direc-
> ta de estructuras que están más allá
y del rango de la microscopía electró-
15 ; nica ordinaria, probablemente el
> ' rasgo más interesante del nuevo
(í método para aplicaciones ópticas es
é- 1
la posibilidad de registrar en una
R fotografía datos de objetos tridimen-
sionales. Al reconstruir puede enfo-
i> carse un plano tras otro, como si
;o el objeto estuviera allí, aunque el
ra • efecto perturbador de las partes del
n- í objeto que están más allá del plano
:n ; enfocado es más fuerte en luz co-
o- : herente que en iluminación incohe-
rente. Pero es muy probable que en
U' , óptica, donde se dispone de divi-
05 ' sores de haz, se puedan hallar mé-
o- todos para proveer el fondo cohe-
rente que permitirá una mejor sepa-
ro ración de los planos-objeto y una
:n eliminación más efectiva de los efec-
3o tos de "sonda doble" que en los
as " simples dispositivos que han sido
n- investigados".
as i Así concluía Dennis Gabor su ar-
as , tículo "Microscopy by Wavefront
li- Reconstruction" (Microscopía por
á- ' reconstrucción de frentes de onda)
M que constituye un extenso análisis
ra ' del artículo que con el título "A
le ; New Microscopio Principie" (Un
n, 1
nuevo principio microscópico) ha-
o- bía publicado unos meses antes, el
la | 15 de mayo de 1948, en tres pági-
í- ¡ ñas de la revista inglesa NATURE.
En estos artículos se propone un
ra nuevo principio para la microscopía
n- electrónica, pero como segunda in-
3
c tención se incluyen las posibilidades
ra de aplicación a la óptica, posibilída-
el des que fueron ampliamente apro-
!e vechadas años después al inventarse
ra el láser, mostrando que lo que real-
mente había desarrollado Gaber era
un nuevo principio óptico. Este
principio resultó ser tan importante
que dio lugar a una nueva disciplina
científica, la holografía, cuyas apli-
caciones se extendieron no sólo a
la física y a la óptica sino también
a numerosas ramas de la ciencia y
de la tecnología, con tanta trascen-
dencia que le valieron a su creador
el Premio Nobel de Física de 1971.
El hecho de que un microscopio
electrónico no pueda brindar un haz
de electrones que constituyan la
"radiación monocromática coheren-
te" que cita Gabor, hace que la apli-
cación de su nuevo principio a la
microscopía electrónica sea aún para
él un motivo de atención.
Tal radiación debiera ser la que
más se pareciera a la emitida en
forma continua y en una única fre-
cuencia por una fuente puntual, de
modo de lograr que las figuras de
interferencia que esta radiación pro-
duzca, tengan una nitidez óptima.
Pero como la materia al emitir
radiación no lo hace con una única
fuente sino con una gran cantidad
de ellas, pues cada átomo (o cada
molécula, según el caso) contribuye
individualmente a la emisión total,
la única forma en que la suma de
las radiaciones de cada una ele estas
fuentes se parezca a la radiación
de una única fuente es que los áto-
mos o las moléculas se pongan "de
acuerdo" al emitir y lo hagan en
forma ordenada y sincrónica.
En el año 1948 esto sólo podía
ser una idealización teórica cuya ma-
terialización había sido sugerida por
Einstein en base al principio de la
emisión estimulada de radiación y
estaba siendo buscada por varios
experimentadores.
También Gabor, en 1950 y lue-
go en 1956, propone el desarrollo
de una fuente luminosa que siga ese
principio como tema de tesis a su
mejor alumno, pero en ambos casos
concuerdan en descartarla por con-
siderarlo demasiado arduo.
Mientras tanto las únicas fuentes
luminosas que podían emitir con
cierta coherencia eran lámparas es-
pectrales como las de sodio o mer-
curio y es por esto que desde el
año 1952 a 1956 Gabor trabaja en
la construcción de un microscopio
holográfico que emplea como única
Deimis Gabor
Dennis Gabor nació en Hungría y estudió en la Universidad
Técnica de Budapest y en la Technische Hochschule en Berlín.
Trabajó como ingeniero investigador en Alemania y en Ingla-
terra hasta formar parte del Imperial College of Science and
Technology, en Londres, como profesor de Física Electrónica
y Aplicada.
Actualmente trabaja en los laboratorios de la compañía CBS
en Stanford, en Norte América, donde ha hecho numerosas con-
tribuciones al desarrollo de las comunicaciones y de la televisión
en color.
Su saber cubre una amplia gama de intereses, como se mani-
fiesta en varios artículos suyos escritos en revistas científicas
y en un libro sobre problemas sociales titulado "Inventing the
Future" (Imaginando el futuro).
Antes de obtener el Premio Nobel ya había ganado fama
mundial y distinciones, como la medalla Rumford de la Socie-
dad Real de Londres y en Estados Unidos el premio Michelson
del Instituto Franklin y la medalla de honor del Instituto de
Ingenieros Eléctricos y Electrónicos,
7
10. m t m ,
'//¿'y--
Figura 1
Figura 2
fuente la luz de una lámpara de
mercurio. Pero la poca coherencia
de esta luz hace que el aparato sea
demasiado complicado y por lo tan-
to de difícil aceptación, pese a te-
ner también la ventaja de poder
hacer tomas empleando diez o hasta
cincuenta veces menos cantidad de
luz que la requerida para fotografías
microscópicas comunes.
Este es el último trabajo de Ga-
bor sobre holografía hasta que en
1960 se logra la fuente luminosa
de radiación coherente tan buscada,
el láser, que simplifica y mejora no-
tablemente las técnicas interferomé-
tricas, dando un gran espaldarazo a
ese "nuevo principio" que, debido
8
también a Gabor, se llama holografía
y pasa a ser la técnica de recons-
trucción de frentes de onda.
Principios elementales
Veamos una analogía entre las
ondas producidas por el impacto de
una piedra en el agua y la radiación
de una fuente coherente (por ejem-
plo, luminosa) a fin de poder en-
tender qué es la holografía.
El impacto de la piedra sobre la
superficie del agua genera en ésta
una onda que se propaga en todas
direcciones y cuyas crestas o máxi-
mos de vibración pueden verse como
círculos con origen en el punto (R)
de impacto y que se agrandan a ve-
locidad constante. A esta onda la
llamaremos "onda de referencia".
En la figura 1 destacamos el sec-
tor de esta onda que nos interesa,
que es el que se propaga hacia el
punto O donde hay un barrote rí-
gido simulando un objeto elemental.
Al alcanzar al barrote parte de la
onda se difracta, esto es, da lugar
a una nueva onda con origen en O
que se suma a la anterior en toda
la superficie del agua y que al vi-
brar mantiene un perfecto sincro-
nismo con la porción de onda que
no fue difractada.
Esto equivale a decir que ambas
ondas están en fase o son coherentes
entre sí. A esta nueva onda la lla-
maremos "onda objeto".
En la figura 2 tenemos represen-
tada esta situación y podemos ob-
servar los puntos en los que las cres-
tas (o máximos de la onda) se in-
terceptan. En estos puntos la inten-
sidad de la suma de ambas ondas
es máxima (puntos de interferencia
constructiva) y si observamos su
trayectoria durante la propagación
de las ondas vemos que siguen lí-
neas como las marcadas en la figura
que desembocan en los puntos que
han sido numerados sobre el seg-
mento PP. En los restantes puntos
de este segmento se podrán encon-
trar, por ejemplo, el máximo de una
onda con el mínimo de la otra, u
otras combinaciones semejantes de
menor intensidad que la de los pun-
tos señalados.
El registro de la suma (o interfe-
rencia) de ambas ondas es lo que
Gabor llamó holograma (del gr. ho-
lo — total, grama = registro) pues
constituye, como ya veremos, el re-
gistro de toda la información que
la onda puede obtener del objeto.
Toma del holograma
Registrar la suma de ambas on-
das en PP equivaldría, en el caso
de ondas luminosas, a colocar allí
una placa fotográfica o algún otro
medio de registro. En tal caso, los
puntos de mayor actividad de la
onda corresponden a los puntos que
aparecerán más ennegrecidos una vez
revelada la placa.
Siguiendo con nuestra analogía
acuática, reemplacemos dichos pun-
tos por nuevos barrotes rígidos co-
locados en la misma posición (o sea,
en los puntos ya numerados) que
representarán al holograma.
Sea ahora el caso de la figura 2,
11. donde mantenemos la onda de re-
ferencia con origen en R y la ha-
cemos incidir sobre el holograma,
habiendo eliminado la onda objeto
al sacar el barrote que estaba en O.
Cuando la onda llega al hologra-
ma se generan por difracción nue-
vas ondas centradas en cada uno de
los barrotes. La distribución de es-
tas ondas depende pues de la an-
terior interferencia entre la onda
de referencia y la del objeto y es
tal que a cierta distancia del holo-
grama se suman, dando lugar a una
única onda, pero con centro en el
punto O. Lo que sucede es, pues,
que se forman crestas semejantes a
las que hubiera producido el barro-
te si lo hubiésemos dejado en O,
o sea que se reconstruye totalmente
la onda objeto utilizada en la toma
del holograma.
Tratándose de ondas luminosas,
al mirar esta onda divergente ve-
mos una perfecta imagen virtual del
objeto ubicado en la posición en que
se encontraba al efectuar la toma del
holograma.
Es interesante mencionar el he-
cho de que todas las ondas difrac-
tadas por el holograma también con-
vergen sobre un punto como el O'
de la figura 3, que es simétrico a
O respecto del holograma. En este
punto todas las ondas llegan en fase,
produciendo interferencia construc-
tiva y dando así lugar a un punto
que es la imagen de O enfocada en
O'. Esta imagen creada por el holo-
grama es la llamada imagen real del
objeto y posee características par-
ticulares.
El ejemplo que hemos dado to-
mando como objeto un barrote (o
un pequeño punto difractante) es
válido para el caso en que tenemos
como objeto varios barrotes (o pun-
tos), pues podemos reconstruir con-
juntamente cada una de las ondas
provenientes de dichos barrotes.
En general podemos considerar
la superficie de un objeto como
constituida por una sucesión de pe-
queños "barrotes" o puntos difrac-
tores que dan origen a una onda
compleja pero que puede ser igual-
mente registrada y reconstruida.
En las figuras anteriores hemos
representado la obtención de un ho-
lograma tal como la concibió Ga-
bor, pues es el caso en que tanto
el origen de la onda de referencia
(R) como el de la onda objeto (O)
y el centro de la placa fotográfica
se encuentran sobre un mismo eje.
Lo que ocurre entonces es lo que
se ve en la figura 3, donde tanto las
ondas difractadas como la no difrac-
tada se superponen en la misma re-
gión del espacio. Estos efectos mo-
lestos de superposición son los que
Gabor menciona en su artículo como
efectos de "onda doble" y pueden
ser evitados si apartamos la placa
del eje RO. Como vemos en la fi-
gura 3 al reconstruir el holograma
en esas condiciones las tres ondas
sólo se suporponen en una zona muy
cercana al holograma. En dicha fi-
gura hemos puesto un objeto en
forma de flecha y agregado líneas
entrecortadas que sirven para com-
parar geométricamente la situación
de la figura 1 (derecha).
La característica esencial de la
toma holográfica es que reconstruye
no una imagen del objeto sino toda
la onda que proviene de él, de modo
que no hay diferencia entre la ob-
servación del objeto y la de la re-
construcción holográfica.
Así es como al mirar una recons-
trucción holográfica la tridimensio-
nalidad del objeto se conserva tal
cual es, pues cada uno de ambos
ojos observa la imagen según su pro-
pio punto de vista y recoge la re-
construcción holográfica con la pers-
pectiva que corresponde a ese punto
de vista, de modo que en nada se
diferencia la imagen que se observa
de la que se vería si el objeto estu-
viera realmente allí. Sin embargo,
como puede verse en la figura 3, la
imagen real del objeto aparece in-
vertida. En efecto, ubicándonos en
dicha figura, la observación la ha-
ríamos cíesele la reglón que está a
la derecha del holograma. Si mirá-
semos la imagen virtual veríamos el
objeto como una flecha que nos
apunta, tal cual es. Pero si miráse-
mos la imagen real veríamos en cam-
bio la cola de una flecha que se ale-
ja. Este fenómeno es doblemente
curioso, ya que no sólo nos cambia
la posición de la imagen sino que
también cambia su perspectiva, por-
que se ven más cerca las partes del
objeto que en realidad están más
alejadas. Este efecto, llamado seu-
doscopía, nos brinda una imagen se-
mejante a la que tendría una matriz
de moldes del objeto. (Actualmente
puede verse en las vidrieras de mu-
chas farmacias una propaganda que
emplea este efecto: consiste en el
molde del rostro de una señorita
pintado interiormente de modo que
su cabellera se ve por delante de
sus ojos y de su brillante sonrisa,
creando una extraña sensación de
bajorrelieve.)
La reconstrucción holográfica tam-
bién puede hacerse a todo color me-
diante una técnica que emplea en
la toma y en la reconstrucción luz
de láser de tres colores diferentes.
9
12. Aplicaciones
t
Los primeros bologramas fueron tomados por Gabor
empleando luz de una lámpara de mercurio. En la figura podemos ver
el holograma, que es el registro de la figura de difracción producida
por el objeto y en la cual es casi imposible reconocer la imagen de éste.
Pero la reconstrucción del holograma muestra la imagen del objeto
con nitidez y también algún "ruido" de fondo debido a la imperfección
de tas lentes que empleó Gabor.
Interferometría holográfica
por doble exposición.
Cada una de ambas secuencias
holográficas corresponde a dos estados
de tensión distintas del neumático.
Una falla en un surco hizo que
en el resto del neumático,
la dilatación en esa zona fuera mayor
interferenciales que surcan dicha zona
y esto se evidencia en las franjas.
Holografía ultrarrápida. Una cua-
lidad importante de la holografía es
que permite registrar el frente de
onda que provino de un objeto en
un breve instante y detenerse luego
a analizar su reconstrucción tanto
como se quiera.
La herramienta fundamental para
este tipo de estudios es el láser de
rubí, que puede emitir pulsos lu-
minosos de mucha potencia y de
brevísima duración (unos pocos mi!
millonésimos de segundo).
De este modo el holograma de un
objeto veloz tomado con este láser
permite detenerlo en el tiempo y ob-
servarlo cuidadosamente.
Interferometría holográfica. Otra
aplicación interesante es la de de-
tectar variaciones tales como dilata-
ciones o contracciones en el objeto
en el momento en que éstas se pro-
ducen. Para hacer este tipo de in-
terferometría holográfica es necesa-
rio reubicar al holograma exacta-
mente en el lugar donde fue ex-
puesto y así superponer la onda re-
construida holográficamente con la
proveniente del objeto. De este
modo cualquier variación en la su-
perficie del objeto modificará la
onda objeto y hará que difiera de
la reconstruida por el holograma,
que es la que representa al objeto
no alterado.
La diferencia entre estas dos on-
das se podrá ver en la forma de
franjas de interferencia en cantidad
proporcional a la deformación.
Este tipo de análisis es exclusivo
de la holografía ya que permite com-
parar la situación del objeto en cual-
quier instante con la que tuvo en el
momento de la toma del holograma,
o sea que compara situaciones no
contemporáneas.
En forma semejante pueden com-
pararse las situaciones del objeto en
dos instantes dados mediante la su-
perposición, por doble exposición,
de los hologramas correspondientes
a esas situaciones.
Por ejemplo, el análisis de la fi-
gura de interferencia producida al
reconstruir un holograma en el que
se han superpuesto las imágenes de
dos posiciones diferentes de un ob-
jeto permite describir cuál ha sido
el movimiento resultante de éste en-
tre ambas posiciones, y observar si
durante el movimiento sufrió alguna
deformación. Así se pueden medir
dilataciones térmicas o deformacio-
nes debidas a tensiones superficiales
10
13. ' C.J-
."'jíia es
(!;
";c¡n m
- N o
':
< uno
w'l [urj
* ••'•t ¿
<:., i».
1
v i
1
- rail
* ki
K-'ui
' > Ora
i >1; dt
••áto
' 'íyto
• -r ¡<W.
ti: ¡ü>
• -Mi*
v„- a-
•'.tí
.. i '.i h
íV ríe
h
'...'ti h
-.rjJj
aii,
: .i-iuo
•, W
VV.i'
, !í,U
t'lHVO
••>un-
,,'iitul
I. £®
,'', M en
• h»
¿ Mi'
,, >h aif¿
%
í i|í¡ el)-
| h sido
, c-se M-
¿r íi
mecánicas sin necesidad de tocar las
piezas ni de recurrir a modelos.
Por otra parte, la holografía tam-
bién mejora notablemente las téc-
nicas de análisis de medios trans-
parentes, ya sea para la medición de
variaciones en el índice de refrac-
ción o de tensiones en el interior de
modelos transparentes de piezas me-
cánicas, pues permite obtener el re-
gistro en forma tridimensional.
Filtrado espacial. Entre las valio-
sas contribuciones que posterior-
mente a Gabor se hicieron a la ho-
lografía figura la idea de considerar
una analogía formal entre las fre-
cuencias temporales de las ondas
eléctricas (por ejemplo, el número
de ciclos por segundo) y las fre-
cuencias espaciales de una imagen
(el número de veces en que se re-
pite una unidad básica a lo largo
de un centímetro).
Así se puede introducir en la óp-
tica el mismo formalismo matemá-
tico que se venía usando con éxito
en la ingeniería eléctrica, basado
fundamentalmente en la operación
llamada transformación de Fourier,
aplicable tanto a la teoría de las co-
municaciones como a la de la di-
fracción.
La exactitud de esta analogía per-
mite la construcción de elementos
que se constituyen en filtros de fre-
cuencias espaciales. Así como pue-
de construirse un filtro para separar
en una onda eléctrica de audiofre-
cuencia, por ejemplo, los tonos gra-
ves (de baja frecuencia) de los agu-
dos (de más alta frecuencia), tam-
bién es posible por medio de la
holografía, realizar un filtro para se-
parar frecuencias espaciales.
La importancia del filtrado espa-
cial reside en que una imagen se ca-
racteriza más que por su forma y
tamaño, por la distribución de las
frecuencias espaciales que la compo-
nen, de modo que si fabricamos ho-
lográficamente un filtro que retenga
las frecuencias espaciales correspon-
dientes a una imagen determinada
con ese filtro podemos analizar cual-
quier otra imagen y determinar si
contiene a la que sirvió de filtro.
En la práctica esto se hace po-
niendo en un sistema óptico espe-
cial la imagen a analizar e interca-
lando como filtro el holograma de
la imagen que pretendemos indivi-
dualizar. Al iluminar el sistema con
luz; de láser el resultado es que so-
bre todos los lugares de la imagen
analizada que contienen a la imagen
filtro, aparece un punto brillante
I I I I I i I II ll I I I ll I III ll I I I I I (til I I M I I I I I I
• ' I I i I I I I
< 1
M II I I II I I I II II I I I I I II II I I I I | II I I I I I I I I
Ejemplo rudimentario de una imagen
que contiene varias frecuencias
espaciales y de su descomposición
en cada una de las frecuencias
espaciales que la componen.
que nos permite detectar su pre-
sencia.
Pero este filtrado no sólo nos
dice si una cierta imagen compleja
contiene a otra más simple sino que
también nos indica si contiene imá-
genes parecidas a ésta, dándonos el
grado de semejanza mediante la in-
tensidad de los puntos luminosos
que nos señalan la ubicación de ta-
les imágenes.
Este hecho permite su aplicación
por ejemplo, a la detección y clasifi-
cación de caracteres gráficos en for-
ma más rápida y precisa que la que
resulta de descomponer la imagen
punto por punto y hacer el análisis
por medio de computadoras.
"Desborroneo" o mejoramiento
de la nitidez de una imagen. Una
aplicación particular del filtrado es-
pacial consiste en fabricar filtros ta-
les que, aplicados a una imagen, me-
joren su nitidez. Esto es posible si
tales filtros separan las frecuencias
espaciales que provienen de la ima-
gen de aquellas que hayan sido oca-
sionadas por imperfecciones carac-
terísticas de los elementos que sir-
vieron para obtener la imagen. Así,
por ejemplo, si una fotografía con-
vencional sale fuera de foco, puede
ser mejorada reenfocándola median-
te un adecuado filtro hecho con el
objetivo con que se tomó la foto-
grafía.
Este procedimiento también per-
mite recuperar la tridimensionalidad
en fotografías bidimensionales co-
munes mediante la selección de los
planos focales del objetivo corres-
pondiente.
El "desborroneo" se aplica in-
cluso al mejoramiento de las foto-
grafías obtenidas mediante micros-
copios electrónicos. (Aquí se aplica
la holografía a la microscopía elec-
trónica en una forma que Gabor ori-
ginalmente no sospechó.)
Aplicaciones biológicas
y médicas
La holografía instantánea. Si en
lugar de la fotografía microscópica
convencional de un espécimen toma-
mos un holograma del mismo, obte-
nemos la ventaja de poder registrar
en una sola toma todos sus planos
focales. Esto es importante en el
caso en que dicho espécimen se mue-
va rápidamente, porque no es po-
sible tomar una sucesión de foto-
grafías variando el enfoque si pre-
tendemos que tales tomas corres-
pondan a una misma situación.
La holografía interferométrica. Al
aplicar la holografía interferométri-
ca a la microscopía se logra deter-
minar con precisión las pequeñas
variaciones o movimientos del es-
pécimen.
La holografía ultrasónica consiste
en realizar la toma del holograma
mediante ondas de ultrasonido y
adecuar el registro de modo de po-
der reconstruir con luz de láser. En
consecuencia puede registrar objetos
que son totalmente opacos a la luz,
como el interior del cuerpo humano,
obteniendo una información visual
tridimensional que puede ser supe-
rior a la de una radiografía y, obvia-
mente, sin requerir la exposición a
los rayos X.
El filtrado espacial puede ser muy
útil para hacer un diagnóstico cito-
lógico rápido a fin de clasificar los
tipos de células presentes en una
muestra de tejido, principalmente
las células cancerosas, aventajando
notablemente en tiempo al análisis
microscópico convencional. Para ello
habría que hacer un filtro holográ-
fico múltiple con los diversos tipos
de células, benignas y malignas, que
se intenta reconocer y con este • fil-
tro hacer el análisis de la imagen de
la muestra de tejido. Cuando ésta
contenga células similares a las ma-
lignas que fueron empleados como
filtro, la presencia de puntos lumi-
nosos en la imagen nos dará una
señal de alerta y de ahí en más la
muestra deberá ser analizada en
forma convencional.
El "desborroneo" del reenfoque.
Uno de los inconvenientes que pre-
sentan los rayos X al ser usados
para formar imágenes, es que no
pueden ser enfocados por medio de
lentes, debiendo formarse la imagen
con la sombra del objeto.
Para que una sombra sea lo más
nítida posible es necesario reducir
al mínimo las dimensiones de la
11
14. La holografía en la Argentina
Tres laboratorios han volcado sus esfuerzos en^el desarrollo
de investigaciones básicas y aplicadas en holografía.
El grupo del profesor Ickx, de la Universidad^ de Lieja, Bél-
gica, instalado en la Universidad Católica de Córdoba, dedica
su actividad a los aspectos fundamentales de la holografía. Su
trabajo se desenvuelve dentro del programa de cooperación con
el centro madre de la Universidad de Lieja.
En el Departamento de Física de la Facultad de Ingeniería
de la Universidad de Buenos Aires se ha comenzado este año
a trabajar en el tema con vistas a su aplicación.
En el Laboratorio de Espectroscopia Optica y Láser del De-
partamento de Física de la Universidad Nacional de La Plata se
obtuvieron los primeros hologramas en 1969; esto fue una
consecuencia natural del desarrollo de técnicas de aplicación del
láser a la fotoelasticimetría que condujeron hacia la holografía
¡nterferométrica.
fuente emisora (esto se evidencia si
observamos que la sombra produ-
cida por una lámpara de filamento
es mucho más nítida que la que
produce un tubo fluorescente). Es
así que si pretendemos tomar una
radiografía nítida debemos reducir
de algún modo el tamaño de la lám-
para de rayos X. Pero al hacerlo
reducimos su intensidad, lo que nos
obliga a exponer la placa durante
mucho más tiempo y en esas condi-
ciones se hace difícil radiografiar a
ningún paciente sin que la toma sal-
ga movida. Es posible, sin embargo,
radiografiar sin tener que reducir
las dimensiones de la lámpara si lue-
go, mediante un correcto filtrado
espacial, compensamos la pérdida de
nitidez de la radiografía.
Asimismo se pueden también se-
leccionar distintos planos de la ra-
diografía para analizarla en forma
tridimensional.
Las aplicaciones de la holografía
son muy numerosas, por eso es que
nos hemos limitado a considerar sólo
las que abarcan los temas de mayor
generalidad e interés, dejando de
lado las de aplicación más específica.
Pero las ya mencionadas bastan
para ver en la obra de Dennis Ga-
bor un ejemplo cabal de la generali-
dad de la ciencia, mostrándonos
cómo un científico, profundizando
en su especialidad, puede llegar a
trascender a muchas otras.
En una de las fotografías ante-
riores se muestra uno de los prime-
ros hologramas tomados por Gabor,
en el que puso los nombres de Huy-
gens, Young y Fresnel, pilares de
la óptica. No es difícil que si en el
futuro algún investigador llega a
descubrir algún nuevo principio óp-
tico utilice como modelo para su
primera nueva imagen estos nom-
bres y el de Gabor.
José J. Lunazzi
Gerhard Herzberg
Premio Nobel de Química
El premio Nobel de Química fue
otorgado este año al espectroscopis-
ta Gerhard Herzberg, por su contri-
bución fundamental al estudio de la
estructura de moléculas y radicales
libres. Su nombre es conocido de
todo estudiante o profesional rela-
cionado con la espectroscopia mo-
lecular, por su serie de libros "Mo-
lecular Spectra and Molecular Struc-
ture" comenzada en la década del
30 con "Spectra of Diatomic Mo-
lecules" y continuada con "Infrared
and Raman Spectra" y "Electronic
Spectra and Electronic Structure of
Polyatomic Molecules". Esta obra
monumental es aún hoy texto de
consulta indispensable y su mérito,
especialmente en cuanto a sistema-
tización de datos en una época pio-
nera, es extraordinario.
Los trabajos originales del pro-
fesor Herzberg se extienden a un
gran número de campos, afines si
se quiere, pero que dada ia microes-
pecialización de la ciencia son bien
diversos entre sí: estructura de vi-
bración de las bandas electrónicas,
estructura electrónica en relación
con la unión química, espectrosco-
pia infrarroja de alta resolución, es-
pectros de atmósferas planetarias,
determinación espectroscópica de
energías de disociación de molécu-
las, espectros de radicales libres,
estructura hiperfina (Lamb Shift)
de espectros atómicos del deuterio,
3
He, 4
He y Li+
, espectros de ab-
sorción de iones moleculares, etc.
Estos trabajos fueron desarrolla-
dos en el curso de mas de 40 años
dedicados a la investigación. Herz-
berg se doctoró en Darmstadt en
1927 y trabajó en el lugar que era
en ese entonces el centro mundial
de las ciencias físicas: Gottingen.
Emigró luego al Canadá, donde fue
profesor en Saskatoon y posterior-
mente director de la división de fí-
sica del Consejo Nacional de In-
vestigaciones en Ottawa, donde se
formó bajo su dirección un im-
portantísimo grupo de investigación
que figura entre los más prestigiosos
del mundo.
El premio Nobel que le fuera tan
justamente otorgado lo debió no a
alguna realización espectacular, sino
a una obra monumental, variada, in-
teresante, paciente, que ciertamente
hace de él una figura indispensable
en la espectroscopia óptica moderna.
Hernán Honadeo
12
15. FflLCON
El automóvil más vendido
detodos los que sefabrican en el país,
, *En 197/, según cifras oficiales de ADEFA.
16. Hemoglobina:O
el pulmón molecular
Max Perutz
Consagrado desde hace muchos anos al estudio de la molécula de hemoglobina, Max Pe-
rutz considera en este artículo —el primero de dos— la culminación de largos trabajos
de análisis estructural que brindan ahora una clara comprensión de la función que la he-
moglobina desempeña. Lejos de ser un agente pasivo de transporte, la hemoglobina sufre
radicales reordenamientos moleculares al aceptar y al liberar las moléculas de oxígeno
que transporta por los tejidos.
M. F. Perutz es jefe del Departamento
de Biología Molecular de la
Universidad de Cambridge, Inglaterra.
Nació en Viena en 1914 y estudió
química en la Universidad de Viena.
En 1936 se trasladó a Inglaterra
para trabajar en el Laboratorio
Cavendtsh de la Universidad de
Combridge bajo las órdenes
de J. D. Bernal. Obtuvo su PbD en
cristalografía de rayos-X en 1940.
Entre 1939 y 1945 trabajó como
asistente de investigación de
W. L. Bragg en el Laboratorio
Cavendish. En 1947 fue nombrado
director del nuevo Medical Research
Council Unit for Molecular Biology,
cargo que ocupó hasta 1962 cuando
fue construido para él y sus colegas
el Laboratorio de Biología Molecular.
La hemoglobina es la proteína de los
glóbulos rojos de la sangre y es tan
vital como el corazón, porque actúa
como un enlace entre los pulmones
—donde el oxígeno es inhalado— y
los tejidos —donde se lo necesita
para la generación de energía—. Un
glóbulo rojo puede transportar has-
ta 1.000 millones de moléculas de
oxígeno. Al liberarlas, la hemoglo-
bina toma iones de hidrógeno, que
colaboran con el transporte de re-
torno de dióxido de carbono (C02 )
desde los tejidos hasta los pulmo-
nes; además transporta directamen-
te cierta cantidad de COu.
La hemoglobina tiene, en conse-
cuencia, una doble personalidad: ac-
túa como transportador de oxígeno
en las arterias y, tanto directa como
indirectamente, actúa como porta-
dor de CO2 en las venas. La sangre
arterial saturada de oxígeno es es-
carlata, pero al entregar su oxígeno
se torna púrpura. Esta característica
"camaleónica", por así llamarla, pre-
senta numerosas facetas, particular-
mente un cambio magnético. Si par-
te de un tubo que contiene sangre
venosa es suspendida verticalmente
entre los polos de un electroimán,
parece tornarse más pesada cuando
el campo es conectado. Después de
admitir oxígeno, en cambio, parece
tornarse más liviana. Esta transición
del estado paramagnético al diamag-
nético fue descubierta en 1936 por
Linus Pauling y C. D. Coryell. En
aquel tiempo su significado no resul-
taba del todo claro; ahora dicho fe-
nómeno es la clave que permite com-
prender la doble función de la he-
moglobina y el sutil control de su
afinidad con el oxígeno en respuesta
a necesidades fisiológicas.
Eficiente transporte de oxígeno
Poco después de comenzado este si-
glo, fisiólogos y bioquímicos descu-
brieron que la hemoglobina es una
gigantesca molécula constituida has-
ta por 10.000 átomos, que incluía
cuatro átomos de hierro, cada uno
de los cuales podía formar una co-
nexión química débil con una molé-
cula de oxígeno. El hierro ocupa el
centro de un pigmento llamado por-
firina que otorga a la hemoglobina
su color rojo (Figura 1). Los áto-
mos restantes configuran la proteína
llamada globina.
Los fisiólogos que medían la gra-
dual absorción de oxígeno por solu-
ciones de hemoglobina descubrieron
un curioso efecto. Establecieron que
la atracción de una molécula de he-
moglobina por el oxígeno dependía
del número de moléculas de oxígeno
14
17. ya combinadas con ella. El caso es
bien descrito por la parábola bíblica
del rico y el pobre: "Porque a aquel
que tiene le será dado y a aquel que
no tiene le será quitado". Suponga-
mos que hay dos moléculas de he-
moglobina, A y B; A tiene tres mo-
léculas de oxígeno y B ninguna. ¿A
cuál se adherirá una molécula de
oxígeno próxima? Las posibilidades
son de 70 a 1 en favor de A, Análo-
gamente, supongamos que A tiene
cuatro moléculas de oxígeno y B so-
lamente una. ¿Cuál de ambas tiene
más probabilidades de perder una
molécula de oxígeno? Hay 70 pro-
babilidades contra 1 de que B pier-
da su única posesión y no de que A
pierda cualquiera de sus riquezas.
Este efecto asegura una eficiente
carga y descarga de oxígeno: si la
descarga de cada molécula de oxí-
geno ligada a la hemoglobina no de-
bilitara la adhesión de las restantes
moléculas, la mayor parte del oxíge-
no sería llevado de vuelta a los pul-
mones y un hombre se asfixiaría
aunque respirara normalmente.
Otros factores presentes en los
tejidos, así como los propios glóbu-
los rojos, ayudan a la hemoglobina
a entregar su oxígeno. Los ácidos
láctico y carbónico, productos resul-
tantes ambos de la oxidación de los
alimentos, liberan iones de hidróge-
no que disminuyen la afinidad de
la hemoglobina por el oxígeno. El
2,3-difosfoglicerato (DFG) es un
fosfato orgánico producido en el gló-
bulo rojo a partir de azúcar en res-
puesta a la escasez de oxígeno. Pro-
mueve la liberación de cualquier
cantidad de oxígeno que permanezca
aún adherida a la hemoglobina. El
DFG tiene particular importancia en
la rápida adaptación del organismo a
cambios de altura o a la pérdida de
sangre, así como en la regulación
de la transferencia de oxígeno de la
madre al feto a través de la placenta.
La afinidad, de la hemoglobina por
los iones de hidrógeno, el DFG y
el C02 aumenta a medida que es
liberado el oxígeno.
El comportamiento de la hemo-
globina fue durante largo tiempo
uno de los grandes enigmas plantea-
dos a la bioquímica y a la fisiología.
Resultaba llamativo que una molé-
cula fuera capaz de modificar sus
afinidades químicas a mitad de ca-
mino del ciclo respiratorio y que ta-
les afinidades respondieran a la re-
gulación ejercida por varios factores
que, desde el punto de vista quími-
Figura 1. Grupo hemo con su hierro, fijado a un nitrógeno de una cadena
lateral de histidina de la globina. El anillo plano de átomos sombreados
que rodea al hierro representa el pigmento porfirina.
co, estaban escasamente relacionados
entre sí. En años recientes los bio-
químicos han descubierto que las
funciones de muchas otras proteínas,
incluso las de ciertas enzimas y re-
presores genéticos, pueden ser alte-
radas en respuesta a estímulos quí-
micos específicos, en gran medida
en la misma forma en que el com-
portamiento de la hemoglobina es
alterado por el oxígeno o los iones
de hidrógeno y han descubierto
igualmente que tales respuestas des-
empeñan un papel decisivo en la
regulación de la actividad química
de la célula viva. Las estructuras de
tales proteínas aún no son conocidas,
y sus mecanismos funcionales son
poco claros, pero en 1965 Jacques
Monod, Jeffreys Wyman y Jean-
Pierre Changeux propusieron una
teoría física general para explicar
esas extrañas propiedades. De acuer-
do con esta teoría, todas las proteí-
nas de esa índole deben de estar
constituidas por varias subunidades
relacionadas simétricamente que pue-
den oscilar entre dos estados alter-
nativos. Estos difieren por la es-
tructura de las subunidades mismas
y por la índole de los vínculos que
las conectan. En uno de tales esta-
dos, llamado T (por tenso), las sub-
unidades estarían estrechamente co-
nectadas por modificaciones que di-
ficultarían su actividad, en tanto que
en el otro estado, llamado R (por
relajado), las uniones serían más dé-
biles, lo que facilitaría la liberación
de su actividad. Monod, afecto a
los nombres griegos, acuñó el térmi-
no "alostéricas" para tales proteínas
y, junto con sus dos colegas, some-
tió la teoría a prueba utilizando la
hemoglobina, por ser ésta el ejemplo
mejor estudiado desde el punto de
vista químico. Sus predicciones
—con una importante excepción—
son ratificadas por los resultados de
nuestras recientes investigaciones es-
tructurales.
La hemoglobina como máquina
química
Cuando empecé a estudiar la hemo-
globina, hace más de 30 años, pensé
que nadie podría establecer cómo
funciona sin conocer antes su estruc-
tura. Si se trata de una máquina quí-
mica, sólo desenmarañando sus par-
tes componentes y sus interconexio-
nes se averiguaría su mecanismo. El
único método adecuado para deter-
minar la disposición atómica de la
15
18. Figura 2. Molécula de oxibemoglobina. Pueden apreciarse las cadenas a
en blanco, las cadenas p en negro y las hemos y discos.
El símbolo Os marca los puntos donde se combina el oxígeno.
la molécula de hemoglobina como
conjunto (Figura 2). Los cuatro he-
mo se alojan en bolsillos —amplia-
mente separados— de su superficie,
ignorando aparentemente cada uno
la existencia de los otros. Un estu-
dio químico detallado de su contor-
no no proporciona clave alguna acer-
ca de la forma en que la combinación
de un hemo con oxígeno altera la
afinidad de las restantes por el oxí-
geno, ni tampoco acerca de los efec-
tos reguladores ejercidos por los
iones de hidrógeno y por el DFG.
Nuestra comprensión de cómo fun-
ciona la hemoglobina sólo comenzó
cuando descubrimos que no se trata
de un edificio estático sino de un
mecanismo dinámico, es decir no un
tanque de oxígeno sino una suerte
de pulmón molecular. Al reaccionar
con el oxígeno, cada unidad experi-
menta una pequeña redisposición, en
la que el hemo modifica en pocos
grados su ángulo de inclinación y
las regiones helicoidales se trasla-
dan, unas en relación con las otras,
de 2 a 3 Angstroms. Además, las
subunidades rotan unas respecto a
las otras y en relación con el eje
central de simetría por un valor an-
gular de aproximadamente 10 gra-
dos.
materia sólida era la cristalografía
por rayos X, pero nadie sabía cómo
resolver el caso de una estructura
tan compleja como la hemoglobina
y me llevó 15 años dar con el re-
curso acertado. Este método fue em-
pleado por John C. Kendrew y por
mí mismo, así como por varios de
nuestros colegas, para develar la es-
tructura de la forma arterial de la
hemoglobina y de su parienta más
simple, la mioglobina. Hemos deter-
minado ya las posiciones atómicas
tanto en la forma arterial como en
la venosa de la hemoglobina. Hilary
Muirhead, Joyce Cox - Baldwin,
Gwenne Goaman y yo resolvimos el
caso de la oxihemoglobina; Bill Bol-
ton, Hilary Muirhead, Jonathan
Greer y yo, el de la deoxihemoglo-
bina.
La molécula de hemoglobina es
aproximadamente esférica y consiste
en cuatro subunidades idénticas en
pares, designadas como a y (3. Están
dispuestas tetraédricamente alrede-
dor de un eje de simetría binario
que pasa por una cavidad rellena de
agua situada en el centro de la mo-
lécula (Figura 2). Cada subunidad
consiste en más de 140 residuos ami-
noácidos, ordenados en una secuen-
cia determinada genéticamente que
forma una cadena bobinada en seg-
mentos helicoidales y no helicoidales
de distintas longitudes. El interior
está relleno de cadenas laterales de
aminoácidos eléctricamente neutros,
principalmente hidrocarburos, en
tanto que la superficie está "clave-
teada" por cadenas laterales que tie-
nen cargas eléctricas y dipolos.
La cadena de proteína forma una
suerte de canasta o bolsillo en torno
del grupo hemo, que contacta laxa-
mente con unos 60 átomos de la
globina. Además, el grupo hemo es-
tá conectado químicamente, por me-
dio de su átomo de hierro, con un
nitrógeno de la histidina del amino-
ácido (Figura 1). Del otro lado del
hemo hay un espacio vacío para el
oxígeno. De tal manera, en la forma
venosa, el átomo de hierro está co-
nectado con otros cinco átomos:
cuatro nitrógenos de la porfirina y
uno de la globina. En la forma ar-
terial se agrega un oxígeno, pero la
valencia del hierro no se altera; per-
manece constantemente bajo forma
ferrosa.
Consideremos ahora una vez más
El amplificador molecular
¿Cómo puede la débil reacción quí-
mica de las cuatro diminutas molé-
culas de oxígeno con los cuatro áto-
mos de hierro determinar una redis-
tribución tan radical en esta gigan-
tesca molécula? Es algo así como si
cuatro moscas hicieran saltar un ele-
fante. El problema me tuvo perple-
jo durante muchos años, y sólo en
julio de 1970 descubrí súbitamente
la solución. La clave fue dada por
el cambio de propiedades magnéti-
cas mencionado antes y por un ri-
guroso examen del mapa de densi-
dad electrónica de la hemoglobina
venosa confeccionado por Bill Bol-
ton. El cambio magnético observado
al combinarse la hemoglobina con
oxígeno es la expresión exterior de
una enigmática redistribución elec-
trónica en 'Jos átomos de hierro.
Cuando el hierro está químicamente
ligado con sólo cinco de sus vecinos
más cercanos, como en la forma ve-
nosa, dos de sus seis electrones de
valencia ocupan posiciones orbitales
que apuntan en las direcciones de
los enlaces químicos y mantienen los
átomos vecinos a distancia.
16
19. «afc
««•a
M
ya»j
>"-í¡¡B
"mi
n
••fW
'• 'i¡
t '¡A
i
"JM>!
» r
• "P
•
415
'
'•'•jii
- • r t
S,;4»fi
, < ; ' ¡
• !
. ? ¡
• ^
vt?'»
i'íi
,, -íí
, irí»
. ííi®
.-.-si
" I
Por consiguiente, en la forma ve-
nosa el átomo de hierro es dema-
siado grueso para caber en el cintu-
rón formado por los cuatro nitróge-
nos de la porfirina y es forzado a
ocupar una posición desplazada ha-
cia el quinto nitrógeno. La conexión
con oxígeno determina que los elec-
trones pasen a orbitales que apuntan
en direcciones situadas entre los en-
laces químicos y permiten que los
átomos vecinos se acerquen más al
hierro. En efecto, el hierro se con-
trae en un 13 por ciento, lo sufi-
ciente como para que pueda desli-
zarse al plano del anillo de porfirina.
Como consecuencia de ello, el anillo
de porfirina ejecuta, en relación con
la globina, un movimiento de apro-
ximadamente 1 Angstrom, lo que en
escala atómica significa una gran
distancia (Figura 3). De tal mane-
ra, el hemo amplifica el pequeño
cambio sobrevenido en el radio de
los átomos de hierro, convirtiéndolo
en un gran movimiento de la cadena
de globina en relación con el anillo
de porfirina. Este movimiento pro-
porciona el tan buscado gatillo que
explica la redistribución de toda la
molécula de hemoglobina que acom-
paña su reacción con el oxígeno.
A partir de estudios cristalográficos
sobre complejos de porfirina y hie-
rro, J. L. Hoard había predicho ya
la existencia de un efecto de gatillo
de este tipo.
Consideremos ahora la finalidad
de esa redistribución desde el punto
de vista de la teoría de Monod. Si
la forma venosa de hemoglobina tie-
ne una baja afinidad por el oxígeno,
y la forma arterial una alta, puede
deberse tanto a que en la forma ve-
nosa, los enlaces químicos entre las
subunidades se oponen a su combi-
nación con el oxígeno, o que en la
forma arterial los enlaces químicos
entre las subunidades se oponen a la
liberación de oxígeno, o a ambas
causas. La afinidad por el oxígeno
de subunidades libres a y § se pa-
rece más a la de la forma arterial que
a la de la forma venosa, lo cual su-
giere la conveniencia de buscar cons-
tricciones sobre todo en la segunda.
Encontrarlas fue fácil. La compara-
ción de los modelos atómicos de
ambas formas mostró que en la ar-
terial cada cadena puede menear li-
bremente su cola, en tanto que en
la venosa las colas están ancladas a
las subunidades vecinas. En términos
químicos, esto significa que el últi-
mo aminoácido, que es arginina en
la cadena a e histidina en la cadena
P, y el penúltimo aminoácido, que
es tirosina en las cuatro cadenas,
tiene, en la forma arterial, libertad
para asumir varias posiciones alter-
nativas. En la forma venosa, en cam-
bio, las tirosinas están firmemente
aferradas entre dos segmentos heli-
coidales; las argininas de cada cade-
na a opuestas, y las histidinas de
cada grupo forman también dos
puentes salinos, uno con un grupo
polar de la misma cadena P y otro
con un grupo polar de una cadena «
vecina.
Un azar afortunado
Descubierta la índole de las cons-
tricciones que sujetan las subunida-
des de la forma venosa, el paso si-
guiente consistía en establecer qué
es lo que las rompe cuando los áto-
mos de hierro se combinan con el
oxígeno. El punto no estaba nada
claro, puesto que los átomos de hie-
rro de cada subunidad se encuentran
a cierta distancia de los extremos de
la cadena. Por un afortunado azar,
un experimento me dio la respuesta.
Establecí que la redistribución ató-
mica dentro de las unidades de glo-
bina, fenómeno que acompaña a su
reacción con el oxígeno, incluye un
estrechamiento del bolsillo que con-
tiene la tirosina cerca del extremo
de la cadena. Esto determina que la
tirosina sea expulsada, sin duda al-
guna, de las subunidades « y pro-
bablemente (esto aún es preciso pro-
barlo) también de las subunidades
P (Figura 4). La expulsión de las
tirosinas suelta las argininas e histi-
dinas de los puentes salinos que las
conectan con las subunidades veci-
nas. Al parecer, por cada átomo de
hierro que se combina con oxígeno,
se rompe un par de puentes salinos,
de manera que los vínculos que cons-
triñen las subunidades en las dis-
tribuciones venosas son sucesiva-
mente conmovidos. Experimentos
realizados en colaboración con John
Kilmartin indican que la forma ve-
nosa está realmente dotada de una
suerte de resorte, como lo sugería
el término "tenso" de Monod, y que
salta por sí misma a la forma arte-
rial, incluso en ausencia de oxígeno,
no bien los constrictores puentes sa-
linos se rompen (Figura 5).
Ahora podemos empezar a enten-
der por qué las moléculas de hemo-
globina se comportan como el rico
His F8
DEOXI•
-2-9A
Figura 1. Posición del ¿toma
de hierro en el plano de los
cuatro nitrógenos del anillo
de porfirina en la oxibemoglobina
(arterial), y su posición, fuera
de ese plano, en la deoxibemoglobma
(venosa).
FG ( T ^ F e DEOXI
Q - ^ OXI
Figura 4. Cambio que se produce
en la estructura de la subunidad
con la oxigenación.
17
21. uu
Hnelflíc
— ^
desarrollo científico
Argentina de hoy J
Tilomas Moro Simpson y Rolando García
opinaron en el ciclo de conferencias inicia-
do por CIENCIA NUEVA en agosto (C. N.
12 y 13). Este es un resumen de sus res-
pectivas exposiciones.
Irracionalidad, ideología
y objetividad
Thomas Moro Simpson
1. Esta polémica sobre Ideología y Ciencia posee la
virtud de transcurrir en una atmósfera intensamente
surrealista; y ello por motivos diversos, algunos de los
cuales se harán visibles en las observaciones siguien-
tes. Hubiera sido quizás fácil y agradable coincidir
sobre algunos puntos concretos; por ejemplo, a) que
una política científica debe establecer un orden de
prioridades basadas en las características de nuestro
contexto económico y social; b) que no hay un mo-
delo único de desarrollo científico {ya sea el de EEUU,
Rusia, China o Camerún) ni de desarrollo económico,
y que, por lo tanto, c) no hay por qué admitir para
nuestro país la perspectiva forzosa de una sociedad
consumista a la americana o de un 'socialismo' totali-
tario a la soviética; d) que en un mundo en que las
aplicaciones tecnológicas de la ciencia poseen un dra-
mático impacto social, sería lamentable que el científico
permaneciera moralmente indiferente a las consecuen-
cias prácticas de su investigación, que pueden implicar
crímenes gigantescos.
Estas afirmaciones —y algunas más— me parecen
razonablemente obvias, y aunque es inevitable que su
análisis detallado provoque discrepancias, creo que
debe realizarse de manera exhaustiva y concreta, sin
necesidad de clarificar primero los misterios de la Tri-
nidad o los no menores misterios de la dialéctica.
Pero hay (¡ay!) personas que antes de formular una
proposición concreta de modo inteligible prefieren
crear {y lo logran) una enorme confusión inicial acerca
de una gran variedad de temas, aumentando así eficaz-
mente las posibilidades de desacuerdo. Se dedican,
pues, con insistencia, a rechazar la noción de 'objetivi-
dad científica" y la existencia de "hechos objetivos";
los valores culturales "universales" (risas) caen tam-
bién bajo la picota, y no se olvidan de denunciar de
manera equívoca el positivismo lógico, un perro filo-
sófico que está muerto hace mucho, aunque prestó
buenos servicios. El minuet suele completarse con al-
gunos lanzasos contra el liberalismo en general, cuyas
obsoletas teorías económicas no se distinguen de sus
ideales políticos y humanitarios (nuevas risas). Sin
duda involuntariamente, el coro actual trae el recuerdo
de otras voces pretéritas, que en tiempos sombríos
para la humanidad coincidieron en las mismas repulsas.
2. Señala un autor que en los textos de Marx y En-
gels el adjetivo "Ideológico" posee un sentido más am-
plio que el sustantivo "ideología". Es bien sabido,
además, que Lenin emplea "ideología" en un sentido
distinto del que hallamos en Marx. Y Ame Naess ha
distinguido más de 30 significados diferentes de esta
palabra. Parece necesaria, pues, una ligera clarificación
semántica. Un ejemplo de esta necesidad puede hallar-
se en la nota de O. Varsasky titulada "Ideología y
Verdad" (Ciencia Nueva, N? 12), que pretende cons-
tituir una respuesta a las afirmaciones de G. Klimovs-
ky sobre "Ciencia e Ideología" (Ciencia Nueva, N°
1 0 ) .
Leemos en la nota de OV que "sería demasiado ba-
rato detenerse a mostrar el sesgo ideológico de las
afirmaciones de GK", pues el artículo de GK "es un
buen ejemplo en contra de lo que en él se sostiene"
19
22. (p. 44). Además, "La ciencia actual está impregnada
de ideología a todo nivel". Muy bien, pero ¿qué en-
tiende OV por "ideología"? ¿En qué consiste la po-
sesión de tan desdichado "sesgo ideológico"? Aunque
OV se niega a dar una definición explícita (sostiene
que hacerlo es un vicio ideológico [¿¡!?], el texto
permite inferir que algo es ideológico cuando dificulta
o favorece la transformación de la sociedad en la di-
rección que OV considera adecuada, con el agregado
implícito de que lo que no contribuye positivamente
a ese cambio lo dificulta (conclusión obvia: todo es
"ideológico" en este sentido, así como todo objeto fí-
sico es Verde o no Verde). Pero de aquí se deduce
que la observación de OV acerca del "sesgo ideológi-
co" de la tesis de GK solo puede significar, a lo sumo,
que esta tesis no favorece el proceso político en la
dirección adecuada; por lo tanto no es cierto, como
cree OV, que la mera existencia de tal "sesgo ideoló-
gico" refute la tesis de GK sobre la objetividad del
conocimiento (ver Ciencia Nueva, N? 10). Pues el
hecho de que las ideas de GK no tengan la virtud de
acelerar el proceso revolucionario no las convierte en
falsedades. Después de todo, lo mismo ocurre con
la teoría de la relatividad, para no hablar de las inves-
tigaciones sobre el transplante de órganos, que tam-
poco contribuyen a la revolución, sino que en cierto
modo estimulan las "ilusiones reformistas". Es quizás
por eso que en un pasaje desconcertante de su libro
(Ciencia, Política y Cientificismo, p. 16, línea 19) OV
alude con escepticismo a los corazones artificiales, cuya
producción parece ser un señuelo más de la sociedad
de consumo.
3. Una de las falacias usuales en que incurren los que
promueven la instrumentación política de toda activi-
dad cultural es la siguiente: afirman primero que el
poder político ha controlado siempre esta actividad; y
concluyen en seguida que la cultura debe estar al ser-
vicio de la política. Esta es la falacia elemental que
consiste en pasar del hecho a la norma. He aquí un
ejemplo de entrecasa. En 1949 hubo en la revista Cien-
cia e Investigación una polémica acerca del caso Li-
senko. En el número de abril el doctor J. E. Azcoaga
publicó una carta defendiendo las medidas del gobier-
no soviético contra los biólogos mendelianos, a quie-
nes el P. C. había condenado por sostener "teorías
biológicas extranjeras y antipatrióticas, hostiles al pue-
blo". Como argumento esencial en defensa de la direc-
ción política de la ciencia, el Dr. Azcoaga cita allí esta
frase de R. Ghioldi:
"Estamos esperando todavía que dicha prensa [la
"prensa burguesa". T. M. S.] trate de probar en toda
la historia de la ciencia un solo caso en que la ciencia
estuviese disociada de la política. Si les citamos los
casos de Galileo y de Bruno dirán, tal vez, que son
cosas de un pasado remoto; pero ¿y ese profesor nor-
teamericano condenado [ . . . ] por defender la teoría
darvinista de la evolución? [ . . . ] Evidentemente
—concluye— la ciencia y la política no están separa-
das" (p. 157).
Aquí tenemos la falacia en su forma pura, con esa
deslumbrante ingenuidad lógica que suele adornar la
justificación de los más grandes crímenes. Todos co-
nocemos lo ocurrido con Galileo y el profesor norte-
20
americano, pero creo modestamente que no son hechos
dignos de imitarse.
4. Hay también una falacia similar pero más elabora-
da, cuyo análisis podría titularse: "De la correspon-
dencia imaginaria entre base y superestructura a la
persecusión policial". Consiste en afirmar que a cada
época "coresponde" empíricamente cierta forma de
cultura, según leyes históricas difíciles de testear; es-
tablecido luego que a una sociedad X "corresponde"
una forma de cultura Y, y que vivimos en una so-
ciedad X, se concluye que debemos producir tal forma
de cultura. El punto gracioso de esta cuestión es que
si la cultura producida de hecho en la sociedad X no
es la que le "corresponde" según el esquema teórico,
entonces la policía se encarga de hacer cumplir las le-
yes históricas y evitar la refutación de la teoría. Esta
falacia ha gozado de mucho predicamento en algunas
sociedades denominadas "socialistas" porque naciona-
lizaron los medios de producción.
5. Los que invocan a Marx debieran recordar que él
entendía por "ideología" una imagen invertida, y por
lo tanto falsa, del mundo, solo superable mediante un
esfuerzo máximo del pensamiento racional, que Marx
identificaba con la ciencia. Su análisis de la sociedad
capitalista se proponía presentar las leyes que la go-
biernan con la misma pretensión de objetividad con
que Darwin formuló su teoría de la evolución. No abri-
gaba el propósito de exponer una nueva ideología, sino
el resultado de la aplicación consecuente del método
científico a la realidad social. Y lejos de clamar contra
"la investigación desinteresada de la verdad", denun-
ció a la sociedad capitalista por las trabas que los inte-
reses de clase ponían a tal investigación: "La lucha
de clases. . . dio el toque de difuntos por la economía
científica burguesa. Ya no se trató de si este o aquel
teorema era verdadero, sino de si era útil o perjudicial,
cómodo o incómodo para el capital, agradable o no
a la policía. Al estudio desinteresado reemplazó la
fanfarronada pagada; a la libre investigación científica,
la mala conciencia y la perversa intención de la apolo-
gía" (Del prólogo a la 2a. ed. de El Capital). Parece
claro que Marx no soñaba con proponer una imitación
socialista de la realidad que criticaba con tal indig-
nación.
Siendo el pensamiento ideológico, para Marx, una
ilusión producida por los fenómenos observables de la
estructura social (así como el movimiento aparente
del sol genera en forma natural una astronomía geo-
céntrica) no es de extrañar que el desgarramiento de
esta ilusión solo pueda lograrse mediante un enorme
esfuerzo del pensamiento crítico, que supere los lími-
tes del realismo ingenuo. Lo que se ofrece es un es-
quema teórico que por mostrar el origen de la ilusión
no puede, a su vez, ser ilusorio. El marxismo se pre-
senta, en suma, como una teoría científica de la socie-
dad (es increíble que haya que repetir esta triviali-
dad en 1971); y como ocurre con toda teoría cientí-
fica,^ el conocimiento que proporciona es neutral en el
sentido de que corresponde simplemente a la verdad,
con prescindencia de la ubicación social del observador
o de cualquier otra circunstancia considerada por la
sociología del conocimiento.
23. 6. El "sesgo" anticultural de la actitud ideologista
puede verse con claridad cuando pasamos de la cien-
cia a otros aspectos de la cultura. En el N?
7 de la re-
vista Hombre Nuevo, OV se arroja al campo de la li-
teratura, y refiriéndose a los escritores de izquierda
dice que con ellos "este sistema social se ha anotado
uno de sus mayores éxitos": "Con el pretexto de no
hacer literatura populachera. . . —dice OV— escriben
solo para intelectuales o gente con un grado apreciable
de instrucción. A García Márquez no lo lee el pueblo;
y aun si lo leyera, ¿en qué lo ayudaría políticamente?"
( p . 6 ) .
Este utilitarismo en materia artística cuenta con
una buena tradición en el pensamiento de derecha.
En una novela de Proust un aristócrata critica a Flau-
bert porque, según él, "en estos tiempos hay tareas
más urgentes que ordenar palabras de un modo armo-
nioso". En verdad, es fácil probar que siempre hay
tareas de mayor urgencia. Las desdichas de la huma-
nidad no se han acumulado en el siglo xx: existen a
todo lo largo de la historia. La triste conclusión es que
no hay lugar en este mundo para los productos más
elaborados de la cultura, incluyendo ejercicios tan ino-
cuos como el intento de comprobar si negando el quin-
to postulado de Euclides puede inferirse una contra-
dicción. Mientras Sacheri se dedicaba a este ejercicio
"inútil", cuyo resultado final fueron las geometrías no
euclídeas, la humanidad no era más feliz que en 1971.
El problema es, entonces, ¿qué hacer con la cultura?
La exigencia de que el arte debe ser comprensible
para el pueblo tiene algunas variantes de interés. En
una época que a los jóvenes parece remota, el C. C.
del P. Comunista Soviético se expresó "contra la teo-
ría podrida [de los compositores que creen] que el
pueblo no está bastante evolucionado para apreciar su
música". Pronto se vio que esta teoría era, en efecto,
falsa, pues el gobierno eliminó la música complicada
y ya todos entendieron. Por la misma época, el bien-
intencionado Zdanov acusó a la poetisa Ana Akhmato-
va de escribir poemas que "no ayudaban a construir la
nueva sociedad". Ya lo vemos: ahora es urgente des-
truir la vieja sociedad, y a esta tarea debe supeditarse
la totalidad de la cultura; mañana será necesario cons-
truir la nueva sociedad, y como esta tarea es tan im-
portante como la destrucción de la vieja, habrá que
deshechar todo lo que "no ayude al pueblo política-
mente". ¿Y pasado mañana? Pasado mañana, sin duda
alguna, la nueva sociedad se habrá convertido en vieja,
v lo más urgente será hacerla pedazos (esta predicción
está asegurada por las leyes dialécticas inmanentes al
proceso histórico). No es de extrañarse si esto con-
duce a la degradación cultural y el fanatismo; pues
según una definición feliz, un "fanático" no es otra
cosa que "un hombre que perdió de vista los fines y
se dedica por completo a los medios".
7. La filiación histórica de los ataques a los valores
culturales universales y a la objetividad del conoci-
miento es tan triste, que dan ganas de llorar. En la
Universidad de Heidelberg, donde enseñó Spinoza, los
nazis reemplazaron la famosa inscripción: "Al espíritu
universal", por otra más "revolucionaria": "Al espíritu
Germano". Desde el punto de vista nazi la ciencia no
es nunca objetiva, y menos aún "internacional" (la in-
ternacionalidad de la ciencia es un invento de "judíos
y liberales"). En 1938 un grupo de historiadores na-
zis proclamó dulcemente: "Nosotros no somos objeti-
vos: somos alemanes" (sic).
Si no hay objetividad ni criterios comunes para juz-
gar los argumentos, es imposible el diálogo racional; y ^
por eso el ideologismo, o sea la actitud consistente en
considerar las ideas como una mera función de intere-
ses o motivos ocultos, sin atender a su contenido y a
su relación con los hechos, conduce a una forma u otra |¡
de irracionalismo (elegante o bestial). Durante el des-
arrollo del fantasmagórico caso Lysenko, al que me re-
ferí antes, un biólogo soviético con "conciencia polí-
tica" dijo lo siguiente: "Los morganistas quieren una
discusión. Pero nosotros no discutiremos con los mor-
ganistas (aplausos); nosotros continuaremos denun- !|
dándolos". El reemplazo de la discusión por la de-
nuncia parece una consecuencia natural del ataque a
la objetividad. Es digno de señalar que Marx fue una
víctima predilecta de esta técnica ideologista. Una ver-
sión suave de ella puede hallarse en Toynbee (Estu-
dio de la Historia, t. u ) , donde Marx es "refutado"
sin tomar en cuenta para nada el contenido teórico de [
sus afirmaciones. ^ *
No ignoro que hay quienes usan los "valores uni- }
versales" y la "objetividad" con el objeto de "vender
buzones", para decirlo con la metáfora elegida por
OV; pero lo mismo ocurre con otros conceptos como
"Pueblo" ("Oh, Pueblo, cuántos crímenes. ..", etc.),
"internacionalismo proletario" (Oh, Checoslovaquia), j
"libertad" (pretexto para masacrar vietnamitas), "so- j
cialismo" (pretexto para masacrar bengalíes), y así ad
finitum. El peligro se halla, pues, en los buzones, y no
necesariamente en los conceptos mismos.
8. Me interesa detenerme ahora en un detalle pinto-
resco, que forma parte del carácter surrealista que atri-
buí a esta polémica. Según nos cuenta OV en la p. 47
de Ciencia, Eolítica y Cientificismo, "una escuela filo-
sófica muy en boga entre los científicos norteamerica-
nos afirma que: una proposición significa algo si, y solo
si, es verdadera o falsa". ¿Cuál es esta escuela filosófi-
ca? Sin duda el positivismo lógico. El estilo insinuante
de la frase recuerda otras como: "En círculos filosóficos
pagados por el Pentágono está en boga la teoría de
que el espacio es curvo". OV rechaza la tesis mencio-
nada porque, según dice, "hay otra dimensión del sig-
nificado que no puede ignorarse: la importancia". Pero
¿cómo puede creer OV que esto constituye una refu-
tación? La afirmación negada por OV tiene la forma
de un bicondicional, y negarla equivale a sostener que
puede darse al menos uno de los casos siguientes:
a) que una proposición significativa no sea ni ver-
dadera ni falsa;
b) que una proposición no significativa sea, sin em-
bargo, verdadera o falsa. Pero, por una parte, no es
esto lo que OV dice; y, por otra, esto nada tiene que
ver con la "importancia", como es obvio para cual-
quiera. La tesis rechazada se apoya en la intuición de
que una oración significante trasmite información, y
que en eso consiste precisamente su significado. Y es
plausible considerar que el contenido informativo de
una oración está dado por sus condiciones veritativas:
la información puede caracterizarse como el conjunto
21