SlideShare una empresa de Scribd logo
1 de 38
Descargar para leer sin conexión
IPC EXÁMEN FINAL
CAPITULO 1 “Las cosmologías”
Las cosmologías son teorías que intentan explicar cómo es el universo y por qué lo vemos
así. Existen hace desde la antigüedad, pero su relevancia histórica comienza con los
griegos.
COSMOLOGÍAS ANTIGUAS
• Geocentrismo
Surge en el siglo IV a.C. por Aristóteles, el plantea que el universo es un conjunto de
esferas concéntricas sobre las que están montados los astros. Entre ellas existe una
sustancia llama éter. En el centro del conjunto, está La Tierra, inmóvil.
Sobre las esferas más próximas está montada la Luna y más allá, las esferas donde se
localizan los seis planetas restantes conocidos en esa época (Mercurio, Venus, Sol,
Marte, Júpiter y Saturno). La última de las esferas es la de las estrellas fijas, sobre las que
están montadas las estrellas que no cambian de posición. Esta esfera además transmite
el movimiento a todas las esferas anteriores. Aristóteles pensó que así se mantendría
eternamente el Universo.
Formó también una teoría física que sostiene que hay una distinción entre lo que ocurre por
debajo de la esfera de la Luna y lo que ocurre fuera y en ella.
Hay una física sublunar (hacia adentro) y una física celeste (hacia afuera).
En la región sublunar se encuentra La Tierra y existen cambios (tormentas, terremotos),
en cambio, en el mundo celeste no. Además, para Aristóteles no existe el vacío en el
Universo, sino que es finito y termina en la esfera de las estrellas fijas.
En el siglo II, Ptolomeo continúo con esta corriente y planteo el sistema tolemaico donde
sitúa a los planetas describiendo orbitas circulares alrededor de La Tierra. Si observábamos
un planeta por un año, veríamos una circunferencia centrada en La Tierra, sin embargo,
encontró que algunos planetas en cierto lapso dejaban de avanzar y retrocedían un poco.
Esto se conoce como retrogradación de los planetas.
Ptolomeo modificó su teoría original donde Marte describía una órbita circular montada
sobre la órbita alrededor de La Tierra, llamadas epiciclos. Logró resolver el problema y los
cálculos coincidieron, sin embargo, con el tiempo las observaciones diferían cada vez más.
• Heliocentrismo
En 1543 Copérnico describe un universo distinto, sostiene que el Sol es el centro del
universo y que los planetas describen orbitas circulares alrededor de él.
La Tierra ahora es un planeta más que gira alrededor del Sol y rota
sobre sí misma.
Este movimiento de rotación sobre su eje explica la sucesión del día y noche, mientras
que la traslación explica el movimiento aparente de los astros. El primer problema que se
presentó fue que los cálculos realizados para las posiciones de los planetas no coincidían
con las observaciones. Intentó resolver esto mediante los epiciclos, pero hubo que esperar
hasta el 1609 para que la dificultad se resolviera. Kepler lo soluciono sosteniendo que
las órbitas que describían los planetas alrededor del Sol no eran circulares sino
elípticas.
Otro problema era que daba cero la medida del ángulo de paralaje estelar.
Si La Tierra tiene un movimiento circular (o elíptico) debería formar cierto ángulo de
paralaje, esto se desprende de Copérnico.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Recién en 1838 se pudo encontrar que la medida del ángulo era diferente a cero. En la
época de Copérnico no estaban en condiciones técnicas de detectarlo. En 1572 los
astrónomos observaron la aparición de un nuevo cuerpo celeste ‘estrella Nova’ que fue
apagando su brillo progresivamente hasta desaparecer.
Este cuerpo celeste estaba en la región celeste del universo aristotélico. Esto quería decir
que en esta región había cambios, lo que contradecía con la hipótesis física de
Aristóteles. Los geo-centristas tenían la hipótesis de que estos astros estaban en la región
sublunar. Copérnico había formulado una nueva cosmología, pero no una nueva física, se
basaba en la física aristotélica. Galileo y Newton desarrollaron una nueva física que se
articulaba con la cosmología en la segunda mitad del s. XVII. Newton brindo una
cosmología basada en la de Copérnico, la física era la misma para todo el universo, los
planetas describían orbitas elípticas alrededor del Sol, pero éste no era el centro del
Universo, solo era el centro de nuestro sistema planetario, lo que admite la posibilidad de
encontrar en el Universo otros sistemas planetarios.
Si el universo es infinito no puede tener centro y el universo ideado por Copérnico si admitía
ser finito, ya que se basó en las ideas de Aristóteles.
Cosmologías actuales
Aristóteles suponía la existencia eterna del Universo mientras que Newton planteaba la
creación de un universo en algún momento en el tiempo. Se desarrollaron dos corrientes
una la de la teoría del universo eterno ‘Teoría del universo estacionario’ y por otra parte,
la mayoría de los científicos se inclinan por la idea de que el universo tuvo un comienzo,
que se trata de la ‘Teoría del Big Bang’ que sostiene que el universo debe haber
comenzado y con él el tiempo y espacio hace alrededor de 15.000 millones de años.
• La teoría del Big Bang
En 1929 el investigador Hubble había sugerido que el universo estaba en expansión. Las
observaciones con las que contamos hasta el momento confirman que el alejamiento mutuo
de las galaxias es más pronunciado cuanto más separadas están estas mismas. Esto tiene
aspecto de una explosión en el pasado. No parece que las galaxias fueran que se alejaran,
sino que es el espacio mismo el que se expande y con ello da lugar al alejamiento
observado. El universo estaba concentrado en un punto y debe haber comenzado todo
a partir de una explosión donde también comenzó el tiempo.
Si toda la energía del universo actual alguna vez estuvo concentrada de tal manera los
científicos creen que la forma en que se manifestaba tal energía no debía ser tal como se
presenta ahora en forma de partículas y radiaciones, sino que solo por radiación. A medida
que el espacio se expandía, la energía se desparramaba de modo que su densidad
disminuía, habrá llegado un momento en que la energía por unidad de volumen era
suficientemente baja como para que las partículas y antipartículas que se formaban
de esa energía, no se volvieran a transformar en radiación. Las partículas comenzaron a ser
estables y los choques entre fotones crearon partículas y estas chocaban con menos
energía de la necesaria para desintegrarse en fotones. Aquella época de creación de
partículas no duro mucho, por lo que el espacio siguió expandiéndose y con ello la energía
por unidad de volumen siguió bajando, la temperatura siguió bajando también. El universo
había obtenido un equilibrio entre la radiación existente y las partículas que de ella habían
surgido. Con la aparición de tantas partículas se hizo más evidente la fuerza de atracción
gravitatoria, que provoco que las partículas se fueran agrupando en grandes nubes y a su
vez estas siguieran compactándose por la fuerza atractiva hasta formar galaxias y estrellas.
- La radiación cósmica de fondo: una gran explosión en sus comienzos no había sido
corroborado por ninguna otra observación. En 1964 Penzias y Wilson detectaron una
radiación cuya intensidad y frecuencia no tenía variación respecto de la zona del espacio
que escudriñaran. Esto fue interpretado como la radiación remanente de aquella supuesta
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
explosión y se la conoce como radiación cósmica de fondo. Esta evidencia fortalecía la
hipótesis del Big Bang. El universo había continuado su expansión y con ello la
temperatura seguía bajando. El universo ya bastante enfriado irradia en la frecuencia que
ellos detectaron, una frecuencia típica de los cuerpos que se encuentran a 270 grados
centígrados bajo cero. Como el Sol irradia en frecuencias que nos indican temperatura de
miles de grados, el universo contiene radiación en frecuencias e intensidades tales que
correspondían a esas temperaturas tan bajas. La radiación del fondo cósmico parecía ser
estrictamente constante no importando a que zona del espacio apuntáramos. Con la
intención de investigar, se creó un satélite especialmente diseñado para realizar tales
frecuencias y se registró que se confirmaba la idea de que hubo pequeñas
homogeneidades hubiera zonas con materias y otras sin.
- Efecto Doppler y la observación del alejamiento de las galaxias: cuando una fuente de
sonido se acerca al observador, éste percibe un sonido levemente más agudo que si la
fuente estuviera en reposo. Si en cambio la fuente se aleja, el efecto será que parece más
grave. Este efecto Doppler se podría resumir en que el sonido parece más agudo si la
fuente emisora se acerca y más grave si se aleja. Pero más agudo o grave respecto
del sonido de la fuente emisora en reposo. Podríamos decir que el sonido presenta un
corrimiento de frecuencias: hacia el agudo en el primer caso o grave en el segundo. Cuando
se analiza la luz proveniente de las galaxias lejanas se encuentra que su frecuencia no
coincide con la esperada, sino que presenta un corrimiento hacia frecuencias menores,
como un alejamiento de la fuente de emisión.
Por lo tanto, las galaxias se alejan unas de otras ya que todas las galaxias lejanas
estudiadas presentan este corrimiento hacia frecuencias menores. No deben
interpretarse como si nuestra galaxia estuviera en el centro de la expansión. Como las
frecuencias más bajas del espectro visible corresponden al color rojo, este efecto que
presentan las galaxias lejanas, se ha llamado corrimiento al rojo. Todas las galaxias lejanas
investigadas mostraron corrimiento al rojo y que esto indica que se alejan de nosotros.
• Universo estacionario
Este modelo describe un universo en expansión continua tal cual la que se infiere a partir
del alejamiento de las galaxias, pero con la particularidad de que la densidad de
partículas del universo permanece constante. Al expandirse el espacio se deberán crear
partículas de modo de mantenerse la cantidad de materia por unidad de volumen. El
universo se expandiera y a la vez se crearía materia de modo que una zona del espacio
siempre presentaría el mismo aspecto no importa en qué época nos fijáramos. Plantea la
idea de que el universo no fue creado ni apareció en algún instante. Éste existió
siempre y siempre existirá con el mismo aspecto: expansión y creación de partículas,
da perfecta cuenta del alejamiento de las galaxias, pero tuvo que enfrentar una
acomodación al descubrirse la radiación de fondo cósmica que corroborada con la teoría del
Big Bang. Esta consistió en sugerir que tal radiación podía prevenir de las nubes de polvo
existentes en el Universo que absorberían la radiación de las estrellas y la remitirían en la
frecuencia observada del fondo cósmico. No queda explicado totalmente bien que la
radiación de fondo no varía en las distintas direcciones de observación. Asistimos ahora a
otra confirmación del Big Bang, como lo es el descubrimiento de las irregularidades que
dieron lugar a que el universo fuera inhomogeneo. Los defensores del Big Bang habían
anticipado que de ser correcta la teoría debería encontrarse tales inhomogeneidades en la
radiación de fondo, mientras que tales rasgos no se desprendían de la teoría del modelo
estacionario. La teoría del Big Bang obtiene credibilidad mientras que la otra no. Ahora esta
cuenta con el apoyo de la comunidad científica.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
CAPITULO 2 ‘Generación de la vida ¿sólo un problema biológico?’
Una concepción clásica del mundo que se derrumba, siglo XVI
En ese siglo ya se sostenía que la Tierra no ocupaba su posición central en el
universo, sino que giraba alrededor del Sol como los demás planetas. Viejos
esquemas mentales comenzaban a no tener credibilidad a medida que sucedían cambios
en la sociedad europea, estos esquemas habían encontrado su fundamento teórico en
Aristóteles. La ciencia de él fue cristianizada a partir de los intentos de algunos teólogos
de compatibilizar la ciencia paga con la doctrina cristiana, dando lugar a lo que se conoce
como escolástica. Al incorporar concepciones de Aristóteles, el mundo cristiano adhirió a un
sistema de creencias en el cual el universo material era explicado mediante analogías
tomadas de los seres vivos, constituyendo una interpretación organicista del mundo. Esto se
basaba en el cambio constante, destacaba la existencia de una intencionalidad que dirigía
al desarrollo de los fenómenos naturales. Se sostenía ideas de la concepción global del
mundo, los seres eran engendrados en un único acto, siempre como resultado de una
creación mediante las fuerzas divinas. Un ser vivo no era solo lo que aparentaba,
representaba un eslabón en la cadena secreta que une a todos los objetos de este mundo.
La formación del ser requería del calor, fuente de vida que el Creador ha distribuido en
dos grupos: la unión de los sexos es necesaria para que el macho de su ‘líquido seminal’
para activar y dar forma a la materia contenida en el ‘líquido seminal femenino’. El otro tipo
de calor que proviene del Sol puede activar los elementos (tierra, aire, etc.) para dar origen
a los seres ruines. Esta última postura se conoce hoy como ‘teórica de la generación
espontánea’. Cuando la putrefacción transforma un pedazo de carne en moscas es debido
al calor que esta desprende, y en eso se basaba. En el S. XV surgió la adhesión a la magia,
que rescataba concepciones místicas de las civilizaciones mediterráneas. Intentaba
interpretas la voluntad de Dios-mago a través de los indicios dejados en el mundo material
en términos matemáticos. Esto influencio en muchos pensadores, por ejemplo, en Galileo
que argumentaba que Dios se revela al hombre mediante la Sagrada Biblia y el libro de la
Naturaleza. La tradición mágica, entrelazada con la organista, fueron opacadas por la
mecanicista la cual planteaba que la naturaleza es análoga como una máquina y tanto su
comportamiento como sus propiedades podían ser comprendidas a partir del conocimiento
de sus elementos constituyentes. El origen de este pensamiento surge por el periodo de las
maquinas durante el S. XVI y por el descubrimiento de Arquímedes, cuyos escritos
matemáticos y físicos permitieron sentar las bases para un planteamiento matemático en el
que el mundo era susceptible de medición y análisis.
La tradición mecanicista se puso contra la magina y la organista, partiendo del
presupuesto de que el universo se gobernada por fuerzas mecánicas creadas por un dios
ingeniero o relojero, los científicos que creían esto estudiaron las relaciones que guardaban
distintas partes del universo entre sí, como estudiar piezas de una máquina.
El desarrollo de la ciencia moderna, siglo XVII
En esta época surgen las leyes del movimiento de Newton. La física juega un papel
importante en esta transformación del universo, porque asigna nuevas funciones a la
observación, experimentación y razonamiento, y por ser la única ciencia que se
expresa por lenguaje matemático, la lógica.
La generación de un ser no puede ya constituir un hecho aislado, único e independiente. Lo
que ahora importa es su aspecto y estructura visible. La generación solo puede
considerarse a través de la estructura visible de los seres vivos y por las leyes del
movimiento. La teoría de la generación espontánea es retomada a partir de una
explicación basada en la mecánica y la materia, los seres vivos no difieren de las cosas más
que por la disposición de la materia y por hacer surgir de ella un cuerpo viviente. No todos
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
compartían las viejas ideas acerca de la generación espontánea. En 1668, Redi intentó
demostrar que la materia putrefacta no alcanza para generar los seres ruines, sino que
se debe al desarrollo de huevos inadvertidos. Puso carne en diferentes frascos y observo
que los abiertos estaban llenos de gusanos mientras que los cerrados estaban libres
mientras se descomponía la carne. Propuso entonces que las moscas que entraban en los
frascos depositaban sus huevos. En 1683 Leeuwenhoeck vio con microscopios
organismos en gotas de agua sucia, semen sangre, etc. A estos los llamo
animálculos. Los espontaneistas aprovecharon y plantearon que esos seres podrían
derivar de otros insectos preexistentes.
Algunos como Redi y Leeuwenhoeck creían que a la generación espontánea era aplicable a
estos seres.
Otra polémica se inicia: el Preformacionismo vs. la Epigénisis
Harvey descubrió acerca de la circulación de la sangre que se introdujo al enfoque
mecanicista, pero continúo aferrado a tradicionales concepciones como el desarrollo de un
ser vivo a partir de un huevo, coincidiendo con Aristóteles. Esta concepción corresponde a
la postura denominada epigénesis, fue sostenida filosófica y experimentalmente por
Aristóteles en su descripción del embrión del pollo: ‘La generación a partir del huevo se
produce en todas las aves, en la gallina común el primer indicio del embrión se tiene
después de 3 días, con aves menores menos y con mayores más. La yema cobra ser y
aparece el corazón, este late y se mueve, de él parten dos conductos que contienen sangre
y una membrana provista de fibras sanguinolentas que envuelve la yema. Después, el
cuerpo queda diferenciado. La porción inferior del cuerpo crece más lenta que la superior. El
elemento vital del polluelo está en la clara del huevo y el alimento le llega de la yema, a
través del cordón umbilical’.
Cuando Leeuwenhoeck descubrió los espermatozoides, este hecho fue aprovechado por
Swammerdam y otros para integrarlo a su concepción biológica vinculada a la creación
divina. Creyeron que de cada espermatozoide humano había algo similar a un humano
microscópico, así surgió la teoría del Preformacionismo, según el cual el futuro organismo
aparece preformado bajo la forma de un embrión dentro del animálculo que lo porta. El
embrión posee todos los órganos enteros, pero como son pequeños no se logran ver. A
partir de esta concepción luego se hico extensivo a otros seres. En aquellos seres que
pueden engendrar a sus semejantes, el problema se traslada a como esta ordenada la
materia en el esperma. El preformacionismo cierra una idea de germen. Los defensores de
esta idea se vieron obligados a explicar la locación de los gérmenes que deberían
transmitirse de generación en generación, de esto resulta la teoría del encaje, según cual
los gérmenes se localizan uno dentro del otro, de esta forma Adán contenía todos los
gérmenes de generaciones posteriores. En esta época no existía la posibilidad de lograr
datos absolutos, se debían contentar con cálculos a partir de las Sagradas Escrituras.
Como, por ejemplo, así en 1650 un avispo logro calcular que el mundo había sido creado el
miércoles 18 de julio del año 4004 a.C. Del mismo modo que se pretendía partir de Adán
también se estimó el número de huevos encajados que portaba Eva. Esto dividió a los
preformacionistas en dos bandos: los animalculistas y los ovistas. Se realizaron
numerosos estudios en la búsqueda de observaciones que aplicaran la teoría. El estudio de
las
semillas ofreció un soporte ya que a simple vista se puede ver la estructura del futuro ser.
En 1786 Spallanzani experimentaba ‘Escogí una perra, la encerré en una habitación. Al
cabo de tres días estaba en celo. A los 23 días intente la fecundación artificial con un perro
joven, por una eyaculación espontanea, inyecte sin demora en la matriz de la perra con una
pequeña jeringa el líquido seminal. 23 días después apareció embarazada, luego pario a
unos perritos. Se semejaban con la madre y con el padre’. Desde esta perspectiva era
comprensible la idea de gérmenes que incluyeran unos a otros hasta el infinito. Aun no se
conocían los límites de la materia viva e inanimada. Había muchos problemas por resolver:
los fenómenos de regeneración (capacidad de ciertos animales de reconstituir partes del
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
cuerpo animal). Los preformacionistas se debían explicar donde estaban los gérmenes y
que tipo eran, no tuvieron ninguna explicación desde la teoría preformacionistas ante estos
fenómenos. Los análisis de la herencia en las poblaciones humanas daban resultados que
no concordaban con las predicciones: los rasgos provenían del padre, otro de la madre o a
veces ambos.
Siglo XVIII: el surgimiento de una nueva explicación
Surge el concepto de ‘molécula viva’, partículas que constituyen a los seres vivos. En este
siglo, Buffon y Maupertuis intentaban hallar una respuesta distinta de la preformación para
explicar los hechos de la herencia. El concepto de reproducción (producción de un ser vivo
a través del agregado de moléculas vivas siguiendo un molde característico de la especie)
nace de los problemas que el preformacionismo no podía explicar (la regeneración). Estos
científicos creen ver en este concepto la solución al problema de la generación; un ser
organizado puede ser disociado en un conjunto de ‘moléculas vivas’. La reproducción o
generación solo supone un cambio de forma que se hace por adición de las partes. El
líquido seminal contiene una muestra compleja y completa de los distintos tipos de
partículas que componen los distintos órganos, es la fuerza de atracción la que reúne las
partículas para formar un nuevo ser. Es necesario que haya una ‘memoria’ que guie la unión
de las partículas. Esta memoria es para Buffon una estructura partículas. La materia
utilizada para el crecimiento debe penetrar en el interior de cada parte y con todas
las dimensiones según un cierto orden. Esta teoría se llamó epigénesis: ‘la estructura
primaria de un ser vivo se organiza poco a poco a consecuencia de plegamientos,
abultamientos e hinchazones a través de una secuencia de operaciones mecánicas en el
tiempo y espacio’. A mediados de este siglo, Wolf estudia el desarrollo del pollo,
encontrando un aumento considerable en la complejidad del embrión. Esto quedara
ignorado hasta XIX cuando se desarrolla la embriología experimental. La idea de una
concepción elemental queda en el siglo XVIII fuera de las posibilidades de la
experimentación y observación. Buffon intenta demostrar la existencia de moléculas
organizas y su poder de combinarse, pero sus resultados no convencen a nadie. Para los
preformacionistas la teoría de epigénesis revitalizaba la teoría de la generación espontánea,
ya que si existían moléculas orgánicas que podían juntarse por calor, ¿por qué no
se podrían generar animálculos?
• Retomando la vieja polémica: ¡los espontaneistas contraatacan…!
En 1745 Needham realizo un experimento que favoreció a la generación espontánea de los
animálculos.
Coloco un caldo en un frasco tapado, lo hirvió con el objetivo de destruir gérmenes luego el
caldo se llenó de animálculos. Infirió entonces que solo podría provenir de una generación
espontánea.
Los primeros trabajos del preformacionistas Spallanzani trataron de refutar esta hipótesis.
Reprodujo el mismo experimento, pero con frascos mejor tapados y un calentamiento más
prolongado. Los animálculos no aparecieron. Needham alego que el experimento era
totalmente diferente porque con más calentamiento destruía la fuerza vital esencial para la
producción de vida.
• Una revisión del debate
El problema de la generación de los seres se divide en dos ramas: una, la que concierne al
desarrollo de los seres más organizados, debate si los seres se originan por gérmenes y
solo crecen hasta alcanzar la madurez o si el desarrollo implica aumento de complejidad,
agregando partes y moléculas orgánicas a una masa y que gradualmente se convertirá en
un nuevo ser, este es el debate preformación-epigénesis.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
La otra rama refiere a la génesis de los animálculos, seres microscópicos que parecían
haber aparecida de la nada. Discutían sobre si estos seres de habían originado
espontáneamente de la materia inerte o su origen es a través de gérmenes dispersos en el
aire, debate espontaneismo-antiespontaneismo. Los partidarios de la epigénesis también
lo eran de la generación espontánea de los animálculos, que se originaban por la
descomposición de la materia. Los preformacionistas creían que toda aparición de un
nuevo ser respondía a gérmenes preexistentes. Los epigenetistas daban mucha
importancia al tema de la regeneración, reproducción de partes u organismos enteros al
punto de aplicarlo a todos los seres, a partir de la idea de la existencia de moléculas propias
de los seres vivos que se van agregando para constituir al ser complejo gracias a la
memoria. Incluyen así el tema de la organización que va más allá de la estructura visible y
que tiene relación con la estructura oculta. La fuerza vital incorporada en el s. XVIII es
fundamental como explicación ‘del mantenimiento de la cohesión del ser, para asegurar el
orden de lo vivo en oposición al
desorden de la materia animada. Es una fuerza de una calidad especial que confiere sus
atributos a los seres organizados, que mantiene unidas a las moléculas pese a las fuerzas
exteriores que tienden a separarlas’ explicaba Jacob. Los defensores del preformacionismo
se niegan a admitir que un animal pueda nacer de una aposición mecánica de moléculas.
Niegan que una viscosidad que parece organizarse no esté ya organizada. En XVIII se
establece una clasificación de los seres vivos.
Los preformacionistas acordaran en que la transformación de las especies a lo largo del
tiempo es una imposibilidad física (fijismo). Los epigenetistas fueron defensores de la
posibilidad de una transformación gradual de las especies (transformismo).
Siglo XIX: la resolución de un enigma
En ese año aun existía el problema de la generación espontánea de los animálculos.
En 1832 se establece el concepto de célula como unidad de lo viviente y se comienza a
estudiar su estructura. El concepto de especie se liga al de reproducción y ambos se
establecen explicando cómo se mantiene a lo largo del tiempo una especie.
Luis Pasteur en 1860 destierra la idea de la generación espontánea ya que realiza un
experimento que mantenía las condiciones apropiadas para la generación del día. Tomo
frascos con caldo en putrefacción con cuellos ‘de cisne’. Luego de hervirlos durante el
tiempo necesario para matar a los microorganismos del caldo, se observó la no aparición de
nuevos microorganismos. Explico la existencia de gérmenes en el aire que no podían entrar
al frasco por su forma. La fuerza vital necesaria para organizar las moléculas dando lugar a
los seres vivos, podría haber entrado en el frasco, si existiese.
Siglo XX: ¿El fin de las polémicas?
Por un lado, el embrión se desarrolla aumentando su complejidad de manera gradual, pero
ese aumento de complejidad es determinado y regulado por órdenes que da el ADN.
Dice Elsasser ‘La teoría de la preformación proclama que hay una copia completa, un
modelo en miniatura del adulto, en cada germen. La teoría de la epigénisis, en cambio
sostenía que el germen no es sino un grumo de sustancia dotado de potencial para crecer
hasta el grado adulto. La relación entre preformacionismo y epigénisis está en el
fundamento de la semiautónoma de los procesos de desarrollo.
Por el lado observacional hay abundantes testimonios a favor de cada una. Las pruebas
decisivas de que la molécula de ADN es un órgano de almacenamiento de información
ciertamente proporcionan una base bien solida a un preformacionismo algo moderno’.
Dice Maynar Smith ‘Los preformacionistas sostenían que tenía que haber en el huevo, un
adulto en miniatura, pero perfectamente formado: el desarrollo consiste entonces en un
mero crecimiento en tamaño’. Dice Gould ‘Desde nuestra perspectiva actual los
epigenetistas tenían razón: los órganos se diferenciaban secuencialmente a partir de
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
rudimentos más simples en el transcurso del desarrollo embrionario: no existen partes
preformadas. Los preformacionistas tenían también razón en insistir en que la complejidad
no puede surgir de una materia prima informe, que debe existir algo adentro del huevo que
regule su desarrollo.
CAPITULO 3 ‘Origen de la ciencia natural moderna’
El nacimiento de la ciencia moderna
Cuando hablamos de ciencia natural nos referimos a las disciplinas científicas que tratan
de explicar fenómenos naturales, aquellos en los cuales el hombre no es el objeto de
estudio. Por ejemplo, la física, química o biología. Cuando el objeto de estudio es el hombre
y sus relaciones sociales, hablamos de ciencias sociales, por ejemplo, la sociología,
psicología, antropología, economía, ciencia política, etc.
La obra de Copérnico sobre la revolución de las esferas celestes suele ser considerada
como el detonante de un período que se conoce como Revolución Copernicana, que no
solo alumbró una nueva cosmología, sino que coincidió con un cambio en la manera de
hacer ciencia, conocido como Revolución Científica del s. XVII. Es común que se cite a
Galileo como fundador de la ciencia moderna, pero hubo otros científicos.
Entre estos, no solo los discípulos de Galileo sino también aquellos que trataron otras
disciplinas. La física antigua adoptaba una metodología que podemos llamar demostrativa.
Los científicos procedían determinando enunciados verdaderos de los que se deducían
otros que daban cuenta de las observaciones. El cambio proviene de un cambio de actitud
de los científicos hacia esos enunciados verdaderos. La ciencia moderna adopta una
postura sobre que los únicos que pueden brindar alguna información acerca de la verdad de
los enunciados acerca de sucesos del mundo real son, los sucesos del mundo real. Suele
llamarse a la nueva ciencia, ciencia teórico-experimental.
Tanto en la ciencia demostrativa como en la experimenta se utiliza la deducción para
obtener enunciados acerca de hechos del mundo a partir de otros enunciados. Pero se
diferencian en el carácter de los enunciados iníciales, mientras que en la ciencia antigua
eran enunciados verdaderos, en la ciencia experimental eran sólo conjeturas obtenidas de
la observación metódica. La ciencia fáctica es aquella que habla sobre los hechos del
mundo real mientras que la ciencia formal no tiene ninguna referencia en el mundo.
También veremos con más detalle la metodología de la ciencia experimental cuando
trataremos el método hipotético-deductivo, el inductivo y lo relacionado con la
contrastación de teorías.
Otra diferencia entre las dos épocas está en la observación. Los científicos antiguos
observaban, pero de manera diferente. Con la nueva ciencia los elementos a observar no
resultaban solo cualitativos, sino que eran cosas medibles, cuantificables. Por ejemplo, en el
s. XVI se sabía que el agua no ascendía por un tubo más allá de 10 m. La explicación en la
antigüedad se basaba en el postulado de la física aristotélica sobre la imposibilidad del
vacío. Torricelli fue quien dio una explicación, supuso que estamos sumergidos en aire,
que pesa y que se comporta de manera similar a un líquido. Todo cuerpo sumergido en aire
soporta cierta presión, luego el aire ejerce cierta presión sobre la superficie del agua. Como
resultado el agua sube por el sorbete hasta que la presión que ella ejerce iguala a la que
ejerce el aire. La ciencia moderna se preocupó de un problema práctico: que no pudiera
extraerse agua de un pozo de más de 10 m. En segundo lugar, utiliza magnitudes
cuantificables para desarrollas su teoría: mide pesos específicos y la presión atmosférica.
Por último, establece relaciones matemáticas entre magnitudes cuantificables. Torricelli
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
además de predecir qué ocurriría lo comprobó experimentalmente. Esta es la diferencia más
relevante con la ciencia antigua. Los nuevos científicos realizan observaciones activas, en
condiciones controladas y con magnitudes medibles. Con la ciencia moderna nade la
noción de control de variables.
Cuestiones metodológicas
Tanto la ciencia moderna como la antigua usan la deducción para obtener
consecuencias. Este, se trata de un razonamiento lógico. Por otra parte, la ciencia
moderna conjetura hipótesis y a partir de ellas deduce lo que debería ocurrir. El paso
siguiente consiste en revisar si las observaciones coinciden o no con lo deducido. Esto es lo
que sostiene el método hipotético-deductivo y el método para chequear hipótesis de la
ciencia moderna. Mediante la observación de ciertos hechos ponemos a prueba una
hipótesis, los posibles resultados es que ocurra o no. Si ocurre, ¿quiere decir que es cierto?
El otro problema se refiere a la observación, una de las características de la ciencia
moderna radica en que la fuente de verdad la brinda la observación de los hechos, pero ¿es
una fuente confiable? La observación permite chequear la corrección de una hipótesis, pero
cuando la observación es mediante un instrumento se sustenta en una teoría que
fundamenta su funcionamiento y podría no ser correcta.
CAPITULO 4: ‘Lógica’
La lógica se ocupa de analizar cómo son las inferencias que hacemos a diario. En la ciencia
se utiliza especialmente el razonamiento deductivo.
Tipos de inferencias
La lógica se ocupa de los enunciados, su estructura interna y la forma en que se
combinan para generar nuevas preposiciones más complejas y de las reglas por las
cuales se puede inferir cierta proposición llamada ‘conclusión’ a partir de otras
llamadas premisas, y condiciones que debe cumplir un razonamiento para ser válido.
Los tipos de inferencia son deductiva, inductiva y abductiva. Hay un acuerdo entre
científicos sobre la lógica deductiva.
- Deducción: se caracteriza por conservar la verdad, una conclusión se infiere válidamente
de las premisas cuando la verdad de éstas conduce inevitablemente a la verdad de la
conclusión, es decir no hay manera que la conclusión sea falsa al menos que una de las
premisas sea falsa.
Lo único que interesa para determinar si un razonamiento deductivo es válido o no, es la
forma lógica de las premisas y conclusión.
Ejemplos:
Todos los entrerrianos son argentinos Todos los economistas son funcionarios
Todos los argentinos son latinoamericanos Todos los funcionarios son asesinos peligrosos
___________________________________ ______________________________________
Todos los entrerrianos son latinoamericanos Todos los economistas son asesinos
peligrosos
Estaríamos inclinados a negar la verdad de la conclusión del segundo razonamiento, como
también de las premisas.
• Ambos tienen la misma forma lógica:
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Todos los M son A
Todos los A son B
_______________
Todos los M son B
Es una forma de razonamiento valida, para que sea falsa la conclusión es forzosa que al
menos una premisa sea falsa. La deducción está limitada en el sentido que la conclusión no
asevera la verdad de nada que no estuviera escondido de alguna manera en las premisas:
no es por vía de la deducción que encontraremos nuevas verdades.
- Inducción: involucra un proceso de generalización, partiendo de varias premisas de casos
particulares de un mismo tipo, concluye la misma afirmación, pero referida a todos los casos
de ese tipo.
Ejemplo:
El enanito 1 tiene poderes mágicos
El enanito 2 tiene poderes mágicos
El enanito 3 tiene poderes mágicos
_____________________________
Todos los enanitos tienen poderes mágicos
Las limitaciones son que no puede estipularse cuántas premisas se necesitan para justificar
la conclusión, la verdad de la conclusión no está asegurada por la verdad de las premisas.
- Abducción: ejemplo:
Cuando pasa el afilador suena el timbre entre las 10 y las 11
Pasa el afilador
Suena el timbre entre las 10 y las 11
Lo que ocurrió es que yo sabía que el timbre había sonado y se toma como punto de
partida, junto con la
afirmación general ‘Cuando para el afilador suena el timbre entre las 10 y las 11’ para
afirmar que se trata del afilador.
Se esquematiza así:
Cuando para el afilador suena el timbre entre las 10 y las 11
Suena el timbre entre las 10 y las 11
--------------------------------------------------------------------------------
Pasa el afilador
Este razonamiento parte de una afirmación general y una afirmación de un hecho y conduce
a conjeturar la ocurrencia de un hecho previamente desconocido. Es preciso que la
conjetura cumpla la condición de que de ella y de la afirmación general se deduzca el
resultado.
Razonamientos deductivos y reglas de inferencia
Se utiliza a menudo el razonamiento deductivo, que partiendo de determinadas premisas
nos permite llegar a una conclusión cuya verdad está garantizada mientras que las
premisas hayan sido verdaderas. La lógica estudia entre otras cosas las condiciones para
que un razonamiento deductivo sea válido, estas están dadas por determinadas reglas de
inferencia. La lógica también se ocupa de decirnos que formas de razonamientos garantizan
que las conclusiones de deducen de las premisas.
Algunos conceptos de lógica preposicional
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Una oración declarativa (que
afirma un estado de cosas)
enuncia una proposición,
también llamado
enunciado. Para saber si una
oración dada expresa una
proposición será que a toda
proposición le
corresponde un valor de verdad, debe ser necesariamente verdadera o falsa.
Usamos letras minúsculas para representar proposiciones. Los conectivos lógicos son:
La conjunción: ‘∧’ = ‘y’
La disyunción: ‘v’ = ‘o’
La negación: ‘¬’ ó ‘~’ = ‘no’
Los conectivos lógicos se interpretan por medio de tablas
de verdad que indican el valor de verdad de las
proposiciones compuestas en términos de los valores de verdad de las proposiciones
componentes:
• El condicional material y la inferencia
El llamado condicional material (-) significa entonces. Ejemplo: llueve - el patio se moja.
Solo afirma que no ocurre que llueve y el patio no se moja. Deja abiertas las tres
posibilidades restantes:
1. Que llueva y el patio se moje
2. Que no llueva y el patio se moje
3. Que no llueva y el patio no se moje
La tabla de verdad es:
Solo muy pocas de las oraciones del lenguaje corriente que tienen la estructura ‘si...
entonces...’ pueden asimilarse al condicional material sin deformar su sentido. Al tratar de
simbolizar por medio del condicional material debemos ser cuidadosos de que este
represente adecuadamente el sentido de la oración.
• Razonamientos válidos
La lógica estudia condiciones formales de validez de un razonamiento. Lo que si deben
garantizar las reglas de inferencia es que siempre que las premisas sean verdaderas, lo
sean también las conclusiones.
Un razonamiento no es válido si las premisas sean verdaderas y la conclusión falsa.
En lógica se suele reemplazar cada uno de los enunciados por una letra que lo simboliza.
Un razonamiento que tiene premisas p1, p2, etc., y una conclusión q, es válido si es
imposible que p1, p2, etc., sean verdaderas y al mismo tiempo sea q falsa.
- Modus ponens: premisa 1 p-q
Premisa 2 p
Conclusión q
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Es un razonamiento correcto, ya que no es posible que ambas premisas sean verdaderas y
la conclusión
falsa teniendo en cuenta la tabla de verdad
- Modus tolens: sea ahora sabiendo que el patio se moja, me entero de que está seco,
entonces no está lloviendo. Mi razonamiento fue:
Premisa 1 p-q
Premisa 2 ~q
Conclusión ~p
Este también es un razonamiento correcto. En ciencia se utiliza cuando no se cumple
alguna de las consecuencias lógicas de la hipótesis o conjetura que se desea poner a
prueba.
- Falacia de afirmación del consecuente: sé que si llueve el patio se moja. Veo el patio
mojado y digo está
lloviendo. Este razonamiento, que no es válido se esquematiza:
Premisa 1 p-q
Premisa 2 q
Conclusión p
Esta no es una inferencia valida, de acuerdo a las tablas de verdad. Es frecuente que
necesitemos evaluar
una conjetura por sus consecuencias: acabamos de ver que en ese caso la verdad de
nuestra conclusión
no está garantizada. La lógica no nos avala; debemos buscar apoyo de otro tipo.
CAPITULO 5: ‘Problemas metodológicos’
Introducción a la metodología de las ciencias naturales
Una buena descripción del mundo sirve para explicar los acontecimientos que ocurren,
ordenar datos de la naturaleza, anticipar la reacción de sistemas naturales, modificar el
ambiente de manera de conseguir los objetivos que se propongan. Es decir, las
descripciones de la naturaleza parecen cumplir con las necesidades de explicación,
predicción y manipulación que el homo sapiens viene poniendo en evidencia.
Cuando estas descripciones se apartan de las creencias mitológicas y mágicas, se
convierten en teorías científicas. Estas describen alguna parte de la naturaleza que ha
interesado a la humanidad. Funcionan como herramienta que nos permite predecir la
ocurrencia de acontecimientos del tipo de los que se ocupa la teoría y manipular las
condiciones para evitar, provocar o modificar esos acontecimientos. El método
científico sería una colección de reglas que indicarían de qué modo se debe actuar para
obtener datos, formular hipótesis y comprobar si son correctas. Sin embargo, los
metodólogos no han podido dar más que lineamientos pero que en sí mismos tienen tantas
dificultades que no parecen constituir un método certero para la obtención de teorías.
Los datos disponibles fijan un límite a las conjeturas teóricas que los explican, pero ese
límite todavía deja una gran libertad para las propuestas explicativas. Para una misma
colección de datos habrá múltiples explicaciones satisfactorias y será necesario
poner a prueba esos modelos explicativos. Así en el mejor de los casos tendremos una
descripción que ha sido exitosa en las predicciones y satisfactoria en la manera que ha
logrado articular los datos. Cuando nos referimos a los datos disponibles hemos hecho una
selección del sistema a estudiar, que será nuestro ámbito de interés y ésta ya es una
limitación impuesta
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
por nosotros. En las explicaciones que nos parecen satisfactorias suelen mencionarse
conceptos y términos que escapan a nuestra percepción directa.
Las descripciones suelen referirse a cosas que no se detectan de manera directa y sin
embargo juegan un rol importante en la explicación. La caracterización de las entidades
teóricas ha sido conflictiva, se esperaba obtener un método científico tan eficaz que las
teorías se seguirían nutriendo siempre de datos consistentes. El progreso de la ciencia
debería haber sido, un avance cada vez más profundo y a la vez más extendido de las
teorías sobre la naturaleza. Cuanto más conociéramos de la naturaleza, más
información tendríamos, pero también más convencidos quedaríamos de las teorías que
nos habían llevado a ese conocimiento. La obtención del conocimiento no parece seguir
una receta predeterminada y siempre requiere de la inventiva del investigador para sortear
dudas. El progreso de la ciencia comienza a tener un carácter multidimensional en donde
juegan importantes papeles la capacidad explicativa, simplicidad, articulación de las teorías
la capacidad predictiva y de transformación de la naturaleza y el impulso hacia lo
desarrollos tecnológicos que esa teoría promueve. Algunas recomendaciones básicas y
sugerencias
moderadas de cómo comenzar a estudiar los fenómenos naturales han sobrevivido.
El contexto de descubrimiento y el contexto de justificación
Toda práctica científica involucra distintos tipos de actividades de las cuales pueden
distinguirse dos ámbitos: el de la creación y puesta a prueba de una teoría y el de la
aplicación de las teorías. En el primero, encontramos la actividad que los científicos
desarrollan cuando necesitan dar cuenta de algunos fenómenos y generan alguna
propuesta explicativa al tiempo que se proponen hipótesis, estas se van poniendo a prueba.
En el segundo, da cuenta de cómo se usan las teorías para resolver problemas que al
ser resueltos, completan la descripción del mundo que esa teoría pretende dar. No se
pretende poner a prueba la teoría, sino que se cuenta con ella para obtener ciertos
resultados. Dentro del ámbito de la creación podemos distinguir dos aspectos: la propuesta
de la teoría y la puesta a prueba de la teoría, llamados contexto de descubrimiento y
contexto de justificación. La propuesta de una teoría se puede hacer sobre la base de datos
existentes.
O sea que la teoría es previa a alguna colección de datos, será necesario cotejar la teoría
con los datos que se recaben posteriormente para corregirla o confirmarla. Es así que los
contextos de descubrimiento y justificación están enlazados en un juego de alimentación
mutua. Los nuevos datos sirven de base para generar nuevas hipótesis que seguidamente
se ponen a prueba dando resultados que a su vez pueden generar la necesidad de nuevas
hipótesis. Igualmente se puede hacer una distinción de objetivos, en el contexto de
descubrimiento el científico propone hipótesis para explicar algún tipo de fenómeno. En el
de justificación se preocupa de ver si esa explicación es adecuada ya que se ajusta a los
datos.
Entonces, el contexto de descubrimiento corresponde a la etapa en que los científicos
proponen hipótesis que puedan servir para explicar un conjunto de observaciones, y el de
justificación corresponde con la tarea de poner a prueba las hipótesis explicativas
propuestas en la etapa anterior.
Método inductivo
El conjunto de observaciones puede ser descrito por un conjunto de afirmaciones que
relatan las características observadas en cada caso. Una observación es la referente al
tamaño de las venas y de las arterias de determinado paciente, por ejemplo. Si se agrupan
varias observaciones del mismo tipo, como es el caso de que la sección de las arterias en
todos los casos observados disminuye según su distancia al corazón, se podría generalizar
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
obteniendo una ley: ‘todos los individuos poseen arterias cuyas secciones disminuyen con la
distancia al corazón’. Este tipo de proposiciones son afirmaciones empíricas generales,
que indican cosas observables y tienen un alcance general ya que se refiere a todos los
casos posibles.
Algunos de los casos aludidos serán aquellos que fueron registrados y que de alguna
manera motivaron la formulación de la hipótesis. Toros no han sido observados, y lo que
afirma la hipótesis sobre ellos constituye una predicción. Al formular una hipótesis de tipo
general se está afirmando que en todos los casos que se observan y observaran, presentan
las características de la hipótesis. Podríamos decir que, al formular una hipótesis de tipo
general, se pasa del nivel 1 (afirmaciones empíricas singulares) al nivel 2 (leyes empíricas.
Entonces parece ser que una manera de obtener las leyes empíricas es generalizar a partir
de un grupo de observaciones singulares que muestran cierta regularidad. Este proceso se
ha denominado ‘método inductivo’ y una corriente ha sostenido que éste es el método por
el cual los científicos descubren leyes empíricas. Observando un fenómeno en varias
ocasiones diferentes, completando este proceso por medio de una inferencia inductiva, se
sugiere que esta regularidad se cumple no sólo para los casos observados sino para todos
los posibles. El proceso de inducción es el de generalizar la regularidad encontrada en un
conjunto de observaciones que fueron realizadas dentro de una gran diversidad de
condiciones. Según la descripción inductivista, la formulación de las leyes empíricas
consiste encontrar una regularidad dentro del conjunto de las observaciones registradas y
formular una generalización. Este paso de las observaciones a las leyes empíricas se la
llama inducción.
Luego, se podrá deducir tanto el conjunto de enunciados de observación de que se disponía
previamente como nuevos enunciados de observación aún no registrados.
Método hipotético-deductivo
Cuando Harvey propuso la existencia de vasos capilares no estaba generalizando las
observaciones previas. No podía hacerlo debido a que los vasos capilares no se veían, de
modo que una ley ‘todos los individuos poseen vasos capilares que conectan las
arterias con las venas’ no podría llamarse ‘afirmación empírica general’ ni ‘ley
empírica’. Harvey tuvo que realizar un salto creativo. Tuvo que conjeturar la existencia de
una entidad que no era observable, tuvo que postular una entidad teórica para su
explicación de la circulación sanguínea. Existe otro nivel de afirmaciones además de los que
hemos visto, el nivel 3,
cuyas afirmaciones se refieren a alguna entidad teórica. Son las que expresaran las leyes
teóricas. Si todas las entidades aludidas por la ley son teóricas, diremos que es una ley
teórica pura, y si la ley contiene términos teóricos y también observacionales, diremos que
es una ley teórica mixta. Si la inducción es el proceso de generalizar las observaciones para
obtener una ley, esta ley no podrá referirse a ninguna entidad que no estuviera ya contenida
en las observaciones. El método inductivo no puede dar cuenta de la formulación de leyes
que aluden a entidades teóricas.
Una corriente de la filosofía de las ciencias sostiene que la obtención de leyes, sean
teóricas o empíricas, involucran un salto creativo y que la formulación de una ley no es la
generalización de las observaciones, ya que no se necesita un gran número de
observaciones para proponer una hipótesis. Si el científico generaliza a partir de
observaciones, involucra el salto creativo que significa suponer que para infinitos
casos ocurrirá lo observado en algunos. Existe una corriente que no acepta el método
inductivo como explicación del modo en que los científicos llegan a formular sus leyes,
llamado ‘Descripción hipotéticodeductivista de la ciencia’, que se distingue de
‘descripción inductivista de la ciencia’. La diferencia entre estas posturas se introdujo a partir
de un ejemplo de ley teórica, es preciso también recordar que ambas corrientes también
disienten en la forma de describir la obtención de las leyes empíricas. Según la descripción
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
hipotético-deductiva, la formulación de toda ley o conjunto conlleva un salto creativo por
parte
del que la formula. Una vez formuladas se extraerán de ellas por deducción algunas
conclusiones o consecuencias que permitan la confrontación de esas leyes con la
experiencia.
El método de contrastación de hipótesis
Ya sea que las leyes se obtengan por inducción o por salto creativo, ambas corrientes
acordaran en que se deben poner a prueba para determinas si estas hipótesis son
verdaderas o falsas (se confirman o no por los hechos). Supongamos que queremos poner
a prueba la ley: ‘Todos los individuos poseen arterias cuyas secciones disminuyen
con la distancia al corazón’. Si esta ley se nos ocurrió a partir de la observación de los
pacientes 1,2, y 3, una puesta a prueba de la ley fijándonos si se cumple para estos mismos
es una condición primordial para que la hipótesis se sostenga. La hipótesis debe explicar las
observaciones ya realizadas. El paso siguiente es la puesta a prueba de la hipótesis
confrontándola con algún caso que todavía no ha sido observado. Esta puesta a prueba
consiste en averiguar si las predicciones que se extraen de la hipótesis se cumplen o no. Si
la ley es verdadera y se refiere a todos los casos, entonces también valdrá para el caso del
paciente 4, que cumple con las condiciones típicas de los medas. Hemos deducido un
enunciado de observación (nivel 1) a partir de una ley empírica (nivel 2): a este
enunciado de observación que hemos deducido de la ley lo llamaremos
‘consecuencia observacional’
(C.O.), ahora se plantean dos posibles resultados: o el paciente 4 presenta las arterias
según lo dice el enunciado o presenta otras características que hacen que el enunciado sea
falso. En este caso diremos que la consecuencia observacional no se cumple o que es
falsa. Para ser más exactos, diremos que, si una de sus consecuencias observacionales es
falsa, entonces la ley ha sido refutada. La refutación de una ley consiste en que una de sus
consecuencias observacionales no se cumpla. Lo que es seguro es que a partir de
confirmar la consecuencia observacional no hemos refutado la hipótesis, así que las
evidencias con que contamos hasta el momento son compatibles con que la ley sea
verdadera. Como la ley pretende ser aplicable a infinitos casos, no podemos saber si en
alguna oportunidad será refutada. Podremos confirmar muchas de sus consecuencias
observacionales y todavía quedara la posibilidad de que se refute. Por este motivo es que
no podremos verificar una ley (afirmación general) sino que solo podremos
aspirar a obtener una corroboración de la misma. Una hipótesis ha sido corroborada cada
vez que una de sus consecuencias observacionales se verifique.
Aceptación y rechazo de hipótesis en una disciplina fáctica
El análisis del fundamento lógico en que puede basarse la decisión de rechazar o aceptar
una hipótesis científica. Es común en las ciencias que se formulen hipótesis que no pueden
ponerse a prueba. En ese caso lo que se hace es poner a prueba experimental alguna
consecuencia particular verificable de la hipótesis (consecuencia observacional). Nos
referimos a un tipo de relación particular que existe entre ambos enunciados: si es cierta la
hipótesis entonces es cierta la consecuencia observacional: H- CO.
Si la consecuencia observacional no se cumple rechazaríamos la hipótesis, en caso
contrario la aceptaríamos.
• Dificultades en la aceptación de hipótesis: ¿verificación o corroboración?
Tomemos como ejemplo la hipótesis ‘la nieve es agua congelada’. Si la nieve era agua
congelada, deberá fundirse. Considero la consecuencia observacional de mi hipótesis ‘si
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
tomo esta porción de nieve y la caliento a más de 0ºC se volverá liquida’. El resultado es
positivo, ¿es una verificación de mi hipótesis?
Llamemos p a la hipótesis y q a la consecuencia observacional. Lo que podemos afirmar
entonces es la verdad de q y la verdad de p-q. Si de todo ello queremos deducir p, seria:
1. P-Q
2. Q
Conc.: P
Puede ocurrir que p no sea el único enunciado del que puede deducirse q. Incluso que sean
contradictorias entre sí. Podría haber quizás sustancias distintas del agua que también
funden a 0ºC. Una hipótesis dada puede llevar a varias y variadas consecuencias
observacionales distintas. En el ejemplo, si la nieve es agua congelada, no solo deberá
fundir a 0ºC sino además deberá tener cierta respuesta a los rayos X, cierta densidad, etc.
Solo diremos que cada consecuencia observacional verificada es un caso de corroboración
de la hipótesis.
Y que los científicos tenderán a confiar más en aquellas hipótesis que hayan sido
corroboradas a través de mayor cantidad.
• Dificultades en el rechazo de hipótesis: ¿Cuál es el enunciado que se refuta?
Cuando no ocurre lo previsto, ej.: la nieve no se funde obtenemos ~q, la negación de la
consecuencia observacional.
Si era cierto que p-q y nos encontramos al hacer la contrastación con ~q, es
indudablemente correcto obtener la conclusión ~p; diríamos entonces que se ha falsado la
hipótesis. Para deducir q no usamos solamente p sino además otras hipótesis (hipótesis
auxiliares).
• Otra dificultad en el rechazo de hipótesis: las hipótesis ad hoc
Para una teoría la falla en las predicciones está mucho más lejos de indicar la falsedad de
sus hipótesis.
Frente a una refutación los científicos no abandonan la hipótesis, sino que dan argumentos
adicionales para explicar la aparente contradicción entre las predicciones de esa ley y las
observaciones registradas.
De esta manera proponer que hubo una perturbación externa es formular una hipótesis ad
hoc que hace mención de una falla en las hipótesis auxiliares que eran imprescindibles en la
obtención de las hipótesis derivadas.
Siempre que la hipótesis principal posea términos teóricos cabra la posibilidad de absorber
las futuras refutaciones mediante la formulación de hipótesis ad hoc que modifiquen
parcialmente la teoría o que hagan explicita la falla de una hipótesis auxiliar. En los casos
en que la hipótesis no contenga términos teóricos podrá formularse una hipótesis ad hoc
referida al error en la observación.
1. Una hipótesis ad hoc debe ser contrastable independientemente del caso que la motivo.
Debe ponerse a prueba más allá del caso para el que fue formulada.
2. Este recurso puede hacer que la teoría mejore respecto de las hipótesis primitivas y se
haga más compleja o bien puede enmascarar la falsedad de la teoría y retardar su
abandono.
3. El hecho de que una hipótesis ad hoc deba su origen a una discordancia entre la teoría y
datos, no debe inducirnos a pensar que este parche a la teoría no deba ser tomado como
hipótesis muy importante.
CAPITULO 6: ‘Las teorías científicas: su lenguaje y estructura’
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Entidades teóricas y entidades observables
Podríamos decir que existen cosas de las cuales son percibidas directamente por nuestros
sentidos y otras no. Estas últimas, cualidades y relaciones que no son accesibles a nuestra
percepción, pueden estar relacionadas con las entidades observables. Este modo indirecto
hace que no las podamos entender como entidades observables sino como teóricas. Como
ejemplo de entidades observables son los colores, síntomas, signos, etc. A partir de
cientos observables inferimos la existencia de otras entidades como: patologías,
presión arterial, circulación sanguínea, etc.
Las leyes empíricas contienen solamente términos observacionales y las leyes teóricas
contienen algún contenido teórico. Un primer problema que se presenta es el relacionado
con la utilización instrumental para la detección de ciertas entidades. Cuando
medimos la presión arterial de un paciente, no observamos, sino leemos un valor en la
escala del tensiómetro. Decimos de forma abreviada que observamos el valor de la tensión
arterial. Este caso es totalmente aceptable y todos coincidiremos en que podemos clasificar
a la presión arterial como una entidad observable. Tal teoría aceptada constituye en este
caso lo que llamamos carga teórica de la observación, por lo tanto, la presión arterial es
una entidad observable con carga teórica.
Las cosas se complican al intentar clasificar entidades como las patologías. En este caso no
estaremos tan seguros de aceptar que la epilepsia es observable. Seguramente
mantendremos a todas estas entidades en la zona de entidades teorías. Optamos por
clasificar como observable a alguna entidad que no es directamente percibida por los
sentidos pero que es detectable con la ayuda de algún instrumento de medición simple. La
distinción entre entidades observables y teóricas tiene un límite cago, impreciso y además,
puede variar de una disciplina a otra. La carga teórica no solamente está relacionada con el
uso de un instrumento, sino que a veces se debe implementar una prueba más o menos
compleja que permita decidir sobre una variable, y esta prueba puede hacer uso o no de un
instrumento en partículas. Existe otro tipo de carga teórica, la del bagaje cultural y
profesional que filtra las observaciones de forma que creemos obtener información directa.
• Carga teórica e hipótesis subyacentes
La delimitación entre entidades observables y teóricas depende de la aceptación de la
teoría que describe el funcionamiento del instrumento en cuestión, y que esto está
íntimamente relacionado con el tipo de actividad a la que se dedique cada científico. Existen
ciertas hipótesis previas que guían la observación, llamadas ‘hipótesis subyacentes’
también constituyen una carga teórica para esas observaciones. El proceso de observación
consiste en percibir e interpretar a partir de la recepción de estímulos. Ejemplo: si
el estímulo del ruido nos llega en un momento en el que estamos resguardándonos de la
lluvia, interpretaremos este ruido como truenos, en otra ocasión, si pasamos cerca de un
edificio que está siendo demolido, percibiremos el ruido como proveniente de la caída de los
escombros. Cuando nosotros miramos por una ventana y vemos pasar una gaviota
planeando, difícilmente nos preguntemos sobre qué otra cosa podría haber sido sino una
gaviota. Cuando observamos, nuestras hipótesis subyacentes guían la interpretación.
Debemos hacer un esfuerzo para descubrir estas hipótesis subyacentes, y si queremos
encontrar una interpretación alternativa del estímulo. Por ejemplo, una interpretación
alternativa seria que lo que pareció una gaviota era un pájaro artificial de un aficionado al
aeromodelismo. Cuando decidimos comenzar un relevamiento (colección de datos) de
cualquier índole, seguramente aplicaremos una serie de criterios por los cuales damos
importancia a algunos datos y a otros no.
No podemos observar sin que haya una parte teoría presupuesta, no hay hipótesis sin
observaciones, pero tampoco hay observaciones puras sin hipótesis. Los inductivistas
sostienen que la acumulación de datos de observación nos permite generalizar. Esto es
pasar de las observaciones puras a las leyes empíricas o generales universales. Cada
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
observación contiene una carga teórica ineludible. Entonces no podríamos asegurar que en
el proceso de generalización no se han involucrado condimentos teóricos. Esto ha sido
una de las críticas más agudas al inductivismo.
Estructura de una teoría científica
De acuerdo a su alcance un enunciado puede ser singular o general (si aplica a un caso
particular o a todos los posibles). Las afirmaciones empíricas singulares (nivel 1) son
aquellos enunciados que referidos a una situación particular describen lo observado.
Las leyes empíricas (nivel 2) son afirmaciones acerca de fenómenos observables
pero que por referirse a todos los casos posibles de ese tipo de fenómeno tienen un
alcance universal. Las hipótesis o leyes teóricas (nivel 3) son enunciados generales,
pero contienen al menos un término que denota una entidad teórica. Si la ley contiene
exclusivamente términos teóricos se trata de una ley teoría pura, mientras que si hay
además algún término observacional se tratara de una ley teórica mixta. Una función de las
leyes teóricas mixta es la de relacionar las entidades teóricas postuladas con las entidades
observables de la teoría. Se establece un puente entre las entidades que postulamos sin
haberlas observado y nuestra base empírica. Se llama ‘principio puente’ a estas hipótesis.
Las leyes
teóricas puras relacionan solamente las entidades teóricas que han sido postuladas por la
teoría, el significado de estas entidades queda establecido por la teoría que las propone. Se
llama ‘principios internos’ a estas leyes. Para que una teoría sea sometida a una
contrastación o se la use para explicar ciertos fenómenos, son necesarias otras hipótesis no
pertenecientes a la teoría en cuestión, hipótesis provenientes de teorías previamente
enunciadas que prestan una función auxiliar, estas son ‘hipótesis auxiliares’. Los principios
internos no guardan ninguna relación directa con lo observable. Los principios puente
cumplen la función de conectar las entidades teóricas con las entidades observables. De los
principios internos y puente junto con las hipótesis auxiliares es posible deducir leyes
empíricas, y de éstas obtener las consecuencias observacionales. En la medida que las
entidades teóricas de una teoría no están completamente definidas, sino que su significado
se va ajustando, es posible la inserción de las hipótesis ad hoc y la estrategia de sostener la
teoría disolviendo las refutaciones que se presenten. Cuanto más vaga es la formulación de
una hipótesis, menos fuerza explicativa contiene. En la medida en que las hipótesis son
menos refutables, sus predicciones son menos precisas.
CAPITULO 7: ‘Explicación científica’
Explicación y comprensión
Cuando se aborda el tema de la explicación, aparece el de la comprensión, sin embargo,
ambos conceptos tienen algunas diferencias importantes. La más importante, es que la
comprensión es una noción ligada al individuo y por lo tanto minada de subjetividad
mientras que la explicación pretende algún grado de independencia y objetividad. Puede
ocurrir que una explicación de cierto fenómeno resulte satisfactoria para un individuo y
colabore en la comprensión para él, mientras que no lo sea para otro. Suele ocurrir que
la explicación oficial a algunos les resulta satisfactoria mientras que otros no, les brinda
comprensión a algunos, pero no a otros. El término ‘comprensión científica’ resulta
habitualmente sumamente vago. Salmon, distingue distintos sentidos para el término
comprensión:
a- comprensión de significados, incluye la comprensión de símbolos, obras artísticas o
lenguaje de civilizaciones.
b- comprensión como empatía, compartir sentimientos o emociones.
c- comprensión de propósitos, sean naturales o sobrenaturales.
d- comprensión de fenómenos naturales.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Esta última, incluye lo que llamamos ‘comprensión científica’. Nos interesan entonces
aquellas explicaciones que permitan acceder a la comprensión científica. Podemos estar
refiriéndonos, con el término explicación, a dos cosas distintas: por un lado, el proceso por
el cual una persona comunica algo a otra con la intención de que comprenda un
determinado fenómeno, o, por otra parte, podemos referirnos al contenido de lo que dice
quien brinda la explicación. Podemos referirnos a cuál es la explicación o a como
se da la explicación. En muchos casos se apela a recursos gráficos para ayudar.
Existe un elemento que no depende de las características particulares de un proceso de
explicación. Lo que se llama contenido de la explicación, que resulta independiente de
quien lo expresa y del contexto en el cual se brinda la explicación.
Tipos de explicación
• La explicación como argumento
¿Por qué con la última lluvia que cayó se inundó Bs. As? La explicación usual de esto es
que la ciudad tiene desagües preparados para evacuar un caudal X de agua y que ese día
el caudal fue Y, mayor que X.
La explicación se completa con: si en un conducto de líquido la cantidad que entra es mayor
que la que sale, el conducto rebalsa. En primer lugar, lo que se desea es explicar un hecho
particular, para hacerlo se cita una situación particular que se da en esta ciudad y ese día,
finalmente se hace necesario enunciar leyes que permitan vincular los desagües con la
inundación. Los enunciados están relacionados mediante
un razonamiento tipo deductivo. Este modelo se conoce como ‘nomológico-deductivo’,
considerado el modelo clásico, quien lo creo Hempel. En este modelo una explicación es un
razonamiento deductivo en el cual la conclusión es el enunciado del hecho que se desea
explicar y entre las premisas encontramos el enunciado de al menos una ley universal y los
enunciados que fijan las características particulares de la situación que llamaremos
condiciones iníciales.
Se podría esquematizar así:
Premisa 1 Enunciado de la ley 1
Premisa 2 Enunciado de la ley 2
…………. ……………………….
Premisa n Enunciado de la ley n
Premisa n+1 Condición inicial 1
Premisa n+2 Condición inicial 2
…………. ………………………..
Premisa m Condición inicial (m-n)
Conclusión - Enunciado del hecho a explicar
Las condiciones de este modelo serian citar leyes y condiciones iníciales de las cuales se
deduce el hecho a explicar. Uno de tales requisitos adicionales es la necesidad de que la
información citada en las premisas sea relevante para lo afirmado en la conclusión.
La diferencia entre explicar y predecir es que, explicamos hechos que ya han ocurrido y
hemos observado y predecimos otros que aún no hemos observado. Se pueden proponer
muchas teorías que expliquen un mismo conjunto dado de observaciones, una manera de
identificar cual es la que mejor se ajusta al conjunto de hechos del mundo es haciendo
nuevas predicciones de manera de ver si lo que uno registra sobre el objeto de estudio que
está tratando responde o no a lo que la teoría dice.
• La explicación causal
En general todas las explicaciones de tipo causal tienen esta forma: la ocurrencia de A se
explica a partir de la ocurrencia de B pues B es causa de A. basta encontrar la causa
de aquello que se quiere explicar. La situación no es tan simple cuando se presta
atención a la relación establecida: causa-efecto. Esta relación tiene como característica
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
principal la asimetría: la caída de un rayo es causa de un incendio, pero el incendio no es
causa de la caída del rayo. Esta propiedad es compartida por la explicación: si explicamos
un suceso A citando otro suceso B como explicativo, no será aceptable explicar B citando A.
• La explicación teleológica
En algunas oportunidades los hechos son explicados a partir de propósitos.
Este tipo de explicaciones no son habituales en ciencias naturales. Muchos animales
reaccionan de manera peculiar ante la presencia de algo extraño que ven como agresor.
Una explicación de tal conducta es que los animales realizan tales actos para que el agresor
los persiga a ellos y así se alejen de sus crías.
• La explicación estadística
Es común que se utilicen leyes de tipo estadístico para brindar explicaciones. Los médicos
explican que Juan haya contraído cáncer de pulmón debido a que es un fumador
empedernido. Se sustenta sobre una ley estadística que dice ‘Los fumadores empedernidos
tienen una posibilidad X de contraer cáncer de pulmón’. En este caso no puede armarse un
razonamiento deductivo con la ley anterior y la condición inicial de que Juan es un fumador
empedernido ya que la conclusión, Juan enferma, no se obtiene válidamente. Para este tipo
de explicaciones se han propuesto otros modelos:
• El modelo de explicación inductivo-estadística:
Creado por Hempel, afirma que lo que puede obtenerse, no deductivamente, a partir de la
ley y la condición de que Juan es un fumador, es que Juan tiene una
probabilidad X de contraer cáncer de pulmon.
En forma general:
Al menos una ley estadística relevante
Datos iníciales (con una probabilidad X,
_______________________________ la citada en las leyes)
Hecho a explicar
En la discusión sobre este método indagamos sobre el significado de las leyes estadísticas
y de las ‘predicciones’ probabilísticas. Una característica del modelo es que la probabilidad
X mencionada debe ser alta para que el argumento resulte explicativo.
• El modelo de relevancia estadística:
Salmon propuso este modelo que da cuenta del ejemplo anterior, de
la cura de Pedro pues solo afirma que la explicación estadística permite identificar los
elementos que resultan causalmente relevantes para el hecho que se desea explicar. Este
modelo afirma que un facto F es estadísticamente relevante para la ocurrencia de un
suceso A si la probabilidad de que ocurra A dado que ocurrió F es distinta de la probabilidad
de que ocurra A simplemente.
Se puede simbolizar:
P(A/F) ≠ P(A) [1]
Donde P(A/F) se lee ‘probabilidad de que ocurra A dado que ocurrió F’.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
Este modelo no impone condición de mayor o menor probabilidad, tan solo propone que si
se verifica [1] entonces F es estadísticamente relevante para A.
Conclusión
El modelo nomológico-deductivo requiere que se citen leyes universales. Pero, ¿existen
leyes naturales en el mundo o sólo son una construcción humana para dar cuenta de él?
Esta pregunta abre por un lado una discusión muy amplia que es la que se plantea entre
realistas y no realistas científicos y por otro la discusión acerca de la naturaleza de los
universales.
Un modelo causal requiere la elucidación (aclaración de lo que es) de la relación causal. La
misma pregunta formulada sobre las leyes universales se puede hacer para esta relación.
También se discute hoy si se puede haber causas posteriores al efecto.
Las explicaciones estadísticas apelan a leyes estadísticas y probabilidades de sucesos.
Esto requiere elucidar la naturaleza de las leyes estadísticas y también el significado de la
probabilidad.
CAPITULO 8: ‘El problema de las leyes estadísticas’
El método estadístico
Una dificultad en la obtención de teorías es que no todas las veces obtenemos leyes
generales, sino que encontramos que los datos recogidos nos indican un porcentaje de
casos que cumplen con cierta característica. Existe alguna relación estadística. Ejemplo:
sabemos que no todos los niños que tengan contacto con un niño con sarampión se
contagiarán. Pero es cierto que el porcentaje sí lo hará. Los datos nos permiten proponer la
ley estadística que relaciona el estar en contacto con el contagiarse. El 75% de los niños
que entran en contacto con un niño enfermo de sarampión, se contagian. Esta ley cumple
con cierta característica y da la información complementaria del porcentaje de casos que no
cumplen con esa característica. Esto ha llevado a una confusión para refutar la ley. Se
argumenta que las leyes estadísticas no pueden refutarse ya que si un caso no cumple con
lo que indica el enunciado entonces cae dentro del conjunto complementario que está
contemplado por la ley. Sin embargo, la ley ha sido establecida a partir del estudio de
conjunto de casos individuales, o sea son conjuntos de casos individuales. Y luego,
contrastar la ley. Para poner a prueba esta ley, no basta con el análisis de un caso en el que
un niño visita a su amigo que tiene sarampión. Para poder ponerla a prueba sería necesario
que un lote de niños visite a su amigo enfermo y luego podremos determinar si en ese lote
el 75% de los visitantes se ha contagiado.
Si es así, hecho corroborado la ley. Si en cambio en porcentaje es distinto, entonces
tendremos motivos para rechazar la ley. No encontramos una refutación a la ley estadística,
aunque podemos tomar una decisión sobre la aceptación o rechazo de la ley. El problema
se agrava a partir de intentar obtener inferencias a partir de estas leyes. A partir de esta ley
y el dato de que Juan ha visitado a su amigo, deseamos obtener alguna predicción sobre el
contagio de Juan. Hempel sostiene que se puede obtener una inferencia que dice: la
afirmación ‘Juan se contagia’ se puede inferir con el 75% de probabilidad.
Esquemáticamente:
Ley: El 75% de los niños que entran en contacto con un niño enfermo de sarampión,
se contagia.
Dato: Juan visitó a su amigo enfermo de sarampión.
___________________________________________ (con el 75% de probabilidad)
Juan se contagia.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
La línea que divide las premisas de la conclusión es doble para indicar que es una
inferencia estadística.
No queda muy claro que significa el 75% de probabilidad. Sea como sea que se resuelva
la predicción estadística para un solo caso, las leyes estadísticas nos permiten
predecir la composición de los lotes de casos. Otro ejemplo: tiramos una moneda cien
veces para ver si está cargada, si no está cargada es simétrica, por lo tanto, esperamos que
salgan tantas caras como cruces. También aceptamos que el resultado pueda diferir del
50% de caras y 50% de cruces. Podrían haber salido 60 y 40. Con este último resultado no
sabríamos si la moneda está cargada o fue solo el azar. Mucho peor aún si es que
obtenemos 100 veces cara. Todos los resultados son posibles, aunque algunos con mayor
posibilidad que otros. Esto muestra que no disponemos de un resultado que lógicamente
nos indique la falsedad de la ley. En general aceptamos que los casos de
probabilidades pequeñas son indicativos de que la moneda está cargada.
Será un criterio práctico el que nos permitirá tomar decisiones. Esta necesidad de tomarla
por ausencia de un respaldo deductivo permanece siendo un problema para la
contrastación de las teorías con leyes estadísticas. En cuanto a la aplicación de las leyes
estadísticas para un solo caso, hay una manera distinta de entender la ley. Para el caso del
contagio de Juan tenemos una expectativa de que Juan de contagie del 75%. Esa
expectativa es racional. Lo mismo ocurre cuando elegimos salir con paraguas cuando
escuchamos que hay 90% de probabilidad de lluvia. Aun cuando las leyes estadísticas no
digan nada certero sobre un caso partículas, son útiles en la toma de decisiones racionales
referidas a esos casos.
Estas leyes son muy buenos indicadores del sistema global. También son muy importantes
en la toma de decisiones en las ciencias sociales.
La naturaleza de las leyes estadísticas
Cuando tiramos una moneda al aire y la moneda está en perfectas condiciones esperamos
que los resultados en una gran serie de pruebas muestren un porcentaje parecido al 50%
cara y 50% cruz. Si con los sucesivos intentos predominan un resultado sobre otro,
seguramente sospechara que es inhomogeneo.
Si cada vez que tira cien veces la moneda, la mas de las veces sale cara, debería
apostar cruz.
El ejemplo de la moneda es un caso típico en donde el azar en el resultado de un solo tiro
no puede eliminarse, aunque tengamos razones muy valederas para esperar que, en una
cantidad grande de pruebas, el resultado cara se obtenga en el 50% de las veces aprox.
Obtuvimos así una ley: el 50% de las veces que se arroja esta moneda al aire, sale
cara. Pero, si supiéramos a qué velocidad se lanzó, con que ritmo de rotación, como choca
contra el piso, cual es la elasticidad, etc. podríamos anticipar el resultado.
La naturaleza de los objetos mecánicos es determinista, o sea dada una situación
inicial el sistema evolucionara de acuerdo a leyes universales hacia un estado final
determinado. En este caso la ley de la moneda, resulto estadística por la imposibilidad de
tener en cuenta todos los detalles. En este caso es una ley que pretende disimular nuestra
ignorancia sobre las condiciones iníciales exactas.
Imaginemos un caso sencillo, la moneda está compuesta por átomos que pueden en
cualquier momento cambiar su estado de energía. Si en el momento que la moneda cae, el
átomo toma contacto con el piso y ocurre un cambio de energía, entonces el resultado del
choque puede ser muy diferente. Lo peor del caso es que las teorías atómicas y nucleares
que disponemos, contemplan la posibilidad de que un núcleo cambie su energía de forma
espontánea. Algunos físicos que se resisten a que la naturaleza sea indeterminista creen
que, aunque no podamos detectas las verdaderas condiciones que hacen que el núcleo se
comporte así, seguramente debe existir alguna causa para el cambio de energía. Otros
científicos aceptan la idea de que la naturaleza pueda ser indeterminista y que su
descripción debe ser estadística. La discusión sobre la naturaleza de las regularidades
estadísticas cobrara gran importancia en las ciencias sociales. Una corriente tendrá la
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
aspiración de poder registrar en el futuro todos los factores que influyen sobre una persona
y al combinar esta información con las leyes psicológicas se podrá calcular el curso de
acción que elegirá. Mientras que otra corriente puede opinar que las leyes psicológicas
son estadísticas y solo muestran la forma en que toma decisiones un individuo en un
determinado porcentaje de veces. Muchos investigadores creen en las leyes universales,
pero sostienen la imposibilidad de la predicción, suscriben una posición en donde las leyes
estadísticas suplen la información individual precisa.
Otros sostienen que los fenómenos psicológicos y sociales deben abordarse desde un
tratamiento estadístico debido a la naturaleza misma de esos fenómenos. Por último, está el
grupo de los que sostienen que ni siquiera se podrán encontrar leyes estadísticas, cada
situación es singular y única.
CAPITULO 9: ‘Medición de variables y diseño experimental’
Diseño experimental
Cuando se realiza una investigación en ciencias naturales nos dedicamos a recolectar datos
que permitan poner a prueba nuestras hipótesis de esos procesos. Al cabo, realizar
experiencias. Ahora, si queremos ver cuál es la reacción de un paciente a un
determinado medicamento, debemos administrárselo. Luego registramos si el paciente
mejora o no. ¿Esta mejoría se debe al medicamento o al hecho de darle una inyección? Es
posible que algunos pacientes mejoren por el solo hecho de saber que están realizando un
tratamiento. Esto se llama efecto placebo.
Imaginemos que queremos probar la eficacia de un curso de capacitación en computación.
Tomamos un examen diagnostico a los alumnos, luego damos el curso y tomamos otro al
final del curso. Si el curso es bueno, deberán tener mejores resultados. Imaginemos que
en la prueba final todos sacaron mejor puntaje, entonces concluimos que es curso es
recomendable. Pero si tenemos en cuenta que cada estudiante tiene una computadora en
su casa donde puede buscar información, como sabemos si la mejoría es por el curso
o por mérito propio. Necesitamos medir también cual es el aprendizaje habitual, en ausencia
del curso.
Necesitamos dos grupos de personas: los que tomen el curso y los que no. Luego de
evaluar, se nota que el aumento de conocimientos fue mayor en el grupo que asistió. Si
preguntamos a un grupo de estudiantes quienes quieren participar de un experimento para
evaluar nuevas estrategias didácticas, quizás recolectemos estudiantes que tienen interés
en las innovaciones, o disponen de tiempo.
Esta selección no sería adecuada ya que si el curso resulta exitoso no sabremos si se debe
a las virtudes del curso o a la de los estudiantes. En ciencias sociales existe un equivalente
al efecto placebo: ¿no podría pasar que los alumnos realizaban un esfuerzo por el solo
hecho de asistir a un curso?, deberíamos lograr que los que no recibieron el curso en
cuestión, realicen igualmente algún esfuerzo para ver si el resultado tiene que ver con el
compromiso o con los contenidos del curso. Por lo tanto, debemos elegir dos grupos y
decirles que tomaran parte en una investigación. No les diremos cuáles de los dos grupos
obtendrán la estrategia didáctica X y ambos estarán igual de entusiasmados. Los grupos
son: el experimental (estrategia X) y el de control (no se lo trata con las estrategias X). A
esto se lo llama ‘ciego’. Si al final del curso el grupo experimental obtiene mejores puntajes
que el grupo de control, indicaría que el curso es recomendable.
Queda una dificultad más: debemos tener cuidado que los docentes tampoco sepan si están
a cargo del grupo experimental o del de control. De este modo pondrán el mismo tipo de
atención y esmero. A esto se lo llama doble ciego.
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
CAPITULO 13: ‘Inductivismo y falsacionismo en el contexto de justificación’
Los inductivistas sostuvieron que las leyes se obtenían por inducción a partir de una
colección de datos mientras que los del método hipotético-deductivo hacían notar que toda
observación tiene carga teoría y que las leyes se obtienen por conjetura (salto creativo). En
lo que respecta a la prueba de leyes ambos coincidían en que se debía extraer las
consecuencias observacionales de las leyes y compararlas con los datos obtenidos en la
experimentación. Los inductivistas plantearon que la reiteración de las corroboraciones
aumenta el grado de confirmación de la teoría, también adherían los del método hipotético-
deductivo. Seguían siendo anti-inductivistas en el contexto de descubrimiento, pero
eran inductivistas en el contexto de justificación. Sin embargo, se enfrentó una nueva
corriente, el falsacionismo.
Inductivismo
Para esta corriente el conocimiento científico esta expresado en forma de leyes (o
hipótesis). Una teoría no es más que un conjunto de leyes. Para analizar la validez de estas
teorías es necesario recurrir a la observación y a la experimentación. Hay que contrastarla
con los hechos. De esta forma lo que se obtiene, si el resultado es positivo, es un conjunto
de confirmaciones de la teoría. El inductivista razonara diciendo: dado que haya ahora cada
una de las consecuencias observacionales fue verificada entonces puedo suponer con un
grado bastante alto de probabilidad que la teoría será confirmada siempre.
El razonamiento sería:
Confirmo la teoría por 1º vez.
Confirmo la teoría por 2º vez.
Confirmo la teoría por 3º vez.
Es cada vez más probable que siempre confirme la teoría.
Utilizan un razonamiento de tipo inductivo para decidir que una teoría aumenta su
probabilidad de ser verdadera. Plantean que la tarea del científico consiste en elaborar
teorías sobre la base de la observación y la experimentación, y buscar su confirmación. El
inductivismo coloca la raíz del conocimiento científico en la observación. La observación
pura es la que permite validar las leyes. Sostienen que la ciencia progresa
permanentemente con la intención de compatibilizar mejor la teoría con la observación.
Falsacionismo: la radicalización del método hipotético-deductivo
Cuando se efectúa una corroboración, se utiliza un pseudo razonamiento (F.A.C.)
P-Q
Q
____
P
Como no garantiza la verdad de la conclusión, no sirve para afirmar nada con certeza.
Cuando se refuta una hipótesis se utiliza un razonamiento valido, el Modus Tollens:
P-Q
~Q
____
~P
Que nos permite afirmar que nuestra hipótesis es falsa. Por lo tanto, una teoría no puede
ser verificada, pero si parecería que puede ser falsada, los falsacionistas proponen utilizar
esta asimetría como base de su explicación. Intentaran falsar las teorías en vez de buscar la
confirmación como sostendrían los inductivistas. Si una hipótesis no es falsada entonces se
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
la mantiene provisoriamente. Los falsacionistas dirán que a medida que una teoría
resiste más y más intentos de falsación, esta muestra su temple, y es más resistente.
La otra tarea que realiza el científico según ellos, si bien sostienen que la validación del
conocimiento la da la observación, saben que esta esconde siempre alguna carga teórica, lo
que la torna falible. Consideran como punto de partida del conocimiento a las hipótesis que
luego buscan justificar mediante la observación. Para esta corriente la ciencia progresa por
descarte: a todas las teorías de que se dispone, las somete a prueba, elimina las que son
falsadas y mantiene las restantes. No se llega a una teoría probablemente verdadera, sino
que en cada momento hay una teoría que, sobreviviendo a sucesivos intentos de falsación,
resulta dar la mejor disponible para explicar un determinado conjunto de fenómenos
y la más cercana a la verdad. Supongamos que dos hipótesis que intentan explicar el
mismo conjunto de fenómenos han resistido, para los falsacionistas ante esta situación
debemos inclinarnos por la más falsable. Una teoría es más falsable que otra cuando es
mayor el número de posibles intentos de falsación a que puede sometérsete.
Por ejemplo:
1. Dos cuerpos cualesquiera se atraen con una fuerza directamente proporcional a las
masas de ambos cuerpos e inversamente proporcional al cuadrado de la distancia
que los separa.
2. Dos cuerpos cualesquiera se atraen.
Cualquier caso que permita falsar la hipótesis 2, permite falsar la hipótesis 1, pero hay
casos que permite falsar la hipótesis 1 pero no la 2.
Por lo tanto, la primera es más falsable. Podemos relacionar a la falsabilidad con la mayor o
menor profundidad de las informaciones brindadas por las hipótesis. Entonces, una
hipótesis es más falsable que otra cuando es mayor el número de posibles intentos de
falsación.
• Reflexiones críticas sobre el falsacionismo y el inductivismo
Para el inductivismo una de las bases es la observación, pero toda observación está
acompañada de carga teoría y esto torna falible la observación. Ni los enunciados
observacionales ya no son seguros. El falsacionismo por lo que plantea, se filtran
necesariamente una o más hipótesis auxiliares, se puede falsar la conjunción de hipótesis,
pero llegado a este punto no se puede decidir cuál es falsa y cual no del conjunto. El
falsacionismo que admite la tesis acerca de la carga teórica de las observaciones ve caer la
posibilidad de falsar teorías de manera definitiva. En la teoría de Copérnico, debería
observarse el fenómeno de paralaje, no aparecía. En la época de Copérnico, el Angulo de
paralaje, era muy pequeño y esto parecía como una refutación de la teoría. Pero en la teoría
de Ptolomeo, no sucedía el mismo problema, pero sin embargo fue rechazada, aunque de
acuerdo con lo sostenido por los inductivistas, la teoría mejor confirmada habría sido la
ptolemaica. Como explican los falsacionistas que una teoría aparentemente falsada, como
la de Copérnico, no fuera dejada de lado. Podríamos también preguntarnos cómo es que
tardo 300 años en ser desechada la teoría de generación espontánea pese a haber sido
falsada.
CAPITULO 14: ‘Los programas de investigación científica de Lakatos’
El falsacionismo metodológico
Esta visión sobre cómo se desarrolla la ciencia corresponde a Imre Lakatos, 1960 y se
conoce como ‘metodología de los programas de investigación científica’.
Ptolomeo sostenía que los astros giraban alrededor de la Tierra, en orbitas circulares, pero
las predicciones no coincidían con lo observado.
Para evitarlo, Ptolomeo sostuvo que montado sobre su órbita principal el planeta describía
una órbita circular más pequeña llamada epiciclo, las nuevas predicciones coincidieron
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
mejor. Catorce siglos después, surge la teoría heliocéntrica de Copérnico, sostenía que el
Sol era el centro de las orbitas de los planetas. Pero sus predicciones tampoco coincidían,
hasta la llegada de Kepler. Sostuvo que los planetas describían orbitas elípticas en vez de
circulares, por lo tanto, las predicciones coincidieron con lo observado. Para el problema de
medición del ángulo de paralaje, se planteó que en esa época no se era capaz de medirlo,
años después se pudo. Podemos notar que en ambas teorías se presentaban
contradicciones: falsaciones (según los falsacionistas) o refutaciones. Pero en ninguno de
los casos se desechó las teorías ante estas refutaciones, por el contrario, se modificaron
elementos de la teoría para disolver la contradicción. Ptolomeo agrego epiciclos y Kepler
cambio la forma de las orbitas. Entonces, se puede argumentar que la teoría cambia cuando
se cambia alguna parte de ésta.
La diferencia entre la teoría cosmológica de Kepler y Copérnico parece ser menos
importante que la que existe entre Copérnico (o Kepler) y la de Ptolomeo. Podríamos hablar
de una evolución de la cosmología heliocéntrica desde la teoría de Copérnico a la de
Kepler, pero no de Ptolomeo a Copérnico. También hablamos de evolución cuando se pasa
de la teoría de Ptolomeo sin epiciclo a la de Ptolomeo con epiciclos. Podemos pensar
también que un geocentrista puede estar dispuesto a cambian cosas sobre su
teoría, pero no lo estará sobre cuál es el centro alrededor del que giran los cuerpos
celestes. Lo mismo ocurre con los heliocentristas. La sucesión de teorías constituye un
‘programa de investigación’ y el elemento intocable que comparten es el ‘núcleo central’ o
‘núcleo duro’.
Otro ejemplo, es el del programa de investigación espontaneista, su núcleo central es que el
surgimiento de un nuevo individuo se puede producir por generación espontanea.
Enfrentado a este, el programa de investigación ‘biogenetismo’ (anti espontaneistas) que
incluye en su núcleo duro que todo nuevo individuo proviene de al menos un individuo vivo
anterior.
Volviendo al programa ptolemaico, cuando se contrasto la predicción de la teoría
para el caso de Marte, se obtuvo una refutación de la teoría. Esto es una falsación del
conjunto de hipótesis, es problema es saber cuál de los enunciados que componen la
conclusión es falso. Como no se está dispuesto a modificar el núcleo central geocéntrico,
entonces se descarta. Se debe descartar hasta encontrar la posibilidad de atribuir la
falsedad a un enunciado, en este caso ‘todos los planetas recorren orbitas circulares’ y por
eso se decidió agregar un epiciclo a la órbita de Marte. Lo mismo ocurrió con el programa
copernicano por lo que Kepler modifico la forma de las orbitas planetarias para resolver el
problema. Como un partidario del programa no está dispuesto a tocar su núcleo central,
entonces se decide modificar algo del resto para que el programa siga funcionando.
Siempre que un científico este frente a una falsación de la teoría buscara modificar algo que
no sea parte del núcleo central del programa para que este prediga lo que se observa y
desaparezca la falsación. Lakatos llama al conjunto de enunciados que si se pueden
modificar como ‘cinturón protector del programa’. También llamo al proceso seguido por el
científico cuando se presenta una falsación al programa ‘heurística negativa del programa’.
Esta, guía al científico para que modifique algún enunciado de la teoría con el fin de que
desaparezca la falsación. El caso de las orbitas planetarias es un ejemplo de la heurística
negativa del programa copernicano, donde Kepler modifica el cinturón protector desechando
el enunciado sobre la forma circular de las orbitas reemplazándolas por la forma
elíptica sin eliminas la tesis de que el Sol es el centro orbital. Otro ejemplo es el del
problema del ángulo de paralaje en la época de Copérnico. Kepler con su ley, salvo el
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
programa copernicano de una falsación, posteriormente a esa ley, Kepler desarrollo dos
más sobre el movimiento de los planetas. De esta manera, amplio el programa agregando
una hipótesis en el cinturón protector, sin previa falsación. Cuando ocurre esto, que los
científicos agregan hipótesis para explicar con más profundidad sin que haya una refutación
previamente, el programa evoluciona, y se le llama según Lakatos, ‘heurística positiva’ que
es un conjunto de indicaciones sobre cómo desarrollar el cinturón protector para que el
programa evoluciones.
Hemos revisado dos programas: el ptolemaico y el copernicano. Estos dos programas
rivalizaron, pero en un momento ya el programa geocéntrico fue dejado de lado y prevaleció
el heliocéntrico.
Otro caso para analizar es las observaciones realizadas de la órbita del planeta Urano que
no coincidían con lo que predecía la teoría de Newton. Parecía construir una falsación para
el programa, Leverrier y Adams formularon una hipótesis ad hoc para salvarlo. Esta
hipótesis proponía que, debido a la existencia de un octavo planeta, Urano recorría una
órbita diferente de la anteriormente predicha. Años más tarde se observaron problemas
similares para la órbita de Neptuno y se propuso una solución similar.
Ante el rotundo éxito que parecían presentar estas dos hipótesis corroboradas se sugirió
algo similar ante los problemas que sucedían en la órbita de Mercurio, se postuló un
décimo planeta, pero nunca fue localizado y el programa nunca pudo dar cuenta de la
falsación que le significaba las anomalías en las orbitas de Mercurio. Podríamos decir
que no resulto fructífero, cuando esto ocurre Lakatos plantea que el programa de ha tornado
degenerativo, por el contrario, si el programa permite descubrir nuevos fenómenos a medida
que se agregan hipótesis, entonces el programa es generativo.
¿Cuándo un programa es dejado de lado? Podríamos decir que el programa geocéntrico
se había tornado degenerativo y fue reemplazado por el heliocéntrico que aparecía como
progresivo. Entonces, un programa de investigación es dejado de lado cuando se torna
degenerativo y además aparece un programa progresivo que pueda reemplazarlo.
CAPITULO 15: ‘El desarrollo de la ciencia según Kuhn’
Introducción: algo más que hipotético-deductivo
Se pueden distinguir tres niveles de preguntas sobre una hipótesis:
1. ¿Es verdadera o falsa?;
2. ¿Se ha corroborado o se ha refutado?;
3. ¿Es sostenida o rechazada por los científicos?
Podemos ver que hay ciertas implicancias lógicas y otras que no son del tipo lógico, por
ejemplo:
Si H es verdadera - H será corroborada.
Esta es una implicación, otro tipo de razonamiento es el que nos guía para sostener
hipótesis que nos parecen verdaderas y rechazar las que nos parecen falsas, seria:
Si H fue refutada - ¿rechazaremos H?
Si H fue corroborada - ¿aceptaremos H?
La descripción kuhniana
En 1960, Kuhn observó que había periodos en el desarrollo de la ciencia, y que había otros
periodos en los que teorías eran objeto de gran análisis y revisión.
• Ciencia normal: un montón de enigmas y algunas anomalías
Este archivo fue descargado de https://filadd.com

F
I
L
A
D
D
.
C
O
M
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas
IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas

Más contenido relacionado

La actualidad más candente

Presentación universo
Presentación universoPresentación universo
Presentación universoprofesoramaggi
 
Origen universo-evolucion
Origen universo-evolucionOrigen universo-evolucion
Origen universo-evolucionSophie Mejia
 
Breve historia de la astronomia
Breve historia de la astronomiaBreve historia de la astronomia
Breve historia de la astronomianuriafg
 
TEORIAS DEL MOVIMIENTO PLANETARIO...
TEORIAS DEL MOVIMIENTO PLANETARIO...TEORIAS DEL MOVIMIENTO PLANETARIO...
TEORIAS DEL MOVIMIENTO PLANETARIO...Samantha Arce
 
movimiento planetario
movimiento planetariomovimiento planetario
movimiento planetarioHarold Urrea
 
Modelos de Universo
Modelos de UniversoModelos de Universo
Modelos de Universoguestf6f7b13
 
Ambientes virtuales ii
Ambientes virtuales iiAmbientes virtuales ii
Ambientes virtuales iiliccristian
 
El origen del universo 2
El origen del universo 2El origen del universo 2
El origen del universo 2Caro014
 
El Universo y el Sistema Solar
El Universo y el Sistema SolarEl Universo y el Sistema Solar
El Universo y el Sistema SolarPatribiogeo
 

La actualidad más candente (16)

Presentación universo
Presentación universoPresentación universo
Presentación universo
 
Origen universo-evolucion
Origen universo-evolucionOrigen universo-evolucion
Origen universo-evolucion
 
Unidad 1
Unidad 1Unidad 1
Unidad 1
 
El universo
El universoEl universo
El universo
 
El lado oscuro del universo
El lado oscuro del universoEl lado oscuro del universo
El lado oscuro del universo
 
Breve historia de la astronomia
Breve historia de la astronomiaBreve historia de la astronomia
Breve historia de la astronomia
 
Presentación1
Presentación1Presentación1
Presentación1
 
Presentación1
Presentación1Presentación1
Presentación1
 
TEORIAS DEL MOVIMIENTO PLANETARIO...
TEORIAS DEL MOVIMIENTO PLANETARIO...TEORIAS DEL MOVIMIENTO PLANETARIO...
TEORIAS DEL MOVIMIENTO PLANETARIO...
 
movimiento planetario
movimiento planetariomovimiento planetario
movimiento planetario
 
Gravitacion
GravitacionGravitacion
Gravitacion
 
Modelos de Universo
Modelos de UniversoModelos de Universo
Modelos de Universo
 
El Buenoooo
El BuenooooEl Buenoooo
El Buenoooo
 
Ambientes virtuales ii
Ambientes virtuales iiAmbientes virtuales ii
Ambientes virtuales ii
 
El origen del universo 2
El origen del universo 2El origen del universo 2
El origen del universo 2
 
El Universo y el Sistema Solar
El Universo y el Sistema SolarEl Universo y el Sistema Solar
El Universo y el Sistema Solar
 

Similar a IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas

El lado oscuro del universo
El lado oscuro del universoEl lado oscuro del universo
El lado oscuro del universoeduardonatera91
 
Tema 1. Nuestro lugar en el Universo
Tema 1. Nuestro lugar en el UniversoTema 1. Nuestro lugar en el Universo
Tema 1. Nuestro lugar en el UniversoCristina Cobas
 
El Universo y nuestro Sistema Solar
El Universo y nuestro Sistema SolarEl Universo y nuestro Sistema Solar
El Universo y nuestro Sistema Solarmacortesc
 
El universo y el sistema solar
El universo y el sistema solarEl universo y el sistema solar
El universo y el sistema solarPatribiogeo
 
Guia de estudio nº6. ciencias naturales
Guia de estudio nº6. ciencias naturalesGuia de estudio nº6. ciencias naturales
Guia de estudio nº6. ciencias naturalesMarcelo Quiroz
 
Presentaci+¦n2geografia
Presentaci+¦n2geografiaPresentaci+¦n2geografia
Presentaci+¦n2geografiaRicardo Ramirez
 
Cultura científica. T1. Universo y Sistema Solar.
Cultura científica. T1. Universo y Sistema Solar.Cultura científica. T1. Universo y Sistema Solar.
Cultura científica. T1. Universo y Sistema Solar.irenebyg
 
Universo Fisica http://fisicamoderna9.blogspot.com/
Universo   Fisica  http://fisicamoderna9.blogspot.com/Universo   Fisica  http://fisicamoderna9.blogspot.com/
Universo Fisica http://fisicamoderna9.blogspot.com/Carlos Luna
 
Descubrimiento Sobre La Estructura Del Universo
Descubrimiento Sobre La Estructura Del UniversoDescubrimiento Sobre La Estructura Del Universo
Descubrimiento Sobre La Estructura Del Universofernando jimenez
 

Similar a IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas (20)

Sistema solar
Sistema solarSistema solar
Sistema solar
 
El lado oscuro del universo
El lado oscuro del universoEl lado oscuro del universo
El lado oscuro del universo
 
Tema 1. Nuestro lugar en el Universo
Tema 1. Nuestro lugar en el UniversoTema 1. Nuestro lugar en el Universo
Tema 1. Nuestro lugar en el Universo
 
Universo y sistema solar
Universo y sistema solarUniverso y sistema solar
Universo y sistema solar
 
Universo
UniversoUniverso
Universo
 
El Universo y nuestro Sistema Solar
El Universo y nuestro Sistema SolarEl Universo y nuestro Sistema Solar
El Universo y nuestro Sistema Solar
 
Ccmm. tema1
Ccmm. tema1Ccmm. tema1
Ccmm. tema1
 
El universo
El universoEl universo
El universo
 
El universo y el sistema solar
El universo y el sistema solarEl universo y el sistema solar
El universo y el sistema solar
 
Guia de estudio nº6. ciencias naturales
Guia de estudio nº6. ciencias naturalesGuia de estudio nº6. ciencias naturales
Guia de estudio nº6. ciencias naturales
 
El Big-Bang
El Big-BangEl Big-Bang
El Big-Bang
 
Presentaci+¦n2geografia
Presentaci+¦n2geografiaPresentaci+¦n2geografia
Presentaci+¦n2geografia
 
Cultura científica. T1. Universo y Sistema Solar.
Cultura científica. T1. Universo y Sistema Solar.Cultura científica. T1. Universo y Sistema Solar.
Cultura científica. T1. Universo y Sistema Solar.
 
Universo Fisica http://fisicamoderna9.blogspot.com/
Universo   Fisica  http://fisicamoderna9.blogspot.com/Universo   Fisica  http://fisicamoderna9.blogspot.com/
Universo Fisica http://fisicamoderna9.blogspot.com/
 
La Tierra en el universo y origen de la vida (CMC)
La Tierra en el universo y origen de la vida (CMC)La Tierra en el universo y origen de la vida (CMC)
La Tierra en el universo y origen de la vida (CMC)
 
Presentación2geografia
Presentación2geografiaPresentación2geografia
Presentación2geografia
 
Descubrimiento Sobre La Estructura Del Universo
Descubrimiento Sobre La Estructura Del UniversoDescubrimiento Sobre La Estructura Del Universo
Descubrimiento Sobre La Estructura Del Universo
 
Trabajo cmc
Trabajo cmcTrabajo cmc
Trabajo cmc
 
Trabajo cmc
Trabajo cmcTrabajo cmc
Trabajo cmc
 
el universo.pptx
el universo.pptxel universo.pptx
el universo.pptx
 

Último

Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024AndrsReinosoSnchez1
 
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxMÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxCristianCastro978067
 
PANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaPANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaRosaHurtado26
 
COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .GIANELAKAINACHALLCOJ2
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOJuan Carlos Fonseca Mata
 
Gestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalGestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalMarcosAlvarezSalinas
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticJamithGarcia1
 
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICACNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICAYOSHELINSARAIMAMANIS2
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirluis809799
 
Investigacion cualitativa y cuantitativa....pdf
Investigacion cualitativa y cuantitativa....pdfInvestigacion cualitativa y cuantitativa....pdf
Investigacion cualitativa y cuantitativa....pdfalexanderleonyonange
 
Los idiomas más hablados en el mundo (2024).pdf
Los idiomas más hablados en el mundo  (2024).pdfLos idiomas más hablados en el mundo  (2024).pdf
Los idiomas más hablados en el mundo (2024).pdfJC Díaz Herrera
 
PIB PERÚ datos y análisis de los últimos años
PIB PERÚ datos y análisis de los últimos añosPIB PERÚ datos y análisis de los últimos años
PIB PERÚ datos y análisis de los últimos añosEstefaniaRojas54
 
Las marcas automotrices con más ventas de vehículos (2024).pdf
Las marcas automotrices con más ventas de vehículos (2024).pdfLas marcas automotrices con más ventas de vehículos (2024).pdf
Las marcas automotrices con más ventas de vehículos (2024).pdfJC Díaz Herrera
 
Posiciones del IDH a nivel global en México (1982-2024).pdf
Posiciones del IDH a nivel global en México (1982-2024).pdfPosiciones del IDH a nivel global en México (1982-2024).pdf
Posiciones del IDH a nivel global en México (1982-2024).pdfJC Díaz Herrera
 
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfReservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfJC Díaz Herrera
 
Los primeros 60 países por IDH en el año (2024).pdf
Los primeros 60 países por IDH en el año (2024).pdfLos primeros 60 países por IDH en el año (2024).pdf
Los primeros 60 países por IDH en el año (2024).pdfJC Díaz Herrera
 
presentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptpresentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptMelina Alama Visitacion
 
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdf
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdfINFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdf
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdfMiguelGomez900779
 
Cesar Vilchis Vieyra Cesar Vilchis Vieyra
Cesar Vilchis Vieyra  Cesar Vilchis VieyraCesar Vilchis Vieyra  Cesar Vilchis Vieyra
Cesar Vilchis Vieyra Cesar Vilchis Vieyraestudiantes2010
 
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxINTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxJamesHerberthBacaTel
 

Último (20)

Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024
 
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxMÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
 
PANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaPANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitectura
 
COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATO
 
Gestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalGestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajal
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
 
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICACNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
 
Investigacion cualitativa y cuantitativa....pdf
Investigacion cualitativa y cuantitativa....pdfInvestigacion cualitativa y cuantitativa....pdf
Investigacion cualitativa y cuantitativa....pdf
 
Los idiomas más hablados en el mundo (2024).pdf
Los idiomas más hablados en el mundo  (2024).pdfLos idiomas más hablados en el mundo  (2024).pdf
Los idiomas más hablados en el mundo (2024).pdf
 
PIB PERÚ datos y análisis de los últimos años
PIB PERÚ datos y análisis de los últimos añosPIB PERÚ datos y análisis de los últimos años
PIB PERÚ datos y análisis de los últimos años
 
Las marcas automotrices con más ventas de vehículos (2024).pdf
Las marcas automotrices con más ventas de vehículos (2024).pdfLas marcas automotrices con más ventas de vehículos (2024).pdf
Las marcas automotrices con más ventas de vehículos (2024).pdf
 
Posiciones del IDH a nivel global en México (1982-2024).pdf
Posiciones del IDH a nivel global en México (1982-2024).pdfPosiciones del IDH a nivel global en México (1982-2024).pdf
Posiciones del IDH a nivel global en México (1982-2024).pdf
 
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfReservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
 
Los primeros 60 países por IDH en el año (2024).pdf
Los primeros 60 países por IDH en el año (2024).pdfLos primeros 60 países por IDH en el año (2024).pdf
Los primeros 60 países por IDH en el año (2024).pdf
 
presentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptpresentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.ppt
 
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdf
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdfINFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdf
INFORME DE EVALUACIÓN DE LOS REQUERIMIENTOS.pdf
 
Cesar Vilchis Vieyra Cesar Vilchis Vieyra
Cesar Vilchis Vieyra  Cesar Vilchis VieyraCesar Vilchis Vieyra  Cesar Vilchis Vieyra
Cesar Vilchis Vieyra Cesar Vilchis Vieyra
 
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxINTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
 

IPC EXÁMEN FINAL: Teorías cósmicas antiguas y modernas

  • 1. IPC EXÁMEN FINAL CAPITULO 1 “Las cosmologías” Las cosmologías son teorías que intentan explicar cómo es el universo y por qué lo vemos así. Existen hace desde la antigüedad, pero su relevancia histórica comienza con los griegos. COSMOLOGÍAS ANTIGUAS • Geocentrismo Surge en el siglo IV a.C. por Aristóteles, el plantea que el universo es un conjunto de esferas concéntricas sobre las que están montados los astros. Entre ellas existe una sustancia llama éter. En el centro del conjunto, está La Tierra, inmóvil. Sobre las esferas más próximas está montada la Luna y más allá, las esferas donde se localizan los seis planetas restantes conocidos en esa época (Mercurio, Venus, Sol, Marte, Júpiter y Saturno). La última de las esferas es la de las estrellas fijas, sobre las que están montadas las estrellas que no cambian de posición. Esta esfera además transmite el movimiento a todas las esferas anteriores. Aristóteles pensó que así se mantendría eternamente el Universo. Formó también una teoría física que sostiene que hay una distinción entre lo que ocurre por debajo de la esfera de la Luna y lo que ocurre fuera y en ella. Hay una física sublunar (hacia adentro) y una física celeste (hacia afuera). En la región sublunar se encuentra La Tierra y existen cambios (tormentas, terremotos), en cambio, en el mundo celeste no. Además, para Aristóteles no existe el vacío en el Universo, sino que es finito y termina en la esfera de las estrellas fijas. En el siglo II, Ptolomeo continúo con esta corriente y planteo el sistema tolemaico donde sitúa a los planetas describiendo orbitas circulares alrededor de La Tierra. Si observábamos un planeta por un año, veríamos una circunferencia centrada en La Tierra, sin embargo, encontró que algunos planetas en cierto lapso dejaban de avanzar y retrocedían un poco. Esto se conoce como retrogradación de los planetas. Ptolomeo modificó su teoría original donde Marte describía una órbita circular montada sobre la órbita alrededor de La Tierra, llamadas epiciclos. Logró resolver el problema y los cálculos coincidieron, sin embargo, con el tiempo las observaciones diferían cada vez más. • Heliocentrismo En 1543 Copérnico describe un universo distinto, sostiene que el Sol es el centro del universo y que los planetas describen orbitas circulares alrededor de él. La Tierra ahora es un planeta más que gira alrededor del Sol y rota sobre sí misma. Este movimiento de rotación sobre su eje explica la sucesión del día y noche, mientras que la traslación explica el movimiento aparente de los astros. El primer problema que se presentó fue que los cálculos realizados para las posiciones de los planetas no coincidían con las observaciones. Intentó resolver esto mediante los epiciclos, pero hubo que esperar hasta el 1609 para que la dificultad se resolviera. Kepler lo soluciono sosteniendo que las órbitas que describían los planetas alrededor del Sol no eran circulares sino elípticas. Otro problema era que daba cero la medida del ángulo de paralaje estelar. Si La Tierra tiene un movimiento circular (o elíptico) debería formar cierto ángulo de paralaje, esto se desprende de Copérnico. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 2. Recién en 1838 se pudo encontrar que la medida del ángulo era diferente a cero. En la época de Copérnico no estaban en condiciones técnicas de detectarlo. En 1572 los astrónomos observaron la aparición de un nuevo cuerpo celeste ‘estrella Nova’ que fue apagando su brillo progresivamente hasta desaparecer. Este cuerpo celeste estaba en la región celeste del universo aristotélico. Esto quería decir que en esta región había cambios, lo que contradecía con la hipótesis física de Aristóteles. Los geo-centristas tenían la hipótesis de que estos astros estaban en la región sublunar. Copérnico había formulado una nueva cosmología, pero no una nueva física, se basaba en la física aristotélica. Galileo y Newton desarrollaron una nueva física que se articulaba con la cosmología en la segunda mitad del s. XVII. Newton brindo una cosmología basada en la de Copérnico, la física era la misma para todo el universo, los planetas describían orbitas elípticas alrededor del Sol, pero éste no era el centro del Universo, solo era el centro de nuestro sistema planetario, lo que admite la posibilidad de encontrar en el Universo otros sistemas planetarios. Si el universo es infinito no puede tener centro y el universo ideado por Copérnico si admitía ser finito, ya que se basó en las ideas de Aristóteles. Cosmologías actuales Aristóteles suponía la existencia eterna del Universo mientras que Newton planteaba la creación de un universo en algún momento en el tiempo. Se desarrollaron dos corrientes una la de la teoría del universo eterno ‘Teoría del universo estacionario’ y por otra parte, la mayoría de los científicos se inclinan por la idea de que el universo tuvo un comienzo, que se trata de la ‘Teoría del Big Bang’ que sostiene que el universo debe haber comenzado y con él el tiempo y espacio hace alrededor de 15.000 millones de años. • La teoría del Big Bang En 1929 el investigador Hubble había sugerido que el universo estaba en expansión. Las observaciones con las que contamos hasta el momento confirman que el alejamiento mutuo de las galaxias es más pronunciado cuanto más separadas están estas mismas. Esto tiene aspecto de una explosión en el pasado. No parece que las galaxias fueran que se alejaran, sino que es el espacio mismo el que se expande y con ello da lugar al alejamiento observado. El universo estaba concentrado en un punto y debe haber comenzado todo a partir de una explosión donde también comenzó el tiempo. Si toda la energía del universo actual alguna vez estuvo concentrada de tal manera los científicos creen que la forma en que se manifestaba tal energía no debía ser tal como se presenta ahora en forma de partículas y radiaciones, sino que solo por radiación. A medida que el espacio se expandía, la energía se desparramaba de modo que su densidad disminuía, habrá llegado un momento en que la energía por unidad de volumen era suficientemente baja como para que las partículas y antipartículas que se formaban de esa energía, no se volvieran a transformar en radiación. Las partículas comenzaron a ser estables y los choques entre fotones crearon partículas y estas chocaban con menos energía de la necesaria para desintegrarse en fotones. Aquella época de creación de partículas no duro mucho, por lo que el espacio siguió expandiéndose y con ello la energía por unidad de volumen siguió bajando, la temperatura siguió bajando también. El universo había obtenido un equilibrio entre la radiación existente y las partículas que de ella habían surgido. Con la aparición de tantas partículas se hizo más evidente la fuerza de atracción gravitatoria, que provoco que las partículas se fueran agrupando en grandes nubes y a su vez estas siguieran compactándose por la fuerza atractiva hasta formar galaxias y estrellas. - La radiación cósmica de fondo: una gran explosión en sus comienzos no había sido corroborado por ninguna otra observación. En 1964 Penzias y Wilson detectaron una radiación cuya intensidad y frecuencia no tenía variación respecto de la zona del espacio que escudriñaran. Esto fue interpretado como la radiación remanente de aquella supuesta Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 3. explosión y se la conoce como radiación cósmica de fondo. Esta evidencia fortalecía la hipótesis del Big Bang. El universo había continuado su expansión y con ello la temperatura seguía bajando. El universo ya bastante enfriado irradia en la frecuencia que ellos detectaron, una frecuencia típica de los cuerpos que se encuentran a 270 grados centígrados bajo cero. Como el Sol irradia en frecuencias que nos indican temperatura de miles de grados, el universo contiene radiación en frecuencias e intensidades tales que correspondían a esas temperaturas tan bajas. La radiación del fondo cósmico parecía ser estrictamente constante no importando a que zona del espacio apuntáramos. Con la intención de investigar, se creó un satélite especialmente diseñado para realizar tales frecuencias y se registró que se confirmaba la idea de que hubo pequeñas homogeneidades hubiera zonas con materias y otras sin. - Efecto Doppler y la observación del alejamiento de las galaxias: cuando una fuente de sonido se acerca al observador, éste percibe un sonido levemente más agudo que si la fuente estuviera en reposo. Si en cambio la fuente se aleja, el efecto será que parece más grave. Este efecto Doppler se podría resumir en que el sonido parece más agudo si la fuente emisora se acerca y más grave si se aleja. Pero más agudo o grave respecto del sonido de la fuente emisora en reposo. Podríamos decir que el sonido presenta un corrimiento de frecuencias: hacia el agudo en el primer caso o grave en el segundo. Cuando se analiza la luz proveniente de las galaxias lejanas se encuentra que su frecuencia no coincide con la esperada, sino que presenta un corrimiento hacia frecuencias menores, como un alejamiento de la fuente de emisión. Por lo tanto, las galaxias se alejan unas de otras ya que todas las galaxias lejanas estudiadas presentan este corrimiento hacia frecuencias menores. No deben interpretarse como si nuestra galaxia estuviera en el centro de la expansión. Como las frecuencias más bajas del espectro visible corresponden al color rojo, este efecto que presentan las galaxias lejanas, se ha llamado corrimiento al rojo. Todas las galaxias lejanas investigadas mostraron corrimiento al rojo y que esto indica que se alejan de nosotros. • Universo estacionario Este modelo describe un universo en expansión continua tal cual la que se infiere a partir del alejamiento de las galaxias, pero con la particularidad de que la densidad de partículas del universo permanece constante. Al expandirse el espacio se deberán crear partículas de modo de mantenerse la cantidad de materia por unidad de volumen. El universo se expandiera y a la vez se crearía materia de modo que una zona del espacio siempre presentaría el mismo aspecto no importa en qué época nos fijáramos. Plantea la idea de que el universo no fue creado ni apareció en algún instante. Éste existió siempre y siempre existirá con el mismo aspecto: expansión y creación de partículas, da perfecta cuenta del alejamiento de las galaxias, pero tuvo que enfrentar una acomodación al descubrirse la radiación de fondo cósmica que corroborada con la teoría del Big Bang. Esta consistió en sugerir que tal radiación podía prevenir de las nubes de polvo existentes en el Universo que absorberían la radiación de las estrellas y la remitirían en la frecuencia observada del fondo cósmico. No queda explicado totalmente bien que la radiación de fondo no varía en las distintas direcciones de observación. Asistimos ahora a otra confirmación del Big Bang, como lo es el descubrimiento de las irregularidades que dieron lugar a que el universo fuera inhomogeneo. Los defensores del Big Bang habían anticipado que de ser correcta la teoría debería encontrarse tales inhomogeneidades en la radiación de fondo, mientras que tales rasgos no se desprendían de la teoría del modelo estacionario. La teoría del Big Bang obtiene credibilidad mientras que la otra no. Ahora esta cuenta con el apoyo de la comunidad científica. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 4. CAPITULO 2 ‘Generación de la vida ¿sólo un problema biológico?’ Una concepción clásica del mundo que se derrumba, siglo XVI En ese siglo ya se sostenía que la Tierra no ocupaba su posición central en el universo, sino que giraba alrededor del Sol como los demás planetas. Viejos esquemas mentales comenzaban a no tener credibilidad a medida que sucedían cambios en la sociedad europea, estos esquemas habían encontrado su fundamento teórico en Aristóteles. La ciencia de él fue cristianizada a partir de los intentos de algunos teólogos de compatibilizar la ciencia paga con la doctrina cristiana, dando lugar a lo que se conoce como escolástica. Al incorporar concepciones de Aristóteles, el mundo cristiano adhirió a un sistema de creencias en el cual el universo material era explicado mediante analogías tomadas de los seres vivos, constituyendo una interpretación organicista del mundo. Esto se basaba en el cambio constante, destacaba la existencia de una intencionalidad que dirigía al desarrollo de los fenómenos naturales. Se sostenía ideas de la concepción global del mundo, los seres eran engendrados en un único acto, siempre como resultado de una creación mediante las fuerzas divinas. Un ser vivo no era solo lo que aparentaba, representaba un eslabón en la cadena secreta que une a todos los objetos de este mundo. La formación del ser requería del calor, fuente de vida que el Creador ha distribuido en dos grupos: la unión de los sexos es necesaria para que el macho de su ‘líquido seminal’ para activar y dar forma a la materia contenida en el ‘líquido seminal femenino’. El otro tipo de calor que proviene del Sol puede activar los elementos (tierra, aire, etc.) para dar origen a los seres ruines. Esta última postura se conoce hoy como ‘teórica de la generación espontánea’. Cuando la putrefacción transforma un pedazo de carne en moscas es debido al calor que esta desprende, y en eso se basaba. En el S. XV surgió la adhesión a la magia, que rescataba concepciones místicas de las civilizaciones mediterráneas. Intentaba interpretas la voluntad de Dios-mago a través de los indicios dejados en el mundo material en términos matemáticos. Esto influencio en muchos pensadores, por ejemplo, en Galileo que argumentaba que Dios se revela al hombre mediante la Sagrada Biblia y el libro de la Naturaleza. La tradición mágica, entrelazada con la organista, fueron opacadas por la mecanicista la cual planteaba que la naturaleza es análoga como una máquina y tanto su comportamiento como sus propiedades podían ser comprendidas a partir del conocimiento de sus elementos constituyentes. El origen de este pensamiento surge por el periodo de las maquinas durante el S. XVI y por el descubrimiento de Arquímedes, cuyos escritos matemáticos y físicos permitieron sentar las bases para un planteamiento matemático en el que el mundo era susceptible de medición y análisis. La tradición mecanicista se puso contra la magina y la organista, partiendo del presupuesto de que el universo se gobernada por fuerzas mecánicas creadas por un dios ingeniero o relojero, los científicos que creían esto estudiaron las relaciones que guardaban distintas partes del universo entre sí, como estudiar piezas de una máquina. El desarrollo de la ciencia moderna, siglo XVII En esta época surgen las leyes del movimiento de Newton. La física juega un papel importante en esta transformación del universo, porque asigna nuevas funciones a la observación, experimentación y razonamiento, y por ser la única ciencia que se expresa por lenguaje matemático, la lógica. La generación de un ser no puede ya constituir un hecho aislado, único e independiente. Lo que ahora importa es su aspecto y estructura visible. La generación solo puede considerarse a través de la estructura visible de los seres vivos y por las leyes del movimiento. La teoría de la generación espontánea es retomada a partir de una explicación basada en la mecánica y la materia, los seres vivos no difieren de las cosas más que por la disposición de la materia y por hacer surgir de ella un cuerpo viviente. No todos Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 5. compartían las viejas ideas acerca de la generación espontánea. En 1668, Redi intentó demostrar que la materia putrefacta no alcanza para generar los seres ruines, sino que se debe al desarrollo de huevos inadvertidos. Puso carne en diferentes frascos y observo que los abiertos estaban llenos de gusanos mientras que los cerrados estaban libres mientras se descomponía la carne. Propuso entonces que las moscas que entraban en los frascos depositaban sus huevos. En 1683 Leeuwenhoeck vio con microscopios organismos en gotas de agua sucia, semen sangre, etc. A estos los llamo animálculos. Los espontaneistas aprovecharon y plantearon que esos seres podrían derivar de otros insectos preexistentes. Algunos como Redi y Leeuwenhoeck creían que a la generación espontánea era aplicable a estos seres. Otra polémica se inicia: el Preformacionismo vs. la Epigénisis Harvey descubrió acerca de la circulación de la sangre que se introdujo al enfoque mecanicista, pero continúo aferrado a tradicionales concepciones como el desarrollo de un ser vivo a partir de un huevo, coincidiendo con Aristóteles. Esta concepción corresponde a la postura denominada epigénesis, fue sostenida filosófica y experimentalmente por Aristóteles en su descripción del embrión del pollo: ‘La generación a partir del huevo se produce en todas las aves, en la gallina común el primer indicio del embrión se tiene después de 3 días, con aves menores menos y con mayores más. La yema cobra ser y aparece el corazón, este late y se mueve, de él parten dos conductos que contienen sangre y una membrana provista de fibras sanguinolentas que envuelve la yema. Después, el cuerpo queda diferenciado. La porción inferior del cuerpo crece más lenta que la superior. El elemento vital del polluelo está en la clara del huevo y el alimento le llega de la yema, a través del cordón umbilical’. Cuando Leeuwenhoeck descubrió los espermatozoides, este hecho fue aprovechado por Swammerdam y otros para integrarlo a su concepción biológica vinculada a la creación divina. Creyeron que de cada espermatozoide humano había algo similar a un humano microscópico, así surgió la teoría del Preformacionismo, según el cual el futuro organismo aparece preformado bajo la forma de un embrión dentro del animálculo que lo porta. El embrión posee todos los órganos enteros, pero como son pequeños no se logran ver. A partir de esta concepción luego se hico extensivo a otros seres. En aquellos seres que pueden engendrar a sus semejantes, el problema se traslada a como esta ordenada la materia en el esperma. El preformacionismo cierra una idea de germen. Los defensores de esta idea se vieron obligados a explicar la locación de los gérmenes que deberían transmitirse de generación en generación, de esto resulta la teoría del encaje, según cual los gérmenes se localizan uno dentro del otro, de esta forma Adán contenía todos los gérmenes de generaciones posteriores. En esta época no existía la posibilidad de lograr datos absolutos, se debían contentar con cálculos a partir de las Sagradas Escrituras. Como, por ejemplo, así en 1650 un avispo logro calcular que el mundo había sido creado el miércoles 18 de julio del año 4004 a.C. Del mismo modo que se pretendía partir de Adán también se estimó el número de huevos encajados que portaba Eva. Esto dividió a los preformacionistas en dos bandos: los animalculistas y los ovistas. Se realizaron numerosos estudios en la búsqueda de observaciones que aplicaran la teoría. El estudio de las semillas ofreció un soporte ya que a simple vista se puede ver la estructura del futuro ser. En 1786 Spallanzani experimentaba ‘Escogí una perra, la encerré en una habitación. Al cabo de tres días estaba en celo. A los 23 días intente la fecundación artificial con un perro joven, por una eyaculación espontanea, inyecte sin demora en la matriz de la perra con una pequeña jeringa el líquido seminal. 23 días después apareció embarazada, luego pario a unos perritos. Se semejaban con la madre y con el padre’. Desde esta perspectiva era comprensible la idea de gérmenes que incluyeran unos a otros hasta el infinito. Aun no se conocían los límites de la materia viva e inanimada. Había muchos problemas por resolver: los fenómenos de regeneración (capacidad de ciertos animales de reconstituir partes del Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 6. cuerpo animal). Los preformacionistas se debían explicar donde estaban los gérmenes y que tipo eran, no tuvieron ninguna explicación desde la teoría preformacionistas ante estos fenómenos. Los análisis de la herencia en las poblaciones humanas daban resultados que no concordaban con las predicciones: los rasgos provenían del padre, otro de la madre o a veces ambos. Siglo XVIII: el surgimiento de una nueva explicación Surge el concepto de ‘molécula viva’, partículas que constituyen a los seres vivos. En este siglo, Buffon y Maupertuis intentaban hallar una respuesta distinta de la preformación para explicar los hechos de la herencia. El concepto de reproducción (producción de un ser vivo a través del agregado de moléculas vivas siguiendo un molde característico de la especie) nace de los problemas que el preformacionismo no podía explicar (la regeneración). Estos científicos creen ver en este concepto la solución al problema de la generación; un ser organizado puede ser disociado en un conjunto de ‘moléculas vivas’. La reproducción o generación solo supone un cambio de forma que se hace por adición de las partes. El líquido seminal contiene una muestra compleja y completa de los distintos tipos de partículas que componen los distintos órganos, es la fuerza de atracción la que reúne las partículas para formar un nuevo ser. Es necesario que haya una ‘memoria’ que guie la unión de las partículas. Esta memoria es para Buffon una estructura partículas. La materia utilizada para el crecimiento debe penetrar en el interior de cada parte y con todas las dimensiones según un cierto orden. Esta teoría se llamó epigénesis: ‘la estructura primaria de un ser vivo se organiza poco a poco a consecuencia de plegamientos, abultamientos e hinchazones a través de una secuencia de operaciones mecánicas en el tiempo y espacio’. A mediados de este siglo, Wolf estudia el desarrollo del pollo, encontrando un aumento considerable en la complejidad del embrión. Esto quedara ignorado hasta XIX cuando se desarrolla la embriología experimental. La idea de una concepción elemental queda en el siglo XVIII fuera de las posibilidades de la experimentación y observación. Buffon intenta demostrar la existencia de moléculas organizas y su poder de combinarse, pero sus resultados no convencen a nadie. Para los preformacionistas la teoría de epigénesis revitalizaba la teoría de la generación espontánea, ya que si existían moléculas orgánicas que podían juntarse por calor, ¿por qué no se podrían generar animálculos? • Retomando la vieja polémica: ¡los espontaneistas contraatacan…! En 1745 Needham realizo un experimento que favoreció a la generación espontánea de los animálculos. Coloco un caldo en un frasco tapado, lo hirvió con el objetivo de destruir gérmenes luego el caldo se llenó de animálculos. Infirió entonces que solo podría provenir de una generación espontánea. Los primeros trabajos del preformacionistas Spallanzani trataron de refutar esta hipótesis. Reprodujo el mismo experimento, pero con frascos mejor tapados y un calentamiento más prolongado. Los animálculos no aparecieron. Needham alego que el experimento era totalmente diferente porque con más calentamiento destruía la fuerza vital esencial para la producción de vida. • Una revisión del debate El problema de la generación de los seres se divide en dos ramas: una, la que concierne al desarrollo de los seres más organizados, debate si los seres se originan por gérmenes y solo crecen hasta alcanzar la madurez o si el desarrollo implica aumento de complejidad, agregando partes y moléculas orgánicas a una masa y que gradualmente se convertirá en un nuevo ser, este es el debate preformación-epigénesis. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 7. La otra rama refiere a la génesis de los animálculos, seres microscópicos que parecían haber aparecida de la nada. Discutían sobre si estos seres de habían originado espontáneamente de la materia inerte o su origen es a través de gérmenes dispersos en el aire, debate espontaneismo-antiespontaneismo. Los partidarios de la epigénesis también lo eran de la generación espontánea de los animálculos, que se originaban por la descomposición de la materia. Los preformacionistas creían que toda aparición de un nuevo ser respondía a gérmenes preexistentes. Los epigenetistas daban mucha importancia al tema de la regeneración, reproducción de partes u organismos enteros al punto de aplicarlo a todos los seres, a partir de la idea de la existencia de moléculas propias de los seres vivos que se van agregando para constituir al ser complejo gracias a la memoria. Incluyen así el tema de la organización que va más allá de la estructura visible y que tiene relación con la estructura oculta. La fuerza vital incorporada en el s. XVIII es fundamental como explicación ‘del mantenimiento de la cohesión del ser, para asegurar el orden de lo vivo en oposición al desorden de la materia animada. Es una fuerza de una calidad especial que confiere sus atributos a los seres organizados, que mantiene unidas a las moléculas pese a las fuerzas exteriores que tienden a separarlas’ explicaba Jacob. Los defensores del preformacionismo se niegan a admitir que un animal pueda nacer de una aposición mecánica de moléculas. Niegan que una viscosidad que parece organizarse no esté ya organizada. En XVIII se establece una clasificación de los seres vivos. Los preformacionistas acordaran en que la transformación de las especies a lo largo del tiempo es una imposibilidad física (fijismo). Los epigenetistas fueron defensores de la posibilidad de una transformación gradual de las especies (transformismo). Siglo XIX: la resolución de un enigma En ese año aun existía el problema de la generación espontánea de los animálculos. En 1832 se establece el concepto de célula como unidad de lo viviente y se comienza a estudiar su estructura. El concepto de especie se liga al de reproducción y ambos se establecen explicando cómo se mantiene a lo largo del tiempo una especie. Luis Pasteur en 1860 destierra la idea de la generación espontánea ya que realiza un experimento que mantenía las condiciones apropiadas para la generación del día. Tomo frascos con caldo en putrefacción con cuellos ‘de cisne’. Luego de hervirlos durante el tiempo necesario para matar a los microorganismos del caldo, se observó la no aparición de nuevos microorganismos. Explico la existencia de gérmenes en el aire que no podían entrar al frasco por su forma. La fuerza vital necesaria para organizar las moléculas dando lugar a los seres vivos, podría haber entrado en el frasco, si existiese. Siglo XX: ¿El fin de las polémicas? Por un lado, el embrión se desarrolla aumentando su complejidad de manera gradual, pero ese aumento de complejidad es determinado y regulado por órdenes que da el ADN. Dice Elsasser ‘La teoría de la preformación proclama que hay una copia completa, un modelo en miniatura del adulto, en cada germen. La teoría de la epigénisis, en cambio sostenía que el germen no es sino un grumo de sustancia dotado de potencial para crecer hasta el grado adulto. La relación entre preformacionismo y epigénisis está en el fundamento de la semiautónoma de los procesos de desarrollo. Por el lado observacional hay abundantes testimonios a favor de cada una. Las pruebas decisivas de que la molécula de ADN es un órgano de almacenamiento de información ciertamente proporcionan una base bien solida a un preformacionismo algo moderno’. Dice Maynar Smith ‘Los preformacionistas sostenían que tenía que haber en el huevo, un adulto en miniatura, pero perfectamente formado: el desarrollo consiste entonces en un mero crecimiento en tamaño’. Dice Gould ‘Desde nuestra perspectiva actual los epigenetistas tenían razón: los órganos se diferenciaban secuencialmente a partir de Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 8. rudimentos más simples en el transcurso del desarrollo embrionario: no existen partes preformadas. Los preformacionistas tenían también razón en insistir en que la complejidad no puede surgir de una materia prima informe, que debe existir algo adentro del huevo que regule su desarrollo. CAPITULO 3 ‘Origen de la ciencia natural moderna’ El nacimiento de la ciencia moderna Cuando hablamos de ciencia natural nos referimos a las disciplinas científicas que tratan de explicar fenómenos naturales, aquellos en los cuales el hombre no es el objeto de estudio. Por ejemplo, la física, química o biología. Cuando el objeto de estudio es el hombre y sus relaciones sociales, hablamos de ciencias sociales, por ejemplo, la sociología, psicología, antropología, economía, ciencia política, etc. La obra de Copérnico sobre la revolución de las esferas celestes suele ser considerada como el detonante de un período que se conoce como Revolución Copernicana, que no solo alumbró una nueva cosmología, sino que coincidió con un cambio en la manera de hacer ciencia, conocido como Revolución Científica del s. XVII. Es común que se cite a Galileo como fundador de la ciencia moderna, pero hubo otros científicos. Entre estos, no solo los discípulos de Galileo sino también aquellos que trataron otras disciplinas. La física antigua adoptaba una metodología que podemos llamar demostrativa. Los científicos procedían determinando enunciados verdaderos de los que se deducían otros que daban cuenta de las observaciones. El cambio proviene de un cambio de actitud de los científicos hacia esos enunciados verdaderos. La ciencia moderna adopta una postura sobre que los únicos que pueden brindar alguna información acerca de la verdad de los enunciados acerca de sucesos del mundo real son, los sucesos del mundo real. Suele llamarse a la nueva ciencia, ciencia teórico-experimental. Tanto en la ciencia demostrativa como en la experimenta se utiliza la deducción para obtener enunciados acerca de hechos del mundo a partir de otros enunciados. Pero se diferencian en el carácter de los enunciados iníciales, mientras que en la ciencia antigua eran enunciados verdaderos, en la ciencia experimental eran sólo conjeturas obtenidas de la observación metódica. La ciencia fáctica es aquella que habla sobre los hechos del mundo real mientras que la ciencia formal no tiene ninguna referencia en el mundo. También veremos con más detalle la metodología de la ciencia experimental cuando trataremos el método hipotético-deductivo, el inductivo y lo relacionado con la contrastación de teorías. Otra diferencia entre las dos épocas está en la observación. Los científicos antiguos observaban, pero de manera diferente. Con la nueva ciencia los elementos a observar no resultaban solo cualitativos, sino que eran cosas medibles, cuantificables. Por ejemplo, en el s. XVI se sabía que el agua no ascendía por un tubo más allá de 10 m. La explicación en la antigüedad se basaba en el postulado de la física aristotélica sobre la imposibilidad del vacío. Torricelli fue quien dio una explicación, supuso que estamos sumergidos en aire, que pesa y que se comporta de manera similar a un líquido. Todo cuerpo sumergido en aire soporta cierta presión, luego el aire ejerce cierta presión sobre la superficie del agua. Como resultado el agua sube por el sorbete hasta que la presión que ella ejerce iguala a la que ejerce el aire. La ciencia moderna se preocupó de un problema práctico: que no pudiera extraerse agua de un pozo de más de 10 m. En segundo lugar, utiliza magnitudes cuantificables para desarrollas su teoría: mide pesos específicos y la presión atmosférica. Por último, establece relaciones matemáticas entre magnitudes cuantificables. Torricelli Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 9. además de predecir qué ocurriría lo comprobó experimentalmente. Esta es la diferencia más relevante con la ciencia antigua. Los nuevos científicos realizan observaciones activas, en condiciones controladas y con magnitudes medibles. Con la ciencia moderna nade la noción de control de variables. Cuestiones metodológicas Tanto la ciencia moderna como la antigua usan la deducción para obtener consecuencias. Este, se trata de un razonamiento lógico. Por otra parte, la ciencia moderna conjetura hipótesis y a partir de ellas deduce lo que debería ocurrir. El paso siguiente consiste en revisar si las observaciones coinciden o no con lo deducido. Esto es lo que sostiene el método hipotético-deductivo y el método para chequear hipótesis de la ciencia moderna. Mediante la observación de ciertos hechos ponemos a prueba una hipótesis, los posibles resultados es que ocurra o no. Si ocurre, ¿quiere decir que es cierto? El otro problema se refiere a la observación, una de las características de la ciencia moderna radica en que la fuente de verdad la brinda la observación de los hechos, pero ¿es una fuente confiable? La observación permite chequear la corrección de una hipótesis, pero cuando la observación es mediante un instrumento se sustenta en una teoría que fundamenta su funcionamiento y podría no ser correcta. CAPITULO 4: ‘Lógica’ La lógica se ocupa de analizar cómo son las inferencias que hacemos a diario. En la ciencia se utiliza especialmente el razonamiento deductivo. Tipos de inferencias La lógica se ocupa de los enunciados, su estructura interna y la forma en que se combinan para generar nuevas preposiciones más complejas y de las reglas por las cuales se puede inferir cierta proposición llamada ‘conclusión’ a partir de otras llamadas premisas, y condiciones que debe cumplir un razonamiento para ser válido. Los tipos de inferencia son deductiva, inductiva y abductiva. Hay un acuerdo entre científicos sobre la lógica deductiva. - Deducción: se caracteriza por conservar la verdad, una conclusión se infiere válidamente de las premisas cuando la verdad de éstas conduce inevitablemente a la verdad de la conclusión, es decir no hay manera que la conclusión sea falsa al menos que una de las premisas sea falsa. Lo único que interesa para determinar si un razonamiento deductivo es válido o no, es la forma lógica de las premisas y conclusión. Ejemplos: Todos los entrerrianos son argentinos Todos los economistas son funcionarios Todos los argentinos son latinoamericanos Todos los funcionarios son asesinos peligrosos ___________________________________ ______________________________________ Todos los entrerrianos son latinoamericanos Todos los economistas son asesinos peligrosos Estaríamos inclinados a negar la verdad de la conclusión del segundo razonamiento, como también de las premisas. • Ambos tienen la misma forma lógica: Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 10. Todos los M son A Todos los A son B _______________ Todos los M son B Es una forma de razonamiento valida, para que sea falsa la conclusión es forzosa que al menos una premisa sea falsa. La deducción está limitada en el sentido que la conclusión no asevera la verdad de nada que no estuviera escondido de alguna manera en las premisas: no es por vía de la deducción que encontraremos nuevas verdades. - Inducción: involucra un proceso de generalización, partiendo de varias premisas de casos particulares de un mismo tipo, concluye la misma afirmación, pero referida a todos los casos de ese tipo. Ejemplo: El enanito 1 tiene poderes mágicos El enanito 2 tiene poderes mágicos El enanito 3 tiene poderes mágicos _____________________________ Todos los enanitos tienen poderes mágicos Las limitaciones son que no puede estipularse cuántas premisas se necesitan para justificar la conclusión, la verdad de la conclusión no está asegurada por la verdad de las premisas. - Abducción: ejemplo: Cuando pasa el afilador suena el timbre entre las 10 y las 11 Pasa el afilador Suena el timbre entre las 10 y las 11 Lo que ocurrió es que yo sabía que el timbre había sonado y se toma como punto de partida, junto con la afirmación general ‘Cuando para el afilador suena el timbre entre las 10 y las 11’ para afirmar que se trata del afilador. Se esquematiza así: Cuando para el afilador suena el timbre entre las 10 y las 11 Suena el timbre entre las 10 y las 11 -------------------------------------------------------------------------------- Pasa el afilador Este razonamiento parte de una afirmación general y una afirmación de un hecho y conduce a conjeturar la ocurrencia de un hecho previamente desconocido. Es preciso que la conjetura cumpla la condición de que de ella y de la afirmación general se deduzca el resultado. Razonamientos deductivos y reglas de inferencia Se utiliza a menudo el razonamiento deductivo, que partiendo de determinadas premisas nos permite llegar a una conclusión cuya verdad está garantizada mientras que las premisas hayan sido verdaderas. La lógica estudia entre otras cosas las condiciones para que un razonamiento deductivo sea válido, estas están dadas por determinadas reglas de inferencia. La lógica también se ocupa de decirnos que formas de razonamientos garantizan que las conclusiones de deducen de las premisas. Algunos conceptos de lógica preposicional Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 11. Una oración declarativa (que afirma un estado de cosas) enuncia una proposición, también llamado enunciado. Para saber si una oración dada expresa una proposición será que a toda proposición le corresponde un valor de verdad, debe ser necesariamente verdadera o falsa. Usamos letras minúsculas para representar proposiciones. Los conectivos lógicos son: La conjunción: ‘∧’ = ‘y’ La disyunción: ‘v’ = ‘o’ La negación: ‘¬’ ó ‘~’ = ‘no’ Los conectivos lógicos se interpretan por medio de tablas de verdad que indican el valor de verdad de las proposiciones compuestas en términos de los valores de verdad de las proposiciones componentes: • El condicional material y la inferencia El llamado condicional material (-) significa entonces. Ejemplo: llueve - el patio se moja. Solo afirma que no ocurre que llueve y el patio no se moja. Deja abiertas las tres posibilidades restantes: 1. Que llueva y el patio se moje 2. Que no llueva y el patio se moje 3. Que no llueva y el patio no se moje La tabla de verdad es: Solo muy pocas de las oraciones del lenguaje corriente que tienen la estructura ‘si... entonces...’ pueden asimilarse al condicional material sin deformar su sentido. Al tratar de simbolizar por medio del condicional material debemos ser cuidadosos de que este represente adecuadamente el sentido de la oración. • Razonamientos válidos La lógica estudia condiciones formales de validez de un razonamiento. Lo que si deben garantizar las reglas de inferencia es que siempre que las premisas sean verdaderas, lo sean también las conclusiones. Un razonamiento no es válido si las premisas sean verdaderas y la conclusión falsa. En lógica se suele reemplazar cada uno de los enunciados por una letra que lo simboliza. Un razonamiento que tiene premisas p1, p2, etc., y una conclusión q, es válido si es imposible que p1, p2, etc., sean verdaderas y al mismo tiempo sea q falsa. - Modus ponens: premisa 1 p-q Premisa 2 p Conclusión q Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 12. Es un razonamiento correcto, ya que no es posible que ambas premisas sean verdaderas y la conclusión falsa teniendo en cuenta la tabla de verdad - Modus tolens: sea ahora sabiendo que el patio se moja, me entero de que está seco, entonces no está lloviendo. Mi razonamiento fue: Premisa 1 p-q Premisa 2 ~q Conclusión ~p Este también es un razonamiento correcto. En ciencia se utiliza cuando no se cumple alguna de las consecuencias lógicas de la hipótesis o conjetura que se desea poner a prueba. - Falacia de afirmación del consecuente: sé que si llueve el patio se moja. Veo el patio mojado y digo está lloviendo. Este razonamiento, que no es válido se esquematiza: Premisa 1 p-q Premisa 2 q Conclusión p Esta no es una inferencia valida, de acuerdo a las tablas de verdad. Es frecuente que necesitemos evaluar una conjetura por sus consecuencias: acabamos de ver que en ese caso la verdad de nuestra conclusión no está garantizada. La lógica no nos avala; debemos buscar apoyo de otro tipo. CAPITULO 5: ‘Problemas metodológicos’ Introducción a la metodología de las ciencias naturales Una buena descripción del mundo sirve para explicar los acontecimientos que ocurren, ordenar datos de la naturaleza, anticipar la reacción de sistemas naturales, modificar el ambiente de manera de conseguir los objetivos que se propongan. Es decir, las descripciones de la naturaleza parecen cumplir con las necesidades de explicación, predicción y manipulación que el homo sapiens viene poniendo en evidencia. Cuando estas descripciones se apartan de las creencias mitológicas y mágicas, se convierten en teorías científicas. Estas describen alguna parte de la naturaleza que ha interesado a la humanidad. Funcionan como herramienta que nos permite predecir la ocurrencia de acontecimientos del tipo de los que se ocupa la teoría y manipular las condiciones para evitar, provocar o modificar esos acontecimientos. El método científico sería una colección de reglas que indicarían de qué modo se debe actuar para obtener datos, formular hipótesis y comprobar si son correctas. Sin embargo, los metodólogos no han podido dar más que lineamientos pero que en sí mismos tienen tantas dificultades que no parecen constituir un método certero para la obtención de teorías. Los datos disponibles fijan un límite a las conjeturas teóricas que los explican, pero ese límite todavía deja una gran libertad para las propuestas explicativas. Para una misma colección de datos habrá múltiples explicaciones satisfactorias y será necesario poner a prueba esos modelos explicativos. Así en el mejor de los casos tendremos una descripción que ha sido exitosa en las predicciones y satisfactoria en la manera que ha logrado articular los datos. Cuando nos referimos a los datos disponibles hemos hecho una selección del sistema a estudiar, que será nuestro ámbito de interés y ésta ya es una limitación impuesta Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 13. por nosotros. En las explicaciones que nos parecen satisfactorias suelen mencionarse conceptos y términos que escapan a nuestra percepción directa. Las descripciones suelen referirse a cosas que no se detectan de manera directa y sin embargo juegan un rol importante en la explicación. La caracterización de las entidades teóricas ha sido conflictiva, se esperaba obtener un método científico tan eficaz que las teorías se seguirían nutriendo siempre de datos consistentes. El progreso de la ciencia debería haber sido, un avance cada vez más profundo y a la vez más extendido de las teorías sobre la naturaleza. Cuanto más conociéramos de la naturaleza, más información tendríamos, pero también más convencidos quedaríamos de las teorías que nos habían llevado a ese conocimiento. La obtención del conocimiento no parece seguir una receta predeterminada y siempre requiere de la inventiva del investigador para sortear dudas. El progreso de la ciencia comienza a tener un carácter multidimensional en donde juegan importantes papeles la capacidad explicativa, simplicidad, articulación de las teorías la capacidad predictiva y de transformación de la naturaleza y el impulso hacia lo desarrollos tecnológicos que esa teoría promueve. Algunas recomendaciones básicas y sugerencias moderadas de cómo comenzar a estudiar los fenómenos naturales han sobrevivido. El contexto de descubrimiento y el contexto de justificación Toda práctica científica involucra distintos tipos de actividades de las cuales pueden distinguirse dos ámbitos: el de la creación y puesta a prueba de una teoría y el de la aplicación de las teorías. En el primero, encontramos la actividad que los científicos desarrollan cuando necesitan dar cuenta de algunos fenómenos y generan alguna propuesta explicativa al tiempo que se proponen hipótesis, estas se van poniendo a prueba. En el segundo, da cuenta de cómo se usan las teorías para resolver problemas que al ser resueltos, completan la descripción del mundo que esa teoría pretende dar. No se pretende poner a prueba la teoría, sino que se cuenta con ella para obtener ciertos resultados. Dentro del ámbito de la creación podemos distinguir dos aspectos: la propuesta de la teoría y la puesta a prueba de la teoría, llamados contexto de descubrimiento y contexto de justificación. La propuesta de una teoría se puede hacer sobre la base de datos existentes. O sea que la teoría es previa a alguna colección de datos, será necesario cotejar la teoría con los datos que se recaben posteriormente para corregirla o confirmarla. Es así que los contextos de descubrimiento y justificación están enlazados en un juego de alimentación mutua. Los nuevos datos sirven de base para generar nuevas hipótesis que seguidamente se ponen a prueba dando resultados que a su vez pueden generar la necesidad de nuevas hipótesis. Igualmente se puede hacer una distinción de objetivos, en el contexto de descubrimiento el científico propone hipótesis para explicar algún tipo de fenómeno. En el de justificación se preocupa de ver si esa explicación es adecuada ya que se ajusta a los datos. Entonces, el contexto de descubrimiento corresponde a la etapa en que los científicos proponen hipótesis que puedan servir para explicar un conjunto de observaciones, y el de justificación corresponde con la tarea de poner a prueba las hipótesis explicativas propuestas en la etapa anterior. Método inductivo El conjunto de observaciones puede ser descrito por un conjunto de afirmaciones que relatan las características observadas en cada caso. Una observación es la referente al tamaño de las venas y de las arterias de determinado paciente, por ejemplo. Si se agrupan varias observaciones del mismo tipo, como es el caso de que la sección de las arterias en todos los casos observados disminuye según su distancia al corazón, se podría generalizar Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 14. obteniendo una ley: ‘todos los individuos poseen arterias cuyas secciones disminuyen con la distancia al corazón’. Este tipo de proposiciones son afirmaciones empíricas generales, que indican cosas observables y tienen un alcance general ya que se refiere a todos los casos posibles. Algunos de los casos aludidos serán aquellos que fueron registrados y que de alguna manera motivaron la formulación de la hipótesis. Toros no han sido observados, y lo que afirma la hipótesis sobre ellos constituye una predicción. Al formular una hipótesis de tipo general se está afirmando que en todos los casos que se observan y observaran, presentan las características de la hipótesis. Podríamos decir que, al formular una hipótesis de tipo general, se pasa del nivel 1 (afirmaciones empíricas singulares) al nivel 2 (leyes empíricas. Entonces parece ser que una manera de obtener las leyes empíricas es generalizar a partir de un grupo de observaciones singulares que muestran cierta regularidad. Este proceso se ha denominado ‘método inductivo’ y una corriente ha sostenido que éste es el método por el cual los científicos descubren leyes empíricas. Observando un fenómeno en varias ocasiones diferentes, completando este proceso por medio de una inferencia inductiva, se sugiere que esta regularidad se cumple no sólo para los casos observados sino para todos los posibles. El proceso de inducción es el de generalizar la regularidad encontrada en un conjunto de observaciones que fueron realizadas dentro de una gran diversidad de condiciones. Según la descripción inductivista, la formulación de las leyes empíricas consiste encontrar una regularidad dentro del conjunto de las observaciones registradas y formular una generalización. Este paso de las observaciones a las leyes empíricas se la llama inducción. Luego, se podrá deducir tanto el conjunto de enunciados de observación de que se disponía previamente como nuevos enunciados de observación aún no registrados. Método hipotético-deductivo Cuando Harvey propuso la existencia de vasos capilares no estaba generalizando las observaciones previas. No podía hacerlo debido a que los vasos capilares no se veían, de modo que una ley ‘todos los individuos poseen vasos capilares que conectan las arterias con las venas’ no podría llamarse ‘afirmación empírica general’ ni ‘ley empírica’. Harvey tuvo que realizar un salto creativo. Tuvo que conjeturar la existencia de una entidad que no era observable, tuvo que postular una entidad teórica para su explicación de la circulación sanguínea. Existe otro nivel de afirmaciones además de los que hemos visto, el nivel 3, cuyas afirmaciones se refieren a alguna entidad teórica. Son las que expresaran las leyes teóricas. Si todas las entidades aludidas por la ley son teóricas, diremos que es una ley teórica pura, y si la ley contiene términos teóricos y también observacionales, diremos que es una ley teórica mixta. Si la inducción es el proceso de generalizar las observaciones para obtener una ley, esta ley no podrá referirse a ninguna entidad que no estuviera ya contenida en las observaciones. El método inductivo no puede dar cuenta de la formulación de leyes que aluden a entidades teóricas. Una corriente de la filosofía de las ciencias sostiene que la obtención de leyes, sean teóricas o empíricas, involucran un salto creativo y que la formulación de una ley no es la generalización de las observaciones, ya que no se necesita un gran número de observaciones para proponer una hipótesis. Si el científico generaliza a partir de observaciones, involucra el salto creativo que significa suponer que para infinitos casos ocurrirá lo observado en algunos. Existe una corriente que no acepta el método inductivo como explicación del modo en que los científicos llegan a formular sus leyes, llamado ‘Descripción hipotéticodeductivista de la ciencia’, que se distingue de ‘descripción inductivista de la ciencia’. La diferencia entre estas posturas se introdujo a partir de un ejemplo de ley teórica, es preciso también recordar que ambas corrientes también disienten en la forma de describir la obtención de las leyes empíricas. Según la descripción Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 15. hipotético-deductiva, la formulación de toda ley o conjunto conlleva un salto creativo por parte del que la formula. Una vez formuladas se extraerán de ellas por deducción algunas conclusiones o consecuencias que permitan la confrontación de esas leyes con la experiencia. El método de contrastación de hipótesis Ya sea que las leyes se obtengan por inducción o por salto creativo, ambas corrientes acordaran en que se deben poner a prueba para determinas si estas hipótesis son verdaderas o falsas (se confirman o no por los hechos). Supongamos que queremos poner a prueba la ley: ‘Todos los individuos poseen arterias cuyas secciones disminuyen con la distancia al corazón’. Si esta ley se nos ocurrió a partir de la observación de los pacientes 1,2, y 3, una puesta a prueba de la ley fijándonos si se cumple para estos mismos es una condición primordial para que la hipótesis se sostenga. La hipótesis debe explicar las observaciones ya realizadas. El paso siguiente es la puesta a prueba de la hipótesis confrontándola con algún caso que todavía no ha sido observado. Esta puesta a prueba consiste en averiguar si las predicciones que se extraen de la hipótesis se cumplen o no. Si la ley es verdadera y se refiere a todos los casos, entonces también valdrá para el caso del paciente 4, que cumple con las condiciones típicas de los medas. Hemos deducido un enunciado de observación (nivel 1) a partir de una ley empírica (nivel 2): a este enunciado de observación que hemos deducido de la ley lo llamaremos ‘consecuencia observacional’ (C.O.), ahora se plantean dos posibles resultados: o el paciente 4 presenta las arterias según lo dice el enunciado o presenta otras características que hacen que el enunciado sea falso. En este caso diremos que la consecuencia observacional no se cumple o que es falsa. Para ser más exactos, diremos que, si una de sus consecuencias observacionales es falsa, entonces la ley ha sido refutada. La refutación de una ley consiste en que una de sus consecuencias observacionales no se cumpla. Lo que es seguro es que a partir de confirmar la consecuencia observacional no hemos refutado la hipótesis, así que las evidencias con que contamos hasta el momento son compatibles con que la ley sea verdadera. Como la ley pretende ser aplicable a infinitos casos, no podemos saber si en alguna oportunidad será refutada. Podremos confirmar muchas de sus consecuencias observacionales y todavía quedara la posibilidad de que se refute. Por este motivo es que no podremos verificar una ley (afirmación general) sino que solo podremos aspirar a obtener una corroboración de la misma. Una hipótesis ha sido corroborada cada vez que una de sus consecuencias observacionales se verifique. Aceptación y rechazo de hipótesis en una disciplina fáctica El análisis del fundamento lógico en que puede basarse la decisión de rechazar o aceptar una hipótesis científica. Es común en las ciencias que se formulen hipótesis que no pueden ponerse a prueba. En ese caso lo que se hace es poner a prueba experimental alguna consecuencia particular verificable de la hipótesis (consecuencia observacional). Nos referimos a un tipo de relación particular que existe entre ambos enunciados: si es cierta la hipótesis entonces es cierta la consecuencia observacional: H- CO. Si la consecuencia observacional no se cumple rechazaríamos la hipótesis, en caso contrario la aceptaríamos. • Dificultades en la aceptación de hipótesis: ¿verificación o corroboración? Tomemos como ejemplo la hipótesis ‘la nieve es agua congelada’. Si la nieve era agua congelada, deberá fundirse. Considero la consecuencia observacional de mi hipótesis ‘si Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 16. tomo esta porción de nieve y la caliento a más de 0ºC se volverá liquida’. El resultado es positivo, ¿es una verificación de mi hipótesis? Llamemos p a la hipótesis y q a la consecuencia observacional. Lo que podemos afirmar entonces es la verdad de q y la verdad de p-q. Si de todo ello queremos deducir p, seria: 1. P-Q 2. Q Conc.: P Puede ocurrir que p no sea el único enunciado del que puede deducirse q. Incluso que sean contradictorias entre sí. Podría haber quizás sustancias distintas del agua que también funden a 0ºC. Una hipótesis dada puede llevar a varias y variadas consecuencias observacionales distintas. En el ejemplo, si la nieve es agua congelada, no solo deberá fundir a 0ºC sino además deberá tener cierta respuesta a los rayos X, cierta densidad, etc. Solo diremos que cada consecuencia observacional verificada es un caso de corroboración de la hipótesis. Y que los científicos tenderán a confiar más en aquellas hipótesis que hayan sido corroboradas a través de mayor cantidad. • Dificultades en el rechazo de hipótesis: ¿Cuál es el enunciado que se refuta? Cuando no ocurre lo previsto, ej.: la nieve no se funde obtenemos ~q, la negación de la consecuencia observacional. Si era cierto que p-q y nos encontramos al hacer la contrastación con ~q, es indudablemente correcto obtener la conclusión ~p; diríamos entonces que se ha falsado la hipótesis. Para deducir q no usamos solamente p sino además otras hipótesis (hipótesis auxiliares). • Otra dificultad en el rechazo de hipótesis: las hipótesis ad hoc Para una teoría la falla en las predicciones está mucho más lejos de indicar la falsedad de sus hipótesis. Frente a una refutación los científicos no abandonan la hipótesis, sino que dan argumentos adicionales para explicar la aparente contradicción entre las predicciones de esa ley y las observaciones registradas. De esta manera proponer que hubo una perturbación externa es formular una hipótesis ad hoc que hace mención de una falla en las hipótesis auxiliares que eran imprescindibles en la obtención de las hipótesis derivadas. Siempre que la hipótesis principal posea términos teóricos cabra la posibilidad de absorber las futuras refutaciones mediante la formulación de hipótesis ad hoc que modifiquen parcialmente la teoría o que hagan explicita la falla de una hipótesis auxiliar. En los casos en que la hipótesis no contenga términos teóricos podrá formularse una hipótesis ad hoc referida al error en la observación. 1. Una hipótesis ad hoc debe ser contrastable independientemente del caso que la motivo. Debe ponerse a prueba más allá del caso para el que fue formulada. 2. Este recurso puede hacer que la teoría mejore respecto de las hipótesis primitivas y se haga más compleja o bien puede enmascarar la falsedad de la teoría y retardar su abandono. 3. El hecho de que una hipótesis ad hoc deba su origen a una discordancia entre la teoría y datos, no debe inducirnos a pensar que este parche a la teoría no deba ser tomado como hipótesis muy importante. CAPITULO 6: ‘Las teorías científicas: su lenguaje y estructura’ Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 17. Entidades teóricas y entidades observables Podríamos decir que existen cosas de las cuales son percibidas directamente por nuestros sentidos y otras no. Estas últimas, cualidades y relaciones que no son accesibles a nuestra percepción, pueden estar relacionadas con las entidades observables. Este modo indirecto hace que no las podamos entender como entidades observables sino como teóricas. Como ejemplo de entidades observables son los colores, síntomas, signos, etc. A partir de cientos observables inferimos la existencia de otras entidades como: patologías, presión arterial, circulación sanguínea, etc. Las leyes empíricas contienen solamente términos observacionales y las leyes teóricas contienen algún contenido teórico. Un primer problema que se presenta es el relacionado con la utilización instrumental para la detección de ciertas entidades. Cuando medimos la presión arterial de un paciente, no observamos, sino leemos un valor en la escala del tensiómetro. Decimos de forma abreviada que observamos el valor de la tensión arterial. Este caso es totalmente aceptable y todos coincidiremos en que podemos clasificar a la presión arterial como una entidad observable. Tal teoría aceptada constituye en este caso lo que llamamos carga teórica de la observación, por lo tanto, la presión arterial es una entidad observable con carga teórica. Las cosas se complican al intentar clasificar entidades como las patologías. En este caso no estaremos tan seguros de aceptar que la epilepsia es observable. Seguramente mantendremos a todas estas entidades en la zona de entidades teorías. Optamos por clasificar como observable a alguna entidad que no es directamente percibida por los sentidos pero que es detectable con la ayuda de algún instrumento de medición simple. La distinción entre entidades observables y teóricas tiene un límite cago, impreciso y además, puede variar de una disciplina a otra. La carga teórica no solamente está relacionada con el uso de un instrumento, sino que a veces se debe implementar una prueba más o menos compleja que permita decidir sobre una variable, y esta prueba puede hacer uso o no de un instrumento en partículas. Existe otro tipo de carga teórica, la del bagaje cultural y profesional que filtra las observaciones de forma que creemos obtener información directa. • Carga teórica e hipótesis subyacentes La delimitación entre entidades observables y teóricas depende de la aceptación de la teoría que describe el funcionamiento del instrumento en cuestión, y que esto está íntimamente relacionado con el tipo de actividad a la que se dedique cada científico. Existen ciertas hipótesis previas que guían la observación, llamadas ‘hipótesis subyacentes’ también constituyen una carga teórica para esas observaciones. El proceso de observación consiste en percibir e interpretar a partir de la recepción de estímulos. Ejemplo: si el estímulo del ruido nos llega en un momento en el que estamos resguardándonos de la lluvia, interpretaremos este ruido como truenos, en otra ocasión, si pasamos cerca de un edificio que está siendo demolido, percibiremos el ruido como proveniente de la caída de los escombros. Cuando nosotros miramos por una ventana y vemos pasar una gaviota planeando, difícilmente nos preguntemos sobre qué otra cosa podría haber sido sino una gaviota. Cuando observamos, nuestras hipótesis subyacentes guían la interpretación. Debemos hacer un esfuerzo para descubrir estas hipótesis subyacentes, y si queremos encontrar una interpretación alternativa del estímulo. Por ejemplo, una interpretación alternativa seria que lo que pareció una gaviota era un pájaro artificial de un aficionado al aeromodelismo. Cuando decidimos comenzar un relevamiento (colección de datos) de cualquier índole, seguramente aplicaremos una serie de criterios por los cuales damos importancia a algunos datos y a otros no. No podemos observar sin que haya una parte teoría presupuesta, no hay hipótesis sin observaciones, pero tampoco hay observaciones puras sin hipótesis. Los inductivistas sostienen que la acumulación de datos de observación nos permite generalizar. Esto es pasar de las observaciones puras a las leyes empíricas o generales universales. Cada Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 18. observación contiene una carga teórica ineludible. Entonces no podríamos asegurar que en el proceso de generalización no se han involucrado condimentos teóricos. Esto ha sido una de las críticas más agudas al inductivismo. Estructura de una teoría científica De acuerdo a su alcance un enunciado puede ser singular o general (si aplica a un caso particular o a todos los posibles). Las afirmaciones empíricas singulares (nivel 1) son aquellos enunciados que referidos a una situación particular describen lo observado. Las leyes empíricas (nivel 2) son afirmaciones acerca de fenómenos observables pero que por referirse a todos los casos posibles de ese tipo de fenómeno tienen un alcance universal. Las hipótesis o leyes teóricas (nivel 3) son enunciados generales, pero contienen al menos un término que denota una entidad teórica. Si la ley contiene exclusivamente términos teóricos se trata de una ley teoría pura, mientras que si hay además algún término observacional se tratara de una ley teórica mixta. Una función de las leyes teóricas mixta es la de relacionar las entidades teóricas postuladas con las entidades observables de la teoría. Se establece un puente entre las entidades que postulamos sin haberlas observado y nuestra base empírica. Se llama ‘principio puente’ a estas hipótesis. Las leyes teóricas puras relacionan solamente las entidades teóricas que han sido postuladas por la teoría, el significado de estas entidades queda establecido por la teoría que las propone. Se llama ‘principios internos’ a estas leyes. Para que una teoría sea sometida a una contrastación o se la use para explicar ciertos fenómenos, son necesarias otras hipótesis no pertenecientes a la teoría en cuestión, hipótesis provenientes de teorías previamente enunciadas que prestan una función auxiliar, estas son ‘hipótesis auxiliares’. Los principios internos no guardan ninguna relación directa con lo observable. Los principios puente cumplen la función de conectar las entidades teóricas con las entidades observables. De los principios internos y puente junto con las hipótesis auxiliares es posible deducir leyes empíricas, y de éstas obtener las consecuencias observacionales. En la medida que las entidades teóricas de una teoría no están completamente definidas, sino que su significado se va ajustando, es posible la inserción de las hipótesis ad hoc y la estrategia de sostener la teoría disolviendo las refutaciones que se presenten. Cuanto más vaga es la formulación de una hipótesis, menos fuerza explicativa contiene. En la medida en que las hipótesis son menos refutables, sus predicciones son menos precisas. CAPITULO 7: ‘Explicación científica’ Explicación y comprensión Cuando se aborda el tema de la explicación, aparece el de la comprensión, sin embargo, ambos conceptos tienen algunas diferencias importantes. La más importante, es que la comprensión es una noción ligada al individuo y por lo tanto minada de subjetividad mientras que la explicación pretende algún grado de independencia y objetividad. Puede ocurrir que una explicación de cierto fenómeno resulte satisfactoria para un individuo y colabore en la comprensión para él, mientras que no lo sea para otro. Suele ocurrir que la explicación oficial a algunos les resulta satisfactoria mientras que otros no, les brinda comprensión a algunos, pero no a otros. El término ‘comprensión científica’ resulta habitualmente sumamente vago. Salmon, distingue distintos sentidos para el término comprensión: a- comprensión de significados, incluye la comprensión de símbolos, obras artísticas o lenguaje de civilizaciones. b- comprensión como empatía, compartir sentimientos o emociones. c- comprensión de propósitos, sean naturales o sobrenaturales. d- comprensión de fenómenos naturales. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 19. Esta última, incluye lo que llamamos ‘comprensión científica’. Nos interesan entonces aquellas explicaciones que permitan acceder a la comprensión científica. Podemos estar refiriéndonos, con el término explicación, a dos cosas distintas: por un lado, el proceso por el cual una persona comunica algo a otra con la intención de que comprenda un determinado fenómeno, o, por otra parte, podemos referirnos al contenido de lo que dice quien brinda la explicación. Podemos referirnos a cuál es la explicación o a como se da la explicación. En muchos casos se apela a recursos gráficos para ayudar. Existe un elemento que no depende de las características particulares de un proceso de explicación. Lo que se llama contenido de la explicación, que resulta independiente de quien lo expresa y del contexto en el cual se brinda la explicación. Tipos de explicación • La explicación como argumento ¿Por qué con la última lluvia que cayó se inundó Bs. As? La explicación usual de esto es que la ciudad tiene desagües preparados para evacuar un caudal X de agua y que ese día el caudal fue Y, mayor que X. La explicación se completa con: si en un conducto de líquido la cantidad que entra es mayor que la que sale, el conducto rebalsa. En primer lugar, lo que se desea es explicar un hecho particular, para hacerlo se cita una situación particular que se da en esta ciudad y ese día, finalmente se hace necesario enunciar leyes que permitan vincular los desagües con la inundación. Los enunciados están relacionados mediante un razonamiento tipo deductivo. Este modelo se conoce como ‘nomológico-deductivo’, considerado el modelo clásico, quien lo creo Hempel. En este modelo una explicación es un razonamiento deductivo en el cual la conclusión es el enunciado del hecho que se desea explicar y entre las premisas encontramos el enunciado de al menos una ley universal y los enunciados que fijan las características particulares de la situación que llamaremos condiciones iníciales. Se podría esquematizar así: Premisa 1 Enunciado de la ley 1 Premisa 2 Enunciado de la ley 2 …………. ………………………. Premisa n Enunciado de la ley n Premisa n+1 Condición inicial 1 Premisa n+2 Condición inicial 2 …………. ……………………….. Premisa m Condición inicial (m-n) Conclusión - Enunciado del hecho a explicar Las condiciones de este modelo serian citar leyes y condiciones iníciales de las cuales se deduce el hecho a explicar. Uno de tales requisitos adicionales es la necesidad de que la información citada en las premisas sea relevante para lo afirmado en la conclusión. La diferencia entre explicar y predecir es que, explicamos hechos que ya han ocurrido y hemos observado y predecimos otros que aún no hemos observado. Se pueden proponer muchas teorías que expliquen un mismo conjunto dado de observaciones, una manera de identificar cual es la que mejor se ajusta al conjunto de hechos del mundo es haciendo nuevas predicciones de manera de ver si lo que uno registra sobre el objeto de estudio que está tratando responde o no a lo que la teoría dice. • La explicación causal En general todas las explicaciones de tipo causal tienen esta forma: la ocurrencia de A se explica a partir de la ocurrencia de B pues B es causa de A. basta encontrar la causa de aquello que se quiere explicar. La situación no es tan simple cuando se presta atención a la relación establecida: causa-efecto. Esta relación tiene como característica Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 20. principal la asimetría: la caída de un rayo es causa de un incendio, pero el incendio no es causa de la caída del rayo. Esta propiedad es compartida por la explicación: si explicamos un suceso A citando otro suceso B como explicativo, no será aceptable explicar B citando A. • La explicación teleológica En algunas oportunidades los hechos son explicados a partir de propósitos. Este tipo de explicaciones no son habituales en ciencias naturales. Muchos animales reaccionan de manera peculiar ante la presencia de algo extraño que ven como agresor. Una explicación de tal conducta es que los animales realizan tales actos para que el agresor los persiga a ellos y así se alejen de sus crías. • La explicación estadística Es común que se utilicen leyes de tipo estadístico para brindar explicaciones. Los médicos explican que Juan haya contraído cáncer de pulmón debido a que es un fumador empedernido. Se sustenta sobre una ley estadística que dice ‘Los fumadores empedernidos tienen una posibilidad X de contraer cáncer de pulmón’. En este caso no puede armarse un razonamiento deductivo con la ley anterior y la condición inicial de que Juan es un fumador empedernido ya que la conclusión, Juan enferma, no se obtiene válidamente. Para este tipo de explicaciones se han propuesto otros modelos: • El modelo de explicación inductivo-estadística: Creado por Hempel, afirma que lo que puede obtenerse, no deductivamente, a partir de la ley y la condición de que Juan es un fumador, es que Juan tiene una probabilidad X de contraer cáncer de pulmon. En forma general: Al menos una ley estadística relevante Datos iníciales (con una probabilidad X, _______________________________ la citada en las leyes) Hecho a explicar En la discusión sobre este método indagamos sobre el significado de las leyes estadísticas y de las ‘predicciones’ probabilísticas. Una característica del modelo es que la probabilidad X mencionada debe ser alta para que el argumento resulte explicativo. • El modelo de relevancia estadística: Salmon propuso este modelo que da cuenta del ejemplo anterior, de la cura de Pedro pues solo afirma que la explicación estadística permite identificar los elementos que resultan causalmente relevantes para el hecho que se desea explicar. Este modelo afirma que un facto F es estadísticamente relevante para la ocurrencia de un suceso A si la probabilidad de que ocurra A dado que ocurrió F es distinta de la probabilidad de que ocurra A simplemente. Se puede simbolizar: P(A/F) ≠ P(A) [1] Donde P(A/F) se lee ‘probabilidad de que ocurra A dado que ocurrió F’. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 21. Este modelo no impone condición de mayor o menor probabilidad, tan solo propone que si se verifica [1] entonces F es estadísticamente relevante para A. Conclusión El modelo nomológico-deductivo requiere que se citen leyes universales. Pero, ¿existen leyes naturales en el mundo o sólo son una construcción humana para dar cuenta de él? Esta pregunta abre por un lado una discusión muy amplia que es la que se plantea entre realistas y no realistas científicos y por otro la discusión acerca de la naturaleza de los universales. Un modelo causal requiere la elucidación (aclaración de lo que es) de la relación causal. La misma pregunta formulada sobre las leyes universales se puede hacer para esta relación. También se discute hoy si se puede haber causas posteriores al efecto. Las explicaciones estadísticas apelan a leyes estadísticas y probabilidades de sucesos. Esto requiere elucidar la naturaleza de las leyes estadísticas y también el significado de la probabilidad. CAPITULO 8: ‘El problema de las leyes estadísticas’ El método estadístico Una dificultad en la obtención de teorías es que no todas las veces obtenemos leyes generales, sino que encontramos que los datos recogidos nos indican un porcentaje de casos que cumplen con cierta característica. Existe alguna relación estadística. Ejemplo: sabemos que no todos los niños que tengan contacto con un niño con sarampión se contagiarán. Pero es cierto que el porcentaje sí lo hará. Los datos nos permiten proponer la ley estadística que relaciona el estar en contacto con el contagiarse. El 75% de los niños que entran en contacto con un niño enfermo de sarampión, se contagian. Esta ley cumple con cierta característica y da la información complementaria del porcentaje de casos que no cumplen con esa característica. Esto ha llevado a una confusión para refutar la ley. Se argumenta que las leyes estadísticas no pueden refutarse ya que si un caso no cumple con lo que indica el enunciado entonces cae dentro del conjunto complementario que está contemplado por la ley. Sin embargo, la ley ha sido establecida a partir del estudio de conjunto de casos individuales, o sea son conjuntos de casos individuales. Y luego, contrastar la ley. Para poner a prueba esta ley, no basta con el análisis de un caso en el que un niño visita a su amigo que tiene sarampión. Para poder ponerla a prueba sería necesario que un lote de niños visite a su amigo enfermo y luego podremos determinar si en ese lote el 75% de los visitantes se ha contagiado. Si es así, hecho corroborado la ley. Si en cambio en porcentaje es distinto, entonces tendremos motivos para rechazar la ley. No encontramos una refutación a la ley estadística, aunque podemos tomar una decisión sobre la aceptación o rechazo de la ley. El problema se agrava a partir de intentar obtener inferencias a partir de estas leyes. A partir de esta ley y el dato de que Juan ha visitado a su amigo, deseamos obtener alguna predicción sobre el contagio de Juan. Hempel sostiene que se puede obtener una inferencia que dice: la afirmación ‘Juan se contagia’ se puede inferir con el 75% de probabilidad. Esquemáticamente: Ley: El 75% de los niños que entran en contacto con un niño enfermo de sarampión, se contagia. Dato: Juan visitó a su amigo enfermo de sarampión. ___________________________________________ (con el 75% de probabilidad) Juan se contagia. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 22. La línea que divide las premisas de la conclusión es doble para indicar que es una inferencia estadística. No queda muy claro que significa el 75% de probabilidad. Sea como sea que se resuelva la predicción estadística para un solo caso, las leyes estadísticas nos permiten predecir la composición de los lotes de casos. Otro ejemplo: tiramos una moneda cien veces para ver si está cargada, si no está cargada es simétrica, por lo tanto, esperamos que salgan tantas caras como cruces. También aceptamos que el resultado pueda diferir del 50% de caras y 50% de cruces. Podrían haber salido 60 y 40. Con este último resultado no sabríamos si la moneda está cargada o fue solo el azar. Mucho peor aún si es que obtenemos 100 veces cara. Todos los resultados son posibles, aunque algunos con mayor posibilidad que otros. Esto muestra que no disponemos de un resultado que lógicamente nos indique la falsedad de la ley. En general aceptamos que los casos de probabilidades pequeñas son indicativos de que la moneda está cargada. Será un criterio práctico el que nos permitirá tomar decisiones. Esta necesidad de tomarla por ausencia de un respaldo deductivo permanece siendo un problema para la contrastación de las teorías con leyes estadísticas. En cuanto a la aplicación de las leyes estadísticas para un solo caso, hay una manera distinta de entender la ley. Para el caso del contagio de Juan tenemos una expectativa de que Juan de contagie del 75%. Esa expectativa es racional. Lo mismo ocurre cuando elegimos salir con paraguas cuando escuchamos que hay 90% de probabilidad de lluvia. Aun cuando las leyes estadísticas no digan nada certero sobre un caso partículas, son útiles en la toma de decisiones racionales referidas a esos casos. Estas leyes son muy buenos indicadores del sistema global. También son muy importantes en la toma de decisiones en las ciencias sociales. La naturaleza de las leyes estadísticas Cuando tiramos una moneda al aire y la moneda está en perfectas condiciones esperamos que los resultados en una gran serie de pruebas muestren un porcentaje parecido al 50% cara y 50% cruz. Si con los sucesivos intentos predominan un resultado sobre otro, seguramente sospechara que es inhomogeneo. Si cada vez que tira cien veces la moneda, la mas de las veces sale cara, debería apostar cruz. El ejemplo de la moneda es un caso típico en donde el azar en el resultado de un solo tiro no puede eliminarse, aunque tengamos razones muy valederas para esperar que, en una cantidad grande de pruebas, el resultado cara se obtenga en el 50% de las veces aprox. Obtuvimos así una ley: el 50% de las veces que se arroja esta moneda al aire, sale cara. Pero, si supiéramos a qué velocidad se lanzó, con que ritmo de rotación, como choca contra el piso, cual es la elasticidad, etc. podríamos anticipar el resultado. La naturaleza de los objetos mecánicos es determinista, o sea dada una situación inicial el sistema evolucionara de acuerdo a leyes universales hacia un estado final determinado. En este caso la ley de la moneda, resulto estadística por la imposibilidad de tener en cuenta todos los detalles. En este caso es una ley que pretende disimular nuestra ignorancia sobre las condiciones iníciales exactas. Imaginemos un caso sencillo, la moneda está compuesta por átomos que pueden en cualquier momento cambiar su estado de energía. Si en el momento que la moneda cae, el átomo toma contacto con el piso y ocurre un cambio de energía, entonces el resultado del choque puede ser muy diferente. Lo peor del caso es que las teorías atómicas y nucleares que disponemos, contemplan la posibilidad de que un núcleo cambie su energía de forma espontánea. Algunos físicos que se resisten a que la naturaleza sea indeterminista creen que, aunque no podamos detectas las verdaderas condiciones que hacen que el núcleo se comporte así, seguramente debe existir alguna causa para el cambio de energía. Otros científicos aceptan la idea de que la naturaleza pueda ser indeterminista y que su descripción debe ser estadística. La discusión sobre la naturaleza de las regularidades estadísticas cobrara gran importancia en las ciencias sociales. Una corriente tendrá la Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 23. aspiración de poder registrar en el futuro todos los factores que influyen sobre una persona y al combinar esta información con las leyes psicológicas se podrá calcular el curso de acción que elegirá. Mientras que otra corriente puede opinar que las leyes psicológicas son estadísticas y solo muestran la forma en que toma decisiones un individuo en un determinado porcentaje de veces. Muchos investigadores creen en las leyes universales, pero sostienen la imposibilidad de la predicción, suscriben una posición en donde las leyes estadísticas suplen la información individual precisa. Otros sostienen que los fenómenos psicológicos y sociales deben abordarse desde un tratamiento estadístico debido a la naturaleza misma de esos fenómenos. Por último, está el grupo de los que sostienen que ni siquiera se podrán encontrar leyes estadísticas, cada situación es singular y única. CAPITULO 9: ‘Medición de variables y diseño experimental’ Diseño experimental Cuando se realiza una investigación en ciencias naturales nos dedicamos a recolectar datos que permitan poner a prueba nuestras hipótesis de esos procesos. Al cabo, realizar experiencias. Ahora, si queremos ver cuál es la reacción de un paciente a un determinado medicamento, debemos administrárselo. Luego registramos si el paciente mejora o no. ¿Esta mejoría se debe al medicamento o al hecho de darle una inyección? Es posible que algunos pacientes mejoren por el solo hecho de saber que están realizando un tratamiento. Esto se llama efecto placebo. Imaginemos que queremos probar la eficacia de un curso de capacitación en computación. Tomamos un examen diagnostico a los alumnos, luego damos el curso y tomamos otro al final del curso. Si el curso es bueno, deberán tener mejores resultados. Imaginemos que en la prueba final todos sacaron mejor puntaje, entonces concluimos que es curso es recomendable. Pero si tenemos en cuenta que cada estudiante tiene una computadora en su casa donde puede buscar información, como sabemos si la mejoría es por el curso o por mérito propio. Necesitamos medir también cual es el aprendizaje habitual, en ausencia del curso. Necesitamos dos grupos de personas: los que tomen el curso y los que no. Luego de evaluar, se nota que el aumento de conocimientos fue mayor en el grupo que asistió. Si preguntamos a un grupo de estudiantes quienes quieren participar de un experimento para evaluar nuevas estrategias didácticas, quizás recolectemos estudiantes que tienen interés en las innovaciones, o disponen de tiempo. Esta selección no sería adecuada ya que si el curso resulta exitoso no sabremos si se debe a las virtudes del curso o a la de los estudiantes. En ciencias sociales existe un equivalente al efecto placebo: ¿no podría pasar que los alumnos realizaban un esfuerzo por el solo hecho de asistir a un curso?, deberíamos lograr que los que no recibieron el curso en cuestión, realicen igualmente algún esfuerzo para ver si el resultado tiene que ver con el compromiso o con los contenidos del curso. Por lo tanto, debemos elegir dos grupos y decirles que tomaran parte en una investigación. No les diremos cuáles de los dos grupos obtendrán la estrategia didáctica X y ambos estarán igual de entusiasmados. Los grupos son: el experimental (estrategia X) y el de control (no se lo trata con las estrategias X). A esto se lo llama ‘ciego’. Si al final del curso el grupo experimental obtiene mejores puntajes que el grupo de control, indicaría que el curso es recomendable. Queda una dificultad más: debemos tener cuidado que los docentes tampoco sepan si están a cargo del grupo experimental o del de control. De este modo pondrán el mismo tipo de atención y esmero. A esto se lo llama doble ciego. Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 24. CAPITULO 13: ‘Inductivismo y falsacionismo en el contexto de justificación’ Los inductivistas sostuvieron que las leyes se obtenían por inducción a partir de una colección de datos mientras que los del método hipotético-deductivo hacían notar que toda observación tiene carga teoría y que las leyes se obtienen por conjetura (salto creativo). En lo que respecta a la prueba de leyes ambos coincidían en que se debía extraer las consecuencias observacionales de las leyes y compararlas con los datos obtenidos en la experimentación. Los inductivistas plantearon que la reiteración de las corroboraciones aumenta el grado de confirmación de la teoría, también adherían los del método hipotético- deductivo. Seguían siendo anti-inductivistas en el contexto de descubrimiento, pero eran inductivistas en el contexto de justificación. Sin embargo, se enfrentó una nueva corriente, el falsacionismo. Inductivismo Para esta corriente el conocimiento científico esta expresado en forma de leyes (o hipótesis). Una teoría no es más que un conjunto de leyes. Para analizar la validez de estas teorías es necesario recurrir a la observación y a la experimentación. Hay que contrastarla con los hechos. De esta forma lo que se obtiene, si el resultado es positivo, es un conjunto de confirmaciones de la teoría. El inductivista razonara diciendo: dado que haya ahora cada una de las consecuencias observacionales fue verificada entonces puedo suponer con un grado bastante alto de probabilidad que la teoría será confirmada siempre. El razonamiento sería: Confirmo la teoría por 1º vez. Confirmo la teoría por 2º vez. Confirmo la teoría por 3º vez. Es cada vez más probable que siempre confirme la teoría. Utilizan un razonamiento de tipo inductivo para decidir que una teoría aumenta su probabilidad de ser verdadera. Plantean que la tarea del científico consiste en elaborar teorías sobre la base de la observación y la experimentación, y buscar su confirmación. El inductivismo coloca la raíz del conocimiento científico en la observación. La observación pura es la que permite validar las leyes. Sostienen que la ciencia progresa permanentemente con la intención de compatibilizar mejor la teoría con la observación. Falsacionismo: la radicalización del método hipotético-deductivo Cuando se efectúa una corroboración, se utiliza un pseudo razonamiento (F.A.C.) P-Q Q ____ P Como no garantiza la verdad de la conclusión, no sirve para afirmar nada con certeza. Cuando se refuta una hipótesis se utiliza un razonamiento valido, el Modus Tollens: P-Q ~Q ____ ~P Que nos permite afirmar que nuestra hipótesis es falsa. Por lo tanto, una teoría no puede ser verificada, pero si parecería que puede ser falsada, los falsacionistas proponen utilizar esta asimetría como base de su explicación. Intentaran falsar las teorías en vez de buscar la confirmación como sostendrían los inductivistas. Si una hipótesis no es falsada entonces se Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 25. la mantiene provisoriamente. Los falsacionistas dirán que a medida que una teoría resiste más y más intentos de falsación, esta muestra su temple, y es más resistente. La otra tarea que realiza el científico según ellos, si bien sostienen que la validación del conocimiento la da la observación, saben que esta esconde siempre alguna carga teórica, lo que la torna falible. Consideran como punto de partida del conocimiento a las hipótesis que luego buscan justificar mediante la observación. Para esta corriente la ciencia progresa por descarte: a todas las teorías de que se dispone, las somete a prueba, elimina las que son falsadas y mantiene las restantes. No se llega a una teoría probablemente verdadera, sino que en cada momento hay una teoría que, sobreviviendo a sucesivos intentos de falsación, resulta dar la mejor disponible para explicar un determinado conjunto de fenómenos y la más cercana a la verdad. Supongamos que dos hipótesis que intentan explicar el mismo conjunto de fenómenos han resistido, para los falsacionistas ante esta situación debemos inclinarnos por la más falsable. Una teoría es más falsable que otra cuando es mayor el número de posibles intentos de falsación a que puede sometérsete. Por ejemplo: 1. Dos cuerpos cualesquiera se atraen con una fuerza directamente proporcional a las masas de ambos cuerpos e inversamente proporcional al cuadrado de la distancia que los separa. 2. Dos cuerpos cualesquiera se atraen. Cualquier caso que permita falsar la hipótesis 2, permite falsar la hipótesis 1, pero hay casos que permite falsar la hipótesis 1 pero no la 2. Por lo tanto, la primera es más falsable. Podemos relacionar a la falsabilidad con la mayor o menor profundidad de las informaciones brindadas por las hipótesis. Entonces, una hipótesis es más falsable que otra cuando es mayor el número de posibles intentos de falsación. • Reflexiones críticas sobre el falsacionismo y el inductivismo Para el inductivismo una de las bases es la observación, pero toda observación está acompañada de carga teoría y esto torna falible la observación. Ni los enunciados observacionales ya no son seguros. El falsacionismo por lo que plantea, se filtran necesariamente una o más hipótesis auxiliares, se puede falsar la conjunción de hipótesis, pero llegado a este punto no se puede decidir cuál es falsa y cual no del conjunto. El falsacionismo que admite la tesis acerca de la carga teórica de las observaciones ve caer la posibilidad de falsar teorías de manera definitiva. En la teoría de Copérnico, debería observarse el fenómeno de paralaje, no aparecía. En la época de Copérnico, el Angulo de paralaje, era muy pequeño y esto parecía como una refutación de la teoría. Pero en la teoría de Ptolomeo, no sucedía el mismo problema, pero sin embargo fue rechazada, aunque de acuerdo con lo sostenido por los inductivistas, la teoría mejor confirmada habría sido la ptolemaica. Como explican los falsacionistas que una teoría aparentemente falsada, como la de Copérnico, no fuera dejada de lado. Podríamos también preguntarnos cómo es que tardo 300 años en ser desechada la teoría de generación espontánea pese a haber sido falsada. CAPITULO 14: ‘Los programas de investigación científica de Lakatos’ El falsacionismo metodológico Esta visión sobre cómo se desarrolla la ciencia corresponde a Imre Lakatos, 1960 y se conoce como ‘metodología de los programas de investigación científica’. Ptolomeo sostenía que los astros giraban alrededor de la Tierra, en orbitas circulares, pero las predicciones no coincidían con lo observado. Para evitarlo, Ptolomeo sostuvo que montado sobre su órbita principal el planeta describía una órbita circular más pequeña llamada epiciclo, las nuevas predicciones coincidieron Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 26. mejor. Catorce siglos después, surge la teoría heliocéntrica de Copérnico, sostenía que el Sol era el centro de las orbitas de los planetas. Pero sus predicciones tampoco coincidían, hasta la llegada de Kepler. Sostuvo que los planetas describían orbitas elípticas en vez de circulares, por lo tanto, las predicciones coincidieron con lo observado. Para el problema de medición del ángulo de paralaje, se planteó que en esa época no se era capaz de medirlo, años después se pudo. Podemos notar que en ambas teorías se presentaban contradicciones: falsaciones (según los falsacionistas) o refutaciones. Pero en ninguno de los casos se desechó las teorías ante estas refutaciones, por el contrario, se modificaron elementos de la teoría para disolver la contradicción. Ptolomeo agrego epiciclos y Kepler cambio la forma de las orbitas. Entonces, se puede argumentar que la teoría cambia cuando se cambia alguna parte de ésta. La diferencia entre la teoría cosmológica de Kepler y Copérnico parece ser menos importante que la que existe entre Copérnico (o Kepler) y la de Ptolomeo. Podríamos hablar de una evolución de la cosmología heliocéntrica desde la teoría de Copérnico a la de Kepler, pero no de Ptolomeo a Copérnico. También hablamos de evolución cuando se pasa de la teoría de Ptolomeo sin epiciclo a la de Ptolomeo con epiciclos. Podemos pensar también que un geocentrista puede estar dispuesto a cambian cosas sobre su teoría, pero no lo estará sobre cuál es el centro alrededor del que giran los cuerpos celestes. Lo mismo ocurre con los heliocentristas. La sucesión de teorías constituye un ‘programa de investigación’ y el elemento intocable que comparten es el ‘núcleo central’ o ‘núcleo duro’. Otro ejemplo, es el del programa de investigación espontaneista, su núcleo central es que el surgimiento de un nuevo individuo se puede producir por generación espontanea. Enfrentado a este, el programa de investigación ‘biogenetismo’ (anti espontaneistas) que incluye en su núcleo duro que todo nuevo individuo proviene de al menos un individuo vivo anterior. Volviendo al programa ptolemaico, cuando se contrasto la predicción de la teoría para el caso de Marte, se obtuvo una refutación de la teoría. Esto es una falsación del conjunto de hipótesis, es problema es saber cuál de los enunciados que componen la conclusión es falso. Como no se está dispuesto a modificar el núcleo central geocéntrico, entonces se descarta. Se debe descartar hasta encontrar la posibilidad de atribuir la falsedad a un enunciado, en este caso ‘todos los planetas recorren orbitas circulares’ y por eso se decidió agregar un epiciclo a la órbita de Marte. Lo mismo ocurrió con el programa copernicano por lo que Kepler modifico la forma de las orbitas planetarias para resolver el problema. Como un partidario del programa no está dispuesto a tocar su núcleo central, entonces se decide modificar algo del resto para que el programa siga funcionando. Siempre que un científico este frente a una falsación de la teoría buscara modificar algo que no sea parte del núcleo central del programa para que este prediga lo que se observa y desaparezca la falsación. Lakatos llama al conjunto de enunciados que si se pueden modificar como ‘cinturón protector del programa’. También llamo al proceso seguido por el científico cuando se presenta una falsación al programa ‘heurística negativa del programa’. Esta, guía al científico para que modifique algún enunciado de la teoría con el fin de que desaparezca la falsación. El caso de las orbitas planetarias es un ejemplo de la heurística negativa del programa copernicano, donde Kepler modifica el cinturón protector desechando el enunciado sobre la forma circular de las orbitas reemplazándolas por la forma elíptica sin eliminas la tesis de que el Sol es el centro orbital. Otro ejemplo es el del problema del ángulo de paralaje en la época de Copérnico. Kepler con su ley, salvo el Este archivo fue descargado de https://filadd.com F I L A D D . C O M
  • 27. programa copernicano de una falsación, posteriormente a esa ley, Kepler desarrollo dos más sobre el movimiento de los planetas. De esta manera, amplio el programa agregando una hipótesis en el cinturón protector, sin previa falsación. Cuando ocurre esto, que los científicos agregan hipótesis para explicar con más profundidad sin que haya una refutación previamente, el programa evoluciona, y se le llama según Lakatos, ‘heurística positiva’ que es un conjunto de indicaciones sobre cómo desarrollar el cinturón protector para que el programa evoluciones. Hemos revisado dos programas: el ptolemaico y el copernicano. Estos dos programas rivalizaron, pero en un momento ya el programa geocéntrico fue dejado de lado y prevaleció el heliocéntrico. Otro caso para analizar es las observaciones realizadas de la órbita del planeta Urano que no coincidían con lo que predecía la teoría de Newton. Parecía construir una falsación para el programa, Leverrier y Adams formularon una hipótesis ad hoc para salvarlo. Esta hipótesis proponía que, debido a la existencia de un octavo planeta, Urano recorría una órbita diferente de la anteriormente predicha. Años más tarde se observaron problemas similares para la órbita de Neptuno y se propuso una solución similar. Ante el rotundo éxito que parecían presentar estas dos hipótesis corroboradas se sugirió algo similar ante los problemas que sucedían en la órbita de Mercurio, se postuló un décimo planeta, pero nunca fue localizado y el programa nunca pudo dar cuenta de la falsación que le significaba las anomalías en las orbitas de Mercurio. Podríamos decir que no resulto fructífero, cuando esto ocurre Lakatos plantea que el programa de ha tornado degenerativo, por el contrario, si el programa permite descubrir nuevos fenómenos a medida que se agregan hipótesis, entonces el programa es generativo. ¿Cuándo un programa es dejado de lado? Podríamos decir que el programa geocéntrico se había tornado degenerativo y fue reemplazado por el heliocéntrico que aparecía como progresivo. Entonces, un programa de investigación es dejado de lado cuando se torna degenerativo y además aparece un programa progresivo que pueda reemplazarlo. CAPITULO 15: ‘El desarrollo de la ciencia según Kuhn’ Introducción: algo más que hipotético-deductivo Se pueden distinguir tres niveles de preguntas sobre una hipótesis: 1. ¿Es verdadera o falsa?; 2. ¿Se ha corroborado o se ha refutado?; 3. ¿Es sostenida o rechazada por los científicos? Podemos ver que hay ciertas implicancias lógicas y otras que no son del tipo lógico, por ejemplo: Si H es verdadera - H será corroborada. Esta es una implicación, otro tipo de razonamiento es el que nos guía para sostener hipótesis que nos parecen verdaderas y rechazar las que nos parecen falsas, seria: Si H fue refutada - ¿rechazaremos H? Si H fue corroborada - ¿aceptaremos H? La descripción kuhniana En 1960, Kuhn observó que había periodos en el desarrollo de la ciencia, y que había otros periodos en los que teorías eran objeto de gran análisis y revisión. • Ciencia normal: un montón de enigmas y algunas anomalías Este archivo fue descargado de https://filadd.com F I L A D D . C O M