1. Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.
Resumen— En termodinámica, la entropía es
una magnitud física que, mediante cálculo, permite
determinar la parte de la energía que no puede
utilizarse para producir trabajo. Es una función de
estado de carácter extensivo y su valor, en un sistema
aislado, crece en el transcurso de un proceso que se dé
de forma natural. La entropía describe lo irreversible de
los sistemas termodinámicos.
Índice de Términos— entropía, sistemas abiertos,
sistemas cerrados, neguentropía, equilibrio en la
evolución.
I.INTRODUCCIÓN
El principio cero de la termodinámica establece el
sentido de flujo de la energía, el segundo principio dice
que la energía no viene y no se va a la nada, y el tercer
principio que existe una temperatura tan baja que no se
puede alcanzar, pero, y la segunda ley?.
De todas las leyes de la termodinámica, la segunda y su
concepto de entropía es por mucho el más complicado
de entender, debido a que es una de las nociones más
abstractas en toda la física. En primera instancia, no
debemos confundir la entropía con la energía, pues de
hecho ambos poseen unidades dimensionales muy
diferentes.
Pero, ¿qué es entropía?
En primera instancia, la entropía como tal puede
describirse como una cantidad, y puede definirse como
una variable (S) la cuál es de hecho una variable de
estado, es decir, su valor dependerá y estará
interrelacionado con las demás variables de estado de
un sistema en un momento específico, y será diferente a
la del mismo sistema en otro estado diferente.
II. DESDE LA ÓPTICA DE LA TGS QUE PERSIGUE Y
COMO ES DEFINIDA LA ENTROPÍA.
En el ámbito de la teoría de la información la
entropía, también llamada entropía de la
información, mide la incertidumbre de una
fuente de información.
La Entropía también se puede considerar como
la cantidad de información promedio que
contienen los símbolos usados. Los símbolos
con menor probabilidad son los que aportan
mayor información; por ejemplo, si se considera
como sistema de símbolos a las palabras en un
texto, palabras frecuentes como "que", "el", "a"
aportan poca información. Mientras que
palabras menos frecuentes como "corren",
"niño", "perro" aportan más información. Si de
un texto dado borramos un "que", seguramente
no afectará a la comprensión y se
sobreentenderá, no siendo así si borramos la
palabra "niño" del mismo texto original.
Cuando todos los símbolos son igualmente
probables (distribución de probabilidad plana),
todos aportan información relevante y la
entropía es máxima.
El concepto de entropía es usado en
termodinamica,mecanica estadistica y teoria de
la informacion. En todos los casos la entropía
se concibe como una "medida del desorden" o
la "peculiaridad de ciertas combinaciones".
Entropía
Molina Sergio Manuel., Burgos Hernán
Sergiomontiel1@hotmail.com , heburg95@hotmail.com
Universidad De Córdoba
1
2. Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.
III. CUADRO COMPARATIVO SOBRE ENTROPÍA EN
SISTEMAS ABIERTOS Y SISTEMAS CERRADOS.
Sistemas
Abiertos - interactúa constantemente con el ambiente
en forma dual, osea, lo Influencia y es
influenciado. El sistema cerrado no
interactúa.
- puede crecer, cambiar, adaptarse al
ambiente y hasta reproducirse bajo ciertas
condiciones ambientes.El sistema cerrado
no.
- es propio del sistema abierto competir con
otros sistemas, no así el sistema cerrado.
Cerrado
s
- es un sistema físico (o químico) que no
interacciona con otros agentes físicos
situados fuera de él.
- no está conectado "causalmente" ni
correlaciona mente con nada externo a él.
- la energía total de dicho sistema se
conserva (ver conservación de la energía),
de hecho, un sistema cerrado al estar
aislado no puede intercambiar energía con
nada externo a él.
IV. DE QUÉ MANERA LA ENTROPÍA AFECTA LA
INFORMACIÓN.
La entropía es una medida de la dispersión que
existe dentro de un sistema.
Hablando de energía estamos en lo correcto,
hay energía que se pierde y que no se puede
utilizar en un proceso nuevamente.
la entropía mediría no sólo la pérdida de
información, sino cuánta información aún no
está acomodada en donde debe terminar (por
ejemplo, el número de iteraciones en un
algoritmo antes de llegar al valor esperado ó
que satisfaga).
Todos los sistemas tienden a llegar a un
equilibrio y sistemáticamente hablando,
mientras existan procesos sin llegar a un
equilibrio y si dentro de estos procesos existe
merma en la información (bytes que ya no
permanezcan fragmentados, por ejemplo) la
entropía puede mantenerse igual si el proceso
no es muy "grande" ó crecer si se trata de un
gran proceso.
V. COMO LA INFORMACIÓN CONTRIBUYE EN LA
ORGANIZACIÓN.
La información contribuye de tal forma que
ayuda a la organización de las cosas, por
ejemplo una empresa estando informada de los
gastos y las entradas es capaz de mantener
organizada su contabilidad y no tener deslices
en la parte económica. La información ayuda
no solo a las empresas sino que también ayuda
a mantener organizada una casa, pagina web,
una universidad, entre otras cosas.
VI. ¿CONTAR CON SUFICIENTE INFORMACIÓN
SIGNIFICA QUE ESTÉ TOTALMENTE ORGANIZADO?
La respuesta es NO. Tener bastante información
no implica que estemos organizados,
información es solo el insumo de la
organización, entonces hablamos de
organización viene a ser la estructura
jerárquica de un nivel o N niveles que consumen
insumos que es la información.
o Una organización se alimenta de
información.
o Organización es toda información
pertinente, vital y necesaria.
o Organización es una estructura que tiene
propios niveles de información.
o Organización es una estructuración por
niveles jerárquicos y no todos toman la
misma información.
Información y organización tiene mucho que ver
con “oído generalizado” e “isomorfismo”.
La organización consume información
dependiendo de los niveles de estructuración.
VII. NEGUENTROPÍA.
Mecanismo por el cual el sistema pretende
subsistir, busca estabilizarse ante una situación
caótica.
VIII. OBJETIVO DE LA NEGUENTROPÍA.
La neguentropía busca la subsistencia del
sistema para lo cual usa mecanismos que
ordenen, equilibren, o controlen el caos.
Mecanismos de neguentropía hace que el caos
entre o esté dentro de los límites permisibles.
2
3. Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.
IX. FUNDAMENTACIÓN DEL EQUILIBRIO EN LA
EVOLUCIÓN.
En la La evolución en equilibrio las acciones y
reacciones que se suceden dentro del sistema no
aparecen reflejadas en el carácter general del
sistema a corto plazo, pero son fuerzas latentes
que tratan de llevarlo a un cambio, aunque éste
sea imperceptible. Por ejemplo, cuando el
esposo llega de su trabajo, cansado y
disgustado por algún problema en su oficina, es
probable que esa tensión se descargue dentro
del hogar y así se podrá escuchar una violenta
discusión con su hijo o con su esposa. Ya
entrada la noche y producida la calma, viene
generalmente la reconciliación.
X. PRINCIPIO DE ORGANICIDAD.
El universo puede ser representado como un
sistema o como un conjunto de subsistemas que
interactúan y se relacionan unos con otros
dentro de una realidad dinámica, de tal forma
que las acciones o intercambio de energía que
suceden en un subsistema determinado afectan
a los demás.
XI. UN PARALELO ENTRE LOS ENFOQUES PLANTEADO
POR NEWTON Y LA TGS EN CUANTO A LA ORGANICIDAD.
Organicidad
NEWTO
N
La mecánica Newtoniana Newton
estableció tres leyes de la dinámica que
son: a) ley de la inercia b) Ley de la fuerzas
c) Ley de la acción-reacción y con ellas es
factible ilustrar la suposición de que un
sistema es factible establecer la condición
de equilibrio estadístico, que supone que
las condiciones internas permanecen
constantes, cuasi-estáticas.
TGS Plantea la definición de sinergia desde el
punto de la variabilidad del sistema total en
relación a la variabilidad de sus partes y
enuncia que: V t < V 1 + ……+ V n o bien
V t < S V i ecuación que expresa: “ un
objeto es un sistema cuando la variabilidad
que experimenta la totalidad es menor
suma de la variabilidad de cada una de sus
partes.
XII. OBJETIVO DE UN SUBSISTEMA DE CONTROL.
Mecanismo que se encarga de evaluar los
patrones de salida dentro del sistema.
XIII. FUNCIÓN TIENEN UN SUBSISTEMA DE CONTROL.
3
Es aquel mecanismo que hace que los insumos
estén en los límites permisibles.
Existe un subsistema de control que toma las
medidas correctivas cuando en alguna parte del
sistema no se está enviando la información
adecuada, cuando no se están enviando los
parámetros correctamente se llama corriente de
control negativa, es decir, la que se corrige en
el tránsito a través del sistema.
XIV. CUÁLES SON LOS COMPONENTES DEL SUBSISTEMA
DE CONTROL.
· Variable. Cualidad o característica a evaluar o
controlar, la cual debe estar ubicada entre los
límites.
· Sensor. Mecanismo de control, aquel
subsistema que sea sensible a la cualidad que se
desea controlar (existen mecanismos de
autocontrol, sentir).
· Medios Motores. Aquel que hace que se cumpla
la medida correctiva, desencadena el
mecanismo equilibrante o el que toma la acción
(hacer).
· Fuente de Energía. Es el insumo mínimo que
posibilita que el mecanismo equilibrante
funcione.
· Retroalimentación. Es el que dice si se corrigió
bien la variable, positiva (+) si se controlo de
forma adecuada la variable, y negativa (-) si se
controlo de forma inadecuada y requiere
corrección.
En resumen, los componentes ayudan el transito de la
energía dentro de los parámetros permitidos.
XV. CUADRO COMPARATIVO ENTRE
RETROALIMENTACIÓN POSITIVA Y NEGATIVA.
Retro-alimentación
Positiva - Cuando mantenemos
constante la acción y
modificamos los objetivos.
Negativa - Cuando se mantienen
constantes los objetivos,
pero la conducta o acción
modifica durante el tiempo.
4. Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.
XVI. CONCLUSIONES
La entropía ejerce su acción en los sistemas aislados es
decir, aquellos que no "comercian" con su medio. Luego
podemos afirmar concretamente que estos sistemas se
encuentran condenados al caos y a la destrucción. Los
objetos físicos tienden a ser sistemas cerrados, y éstos,
evidentemente, tienen una vida limitada. El paso del
tiempo en la arquitectura de épocas antiguas lo señala.
Las pirámides de Egipto, mejor aún, la Esfinge,
muestran los efectos de la entropía. Sin duda alguna, el
estado más probable de los elementos que conforman la
Esfinge no es la organización especial que esos
elementos asumen en la construcción del monumento el
estado más probable de la arcilla y de la roca es la
distribución estocástica en la naturaleza de la primera y
la desintegración en partículas y arena en el caso de la
segunda. Basta observar el caso en una fotografía del
estado actual de la Esfinge y compararla con las
ilustraciones que la representan en su estado inicial
para comprender los efectos de la entropía.
Autores
Sergio Molina, bachiller de la institución educativa
Simón Bolívar y actualmente universitario en ing. de
sistemas.
Hernan Burgos, bachiller del colegio José A. Galán del
municipio de San Pelayo y actualmente universitario en
ing. de sistemas.
4