En este capítulo se explica el concepto de entropía con base en las leyes de la termodinámica y como esta puede afectar a un sistema y llevarlo a un estado de alta desorganización.
De forma similar se estudia la neguentropía como agente organizador en sistemas abiertos.
Al inicio de la presentación también se menciona la importancia del flujo en un sistema.
2. 1. El flujo de recursos en un sistema
Todo sistema se define como un conjunto de partes
interconectadas para lograr un objetivo.
Estas interconexiones permiten que los recursos dentro del
sistema pasen por diferentes procesos ó fases
(subsistemas) creando un flujo de energía o información
según sea el tipo de recurso.
3. 1. El flujo de recursos en un sistema
El flujo de energía o información en un sistema es clave
para entender o evaluar la función de este.
Al observar cómo se transforman los recursos en función
de diversas partes o componentes del sistema, permite
establecer relaciones entre dichas partes o asignarles
funciones específicas.
4. 1. El flujo de recursos en un sistema
Con base a lo anterior, el flujo en un sistema permite
realizar diferentes funciones sobre los recursos de un
sistema:
● Transformación
● Distribución
● Reunión
● Amplificación
● Reducción
● Inversión
6. 1. El flujo de recursos en un sistema
El flujo en un sistema no se realiza de manera “gratuita”,
transportar recursos o transmitir información tiene un costo
dentro del sistema que tiene efectos sobre este.
Tales efectos son modelados según las leyes de la
termodinámica.
7. 2. Las leyes de la termodinámica
Describe las relaciones e intercambios de energía y cómo
se transfiere esta de un cuerpo a otro.
A pesar de ser un principio físico, sus enunciados se
acomodan a los efectos del transporte o flujo de recursos
dentro de un sistema.
8. 2.1 Ley cero
En física:
Entre dos cuerpos a la misma temperatura no existe flujo
de energía calórica, y permanecen en equilibrio estadístico.
En teoría de sistemas:
No existe conexión entre dos componentes cuyo objetivo
es manipular la misma cantidad y/o el mismo tipo de
recurso.
9. A B
A B
Si A y B manejan el mismo tipo de recurso y en las misma cantidades, entonces no
existe una conexión entre estas dentro del sistema de referencia
A y B tienen el mismo nivel y tipo
de recurso (no hay conexión)
A posee una cantidad o tipo de
recurso diferente que B
10. 2.1 Primera ley (En sistemas energéticos)
En física:
En un sistema aislado, la energía total del sistema se conserva. Si un proceso
de transformación de energía no es 100% efectivo, las pérdidas se dan en
forma de calor (Energía no aprovechable).
En teoría de sistemas:
● Un sistema no puede producir salidas superiores a sus entradas sin entrar
en déficit.
● Un sistema, por mucho, puede producir salidas iguales en cantidad a sus
entradas.
● Si un sistema produce salidas menores al 100% de sus entradas, la
energía restante es entregada al medio o acumulada por el sistema
11. ES
= EIN
- EOUTES
EIN
EOUT
ELOST
= EIN
- EOUT
ES
= 0
ELOST
es energía no aprovechable
para el sistema
ES
EIN
EOUT
ELOST
Sistema que acumula recursos
Sistema con pérdidas sin acumulación de recursos
12. 2.2 Segunda ley
En física:
El flujo de calor en un sistema termodinámico siempre va en
dirección del cuerpo de mayor temperatura al de menor.
En teoría de sistemas:
Un sistema que transforma un recurso de entrada en uno
de salida normalmente no puede realizar el proceso
inverso.
13. S
Si S transforma los recursos de A en los requeridos por B, no debe ser capaz
de realizar el proceso contrario. Para ello requiere otro subsistema diferente
A B
SA Bs
14. 2.1 Segunda ley (Otra definición)
En física:
Todo proceso de conversión de energía involucra que una porción se convierte
en calor. Este calor no es aprovechable y por tanto todo proceso de
intercambio de energía tiende eventualmente a convertir todo en calor.
En teoría de sistemas:
Los recursos de un sistema no son 100% aprovechables, siempre habrá
pérdidas que dirigen al sistema hacía su estado más probable (caos ó
equilibrio estadiśtico).
16. 3. Entropía
La entropía puede entenderse de varias maneras:
● La tendencia que tiene todo sistema a alcanzar su
estado más probable (alta entropía).
● La medida de la cantidad de energía que no es
aprovechable por el sistema para ser transformada de
nuevo.
● La medida del caos o falta de organización en un
sistema.
17. 3. Entropía
De acuerdo a la definición anterior, un sistema con BAJA
entropía cumple:
● No se encuentra en su estado más probable.
● La mayor parte de su energía puede ser usada en
nuevos procesos
● Es altamente organizado
18. Ejemplos:
Castillo de naipes Huevo El aire bajo estructura de vientos
(Alta organización) (Alta organización) (Energía eólica aprovechable)
19. 3. Entropía
De acuerdo a la definición anterior, un sistema con ALTA
entropía cumple:
● Se encuentra en su estado más probable.
● Su energía está presente pero no se puede aprovechar
de nuevas formas
● Es altamente desordenado
20. Ejemplos:
Castillo de naipes Huevo El aire bajo estructura de vientos
(Desordenado) (Roto) (El aire sino es viento no se puede aprovechar)
21. Cuestiones extra:
- Ques es más fácil de mantener ¿Un castillo de naipes o
un conjunto desordenado de cartas?
- Un huevo sometido a las fuerzas del exterior ¿Es más
fácil que permanezca entero? ¿O que se rompa?
- ¿El aire en un recinto se convierte en viento? sino ¿Que
hay que hacer para generar viento?
22. 3.1. Definición de estado más probable
El estado más probable de un sistema es aquel que asegura no
ser alterado fácilmente por las condiciones del medio.
Normalmente una condición aleatoria o de azar asegura poca
variabilidad a condiciones externas.
Se dice que el universo tiende a distribuir la energía de forma
uniforme, maximizando la entropía y que por ende todo sistema
tiene a maximizar su entropía (por naturaleza)
23. 3.2. Entropía en sistemas cerrados
A pesar de que un sistema cerrado, (por definición), no se
comunica con su medio; la generación de entropía es un hecho
ineludible y se considera como una corriente de entrada
permanente debido a que es inducida por la naturaleza del
universo.
SISTEMA
Entropía
24. Por qué el aumento de entropía es un hecho ineludible en
sistemas cerrados?
- La primera ley de la termodinámica asegura que la cantidad de
energía en un sistema cerrado debe ser constante.
- La segunda ley implica que los procesos no son reversibles a
través del mismo subsistema y que cada proceso involucra
pérdidas de energía.
- Por tanto, si siempre hay cantidades de energía representadas
en pérdidas y si la energía total del sistema no debe cambiar,
significa que esa energía se convierte en energía no
aprovechable (entropía).
25. Consecuencias de la entropía en sistemas cerrados:
- El nivel de entropía de los subsistemas no puede ser mayor al nivel
de entropía del medio. (El sistema debe ser siempre más organizado
que su exterior).
- Un sistema llega a sus estado más probable cuando su energía no
está contenida en sus partes sino en el medio de forma no
aprovechable
- En el estado mas probable, el sistema y sus partes no representan
una estructura funcional con un objetivo y pierde su definición de
sistema.
26. 50%30%0%
50%
50%
0%0%
0%
0%
35%35%
25%
25%
0%0%
60%
0%
0%
20%20% 100%
0%
0%
0%0% 100%
Estado inicial (t=0): toda la
energía incluida en el sistema
Estado (t=1): se pierde 30% de energía
que recibe el exterior.
Estado (t=2):Debido a que los niveles de
energía cada vez son mas homogéneos,
se transfiere menos energía y hay menos
pérdidas (20% esta vez).
Estado (t=3): Cada vez se transfiere menos
energía, pero la entropía no deja de aumentar
Equilibrio (t=∞): Eventualmente la energía es
absorbida por el medio, y no hay flujo.
Máxima entropía: Sin flujo de energía, no se
distinguen componentes entre sí, se llega al estado
más probable (caos) y desaparece el sistema.
27. Ejemplos y cuestiones:
Para los siguientes sistemas cerrados cual su estado más
probable y por qué se llega ahí?
- Un sistema masa resorte
- Un péndulo
- Un ecosistema aislado (caja de petri)
28. Ejemplos y cuestiones:
Para los siguientes sistemas cerrados cual su estado mas
probable y por qué se llega ahí?
- Un sistema masa resorte (Cero movimiento)
- Un péndulo (Cero movimiento)
- Un ecosistema aislado (Muerte)
29. 3.2. Entropía en sistemas abiertos
El fenómeno de entropía también afecta a los sistemas abiertos
y se considera como una corriente de entrada que impulsa el
sistema a su estado de caos o destrucción
SISTEMA
Entrada
Entropía
Salida
30. 3.2. Entropía en sistemas abiertos
Al igual que en sistemas cerrados, la entropía es ineludible. Sin
embargo, a diferencia de estos, los sistemas abiertos pueden
tomar recursos del medio para contrarrestarla.
SISTEMA
Entrada
Entropía
Salida
31. Ejemplos y cuestiones:
Para los siguientes sistemas abiertos cual su estado mas
probable?
- Un ser vivo
- Un negocio
- Un péndulo invertido
32. Ejemplos y cuestiones:
Para los siguientes sistemas abiertos cual su estado mas
probable?
- Un ser vivo (muerte)
- Un negocio (quiebra)
- Un péndulo invertido (masa en equilibrio hacia abajo)
33. - En los sistemas cerrado la entropía siempre es creciente,
por tanto en algún momento el sistema llegará a su
estado más probable que es el caos.
- Sin embargo hay sistemas que conforme pasa el tiempo
no parecen desordenarse y, más aún, van evolucionando
en un sistema más organizado.
- Note, sin embargo que este último grupo de sistemas
normalmente caben dentro de la categoría de sistemas
abiertos o vivos
34. Ejemplos y cuestiones:
Para los siguientes sistemas abiertos como se combate el
estado más probable?
- Un ser vivo (metabolismo)
- Un negocio (gestión)
- Un péndulo invertido (control)
35. 4. Neguentropía
También denominada entropía negativa, hace referencia a la
acción que hace un sistema para contrarrestar su nivel de
entropía creciente. Normalmente el sistema usa parte de sus
recursos para tal acción.
SISTEMA
Entropía
Salida
Neguentropía
36. 4. Neguentropía
La ley de conservación de energía también ilustra como la
energía preservada por el sistema se puede usar para combatir
la entropía
37. 5. Entropía y neguentropía (sistemas de
información)
Anteriormente se habló de que el conocimiento en un sistema de
información siempre es creciente debido a la ley de incrementos.
38. 5. Entropía y neguentropía (sistemas de
información)
Sin embargo, entendiendo un sistema de información como un
un proceso que toma información del medio, codifica un
mensaje y lo entrega al receptor, es posible observar que el
elemento encargado de codificar el mensaje puede ser sujeto de
ruido, variaciones o corrupción del mensaje.
Canal o
medio de información
Información
Ruido
Mensaje
39. 5. Entropía y neguentropía (sistemas de
información)
Tal ruido o corrupción del mensaje se considera una fuente de
entropía ya que reduce la información que se puede obtener del
sistema y condiciona el estado más probable en el receptor del
mensaje que es cualquier información (correcta o errada) que
pueda suponer acerca del medio que estudia.
Canal o
medio de información
Información
Ruido
Mensaje
40. 5. Entropía y neguentropía (sistemas de
información)
Por su parte, la generación de nueva información se considera
una fuente de neguentropía.
Así mismo, la calidad del canal de información también
contribuye a la reducción de entropía.
Canal o
medio de información
Información
Ruido
Mensaje
41. 5.1. Medición de la máxima entropía (estado
más probable) en sistemas de información.
El estado más probable en un sistema de información depende del número de
estados ‘N’ que puede tener un mensaje.
Tal estado más probable se logra cuando todos los estados del mensaje tienen
la misma probabilidad de ser entregados por el canal. Es decir
P(1)=P(2)=P(3)…=P(n).
En el estado más probable, la máxima entropía se mide como la posibilidad de
entregar el mensaje incorrecto asumiendo que todos los estados tienen la
misma posibilidad de entregarse.
42. 5.1. Medición de la máxima entropía (estado
mas probable) en sistemas de información.
La fórmula de máxima entropía es:
Por ejemplo para un sistema de información donde la información solo tiene
dos estados de respuesta (si ó no) tenemos N=2.
Para un sistema, que envía mensajes por medio
de letras (26) y dígitos (10) tenemos N=36.
Un sistema con infinitos estados se tiene:
43. 5.2. Cómo reducir la entropía en sistemas
de información?
El estado de máxima entropía se reduce minimizando las
posibilidades de estados erróneos y maximizando los correctos
a través de:
- Nuevos datos o información
- Buena calidad de la comunicación
Canal o
medio de información
Información
Ruido
Mensaje
44. Ejemplo:
Se tiene un piso cuadriculado de 6x6 baldosas. Se lanza una
moneda sobre ese piso y se desea saber en qué baldosa
cayó.
45. Numeramos los estados del 1 al 36:
Sin tener datos de donde cayó la moneda cualquier estado
es posible.
46. El sonido que produce la moneda al caer indica donde cayó
exactamente, sin embargo como el oido humano no es muy
fino (mal canal), no es posible definir el estado correcto con
seguridad
47. Si alguien me indica que cayó en una esquina, tengo
información no del todo precisa pero se transmite de forma
correcta (lenguaje humano)
48. Finalmente, la información precisa por un canal muy fiable,
por ejemplo, ver donde cayó, minimiza la entropía.
49. 5.2. Cómo reducir la entropía en sistemas
de información?
La reducción de entropía o ruido es un problema recurrente en
sistemas de comunicación digital (transmisión de bits) o de
señales analógicas (radio frecuencia).