Este documento discute diferentes teorías sobre la naturaleza de la información desde perspectivas semióticas y de la termodinámica. Explica que la teoría sintáctica de la información mide la cantidad de información basada en la probabilidad de aparición de unidades como bits, mientras que la teoría semántica mide el contenido de la información y la teoría pragmática considera el contexto social. También analiza cómo la teoría de la entropía de la termodinámica se relaciona con la información. El document
La teoría semántica de la información y la teoría pragmática de la información explican la naturaleza de la información contable. La teoría semántica lo hace considerando el significado de los enunciados, mientras que la teoría pragmática tiene en cuenta cómo el hombre obtiene información a través de objetos sensibles en su vida cotidiana. Las otras teorías como la sintáctica y la neguentrópica no logran explicar directamente la naturaleza de la información contable.
La información contable y la teoria de la informacuion tarin martes (2)tarinm
La teoría sintáctica de la información se centra en las señales transmitidas independientemente de su significado, mientras que la teoría semántica considera el contenido de los símbolos. La teoría pragmática ve la información como una cualidad producida por los sujetos a partir de las propiedades de los objetos. La teoría neguentrópica define la información como una medida del orden en un sistema que contrarresta la entropía. La teoría pragmática explica mejor la naturaleza de la información contable al considerar el
La información contable y las teorías de la informaciónMary Crowned
La contabilidad es un sistema adaptado para clasificar los hechos económicos que ocurren en un negocio. Se convierte en el eje central para llevar a cabo diversos procedimientos que conducirán a la obtención del máximo rendimiento económico de una empresa. Analiza e interpreta los conceptos de la contabilidad y su sistema contable como una herramienta empresarial que permite el registro y control sistemático de todas las operaciones de la empresa.
La informacion contable de las teorias de la infomacionarisperez
El documento discute varias teorías sobre la naturaleza de la información contable. Explica que la teoría sintáctica y semántica de la información no explican la naturaleza de la información contable, mientras que la teoría pragmática sí lo hace. También señala que la teoría neguentrópica aporta el concepto de que los sistemas generan orden e información para contrarrestar la entropía. En conclusión, la teoría pragmática de la información es la que mejor explica la naturaleza de
Este documento discute varias teorías de la información y cómo se aplican a la información contable. Explica que la teoría sintáctica se centra en la cantidad de información transmitida pero no en el contenido, mientras que la teoría semántica considera el significado pero no el contexto. Argüe que la teoría pragmática explica mejor la naturaleza de la información contable ya que considera cómo los sujetos interactúan con los objetos de información en un contexto particular. También analiza los sistemas de información contable desde la
La teoría que mejor explica la naturaleza de la información contable es la teoría pragmática de la información. Esta teoría considera que la información es el producto de una síntesis entre las propiedades de los objetos y la actividad del sujeto, reconociendo que el sujeto estructura la información según su contexto social y cultural. Ni la teoría sintáctica ni la teoría semántica explican adecuadamente la naturaleza de la información contable debido a que la primera se centra en la comunicación y la segunda interpreta
Este documento discute diferentes teorías sobre la naturaleza de la información desde perspectivas semióticas y de la termodinámica. Explica las teorías sintáctica, semántica y pragmática de la información, así como la teoría neguentrópica. Concluye que la teoría pragmática de la información, la cual ve a la información como el producto de una síntesis entre propiedades objetivas y subjetivas, explica mejor la naturaleza de la información contable.
La naturaleza del control a la información contable se explica mejor a través de la teoría neguentrópica de la información. Esta teoría define la información como una medida de la organización de un sistema, relacionada con su neguentropía. El control genera la neguentropía necesaria para contrarrestar los efectos de la entropía. Por lo tanto, el control de la información contable es fundamental para que una organización genere la neguentropía requerida a través de procesos de retroalimentación.
La teoría semántica de la información y la teoría pragmática de la información explican la naturaleza de la información contable. La teoría semántica lo hace considerando el significado de los enunciados, mientras que la teoría pragmática tiene en cuenta cómo el hombre obtiene información a través de objetos sensibles en su vida cotidiana. Las otras teorías como la sintáctica y la neguentrópica no logran explicar directamente la naturaleza de la información contable.
La información contable y la teoria de la informacuion tarin martes (2)tarinm
La teoría sintáctica de la información se centra en las señales transmitidas independientemente de su significado, mientras que la teoría semántica considera el contenido de los símbolos. La teoría pragmática ve la información como una cualidad producida por los sujetos a partir de las propiedades de los objetos. La teoría neguentrópica define la información como una medida del orden en un sistema que contrarresta la entropía. La teoría pragmática explica mejor la naturaleza de la información contable al considerar el
La información contable y las teorías de la informaciónMary Crowned
La contabilidad es un sistema adaptado para clasificar los hechos económicos que ocurren en un negocio. Se convierte en el eje central para llevar a cabo diversos procedimientos que conducirán a la obtención del máximo rendimiento económico de una empresa. Analiza e interpreta los conceptos de la contabilidad y su sistema contable como una herramienta empresarial que permite el registro y control sistemático de todas las operaciones de la empresa.
La informacion contable de las teorias de la infomacionarisperez
El documento discute varias teorías sobre la naturaleza de la información contable. Explica que la teoría sintáctica y semántica de la información no explican la naturaleza de la información contable, mientras que la teoría pragmática sí lo hace. También señala que la teoría neguentrópica aporta el concepto de que los sistemas generan orden e información para contrarrestar la entropía. En conclusión, la teoría pragmática de la información es la que mejor explica la naturaleza de
Este documento discute varias teorías de la información y cómo se aplican a la información contable. Explica que la teoría sintáctica se centra en la cantidad de información transmitida pero no en el contenido, mientras que la teoría semántica considera el significado pero no el contexto. Argüe que la teoría pragmática explica mejor la naturaleza de la información contable ya que considera cómo los sujetos interactúan con los objetos de información en un contexto particular. También analiza los sistemas de información contable desde la
La teoría que mejor explica la naturaleza de la información contable es la teoría pragmática de la información. Esta teoría considera que la información es el producto de una síntesis entre las propiedades de los objetos y la actividad del sujeto, reconociendo que el sujeto estructura la información según su contexto social y cultural. Ni la teoría sintáctica ni la teoría semántica explican adecuadamente la naturaleza de la información contable debido a que la primera se centra en la comunicación y la segunda interpreta
Este documento discute diferentes teorías sobre la naturaleza de la información desde perspectivas semióticas y de la termodinámica. Explica las teorías sintáctica, semántica y pragmática de la información, así como la teoría neguentrópica. Concluye que la teoría pragmática de la información, la cual ve a la información como el producto de una síntesis entre propiedades objetivas y subjetivas, explica mejor la naturaleza de la información contable.
La naturaleza del control a la información contable se explica mejor a través de la teoría neguentrópica de la información. Esta teoría define la información como una medida de la organización de un sistema, relacionada con su neguentropía. El control genera la neguentropía necesaria para contrarrestar los efectos de la entropía. Por lo tanto, el control de la información contable es fundamental para que una organización genere la neguentropía requerida a través de procesos de retroalimentación.
Este documento discute diferentes teorías sobre la naturaleza de la información, incluidas las teorías semióticas (sintaxis, semántica y pragmática) y termodinámicas (entropía y neguentropía). Plantea preguntas sobre cómo medir, comunicar, almacenar y procesar información, así como sobre el contenido y cantidad de información. Finalmente, busca determinar cuál de estas teorías puede explicar mejor la naturaleza de la información contable.
Ludwig von Bertalanffy fue un biólogo austríaco que formuló la teoría general de sistemas para explicar la vida y la naturaleza como sistemas complejos dinámicos. Propuso que esta teoría podría integrar las ciencias naturales y sociales. Norbert Wiener acuñó el término "cibernética" y describió cómo se basa en el estudio del control y la comunicación en animales y máquinas. La teoría de la información de Shannon y Weaver se ocupa de la medición y representación de la información y
1) La teoría sintáctica de la información fue desarrollada por Shannon y Weaver y se enfoca en las señales transmitidas independientemente de su significado.
2) Debido a las limitaciones de la teoría matemática de la información para considerar el contenido semántico, se desarrolló la teoría semántica de la información basada en la lógica inductiva de probabilidades de Carnap y Bar-Hillel.
3) La teoría pragmática de la información considera la información como una cualidad secund
Pontificia universidad católica del ecuador introduccion teoriaGabriel Solano
Este documento contiene preguntas y respuestas sobre la teoría general de sistemas. Explica que Ludwig Von Bertalanffy fue el fundador de esta teoría y describe su vida y contribuciones. También describe los conceptos clave de Norbert Wiener sobre cibernética como la relación entre animales y máquinas y el uso de la entropía para medir la organización de sistemas. Por último, resume las teorías complementarias a la teoría general de sistemas como la teoría de conjuntos, teoría de redes, teoría de la
El enfoque sistémico es una combinación de filosofía y metodología para el planeamiento y diseño de sistemas complejos. Integra conocimientos de diversas disciplinas para analizar y planificar sistemas que realizan funciones específicas. La teoría general de sistemas desarrollada por Bertalanffy establece principios aplicables a todos los sistemas, mientras que la cibernética y la teoría de la información estudian los mecanismos de comunicación, control y procesamiento de información en sistemas vivos, má
Este documento presenta una introducción a la Teoría General de Sistemas. Explica que la TGS surgió en los años 1950-1968 con los trabajos de Ludwig von Bertalanffy y que se caracteriza por su enfoque holístico e integrador que estudia las relaciones entre las partes de un sistema. También define un sistema como un conjunto de objetos unidos por interacciones y enumera algunas características clave de los sistemas como su propósito, comportamiento como un todo, entropía y homeostasis. Finalmente, clasifica los tipos de sistemas en f
La teoría general de sistemas surgió en los trabajos del biólogo Ludwig von Bertalanffy en la década de 1950. Se compone de tres disciplinas: la cibernética, que estudia los sistemas de control; la informática, relacionada con el uso de computadoras; y la dinámica de sistemas, que analiza el comportamiento de sistemas complejos a lo largo del tiempo. La teoría provee un marco para entender fenómenos desde una perspectiva holística.
La teoría general de sistemas estudia las propiedades comunes de sistemas complejos de diferentes ámbitos. Se desarrolló entre 1950-1968 por Ludwig von Bertalanffy para permitir un enfoque interdisciplinario. Un sistema se define como un conjunto de elementos que interactúan y están interrelacionados, y posee características como un propósito, comportamiento colectivo y retroalimentación entre componentes.
Teoría general de sistemas y cibernética en educaciónEdwin Galan
Comparto esta pequeña presentación sobre un tema muy novedoso hoy en día el pensamiento complejo, los sistemas interdiciplinares y su relación con la cibernética.
Aspectos más importantes, que definan la teoría de sistemassodaxv
La Teoría General de Sistemas surgió en los años 1950 de los trabajos del biólogo Ludwig von Bertalanffy. Esta teoría estudia los sistemas desde una perspectiva holística, reconociendo que los sistemas existen dentro de sistemas más grandes y que interactúan entre sí. La teoría también reconoce que los sistemas son abiertos y dependen de su estructura para funcionar. Derivadas de la Teoría General de Sistemas están la Teoría de la Información, la Teoría de la Cibernética y la Teor
El documento trata sobre varios conceptos relacionados con los sistemas. Explica que la teoría de sistemas se basa en la metateoría y relaciona diferentes disciplinas académicas. También habla sobre sistemas abiertos y cerrados, la recursividad, la entropía y la equifinalidad como características de los sistemas. Finalmente, menciona que el documento fue elaborado por un grupo de estudiantes para un curso de análisis y desarrollo de sistemas de información.
Este documento presenta una introducción a los conceptos básicos de la Teoría General de Sistemas. Explica que la TGS surgió como una perspectiva científica holística e integradora que buscaba promover el trabajo transdisciplinario. Describe los objetivos originales de la TGS y los principios sobre los que se basa, como la noción de totalidad orgánica. Finalmente, define conceptos clave de la TGS como ambiente, atributo y cibernética.
Diapositivas de la Teoría General de SistemaTeoria general de sistemasJesus Guerra
Este documento presenta un esquema que resume los aspectos clave de la teoría general de sistemas. El esquema establece las premisas, objetivos y características de la teoría, incluyendo que los sistemas existen dentro de otros sistemas y son abiertos. También cubre tres enfoques clave: la teoría de la cibernética, la teoría de la información y la teoría dinámica de sistemas.
La teoría general de sistemas surgió con los trabajos del biólogo alemán Ludwig Von Bertalanffy, publicados entre 1950 y 1968. La TGS no busca solucionar problemas ni proponer soluciones práctica, pero si producir teorías y formulaciones conceptuales que puedan crear condiciones de aplicación en la realidad empírica.
El documento presenta conceptos clave de la teoría general de sistemas, incluyendo sus orígenes, supuestos básicos y objetivos. También resume conceptos de cibernética, teoría de la información y teoría dinámica de sistemas, explicando sus definiciones, elementos y relación con la teoría general de sistemas.
La Teoría General de Sistemas fue concebida por Ludwig von Bertalanffy en la década de 1940 con el fin de proporcionar un marco teórico y práctico a las ciencias naturales y sociales. La teoría de Bertalanffy supuso un salto de nivel lógico en el pensamiento y la forma de mirar la realidad que influyó en la psicología y en la construcción de la nueva teoría sobre la comunicación humana. Mientras el mecanicismo veía el mundo seccionado en partes cada vez más pequeñas, el modelo de los sistemas descubrió una forma holística de observación que desveló fenómenos nuevos (que siempre estuvieron ahí, pero se desconocían) y estructuras de inimaginable complejidad.1
Este documento resume las teorías de sistemas generales de varios pensadores clave. Brevemente describe a Ludwig von Bertalanffy como fundador de la teoría general de sistemas y su reconocimiento de que debería servir para integrar las ciencias naturales y sociales. También resume las contribuciones de Norbert Wiener a la cibernética, incluyendo su comparación entre animales y máquinas. Finalmente, resume las teorías complementarias de Shannon-Weaver sobre la información, Forrester sobre dinámica de sistemas y otras teorías.
El documento describe los conceptos de circularidad y cibernética. Explica que la circularidad, a diferencia de la linealidad, implica que la causa primaria afecta el proceso a través de la recurrencia. La cibernética estudia los procesos de comunicación en sistemas naturales y artificiales. Además, señala que la retroalimentación es clave para la estabilidad y el cambio en los sistemas, y que la cibernética de segundo orden integra al observador en el sistema.
La importancia de la información contablelunamoon13
El documento describe la evolución histórica de los intentos por explicar la naturaleza y los sistemas complejos desde diferentes perspectivas como la filosofía, la ciencia, la biología y la física. También explica los conceptos clave de los sistemas propuestos por Von Bertalanffy como unidades, relaciones, propósito y homeostasis. Finalmente, detalla los componentes de un sistema de información contable desde los procedimientos hasta el soporte físico y comunicacional.
Introducción general a la teoría de sistemasAnnie SAGA
La teoría general de sistemas provee un marco para entender sistemas complejos de una manera holística. Se basa en dos pilares: lenguajes sistemáticos y métodos jerárquicos. Fue desarrollada por Ludwig von Bertalanffy y se aplica a sistemas naturales y artificiales. Provee una alternativa a los enfoques analíticos y mecánicos al adoptar una perspectiva holística, generalizar leyes particulares, usar modelos matemáticos y promover la unidad de la ciencia.
Este documento discute diferentes teorías sobre la naturaleza de la información, incluidas las teorías semióticas (sintaxis, semántica y pragmática) y termodinámicas (entropía y neguentropía). Plantea preguntas sobre cómo medir, comunicar, almacenar y procesar información, así como sobre el contenido y cantidad de información. Finalmente, busca determinar cuál de estas teorías puede explicar mejor la naturaleza de la información contable.
Ludwig von Bertalanffy fue un biólogo austríaco que formuló la teoría general de sistemas para explicar la vida y la naturaleza como sistemas complejos dinámicos. Propuso que esta teoría podría integrar las ciencias naturales y sociales. Norbert Wiener acuñó el término "cibernética" y describió cómo se basa en el estudio del control y la comunicación en animales y máquinas. La teoría de la información de Shannon y Weaver se ocupa de la medición y representación de la información y
1) La teoría sintáctica de la información fue desarrollada por Shannon y Weaver y se enfoca en las señales transmitidas independientemente de su significado.
2) Debido a las limitaciones de la teoría matemática de la información para considerar el contenido semántico, se desarrolló la teoría semántica de la información basada en la lógica inductiva de probabilidades de Carnap y Bar-Hillel.
3) La teoría pragmática de la información considera la información como una cualidad secund
Pontificia universidad católica del ecuador introduccion teoriaGabriel Solano
Este documento contiene preguntas y respuestas sobre la teoría general de sistemas. Explica que Ludwig Von Bertalanffy fue el fundador de esta teoría y describe su vida y contribuciones. También describe los conceptos clave de Norbert Wiener sobre cibernética como la relación entre animales y máquinas y el uso de la entropía para medir la organización de sistemas. Por último, resume las teorías complementarias a la teoría general de sistemas como la teoría de conjuntos, teoría de redes, teoría de la
El enfoque sistémico es una combinación de filosofía y metodología para el planeamiento y diseño de sistemas complejos. Integra conocimientos de diversas disciplinas para analizar y planificar sistemas que realizan funciones específicas. La teoría general de sistemas desarrollada por Bertalanffy establece principios aplicables a todos los sistemas, mientras que la cibernética y la teoría de la información estudian los mecanismos de comunicación, control y procesamiento de información en sistemas vivos, má
Este documento presenta una introducción a la Teoría General de Sistemas. Explica que la TGS surgió en los años 1950-1968 con los trabajos de Ludwig von Bertalanffy y que se caracteriza por su enfoque holístico e integrador que estudia las relaciones entre las partes de un sistema. También define un sistema como un conjunto de objetos unidos por interacciones y enumera algunas características clave de los sistemas como su propósito, comportamiento como un todo, entropía y homeostasis. Finalmente, clasifica los tipos de sistemas en f
La teoría general de sistemas surgió en los trabajos del biólogo Ludwig von Bertalanffy en la década de 1950. Se compone de tres disciplinas: la cibernética, que estudia los sistemas de control; la informática, relacionada con el uso de computadoras; y la dinámica de sistemas, que analiza el comportamiento de sistemas complejos a lo largo del tiempo. La teoría provee un marco para entender fenómenos desde una perspectiva holística.
La teoría general de sistemas estudia las propiedades comunes de sistemas complejos de diferentes ámbitos. Se desarrolló entre 1950-1968 por Ludwig von Bertalanffy para permitir un enfoque interdisciplinario. Un sistema se define como un conjunto de elementos que interactúan y están interrelacionados, y posee características como un propósito, comportamiento colectivo y retroalimentación entre componentes.
Teoría general de sistemas y cibernética en educaciónEdwin Galan
Comparto esta pequeña presentación sobre un tema muy novedoso hoy en día el pensamiento complejo, los sistemas interdiciplinares y su relación con la cibernética.
Aspectos más importantes, que definan la teoría de sistemassodaxv
La Teoría General de Sistemas surgió en los años 1950 de los trabajos del biólogo Ludwig von Bertalanffy. Esta teoría estudia los sistemas desde una perspectiva holística, reconociendo que los sistemas existen dentro de sistemas más grandes y que interactúan entre sí. La teoría también reconoce que los sistemas son abiertos y dependen de su estructura para funcionar. Derivadas de la Teoría General de Sistemas están la Teoría de la Información, la Teoría de la Cibernética y la Teor
El documento trata sobre varios conceptos relacionados con los sistemas. Explica que la teoría de sistemas se basa en la metateoría y relaciona diferentes disciplinas académicas. También habla sobre sistemas abiertos y cerrados, la recursividad, la entropía y la equifinalidad como características de los sistemas. Finalmente, menciona que el documento fue elaborado por un grupo de estudiantes para un curso de análisis y desarrollo de sistemas de información.
Este documento presenta una introducción a los conceptos básicos de la Teoría General de Sistemas. Explica que la TGS surgió como una perspectiva científica holística e integradora que buscaba promover el trabajo transdisciplinario. Describe los objetivos originales de la TGS y los principios sobre los que se basa, como la noción de totalidad orgánica. Finalmente, define conceptos clave de la TGS como ambiente, atributo y cibernética.
Diapositivas de la Teoría General de SistemaTeoria general de sistemasJesus Guerra
Este documento presenta un esquema que resume los aspectos clave de la teoría general de sistemas. El esquema establece las premisas, objetivos y características de la teoría, incluyendo que los sistemas existen dentro de otros sistemas y son abiertos. También cubre tres enfoques clave: la teoría de la cibernética, la teoría de la información y la teoría dinámica de sistemas.
La teoría general de sistemas surgió con los trabajos del biólogo alemán Ludwig Von Bertalanffy, publicados entre 1950 y 1968. La TGS no busca solucionar problemas ni proponer soluciones práctica, pero si producir teorías y formulaciones conceptuales que puedan crear condiciones de aplicación en la realidad empírica.
El documento presenta conceptos clave de la teoría general de sistemas, incluyendo sus orígenes, supuestos básicos y objetivos. También resume conceptos de cibernética, teoría de la información y teoría dinámica de sistemas, explicando sus definiciones, elementos y relación con la teoría general de sistemas.
La Teoría General de Sistemas fue concebida por Ludwig von Bertalanffy en la década de 1940 con el fin de proporcionar un marco teórico y práctico a las ciencias naturales y sociales. La teoría de Bertalanffy supuso un salto de nivel lógico en el pensamiento y la forma de mirar la realidad que influyó en la psicología y en la construcción de la nueva teoría sobre la comunicación humana. Mientras el mecanicismo veía el mundo seccionado en partes cada vez más pequeñas, el modelo de los sistemas descubrió una forma holística de observación que desveló fenómenos nuevos (que siempre estuvieron ahí, pero se desconocían) y estructuras de inimaginable complejidad.1
Este documento resume las teorías de sistemas generales de varios pensadores clave. Brevemente describe a Ludwig von Bertalanffy como fundador de la teoría general de sistemas y su reconocimiento de que debería servir para integrar las ciencias naturales y sociales. También resume las contribuciones de Norbert Wiener a la cibernética, incluyendo su comparación entre animales y máquinas. Finalmente, resume las teorías complementarias de Shannon-Weaver sobre la información, Forrester sobre dinámica de sistemas y otras teorías.
El documento describe los conceptos de circularidad y cibernética. Explica que la circularidad, a diferencia de la linealidad, implica que la causa primaria afecta el proceso a través de la recurrencia. La cibernética estudia los procesos de comunicación en sistemas naturales y artificiales. Además, señala que la retroalimentación es clave para la estabilidad y el cambio en los sistemas, y que la cibernética de segundo orden integra al observador en el sistema.
La importancia de la información contablelunamoon13
El documento describe la evolución histórica de los intentos por explicar la naturaleza y los sistemas complejos desde diferentes perspectivas como la filosofía, la ciencia, la biología y la física. También explica los conceptos clave de los sistemas propuestos por Von Bertalanffy como unidades, relaciones, propósito y homeostasis. Finalmente, detalla los componentes de un sistema de información contable desde los procedimientos hasta el soporte físico y comunicacional.
Introducción general a la teoría de sistemasAnnie SAGA
La teoría general de sistemas provee un marco para entender sistemas complejos de una manera holística. Se basa en dos pilares: lenguajes sistemáticos y métodos jerárquicos. Fue desarrollada por Ludwig von Bertalanffy y se aplica a sistemas naturales y artificiales. Provee una alternativa a los enfoques analíticos y mecánicos al adoptar una perspectiva holística, generalizar leyes particulares, usar modelos matemáticos y promover la unidad de la ciencia.
Este documento describe diferentes tipos de signos de comunicación. Explica que los signos naturales son aquellos en los que el hombre no interviene pero son interpretados por él, como las arrugas o la caída de las hojas. Los signos artificiales son creados por el hombre para comunicarse o transmitir información de forma lingüística o no lingüística, como las señales de prohibido fumar. Un código es un sistema de signos y reglas que permiten formular y comprender un mensaje dentro de una comunidad, como el alfabeto dactiloló
Este documento presenta conceptos clave sobre la comunicación desde una perspectiva sistémica, incluyendo que la comunicación es un proceso de influencia recíproca, un sistema de múltiples canales, y un intercambio de información. También describe cinco axiomas de la comunicación humana como la imposibilidad de no comunicarse, la naturaleza dual del contenido y la relación, y la simetría o complementariedad de los intercambios. Por último, contextualiza estos conceptos en el desarrollo de la cibernética y la te
Tarea1 mapa jenny castañeda - sociedad de la informaciónjencasqui
El documento no contiene información que pueda resumirse en 3 oraciones o menos. Solo incluye el nombre "Jenny Castañeda UNAB" sin ningún otro contexto o detalle.
La teoría general de sistemas surgió en la década de 1940 para promover la integración de diversas ciencias a través de conceptos comunes como los sistemas abiertos y la retroalimentación. La cibernética, la teoría de la información y la dinámica de sistemas son ramas fundamentales de esta teoría y han contribuido al desarrollo de la tecnología moderna como la computación y Internet.
Teoria de la informacion. trabajo colaborativo 2caorozcop
Este documento presenta una introducción a la teoría de la información y los dispositivos de almacenamiento de información. Define conceptos clave como fuente, mensaje, código e información según la teoría de Shannon. Explica que los datos se almacenan temporalmente en la RAM y permanentemente en dispositivos externos como discos duros, y describe unidades comunes de medida de información como el byte, kilobyte, megabyte y gigabyte.
La teoría de la información surgió para establecer una base teórica para la tecnología de comunicaciones. Fue desarrollada por Claude Shannon en 1948 y se ocupa de medir y codificar la información transmitida a través de sistemas de comunicación. Define conceptos clave como cantidad de información, entropía y componentes de un sistema de comunicación como la fuente, transmisor, canal y receptor de información.
El documento describe la importancia de la información contable dentro de las organizaciones. La contabilidad provee información útil para la toma de decisiones mediante el registro y análisis sistemático del patrimonio de una entidad. La información contable debe ser comprensible, útil y en algunos casos comparable para satisfacer los objetivos de proveer datos oportunos que permitan decisiones acertadas y mejorar la planificación, control y gestión de las empresas.
Presentación.tgs.Osmer colmenares/escuela_47/seccionB/Teoria de sistemaosmer colmenares
La teoría general de sistemas surgió en 1950 por el biólogo Ludwig Von Bertalanffy y se basa en conceptos de cibernética, dinámica de sistemas y teoría de la información. La TGS busca integrar diversas ciencias para estudiar los sistemas y su comportamiento a través del tiempo, describir sus características y funciones, y desarrollar leyes generales. Sus principios incluyen que los sistemas están dentro de otros sistemas y son abiertos para evolucionar.
La teoría matemática de la información de Shannon surgió en Estados Unidos después de la Segunda Guerra Mundial y se basó en influencias de la biología, la ingeniería matemática y la empresa de telecomunicaciones Bell. Shannon definió la comunicación como la transmisión de información y desarrolló un modelo general de comunicación que explica la transmisión entre máquinas, personas y persona-máquina, considerando conceptos como ruido, códigos y transmisión óptima de información.
El documento resume cuatro etapas en la historia de la comunicación humana: 1) la civilización tradicional caracterizada por la transmisión oral, 2) la civilización gráfica surgida con la escritura alfabética, 3) la civilización audiovisual desarrollada por la radio, cine y televisión, y 4) discute elementos del periodismo como informar, enjuiciar, ser público y oportuno, y versar sobre hechos de interés colectivo.
Este documento presenta una introducción a la teoría de la información desde una perspectiva sistémica. Define la comunicación como una conducta interactiva que ocurre a través de múltiples canales, tanto verbales como no verbales. Explica que la comunicación debe entenderse como un sistema dinámico que involucra procesos simultáneos entre los participantes. Además, resume los cinco axiomas clave de la comunicación humana.
Este documento resume el desarrollo de las normas contables a nivel mundial y en el Perú. Explica las corrientes americana y europea de normas contables, así como las normas para pequeñas y medianas empresas. También describe el proceso de armonización contable, el desarrollo de normas en el Perú y su relación con normas tributarias. Finalmente, presenta un resumen del marco conceptual contable.
la contabilidad y sus sistemas, teorías e importancia.LUZBCY18
Este documento describe la evolución y elementos clave de los sistemas de información contable. Explica que la contabilidad comenzó cuando los humanos se dieron cuenta que no podían memorizar todas las transacciones y necesitaban llevar registros. También describe los elementos fundamentales de un sistema de información contable como los objetivos, cualidades de la información, entrada, salida y retroalimentación.
El documento presenta los conceptos clave de la cibernética y su influencia en la administración moderna. Introduce la cibernética como una ciencia interdisciplinaria creada por Norbert Wiener para estudiar los sistemas de comunicación y control. Explica que la cibernética tuvo consecuencias importantes en la administración con la llegada de la computadora y la automatización de procesos.
Este documento resume tres tipos de sistemas contables (patrimonial, presupuestario y complementario), el método contable que analiza la dualidad, medición, valoración y formas de representación, y los registros y procedimientos contables básicos como ingresos, gastos, inventario, cuentas por cobrar y pagar.
Este documento presenta un resumen de un trabajo colaborativo sobre la creación de un sistema de información para una panadería. Propone un modelo de entidades, atributos y relaciones para gestionar información de clientes, vendedores, productos y ventas. Incluye requisitos de informes sobre el mejor vendedor, productos más vendidos, tipo de clientes y ventas por fecha. Presenta tablas y gráficos sobre las ventas por vendedor y producto para el mes de marzo.
Teoria general de los sistemas de informacionisara1
El documento describe la teoría general de los sistemas de información. Define un sistema como un conjunto de elementos que interactúan para alcanzar un objetivo. Explica que los sistemas tienen entradas, procesos, salidas y retroalimentación. También describe las partes clave de un sistema de información como el análisis de requisitos, diseño e implementación.
La contabilidad permite registrar y controlar sistemáticamente las operaciones de una empresa. Ha evolucionado a través del tiempo para adaptarse a la complejidad creciente de los negocios y la tecnología. Proporciona información financiera a gerentes, inversionistas y otros para la toma de decisiones.
Este documento presenta una introducción a la teoría de la información. Explica que la teoría estudia la cuantificación, almacenamiento y comunicación de información, y se centra en problemas como la capacidad de los canales de comunicación y la separación de señales y ruido. Describe el modelo básico de comunicación propuesto por Shannon y Weaver, incluyendo los elementos clave de fuente, mensaje, canal, ruido, receptor y destinatario. Finalmente, define conceptos fundamentales como información, código y capacidad del canal.
Este documento resume la teoría de la información. Explica que la teoría estudia la cuantificación, almacenamiento y comunicación de la información, y fue propuesta originalmente por Claude Shannon en 1948. Una medida clave es la "entropía", que cuantifica la incertidumbre de una variable aleatoria. La teoría se aplica a compresión de datos, codificación de canales, y otros campos como la lingüística y la percepción humana.
Este documento resume la Teoría Matemática de la Información desarrollada por Shannon para optimizar la transmisión de información por cable telefónico. Se explican sus conceptos clave como bits e índice de información y su modelo de comunicación lineal emisor-mensaje-canal-receptor. Sin embargo, se critica que ignore los aspectos cualitativos de la comunicación y suponga una interpretación única del mensaje cuando en realidad depende del contexto e inferencias del receptor.
Este documento resume y critica el modelo informacional de la comunicación propuesto por la Teoría Matemática de la Información de Shannon. Aunque el modelo es útil para medir la eficiencia de la transmisión de mensajes, se critica que ignora los aspectos cualitativos y el carácter interpretativo de la comunicación humana, tratando a los receptores como entes pasivos en lugar de agentes estratégicos. El sentido de un mensaje depende de su interpretación contextual en lugar de estar contenido de manera determinista en el mensaje mismo.
Este documento trata sobre la entropía de la información. Explica que la entropía mide el nivel de información de una fuente según los estudios de Shannon. También describe que la entropía de un sistema está relacionada a la cantidad de información que se puede extraer de él, y que la compresión de datos busca encontrar códigos que minimicen la entropía asignando códigos más cortos a los mensajes más probables. Además, señala que Shannon demostró que no es posible comprimir una fuente más allá de los límites de su
Este documento presenta los conceptos fundamentales de la teoría de la información, incluyendo la entropía como medida de la información promedio de una fuente, y cómo la codificación fuente como el código de Huffman puede usar esta medida para comprimir datos de manera eficiente. Se proveen ejemplos numéricos para ilustrar estos conceptos y su aplicación en sistemas de comunicaciones.
La teoría de la información nos muestra cómo determinar la cantidad de información útil en datos y cómo comprimir información de manera eficiente. Las fuentes de información pueden ser continuas o discretas, con o sin memoria, y la entropía mide la información promedio en los símbolos utilizados, siendo los símbolos menos probables los que aportan más información. La compresión de datos implica representar la información de manera compacta, ya sea sin pérdida o con alguna pérdida de detalle.
El documento describe la teoría de la información. Esta teoría estudia cómo se transmite y procesa la información a través de canales de comunicación. Examina elementos clave como la fuente de información, los mensajes, los códigos y el ruido. El objetivo es encontrar la forma más eficiente de codificar mensajes para su transmisión a través de canales que pueden contener ruido.
La teoría de la información trata la información como una magnitud física. Explica que la entropía mide la información provista por una fuente de datos, indicando el límite teórico para la compresión de datos. Se define la entropía mediante una fórmula basada en las probabilidades de los diferentes estados de un sistema, y está relacionada con la cantidad de información que puede extraerse al reducir la entropía del sistema.
El documento presenta un resumen de la teoría de la información. Comienza explicando los orígenes de esta teoría con Claude Shannon en la década de 1940 y cómo ha evolucionado desde entonces. Luego define los elementos clave de la teoría, incluyendo fuente, mensaje, código, información, transmisor, canal, receptor, ruido y entropía. Finalmente, explica conceptos como compresión de datos y los tres niveles de problemas en la comunicación: técnico, semántico y pragmático.
Actividad n° 2 reforzando la entropía de la información Marco Muñoz
La entropía en teoría de la información mide la cantidad de información proporcionada por una fuente de datos basada en las probabilidades de los diferentes símbolos. Cuanto mayor sea la entropía de una fuente, mayor será la incertidumbre sobre los símbolos que proporciona. La entropía determina el límite teórico de compresión de datos y se calcula usando una fórmula basada en las probabilidades de los símbolos y su número total.
Este documento resume los principales conceptos y modelos de la teoría de la comunicación. Define la comunicación como un proceso social de intercambio entre personas. Explica la teoría de la información de Shannon y los elementos básicos de los modelos de comunicación, incluyendo emisor, mensaje, canal y receptor. También resume la teoría del proceso comunicativo, las funciones de la comunicación y los axiomas sobre la naturaleza de la comunicación y las relaciones humanas.
Este documento resume los principales conceptos y modelos de la teoría de la comunicación. Define la comunicación como un proceso social de intercambio entre personas. Explica la teoría de la información de Shannon y los elementos básicos de los modelos de comunicación como el emisor, receptor, código y canal. También resume la teoría del proceso comunicativo, las funciones de la comunicación y los axiomas sobre la naturaleza de la comunicación y las relaciones humanas. Finalmente, señala que la comunicación es un campo teórico diverso que integra concept
Este documento presenta los conceptos fundamentales de la teoría de la información digital, incluyendo la fuente, el mensaje, el código, la información, la entropía de la información y la capacidad de los canales de comunicación. Explica que la teoría de la información cuantifica la información y proporciona herramientas para determinar la cantidad de información útil en datos y comprimir información de manera eficiente.
El documento resume los conceptos clave del proceso de comunicación y la situación comunicativa. Explica que la comunicación implica un emisor, receptor, código, mensaje y canal. Además, describe los elementos de la situación comunicativa como el contexto, participantes, tema, canal y código. Finalmente, explica que la situación comunicativa influye en el significado del mensaje.
El documento trata sobre la teoría de la codificación de fuentes de información. Explica que una fuente de información puede modelarse como un proceso estocástico y que la codificación de fuente tiene como objetivo representar de manera eficiente los datos generados por la fuente eliminando redundancias. Además, presenta el teorema fundamental de codificación de fuentes, el cual establece que una fuente con tasa de entropía H puede codificarse sin error si la velocidad de codificación R es mayor que H.
El documento describe el proceso de comunicación humana y sus elementos clave. Explica que la comunicación implica la transmisión de información de un emisor a un receptor a través de un canal, utilizando un código compartido. También describe los elementos de la situación comunicativa, como el emisor, receptor, tema, marco y sus relaciones, y cómo estos factores afectan el significado del mensaje.
El proceso-de-comunicacion.elementos. unidad 1Julio Chuqui
El documento describe el proceso de comunicación humana y sus elementos clave. Explica que la comunicación implica la transmisión de información de un emisor a un receptor a través de un canal, utilizando un código compartido. También describe los elementos de la situación comunicativa, como el emisor, receptor, tema, marco físico y relaciones, y cómo estos factores afectan el significado del mensaje.
El proceso-de-comunicacion.elementos. unidad 1JeannettRV
El documento describe el proceso de comunicación humana y sus elementos clave. Explica que la comunicación implica la transmisión de información de un emisor a un receptor a través de un canal, utilizando un código compartido. También describe los elementos de la situación comunicativa, como el emisor, receptor, tema, marco físico y relaciones, y cómo estos factores afectan el significado del mensaje.
El documento describe el proceso de comunicación humana y sus elementos clave. Explica que la comunicación implica la transmisión de información de un emisor a un receptor a través de un canal, utilizando un código compartido. También describe los elementos de la situación comunicativa, como el emisor, receptor, tema, marco físico y relaciones, y cómo estos factores afectan el significado del mensaje.
Similar a Informacion contable y las teorias de la informacion (20)
Que representan el capital y otros ingresos integrales trabajo de sistematiza...Armando Romero Rivera
El documento compara y contrasta los conceptos de capital contable bajo US GAAP y NIIF, incluyendo capital social, prima en suscripción de capital, reservas, ingresos retenidos y otras cuentas que pueden presentarse en el patrimonio neto. Explica estos conceptos y cómo se tratan diferentes transacciones que afectan el patrimonio neto. También discute cómo las definiciones de equidad pueden variar entre jurisdicciones y da ejemplos del uso del término "reservas" en diferentes países.
El documento describe el proyecto conjunto del FASB y el IASB para desarrollar un marco conceptual común para la preparación de estados financieros. El proyecto tiene como objetivo reemplazar los marcos conceptuales separados actuales con un marco único. El proyecto abordará temas como los objetivos de la información financiera, los elementos de los estados financieros y su reconocimiento, y la medición. Hasta la fecha, el FASB y el IASB han acordado parte de una fase inicial sobre los objetivos y características cualitativas de
El documento describe el proyecto conjunto del FASB y el IASB para desarrollar un marco conceptual común para la preparación de estados financieros. El proyecto tiene como objetivo reemplazar los marcos conceptuales separados actuales con un marco único. El proyecto abordará temas como los objetivos de la información financiera, los elementos de los estados financieros y su reconocimiento, y la medición. Hasta la fecha, el FASB y el IASB han publicado opiniones preliminares sobre el objetivo y las características cualitativas de la
El documento describe el uso de mapas conceptuales en finanzas para preparar estados financieros como balances y cuentas de resultados. También explica que tener un marco conceptual elimina la necesidad de un regulador para restablecer conceptos básicos cuando se desarrollan nuevos estándares. El FASB y el IASB están trabajando juntos para reemplazar sus marcos separados con un marco único que servirá de base para los futuros estándares contables de ambas organizaciones.
El documento argumenta que los académicos deben desempeñar un papel fundamental en el proceso de desarrollo de las Normas Internacionales de Información Financiera (NIIF) a través de la investigación. La investigación académica es importante para establecer y modificar las normas contables y los académicos pueden proporcionar análisis holísticos que destaquen cuestiones clave para los organismos de normalización. El documento invita a los contadores a participar activamente en el desarrollo de las NIIF median
La ética es una rama de la filosofía que estudia los actos humanos voluntarios y libres. No se consideran actos éticos aquellos que se realizan bajo presión o sin libertad. Existen diferentes tipos de ética como la empírica, utilitarista, cristiana y epicúrea. La moral se refiere al conjunto de normas y valores que guían el comportamiento de una sociedad para distinguir el bien del mal.
Este documento discute la responsabilidad social corporativa (RSC) y la presentación de informes de sostenibilidad en tiempos de crisis económica. Argumenta que la RSC se ha convertido en un dispositivo de marketing que impide un debate más serio sobre la sostenibilidad. También sugiere que la Unión Europea ha capturado el concepto de RSC al enfatizar el crecimiento económico sobre la sostenibilidad ambiental y social.
Este documento discute la contabilidad de responsabilidad social y presentación de informes en tiempos de sostenibilidad. Argumenta que el enfoque actual de la responsabilidad social empresarial (RSE) ha sido capturado por intereses económicos a corto plazo y no aborda adecuadamente los desafíos de sostenibilidad. También sugiere que se necesita un mayor diálogo entre las empresas y las partes interesadas, así como una comprensión más profunda de la democracia y la sostenibilidad para superar la crisis actual.
Contabilidad de gestión de normas internacionales. diapositivasArmando Romero Rivera
El documento discute la importancia de la estandarización de las normas contables internacionales para facilitar la integración de los mercados globales. Señala que la adopción de estándares contables globales reduce la asimetría de información entre propietarios y gestores, y promueve la inversión transfronteriza al proporcionar un marco contable común. También argumenta que la normalización contable internacional puede impulsar la innovación al abrir nuevos mercados y facilitar la contratación externa de tareas contables.
Este documento habla sobre los sistemas de información contable y su función en las organizaciones desde la perspectiva de la Teoría General de Sistemas. Explica conceptos como entrada, conversión, salida, medio, visión, misión, objetivos, sinergia, entropía, negentropía, retroalimentación y homeostasis. Además, describe los elementos de un sistema de información contable y cómo estos cumplen con las características de un sistema abierto y cibernético. El objetivo es mostrar cómo la información contable ha evolucionado para adaptarse a
La contabilidad permite registrar y controlar sistemáticamente las operaciones de una empresa. Ha evolucionado a través del tiempo para satisfacer las necesidades de información de los usuarios, como los gerentes, inversionistas y gobiernos. Un sistema contable efectivo proporciona información útil mediante el registro, clasificación y resumen de las transacciones financieras de una organización.
La Unidad Eudista de Espiritualidad se complace en poner a su disposición el siguiente Triduo Eudista, que tiene como propósito ofrecer tres breves meditaciones sobre Jesucristo Sumo y Eterno Sacerdote, el Sagrado Corazón de Jesús y el Inmaculado Corazón de María. En cada día encuentran una oración inicial, una meditación y una oración final.
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMJuan Martín Martín
Examen de Selectividad de la EvAU de Geografía de junio de 2023 en Castilla La Mancha. UCLM . (Convocatoria ordinaria)
Más información en el Blog de Geografía de Juan Martín Martín
http://blogdegeografiadejuan.blogspot.com/
Este documento presenta un examen de geografía para el Acceso a la universidad (EVAU). Consta de cuatro secciones. La primera sección ofrece tres ejercicios prácticos sobre paisajes, mapas o hábitats. La segunda sección contiene preguntas teóricas sobre unidades de relieve, transporte o demografía. La tercera sección pide definir conceptos geográficos. La cuarta sección implica identificar elementos geográficos en un mapa. El examen evalúa conocimientos fundamentales de geografía.
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
Informacion contable y las teorias de la informacion
1. INFORMACION CONTABLE Y LAS TEORIAS DE LA
INFORMACION
RESUMEN
¿Qué es la información? Es una pregunta básica a la que se le ha tratado
de dar respuesta desde
dos puntos de vista diferentes, el uno utilizando la semiótica: la sintaxis, la
semántica y la
pragmática, y el otro utilizando la termodinámica: primera y segunda ley
de la termodinámica.
¿Cuál de las teorías de la información, explica la naturaleza de la
información contable? Es una
pregunta a la que se le dará respuesta utilizando como herramienta de
trabajo las teorías de la
información que se han desarrollado a partir de la semiótica y la
termodinámica.
Palabras claves:
Sintaxis, semántica, pragmática, entropía, neguentropía, información, bit,
notación numérica decimal, notación numérica binaria, paridad
probabilística, lógica preposicional
clásica.
2. INTRODUCCION
¿Qué es información? ¿Cómo se puede medir, comunicar, almacenar y
procesar la información?
¿Cómo saber el contenido de la información? ¿Cómo conocer la
información desde el mundo
pragmático? ¿Cómo conocer la cantidad de información que tiene un
sistema? Son cinco
preguntas a las que se les ha tratado de dar respuesta desde la teoría
semiótica y las leyes de la 3
termodinámica.
Los elementos básicos de un sistema semiótico son: el signo, el
significante y el sujeto; de
acuerdo con esta triada, las ramas de la semiótica son: la sintaxis que
estudia la relación de los
signos entre sí, la semántica que estudia la relación del signo con el
significado y la pragmática que
estudia la relación entre el signo y el usuario.
3. Como se aprecia la semiótica se refiere a tres aspectos de la información: la sintaxis, la semántica
y la pragmática de las cuales se desprenden la teoría sintáctica o matemática de la información, la
teoría semántica de la información y la teoría pragmática de la información. La sintaxis utiliza como
herramienta el cálculo de probabilidades, la semántica utiliza como herramienta la lógica
preposicional clásica y el pragmatismo utiliza como herramienta al individuo humano.
Desde la sintaxis la información tiene una dimensión comunicacional, la cual trata de la transmisión
de mensajes basada en la probabilidad de aparición de una unidad elemental portadora de
información, el bit (Binary Digit), para esta visión interesa la cantidad de información que puede ser
transmitida. Desde la visión semántica se pretende medir el contenido de la información, y por
último, hay una visión pragmática donde el individuo objetiviza la información con su contenido
socio político cultural.
La termodinámica con sus leyes: la primera ley de la termodinámica y la segunda ley de la
termodinámica, ha aportado el concepto de entropía entendida como una medida del desorden de
cualquier sistema, a partir de este concepto por isomorfismo matemático se ha llegado el concepto
de neguentropía, entendida como lo opuesto a la entropía, es decir, como una medida del orden de
cualquier sistema, e identificando ese orden con el grado de organización contenido en ese
sistema, por lo que podemos hablar de una teoría neguentrópica de la información. La pregunta, que
se hace desde lo contable, a las teorías que tratan de explicar el concepto de
información, es: ¿cuál de las teorías acerca del concepto de información, explica la naturaleza de
la información contable? Para responder este interrogante se hará una presentación de las
respectivas teorías indicando como se podría explicar la naturaleza de la información contable
desde cada una de ellas.
4. LA TEORÍA SIN TÁCTICA DE LA INFORMACIÓN
Esta teoría fue Desarrollada por C.E. Shannon y W. Weaver. La sintaxis se refiere a la teoría
matemática de la información también llamada teoría métrica de la información o teoría
sintáctica
de la información. Esta teoría no se ocupa del contenido semántico del conjunto de
mensajes, del
cual selecciona uno para trasmitirlo, sino que centra su atención en las señales que son
transmitidas independiente de su significado. La sintaxis se abstrae de todo contenido
semántico y
pone su atención en cómo se forman y transforman los signos.
Supongamos que existen en total n mensajes entre los que podemos escoger, también
supongamos que cada mensaje tiene la misma probabilidad de ser escogido que cualquier
otro
mensaje, ese número n se puede usar como una medida de la cantidad de <<información>>
contenida en el conjunto de mensajes que pueden ser transmitidos. Pero al existir paridad
entre
los mensajes, es decir que todos los mensajes tengan igual probabilidad de ser
seleccionados, se
ha adoptado el Log n, en vez de n para medir el contenido informativo de un sistema de
comunicación.
5. El sistema más sencillo, que tiene un repertorio de dos mensajes, conocido como sistema binario,
SINGH, Jagjit. Ideas Fundamentales Sobre la Teoría de la Información, del Lenguaje y de la5
tiene como base el 2, y el contenido informativo sería Log2 2 = 1 (La unidad), esta unidad es
llamada BIT binary unit: unidad binaria, y significa que el contenido informativo de este sistema es
de un bit.
Pero esta medida de la información en este sistema informativo esta limitada a la paridad
probabilística que deben tener los dos mensajes, la cual en la realidad no se presenta. Es por eso
que la medida de información propuesta anteriormente, el Log2 2 debe ser corregida, y la clave
para la corrección está en el hecho de que la falta de paridad probilística entre los mensajes de un
sistema, puede ser la probabilidad de que cada uno de ellos pueda ser elegido.
Se puede generalizar un sistema que incluya más de dos mensajes, por ejemplo n mensajes, cada
uno con su propia probabilidad de ser elegido p1, p2, p3,...,pn. La suma de la información del
sistema total será la suma ponderada de la contribución probabilística Log2pi así, la fórmula para
medir el contenido de información queda de la siguiente forma:
-(p1 Log2 p1 + p2 Log2 p2 + p3 Log2 p3 + …+ pn Log2 pn)
Se observa claramente que el contenido informativo de un conjunto de mensajes es una función de
las probabilidades de ocurrencia de cada uno de los mensajes comprendidos en el conjunto que
conforma el sistema, lo que significa, que cambiando el patrón probabilístico de cualquiera de los
mensajes, se cambia el contenido informativo del sistema total.
6. Supongamos el sistema de símbolos de la clave Morse que es un sistema binario: el punto y la
raya. La probabilidad de seleccionar una raya es 9/10 = 0.9, y la de un punto 1/10 = 0.1, el sistema
puede ser descrito usando los logaritmos, la información aportada por una raya será Log2 0.9 y la
aportada por un punto será Log2 0.1. La información total del sistema es la suma de los dos
elementos, donde cada uno aporta su probabilidad de ser seleccionado:
Cibernética. Madrid: Alianza Editorial, 1972. 6
-(0.9 Log2 0.9 + 0.1 Log2 0.1) = 0.476 bits.
Ahora supongamos un sistema con más de dos mensajes: M1, M2 y M3, con probabilidades de ser
seleccionados de 1/2, 1/3 y 1/6 respectivamente, El contenido informativo del sistema sería:
-(1/2 Log2 1/2 + 1/3 Log2 1/3 +1/6 Log2 1/6) = 1.46 bits.
Ahora cambiemos el patrón probabilístico del ejemplo anterior para observar como cambia el
contenido informativo del sistema total, la probabilidad de ser seleccionado cada mensaje M1, M2
Y M3 es 2/3, 1/4 y1/12 respectivamente, el contenido informativo del sistema será ahora de:
-(2/3 Log2 2/3 + 1/4 Log2 1/4 +1/12 Log2 1/12) = 1.18 bits.
Hay que decir que de todos los patrones probabilísticos que se puedan presentar, hay uno y sólo
uno que maximiza ese valor, y corresponde a aquel en que todos los mensajes n tengan paridad
probabilística entre sí.
Por ejemplo: consideremos el sistema formado por el alfabeto del idioma Inglés. El repertorio de
mensajes del alfabeto inglés, es un sistema fácil de medir, no se consideran aquí las palabras y su
significado es decir su valor semántico, ya que esto conformaría otro sistema, el sistema del
lenguaje inglés.
7. El alfabeto inglés esta conformado por 26 símbolos más el espacio en blanco que separa las
palabras, para un total de 27 símbolos. Si cada símbolo del alfabeto inglés más el espacio en
blanco tuvieran la misma probabilidad de ser seleccionados, es decir se existe paridad
probabilística entre los símbolos, el contenido informativo de cada letra del alfabeto inglés es Log2
27 = 4.76 bits por letra. Pero esto en la realidad no ocurre, hay letras que no se emplean con igual
frecuencia, si se lleva la contabilidad de cada letra que es usada en las palabras del idioma inglés
se puede encontrar que las frecuencias de las letras a, b, c, d, e, …, son 6, 1, 2, 3, 10, … , por
ciento, respectivamente, las probabilidades p1, p2, p3, p4, p5, …, serían 0.06, 0.01, 0.02, 0.03,
0.1,…, respectivamente. Al reemplazar cada contribución probabilística de cada letra en la fórmula
de la medida de la información, encontramos que el contenido informativo del alfabeto del idioma 7
inglés es cerca de 4 bits por letra, una medida mucho menor que el 4.76 calculado bajo el supuesto
de igual probabilidad de ser seleccionados. Pero en el mundo real el contenido de información de
cada letra es mucho más bajo, debido a que el lenguaje impone restricciones al formar las palabras
que limitan la libertad de seleccionar las letras, esta restricción se da por la relación de las letras
del alfabeto al usarse para construir palabras, así, la probabilidad de que la letra u aparezca
después de q es uno, pero la probabilidad de que aparezca x después de j es cero. De la misma
manera, la probabilidad de que aparezca n después de cio es alta, mientras que la probabilidad de
que aparezca k después de oug es poca. Aunque no sabemos la frecuencia con que los complejos
de letras como qu, cion, ou, etc., surgen en el lenguaje, la influencia probabilística de una letra del
alfabeto afecta a su sucesor inmediato, y a las letras vecinas más remotas dentro de cada palabra.
Así, mientras más aumenten las restricciones de selección, menor será la información transmitida
por cada letra, esto se conoce como redundancia, y es lo que permite que el lenguaje sea
inteligible a pesar del ruido o distorsión que vicie el mensaje durante su transmisión.
8. De los ejemplos descritos anteriormente podemos concluir que el contenido informativo del alfabeto
del idioma inglés sin considerar la redundancia es 4.76 bits, y el de la clave Morse considerando
que cada punto y raya tiene la misma posibilidad de ser elegidos es 1 bit, o sea que el alfabeto del
idioma inglés tiene casi cuatro veces el contenido informativo de la clave Morse, o sea que una
letra del alfabeto inglés lleva cuatro veces más información que un punto o una raya de la clave
Morse, lo cual significa que un mensaje transmitido en clave Morse contiene cuatro veces el
número de símbolos que el mismo mensaje correspondiente utilizando letras del alfabeto inglés.
La situación descrita en el párrafo anterior, tiene un paralelo exacto con la aritmética de los
números utilizada en los sistemas numéricos. Un número escrito en notación decimal, pueden ser
escrito en cualquier otra notación, si utilizamos notación binaria (0 y 1), así, el número cero en
base decimal se escribe en notación binaria como el 0, el uno como el 1, el dos como el 10, el tres
como el 11, el cuatro como el 100, el cinco como el 101, el seis como el 110, el siete como el 111, 8
el 8 como el 1,000, y así sucesivamente. El 1,000 en notación binaria es: 1(2)
3+ 0(2)2 + 0(2)1 +0(2)0= 8 en notación decimal, de igual forma el 101 en notación binaria es: 1(2)2+
0(2)1+ 1(2)0= 5 en notación decimal, de tal forma que 1000000 en notación binaria equivale a: 1(2)6
+ 0(2)5+ 0(2)4+ 0(2)3+ 0(2)2+ 0(2)1 + 0(2)0 = 64 en notación decimal.
9. En el lenguaje de la teoría de la información, la notación numérica binaria con dos dígitos, el 0 y el
1, teniendo ambos la misma posibilidad de ser seleccionados, transmite un contenido informativo
Log2 2 =1 bit, la notación numérica decimal, con sus 10 dígitos, también todos con la misma
posibilidad de ser seleccionados, tiene un contenido informativo de Log2 10 = 3.32 bits, y se
concluye que escribir cualquier número en notación numérica binaria tiene un contenido
informativo equivalente a 3.32 veces el contenido informativo del mismo número en notación
numérica decimal, por la sencilla razón que cada número en natación numérica decimal está
cargado con 3.32 veces más información que el mismo número en notación numérica binaria,
semejante el punto – raya de la clave Morse que necesita cerca de cuatro veces más símbolos
que el alfabeto inglés.
C.E. Shannon y W, Weaver afirman que la cantidad de información en el mensaje, no es lo que se
está diciendo con el mensaje, sino lo que se podría llegar a decir, lo cual significa que la cantidad
de información se considera independiente del contenido semántico, y concluyen diciendo que la
cantidad de información de un mensaje transmitido de un sistema emisor a un sistema receptor
está en función de la improbabilidad de que ocurra el mensaje.
En conclusión podemos decir que la naturaleza de la información contable no se explica con la
teoría sintáctica de la información, ya que fue construida a partir de la teoría de la comunicación
relacionada con el intercambio de mensajes y se basa en la probabilidad de aparición de una
unidad elemental portadora de información, el bit: Binary Digit, es decir, para esta teoría interesa la
cantidad de información que puede ser transmitida, y responde a la pregunta ¿cómo se puede 9
medir, comunicar, almacenar y procesar la información? La respuesta ha este interrogante ha sido
útil en el campo de las comunicaciones y en el campo de la informática para el desarrollo de
lenguajes de programación y lenguajes de consulta que operan con motores de bases de datos,
su principal aporte es haber proporcionado la característica cuantitativa del concepto de
información.
10. Como se apreció, medir la cantidad de información del sistema formado por los símbolos del
alfabeto ingles es relativamente fácil, ya que no se consideran las palabras y su significado
(semántica), ya que esto conforma otro sistema, el sistema del lenguaje inglés. Ahora, medir la
cantidad de información de un sistema contable sería muchísimo más complejo, ya que la
contabilidad forma un metalenguaje independiente del sistema del alfabeto (símbolos del idioma) e
independiente también del sistema del lenguaje (idioma) donde se desenvuelve, pero, no
independiente de las entidades encargadas de regular y controlar lo contable en los países y
regiones del mundo, ya que éstas determinan, a través de la normatividad que se debe aplicar con
fuerza vinculante, que es lo que la contabilidad debe medir e informar, es como si la normatividad
delimitara el conjunto de mensajes que conforman el Universo de mensajes con posibilidad de ser
transmitidos en un sistema contable de un país o región determinada. Si se determina el conjunto
de mensajes que conforman el Universo de mensajes de un sistema contable, y se mide la
probabilidad de ser transmitidos de cada uno de ellos, con estos datos y utilizando las ecuaciones
proporcionadas por esta teoría, mediríamos el contenido de información de un sistema contable en
bits.
11. 2. LA TEORÍA SEMÁNTICA DE LA
INFORMACIÓN
Debido a las limitaciones que tiene la teoría matemática de la información al no tener en cuenta el
contenido de los símbolos, sino únicamente la frecuencia con la que estos pueden ocurrir, y que
2
BAR HILLEL, Y y CARNAP, R. Semantic Information, En: Introduction to Information Science.
Compiled and edited. by Tekfo Saracevic. New York and London: Browker Company, 1970 P. 10
sus resultados y terminología se aplican en el campo de las comunicaciones, en donde el término
información tiene un sentido semántico asignado, hubo necesidad de desarrollar una teoría
semántica de la información, esta teoría ha sido desarrollada con base a la lógica inductiva de
probabilidades propuesta por: R. Carnap y Y. Bar-Hillel
La teoría semántica de la información trabaja con el sistema de la lógica proposicional, la idea
central, es que en este sistema, a cualquier formula Q, formada por un número n de proposiciones
atómicas, se le puede asociar un conjunto de disyunciones de todas las proposiciones atómicas o
sus negaciones que ocurren en Q, con la condición de que en cada disyunción ocurra cada
proposición atómica o su negación, poro no ambas al mismo tiempo. Aplicando lo anterior
tenemos que a la fórmula Q formada por una sola proposición atómica p se le asocia el conjunto de
dos disyunciones (cada una con un disyunto) {p, ¬p}; si la fórmula Q tiene dos proposiciones
atómicas, p y q, entonces el conjunto de disyunciones estará formado por cuatro elementos, por
ejemplo, si Q es p & q, sus disyunciones serán {p v q, p v ¬q, ¬p v q, ¬p v ¬q}. La fórmula para
encontrar el número de disyunciones de una expresión es 2n, donde n es el número de
proposiciones atómicas presentes en esa expresión. De lo anterior podemos concluir que si
tenemos la siguiente fórmula Q ((p & q) v ¬r ® (s v t) & u) donde ocurren seis preposiciones
atómicas, ésta tendrá 64 disyunciones, porque 26= 64 y una posible disyunción será: {p v q v r v ¬sv ¬t v u}.
12. A cada disyunción se le denomina elemento de contenido, y al conjunto de todos los elementos de
contenido que una proposición Q implica lógicamente, se le llama: contenido de Q y se simboliza
como Cont (Q). Desde la lógica proposicional se demuestra que cualquier proposición atómica
tiene como contenido la mitad de todos los elementos de contenido, una tautología ninguno y una
contradicción todos. Los autores de esta teoría proponen el concepto de “contenido de Q” como
explicación del término “información de la proposición Q”. Desde el punto de vista semántico existe
18-23.11
una relación entre Cont (Q) y la clase de las negaciones de los estados de cosas contenidas en el
valor de ¬Q, por lo que las propiedades de Cont (Q) pueden ser derivadas del concepto de
probabilidad de ¬Q. Señalan estos autores que no sólo es importante saber qué es la información
contenida en una proposición, sino que también se debe poder medir la cantidad de esa
información. Los autores proponen las siguiente igualdad: Cont (Q) = Prob (¬Q) y utilizando la
teoría del complemento obtenemos: Prob (Q) = 1 - Prob (¬Q), de esta formula se concluye que la
cantidad de información fluctúa entre 0 y 1: 0 < Cont (Q) < 1. Si Q es tautología entonces Cont (Q)
= 0, si Q es contradicción entonces Cont (Q) = 1, por lo tanto, los autores de la teoría ofrecen una
segunda noción cuantitativa de la información, la cual puede calcularse con la siguiente igualdad:
Infor. (Q) = Log ( 1 ) = ¾ Log(Prob. (Q))
Prob. (Q)
Desde el punto de vista de la cantidad de la información se dice que una tautología no tiene
información y una contradicción contiene toda la información posible, lo anterior es consecuencia
de tomar como base para la teoría semántica de la información a la lógica proposicional clásica.
Parece armonizar con el sentido común que cuando se trata de una tautología decir: el foco está
prendido o el foco está apagado, es no decir nada; pero no es evidente para el sentido común decir
que las contradicciones contienen toda la información, por ejemplo: una conferencia sobre un tema
contiene más información que un artículo publicado en una revista acerca del mismo tema, ahora
supongamos que en al artículo de la revista hay un error que conlleva a una contradicción, ¿Se
podría decir que por causa de este error el artículo contiene toda la información posible sobre el
tema?
13. En conclusión la teoría semántica de la información al igual que la teoría sintáctica de la
información, tampoco explica la naturaleza de la información contable. La teoría semántica da
respuesta a la pregunta ¿Cómo saber el contenido de la información? Y para contestarla tiene en
cuanta el significado de los enunciados, pero los interpreta desde la lógica proposicional clásica
donde el significado de las preposiciones solo puede ser verdadero o falso y deja de lado el
significado de los enunciados desde el contexto y la intención del sujeto, este significado desde el 12
contexto y la intención del sujeto es lo que interesa a la información contable, ya el significado de
los enunciados contables adquiere sentido desde el contexto social, político y cultural donde se
encuentre el sujeto que los interpreta. Por lo tanto, si lo que se quiere determinar es el significado
de los enunciados, se debe incluir necesariamente al sujeto que enuncia esas proposiciones, ya
que el significado de los enunciados depende de la intención y el contexto del sujeto. Para superar
la limitación de la teoría semántica de la información se ha construido la teoría pragmática de la
Información.
14. 3. LA TEORÍA PRAGMÁTICA DE LA
INFORMACIÓN
Se entiende la información como una cualidad secundaria de los objetos la cual es producida por
los sujetos a partir de las propiedades presentes en esos objetos. Lo anterior significa que la
información es el producto de una síntesis de propiedades reales de los objetos (elementos
objetivos) y la actividad del sujeto (elementos subjetivos). Las estructuras que utiliza el sujeto para
estructurar esas propiedades objetivas se encuentran condicionadas por el desarrollo
psicogenético y el contexto social, político, histórico y cultural en el que vive el sujeto.
El resultado de la estructuración que hace el sujeto es un ente ideal que es construido y no
inventado (creado) o descubierto, porque su construcción se hace a partir de elementos objetivos
que están en las cosas, ese ente ideal es objetivizado por el sujeto y llega a ser parte del mundo
de la información, y se dice que no es algo subjetivo, pero que tampoco se revela como un ente
objetivo por sí mismo, porque no es algo que exista ya hecho, por lo que se hace necesaria la
acción de un sujeto que intervenga para su aparición. Por ejemplo, un informe contable no tiene la
información de la misma manera que un vaso con agua, el sujeto que se enfrenta al vaso con
agua, sólo necesita buscar en el lugar indicado; paro con el informe contable no es igual, ya que la
RENDÓN ROJAS, Miguel Angel. La Información como Ente Ideal Objetivizado. En: Investigación
Bibliotecológica, v. 9, n. 18. México: UNAM, CUIB,1995. P. 17-24.13
información surge únicamente cuando el sujeto a través de ese informe contable llega al mundo de
la información.
15. Ese paso del símbolo a la información, es una actividad que se realiza y se repite cada vez que
se
lleva a cabo la estructuración de los datos por diferentes sujetos o por el mismo sujeto, pero
cada
vez dando como resultado más o menos el mismo producto, sino se conocen las reglas de
estructuración para que esos símbolos nos lleven al mundo de la información, el informe
contable
puede estar allí enfrente de nosotros y no decirnos nada. El hombre se pone en contacto con
el
mundo de la información a través de los objetos sensibles, pero a la contabilidad le interesan
ciertos objetos específicos, creados específicamente para conectar al mundo de la información
contable.
La teoría pragmática de la información contesta la pregunta ¿cómo conocer la información
desde el
mundo pragmático? Esta teoría es la el que mejor explica la naturaleza de la información
contable,
ya que permite abandonar la ontología de primer nivel, que trabaja con objetos concretos,
tangibles e individuales, y pasar a trabajar con entes más abstractos y elaborados como la
información contable.
16. 4. LA TEORÍA NEGUENTRÓPICA DE LA
INFORMACIÓN
La física ha aportado una medida cuantitativa del desorden para describir el grado de
desorganización que tiene un sistema, esta medida ha recibido el nombre de entropía, y se define
como una medida del grado de desorden en un sistema.
El concepto aplicable a todos los sistemas es el desorden, matemáticamente el desorden al que
aquí hacemos referencia se explica utilizando la segunda ley de la termodinámica: el flujo
RESTREPO PINEDA, Carlos Mario. El Control en el Pensamiento Sistémico. En: Contaduría
Universidad de Antioquia No. 39. Medellín: Universidad de Antioquia - Facultad de Economía -14
espontáneo del calor entre los cuerpos es siempre del caliente al frío, cuando ambos cuerpos
alcanzan la misma temperatura, el flujo del calor se detiene, y se puede decir que se ha alcanzado
el equilibrio termodinámico, y la primera ley de la termodinámica: el calor es una forma de energía
que puede ser convertida en otras formas de energía sin que cambie la cantidad total de energía.
Le entropía se representa matemáticamente con la siguiente ecuación: ENTROPÍA = DESORDEN
(entropía es desorden). Lo contrario al desorden es el orden, a este orden se le llama en teoría de
sistemas “información” y se representa matemática con la siguiente ecuación: ORDEN =
INFORMACIÓN (orden es información), y aplicando el concepto de isomorfismo matemático
podemos afirmar que la neguentropía es una medida del grado de organización (información) en un
sistema, por la tanto, la neguentropía es una fuerza igual y contraria a la entropía, cuya finalidad es
contrarrestar el efecto degradativo que tiene ésta sobre los sistemas.
Un sistema ordenado tiene baja entropía y un alto contenido de información, lo cual significa que
se necesita mucha información para describirlo, por el contrario, para un sistema desordenado se
necesita poca información. Acerca de la información y la entropía el profesor Bertoglio dice:
“Esta el concepto de la información como una cantidad mensurable, mediante
una expresión isomórfica con la entropía negativa en física. En efecto, los
matemáticos que han desarrollado esta teoría han llegado a la sorprendente
conclusión de que la fórmula de la información es exactamente igual a la
fórmula de la entropía, sólo con el signo cambiado.”
17. Al comenzar el siglo XX la reflexión sobre el universo chocaba contra una paradoja, que hoy al
comenzar el siglo XXI continua vigente: la segunda ley de la termodinámica da cuenta de un
universo que tiende a la entropía general, y por otra parte, en ese mismo universo las cosas se
organizan, se desarrollan y se complejizan, nos hemos dado cuenta que el orden y el desorden
siendo mutuamente excluyentes, cooperan, de alguna manera para organizar el universo. Para la
teoría de sistemas existe al mismo tiempo la entropía y la neguentropía, y de su coexistencia
Departamento de Contaduría Pública, Septiembre del 2001. P. 173-195.
5
BERTOGLIO, Oscar Johansen. Introducción a la Teoría General de Sistemas. México: Limusa, 15
surgen cosas nuevas, también sostiene que la información sirve de medida del orden de la
organización.
En conclusión podemos decir que la teoría neguentrópica de la información contesta la pregunta
¿cómo conocer la cantidad de información que tiene un sistema? Y aunque no explica la
naturaleza de la información contable como sí lo hace la teoría pragmática de la información, nos
aporta un concepto importante, y es que los sistemas deben generar una fuerza igual y contraria a
la entropía para contrarrestar su efecto degradativo, y esta fuerza es la neguentropía a la que aquí
se le llama información.
18. 5. CONCLUSIONES
¿Cuál de las teorías acerca del concepto de información, explica la naturaleza de la información
contable?
En respuesta al interrogante planteado, se puede decir, que la naturaleza de la información
contable no se explica con la teoría sintáctica o matemática de la información, ya que esta teoría
fue construida a partir de la teoría de la comunicación y su principal aporte es haber proporcionado
la característica cuantitativa del concepto de información.
La teoría semántica de la información tampoco explica la naturaleza de la información contable ya
que esta teoría tiene en cuenta el significado de los enunciados, pero los interpreta o como
verdaderos o como falsos, debido a que se fundamenta en la lógica proposicional clásica, y deja de
lado el significado de los enunciados, es decir, el contexto y la intención del sujeto.
La teoría pragmática de la información sí explica la naturaleza de la información contable, ya que el
hombre en su vida cotidiana se pone en contacto con el mundo de la información a través de los
1996. P. 29.16
objetos sensibles, pero a la contabilidad le interesan ciertos objetos específicos, creados
específicamente para conectar con el mundo de la información contable, y son estos objetos
precisamente los que le permiten al hombre abandonar la ontología de primer nivel que trabaja
con objetos concretos, tangibles e individuales, y pasar a trabajar con entes más abstractos y
elaborados como lo es la información contable.
19. BIBLIOGRAFÍA
BAR HILLEL, y CARNAP, R. Semantic Information, En: Introduction to Information Science.
Compiled and edited by Tekfo Saracevic. New York and London: Browker Company, 1970 P.
18-
23.
BARKER, Richard. El Modelo Entidad relación: Case * Method. Massachusetts: Addison –
Wesley Publishing, 1990.
BERTALANFFY, Ludwing Von; ASHBY, W. Ross; WEINBERG, G. M. y Otros. La Teoría General
de Sistemas. Selección y Prólogo. J. KLIR, George. Madrid: Alianza Editorial, 1987.
BERTOGLIO, Oscar Johansen. Introducción a la Teoría General de Sistemas. México: Limusa,
1996. .
CURRAS, Emilia. La información en sus Nuevos Aspectos. Madrid: Paraninfo, 1988.
DAVIS, Paul. El Universo Desbocado. Barcelona: Salvat Editores, 1985.
ECO, Umberto. Tratado de Semiótica General. Barcelona: Lumen, 1988.
ESCARPIT, R. Teoría General de la Información y de la Comunicación. Barcelona: Icaria, 1981.
HAWKING, Stephen. Breve Historia del Tiempo. Santafé de Bogota: Planeta, 1996.
J. L., Jolley. Ciencia de la Información. Madrid: Ediciones Guadarrama, 1968.
MALANCHUK, Mauren. Información: Habilidades para organizarla y mantener el control.
México:
20. Prentice Hall, 1997.
MORIN, Edgar. Introducción al Pensamiento Complejo. Barcelona: Gedisa, 1990.
RAPAPORT, A. What Is Information? En: Introduction to Information Science. Compiled and
edited by Tekfo Saracevic. New York and London: Bowker Company, 1970. P. 5-12.
RENDÓN ROJAS, Miguel Angel. Hacia un Nuevo Paradigma en Bibliotecologia. En:
transformaVäo, v. 8, n. 3, setembro/decembro, 1996. P.17-31.
RENDÓN ROJAS, Miguel Angel. La Información como Ente Ideal Objetivizado. En: Investigación
Bibliotecológica, v. 9, n. 18. México: UNAM, CUIB,1995. P. 17-24.
RENDÓN ROJAS, Miguel Ángel. Las Tareas de la Fundamentación de la Bibliotecología. En:
Investigación Bibliotecológica, v. 8, n. 17. México: UNAM, CUIB,1994. P. 4-9.
RESTREPO PINEDA, Carlos Mario. El Control en el Pensamiento Sistémico. En: Contaduría
Universidad de Antioquia No. 39. Medellín: Universidad de Antioquia - Facultad de Economía
-
Departamento de Contaduría Pública, Septiembre del 2001. P. 173-195.
SINGH, Jagjit. Ideas Fundamentales Sobre la Teoría de la Información, del Lenguaje y de la
Cibernética. Madrid: Alianza Editorial, 1972.
WIENER, Norbert. Cibernética: o el control y comunicación en animales y máquinas. 2ª. ed.
Barcelona: Tusquets editores, 1998.