Una “discrepancia" es la diferencia entre dos valores medidos de la misma cantidad.-
La “precisión” se refiere al grado de consistencia de un grupo de mediciones y se evalúa tomando como base la magnitud de las discrepancias,.
La “ exactitud” indica una absoluta aproximación al verdadero valor de la cantidad medida.-
Los sistemas digitales manejan información binaria, por tanto es importante conocer las operaciones fundamentales en términos binarios
Cada uno de los datos se puede representar por un conjunto de bits
¿Cómo codifica y cómo opera internamente una computadora?
1) La teoría de errores describe cómo se pueden combinar medidas repetidas para obtener un valor más preciso que minimice los errores aleatorios. 2) Se calcula la media ponderada de las medidas y su desviación estándar para determinar el intervalo de error probable. 3) El análisis estadístico de las medidas permite identificar su distribución normal y calcular el valor más probable de la cantidad medida.
Este documento describe la teoría de errores en mediciones. Explica que la precisión se refiere al grado de consistencia entre mediciones mientras que la exactitud indica la aproximación al valor verdadero. Los errores pueden ser sistemáticos, debidos a factores constantes, u aleatorios. Tomando múltiples observaciones, se puede calcular un valor más probable aplicando la distribución normal de probabilidad. Esto permite estimar el error probable de una medición.
Este documento describe la teoría de errores para analizar la precisión de mediciones. Explica que un error es la diferencia entre un valor medido y el verdadero, y que existen errores sistemáticos causados por factores constantes y errores aleatorios causados por factores variables. Para determinar el valor más probable de una medición y su precisión, se toman múltiples observaciones, se calcula la media y desviación estándar, y se aplica la distribución normal de probabilidad.
Este documento describe la teoría de errores en mediciones físicas. Explica que los errores pueden ser sistemáticos o accidentales y que las mediciones afectadas solo por errores accidentales siguen una distribución normal. También describe las cualidades de los instrumentos de medición como resolución, sensibilidad, precisión y exactitud, y cómo calcular y expresar los errores en mediciones directas e indirectas.
El documento trata sobre los conceptos de métodos numéricos, teoría de errores, punto flotante y cifras significativas. Explica que los métodos numéricos se usan para aproximar soluciones a problemas que no se pueden resolver analíticamente y que siempre habrá errores en los cálculos debido a redondeos y truncamientos. También define la notación de punto flotante para representar números no enteros y la importancia de expresar resultados con el número apropiado de cifras significativas.
La teoría de errores es fundamental para analizar datos de observaciones y mediciones, que desarrolló Gauss y complementaron Newton y Laplace. Existen varios procedimientos para cumplir sus objetivos, aunque no es necesario profundizar en todos. La teoría busca hallar el valor más cercano a la magnitud medida y el error cometido, ya que nunca se conoce el valor exacto debido a factores que afectan las mediciones.
El documento trata sobre métodos numéricos y manejo de errores. Explica que los métodos numéricos permiten aproximar soluciones a problemas matemáticos usando operaciones aritméticas simples. También describe cómo los números se representan en las computadoras usando el sistema binario, y define errores absolutos y relativos como formas de medir la precisión de mediciones y cálculos aproximados.
Este documento trata sobre el análisis numérico y los métodos numéricos. Explica que el análisis numérico se ocupa de describir, analizar y crear algoritmos para resolver problemas matemáticos utilizando cálculos numéricos. También describe los números de máquina decimales y los diferentes tipos de errores como el error absoluto y relativo que surgen en los cálculos numéricos.
1) La teoría de errores describe cómo se pueden combinar medidas repetidas para obtener un valor más preciso que minimice los errores aleatorios. 2) Se calcula la media ponderada de las medidas y su desviación estándar para determinar el intervalo de error probable. 3) El análisis estadístico de las medidas permite identificar su distribución normal y calcular el valor más probable de la cantidad medida.
Este documento describe la teoría de errores en mediciones. Explica que la precisión se refiere al grado de consistencia entre mediciones mientras que la exactitud indica la aproximación al valor verdadero. Los errores pueden ser sistemáticos, debidos a factores constantes, u aleatorios. Tomando múltiples observaciones, se puede calcular un valor más probable aplicando la distribución normal de probabilidad. Esto permite estimar el error probable de una medición.
Este documento describe la teoría de errores para analizar la precisión de mediciones. Explica que un error es la diferencia entre un valor medido y el verdadero, y que existen errores sistemáticos causados por factores constantes y errores aleatorios causados por factores variables. Para determinar el valor más probable de una medición y su precisión, se toman múltiples observaciones, se calcula la media y desviación estándar, y se aplica la distribución normal de probabilidad.
Este documento describe la teoría de errores en mediciones físicas. Explica que los errores pueden ser sistemáticos o accidentales y que las mediciones afectadas solo por errores accidentales siguen una distribución normal. También describe las cualidades de los instrumentos de medición como resolución, sensibilidad, precisión y exactitud, y cómo calcular y expresar los errores en mediciones directas e indirectas.
El documento trata sobre los conceptos de métodos numéricos, teoría de errores, punto flotante y cifras significativas. Explica que los métodos numéricos se usan para aproximar soluciones a problemas que no se pueden resolver analíticamente y que siempre habrá errores en los cálculos debido a redondeos y truncamientos. También define la notación de punto flotante para representar números no enteros y la importancia de expresar resultados con el número apropiado de cifras significativas.
La teoría de errores es fundamental para analizar datos de observaciones y mediciones, que desarrolló Gauss y complementaron Newton y Laplace. Existen varios procedimientos para cumplir sus objetivos, aunque no es necesario profundizar en todos. La teoría busca hallar el valor más cercano a la magnitud medida y el error cometido, ya que nunca se conoce el valor exacto debido a factores que afectan las mediciones.
El documento trata sobre métodos numéricos y manejo de errores. Explica que los métodos numéricos permiten aproximar soluciones a problemas matemáticos usando operaciones aritméticas simples. También describe cómo los números se representan en las computadoras usando el sistema binario, y define errores absolutos y relativos como formas de medir la precisión de mediciones y cálculos aproximados.
Este documento trata sobre el análisis numérico y los métodos numéricos. Explica que el análisis numérico se ocupa de describir, analizar y crear algoritmos para resolver problemas matemáticos utilizando cálculos numéricos. También describe los números de máquina decimales y los diferentes tipos de errores como el error absoluto y relativo que surgen en los cálculos numéricos.
Tema i. calculo numerico y manejo de erroresangelomaurera
Este documento trata sobre el análisis numérico y los métodos numéricos. Explica que los métodos numéricos permiten resolver problemas matemáticos en computadoras usando operaciones aritméticas simples. También describe los errores relativos y absolutos asociados con cálculos numéricos y métodos para convertir números decimales a binarios.
Tema i. calculo numerico y manejo de erroresangelomaurera
Este documento trata sobre el análisis numérico y métodos numéricos. Explica la importancia de los métodos numéricos para resolver problemas matemáticos, científicos e ingenieriles en computadoras. También describe conceptos como errores absolutos y relativos, conversiones entre sistemas numéricos como binario, redondeo y truncamiento, y estabilidad de algoritmos.
Los métodos numéricos permiten formular problemas matemáticos para resolverlos mediante cálculos aritméticos. Antes se usaban métodos analíticos, gráficos y reglas de cálculo, pero ahora la computadora y métodos numéricos más precisos permiten resolver problemas de ingeniería de manera más eficiente y con menor error. Los métodos numéricos evalúan el error en los cálculos para determinar la fiabilidad de los resultados.
El documento describe los conceptos básicos de la teoría de errores, incluyendo las diferentes fuentes de error, los tipos de errores como errores sistemáticos y aleatorios, y cómo calcular y expresar errores como el error absoluto, error relativo y error estándar. También explica cómo propagar errores a través de cálculos y mediciones indirectas.
El documento trata sobre el análisis numérico y los métodos numéricos. Explica que el análisis numérico diseña algoritmos para simular procesos matemáticos complejos mediante números y reglas matemáticas simples. También describe los métodos numéricos como técnicas para formular problemas matemáticos de forma que se puedan resolver mediante operaciones aritméticas y obtener soluciones aproximadas de forma eficiente. Finalmente, analiza conceptos como los errores de redondeo, truncamiento y suma/resta, así como la est
Directrices para la realización del informe de las prácticas de laboratorioJavier García Molleja
Guide for laboratory report made by students after laboratory sessions of Physics at Yachay Tech University (Urcuquí, Ecuador). Official guide during April-August 2017 semester.
Based on Ismael Mozo's work.
Este documento presenta un taller sobre la teoría y práctica de la medición y las cifras significativas. Explica conceptos como precisión, exactitud, incertidumbre y cifras significativas. Incluye ejercicios para calcular el valor central de una medición con su incertidumbre, propagar la incertidumbre a través de cálculos y expresar resultados con el número correcto de cifras significativas. También describe una práctica de laboratorio donde se midieron objetos y se calcularon sus volúmenes y densidades considerando la in
La metrología involucra realizar mediciones para obtener las dimensiones de piezas y verificar que cumplan con los requisitos. Se utilizan instrumentos de medición como reglas, calibres y micrómetros. Las medidas obtenidas nunca son exactas debido a factores como la precisión del instrumento y el error humano. La temperatura también afecta las mediciones, por lo que es necesario corregir los valores.
El documento trata sobre los métodos numéricos y los errores asociados con los cálculos. Explica que los métodos numéricos permiten aproximar soluciones a problemas complejos usando operaciones aritméticas básicas. También describe los diferentes tipos de errores como el error absoluto y el error relativo, y cómo se pueden caracterizar y calcular los errores en las medidas y cálculos. Finalmente, introduce las fuentes principales de errores en los cálculos numéricos.
1) El documento introduce conceptos fundamentales de la física como modelos, mediciones, unidades de medida y errores experimentales.
2) Explica cómo realizar mediciones directas e indirectas y calcular valores medios y errores cuadráticos.
3) Establece reglas para expresar medidas y errores de forma correcta usando el número adecuado de cifras significativas.
Este documento trata sobre la teoría del error en mediciones experimentales. Explica los diferentes tipos de errores como errores absolutos y relativos, errores accidentales y sistemáticos. También describe cómo estimar los errores debidos al aparato de medición usando las especificaciones técnicas. El objetivo es aprender a expresar resultados de mediciones con claridad y precisión incluyendo una estimación del error.
Este documento contiene información sobre conceptos básicos de análisis numérico como números en máquina, errores absolutos y relativos, cotas de error, fuentes de errores como truncamiento y redondeo, errores en suma y resta, y cálculos estables e inestables. Explica que el análisis numérico se ocupa de simular procesos matemáticos complejos a través de algoritmos y números simples.
Este documento resume los conceptos fundamentales del análisis numérico, incluyendo diferentes tipos de errores como errores de truncamiento, redondeo y formulación. También describe cómo los métodos numéricos permiten aproximar soluciones a problemas del mundo real utilizando operaciones aritméticas básicas en un computador.
Este documento describe los diferentes tipos de errores que pueden ocurrir al realizar mediciones, incluyendo errores absolutos, relativos, accidentales y sistemáticos. Explica cómo calcular y expresar los errores y también cubre temas como número de repeticiones, desviación estándar, errores en instrumentos analógicos y digitales, y mediciones indirectas.
Muchas de las decisiones tomadas en ingeniería se basan en resultados de medidas experimentales, por lo tanto es muy importante expresar dichos resultados con claridad y precisión. Los conceptos de magnitud física, unidades y medida se han estudiado en la primera lección de Fundamentos Físicos de la Informática y, como complemento, en este capítulo se pretende aprender a estimar los posibles errores en las medidas, así como la propagación de estos errores a través de los cálculos a los resultados, a expresar los resultados y a analizarlos. Dado que los contenidos de esta asignatura son fundamentalmente electricidad y magnetismo, en este curso haremos más hincapié en las medidas de magnitudes eléctricas.
Hay otros parámetros para cuantificar errores y expresar resultados de las medidas, basados en conceptos estadísticos, que no se tratarán en esta asignatura, pero que son igualmente importantes.
Este documento presenta los objetivos y conceptos básicos de la teoría de errores. Explica que existen dos tipos de errores: los errores sistemáticos, debidos a problemas en los instrumentos de medida, y los errores accidentales, que ocurren aleatoriamente. También define conceptos como el error absoluto, el error relativo, y métodos para estimar los diferentes tipos de errores y cuantificar la incertidumbre en las mediciones.
Los métodos numéricos son técnicas para resolver problemas matemáticos usando operaciones aritméticas. Buscan aproximaciones eficientes a problemas expresados matemáticamente utilizando solo operaciones simples. Se aplican a cálculo, ecuaciones diferenciales, matrices, entre otros. Los errores absolutos y relativos miden la diferencia entre un valor medido y el valor exacto, y esta diferencia como proporción del valor exacto respectivamente.
Los métodos numéricos son técnicas para aproximar soluciones matemáticas utilizando operaciones aritméticas. El objetivo es encontrar soluciones aproximadas a problemas complejos usando operaciones simples. Los métodos numéricos se aplican en áreas como ingeniería para resolver ecuaciones diferenciales, integrales, matrices y más.
Más contenido relacionado
Similar a TOERIA DE ERRORES Y ARITMETICA DE ERRORES .pptx
Tema i. calculo numerico y manejo de erroresangelomaurera
Este documento trata sobre el análisis numérico y los métodos numéricos. Explica que los métodos numéricos permiten resolver problemas matemáticos en computadoras usando operaciones aritméticas simples. También describe los errores relativos y absolutos asociados con cálculos numéricos y métodos para convertir números decimales a binarios.
Tema i. calculo numerico y manejo de erroresangelomaurera
Este documento trata sobre el análisis numérico y métodos numéricos. Explica la importancia de los métodos numéricos para resolver problemas matemáticos, científicos e ingenieriles en computadoras. También describe conceptos como errores absolutos y relativos, conversiones entre sistemas numéricos como binario, redondeo y truncamiento, y estabilidad de algoritmos.
Los métodos numéricos permiten formular problemas matemáticos para resolverlos mediante cálculos aritméticos. Antes se usaban métodos analíticos, gráficos y reglas de cálculo, pero ahora la computadora y métodos numéricos más precisos permiten resolver problemas de ingeniería de manera más eficiente y con menor error. Los métodos numéricos evalúan el error en los cálculos para determinar la fiabilidad de los resultados.
El documento describe los conceptos básicos de la teoría de errores, incluyendo las diferentes fuentes de error, los tipos de errores como errores sistemáticos y aleatorios, y cómo calcular y expresar errores como el error absoluto, error relativo y error estándar. También explica cómo propagar errores a través de cálculos y mediciones indirectas.
El documento trata sobre el análisis numérico y los métodos numéricos. Explica que el análisis numérico diseña algoritmos para simular procesos matemáticos complejos mediante números y reglas matemáticas simples. También describe los métodos numéricos como técnicas para formular problemas matemáticos de forma que se puedan resolver mediante operaciones aritméticas y obtener soluciones aproximadas de forma eficiente. Finalmente, analiza conceptos como los errores de redondeo, truncamiento y suma/resta, así como la est
Directrices para la realización del informe de las prácticas de laboratorioJavier García Molleja
Guide for laboratory report made by students after laboratory sessions of Physics at Yachay Tech University (Urcuquí, Ecuador). Official guide during April-August 2017 semester.
Based on Ismael Mozo's work.
Este documento presenta un taller sobre la teoría y práctica de la medición y las cifras significativas. Explica conceptos como precisión, exactitud, incertidumbre y cifras significativas. Incluye ejercicios para calcular el valor central de una medición con su incertidumbre, propagar la incertidumbre a través de cálculos y expresar resultados con el número correcto de cifras significativas. También describe una práctica de laboratorio donde se midieron objetos y se calcularon sus volúmenes y densidades considerando la in
La metrología involucra realizar mediciones para obtener las dimensiones de piezas y verificar que cumplan con los requisitos. Se utilizan instrumentos de medición como reglas, calibres y micrómetros. Las medidas obtenidas nunca son exactas debido a factores como la precisión del instrumento y el error humano. La temperatura también afecta las mediciones, por lo que es necesario corregir los valores.
El documento trata sobre los métodos numéricos y los errores asociados con los cálculos. Explica que los métodos numéricos permiten aproximar soluciones a problemas complejos usando operaciones aritméticas básicas. También describe los diferentes tipos de errores como el error absoluto y el error relativo, y cómo se pueden caracterizar y calcular los errores en las medidas y cálculos. Finalmente, introduce las fuentes principales de errores en los cálculos numéricos.
1) El documento introduce conceptos fundamentales de la física como modelos, mediciones, unidades de medida y errores experimentales.
2) Explica cómo realizar mediciones directas e indirectas y calcular valores medios y errores cuadráticos.
3) Establece reglas para expresar medidas y errores de forma correcta usando el número adecuado de cifras significativas.
Este documento trata sobre la teoría del error en mediciones experimentales. Explica los diferentes tipos de errores como errores absolutos y relativos, errores accidentales y sistemáticos. También describe cómo estimar los errores debidos al aparato de medición usando las especificaciones técnicas. El objetivo es aprender a expresar resultados de mediciones con claridad y precisión incluyendo una estimación del error.
Este documento contiene información sobre conceptos básicos de análisis numérico como números en máquina, errores absolutos y relativos, cotas de error, fuentes de errores como truncamiento y redondeo, errores en suma y resta, y cálculos estables e inestables. Explica que el análisis numérico se ocupa de simular procesos matemáticos complejos a través de algoritmos y números simples.
Este documento resume los conceptos fundamentales del análisis numérico, incluyendo diferentes tipos de errores como errores de truncamiento, redondeo y formulación. También describe cómo los métodos numéricos permiten aproximar soluciones a problemas del mundo real utilizando operaciones aritméticas básicas en un computador.
Este documento describe los diferentes tipos de errores que pueden ocurrir al realizar mediciones, incluyendo errores absolutos, relativos, accidentales y sistemáticos. Explica cómo calcular y expresar los errores y también cubre temas como número de repeticiones, desviación estándar, errores en instrumentos analógicos y digitales, y mediciones indirectas.
Muchas de las decisiones tomadas en ingeniería se basan en resultados de medidas experimentales, por lo tanto es muy importante expresar dichos resultados con claridad y precisión. Los conceptos de magnitud física, unidades y medida se han estudiado en la primera lección de Fundamentos Físicos de la Informática y, como complemento, en este capítulo se pretende aprender a estimar los posibles errores en las medidas, así como la propagación de estos errores a través de los cálculos a los resultados, a expresar los resultados y a analizarlos. Dado que los contenidos de esta asignatura son fundamentalmente electricidad y magnetismo, en este curso haremos más hincapié en las medidas de magnitudes eléctricas.
Hay otros parámetros para cuantificar errores y expresar resultados de las medidas, basados en conceptos estadísticos, que no se tratarán en esta asignatura, pero que son igualmente importantes.
Este documento presenta los objetivos y conceptos básicos de la teoría de errores. Explica que existen dos tipos de errores: los errores sistemáticos, debidos a problemas en los instrumentos de medida, y los errores accidentales, que ocurren aleatoriamente. También define conceptos como el error absoluto, el error relativo, y métodos para estimar los diferentes tipos de errores y cuantificar la incertidumbre en las mediciones.
Los métodos numéricos son técnicas para resolver problemas matemáticos usando operaciones aritméticas. Buscan aproximaciones eficientes a problemas expresados matemáticamente utilizando solo operaciones simples. Se aplican a cálculo, ecuaciones diferenciales, matrices, entre otros. Los errores absolutos y relativos miden la diferencia entre un valor medido y el valor exacto, y esta diferencia como proporción del valor exacto respectivamente.
Los métodos numéricos son técnicas para aproximar soluciones matemáticas utilizando operaciones aritméticas. El objetivo es encontrar soluciones aproximadas a problemas complejos usando operaciones simples. Los métodos numéricos se aplican en áreas como ingeniería para resolver ecuaciones diferenciales, integrales, matrices y más.
Similar a TOERIA DE ERRORES Y ARITMETICA DE ERRORES .pptx (20)
3. • Una “discrepancia" es la diferencia entre dos valores medidos de la misma cantidad.-
• La “precisión” se refiere al grado de consistencia de un grupo de mediciones y se evalúa
tomando como base la magnitud de las discrepancias,.
• La “ exactitud” indica una absoluta aproximación al verdadero valor de la cantidad
medida.-
La exactitud se ve influenciada por :
* La precisión de los instrumentos.-
* La precisión de los métodos.-
* Un adecuado proyecto de mediciones.-
.-
GENERALIDADES:
7. UN ERROR
valor verdadero
es una
con respecto a
imperfección de los
sentidos de una
persona
imperfección de
los instrumentos
utilizados
por efectos
climáticos
ocasionado por la
diferencia
TIPOS Y CLASIFICACIÓN DE
ERRORES
9. Aquel que es constante a lo
largo de todo el proceso de
medida y, por tanto, afecta
a todas las medidas de un
modo definido y es mismo
para todas ellas. Estos
errores tienen siempre un
signo determinado y las
causas probables pueden
ser:
ERROR SISTEMÁTICO
•Errores instrumentales(de aparatos); por ejemplo, el error de
calibrado de los instrumentos
•Error personal: en general, difícil de determinar y es debido
a las limitaciones de carácter personal. Como, por ejemplo,
los errores de paralaje, o los problemas de tipo visual
•Errores de método de medida, que correspondan a una
elección inadecuada del método de medida; lo que incluya
tres posibilidades distintas: la inadecuación del aparato de
medidad, del observador o del método de medida
propiamente dicho
TIPOS:
10. ERRORES ACCIDENTALES
Son aquellos que se deben a las pequeñas variaciones que aparecen
entre observaciones sucesivas realizadas por el mismo observador y
bajo las mismas condiciones. Las variaciones no son reproducibles
de una medición a otra y se supone que sus valores están sometidos
tan solo a las leyes del azar y que sus causas son completamente
incontrolables para un observador
11. EJEMPLO
Con un cronómetro que
aprecia hasta 0,1 s
obtenemos los siguientes
resultados para la
medida del período de
un péndulo (tiempo que
tarda en dar una
oscilación completa):
El valor del período que se
acepta como verdadero es la
media aritmética:
T = (1,9 + 1,5 + 1,8 + 1,4) / 4 = 1,65 s ≈ 1,7 s
Al dividir hemos aproximado sólo a las décimas de segundo, por ser ésta la
precisión del cronómetro y no tener sentido dar una aproximación mayor
12. Una forma de calcular el error cometido al dar la media aritmética como valor verdadero
consiste en calcular la media de las desviaciones. Para hallarlo, se calcula primero la desviación de
cada una de las medidas respecto a la media y, a continuación, se halla la media aritmética de
todas ellas:
çDesviación de una medida = │valor de la medida – valor verdadero│
Por tanto, el error cometido será:
Error = (0,3 + 0,1 + 0,2 + 0,2) / 4 = 0,2 s El error accidental cometido es ± 0,2 s.
Como resultado de la medida escribiremos: T = 1,7 s ± 0,2 s donde se ha expresado el error
accidental y no el debido a la precisión del aparato, ya que se debe escribir siempre el mayor de
los dos.
EJEMPLO
14. • En general, se puede calcular Ep como:
• En donde Cp es un factor que sale de la gráfica anterior, que relaciona
el porcentaje del área bajo la curva de probabilidad y el error.
• En topografía se utilizan comúnmente los errores del 50%, 90%, 95%
(o 2·sigma) y 99,7% (o 3·sigma), los cuales tienen su correspondiente
factor:
EN GENERAL
15. FINALMENTE
Finalmente se obtiene el valor más probable de
la medición como:
El error unitario de la medición se puede calcular
con la siguiente expresión:
que indica la error que se produjo al medir una
unidad, por ejemplo 0,0003 m por cada metro que
se mide, y se expresa generalmente como:
y se lee “uno a ‘inverso del error unitario’” y consiste en el grado de precisión
de la medición.
16. También se puede evaluar cada observación por
separado, calculando su desviación estándar:
2. El 95,45 % (0,9545) de los datos probablemente
estará incluido en el intervalo (dos desviaciones a
cada lado).
3. Alrededor del 99.95 % (0.9995) de las
observaciones se encuentran en el intervalo
18. Propagación de Errores
• Suma:
y si se trata de n sumandos
• Producto entre variables:
• Cociente:
19. Error del producto por una constante
¿Cuál es la incertidumbre ?
Aplicando la regla del producto
20. Error de una Potencia
¿Cuál es la incertidumbre ?
Aplicando la regla del producto
21. • Calcule el área de la sección transversal de un
elemento rectangular, si se determina por medición
directa que sus lados miden a=100 ± 0.008 mts. y
b=75 ± 0.003 mts.
• Este ejemplo trata, de la determinación de forma
indirecta del área del elemento empleando la relación
A=a*b, las variables independientes que se miden
directamente son los lados a y b del rectángulo y el
error asociado a su medición directa son ea= ±0.008 y
eb= ±0.003
APLICACIÓN
22. • Luego:
1. Área=a*b=100*75= 7500 m2
2. sustituyendo en la ecuación anterior, tenemos: +/- 0.671 mts2
• Finalmente el área es: 7500 +/- 0.671 mts2.
APLICACION
SOLUCION
23. 3. Cuál es el valor decimal de: 1 01111100
11000000000000000000000?
APLICACION
24. El conocimiento de los posibles errores que se pueden
cometer en el proceso de medición permite controlar la
magnitud e influencia de estos en el resultado final, en el
caso de los errores aleatorios aun cuando no pueden ser
eliminados del resultado final es posible acotar el intervalo
de incertidumbre , y con ello lograr la certeza de su valor.-
CONCLUSIONES:
29. ❑Los sistemas digitales manejan información binaria, por tanto
es importante conocer las operaciones fundamentales en
términos binarios
❑ Cada uno de los datos se puede representar por un
conjunto de bits
❑ ¿Cómo codifica y cómo opera internamente una
computadora?
ARITMÉTICA DEL COMPUTADOR
30. Representación de los números mediante un alfabeto compuesto por b
guarismos, símbolos o cifras.
❑ b se denomina base del sistema y es el número de cifras que
componen el alfabeto. Los más utilizados en Informática son:
❑ Sistema decimal: base 10; cifras: {0,1,2,3,….9}
❑ Sistema binario: base 2: cifras: {0,1} se llaman cifras binarias ó bits
❑ Sistema octal: base 8; cifras: {0,1,2,…7}
❑ Sistema hexadecimal; base 16: {0,1,2,….9,A,B,C…F}
❑ El sistema base 64 se emplea para representar cadenas muy largas
que pueden contener texto
SISTEMAS DE
NUMERACIÓN
31. ❑Parte entera: los dígitos binarios son los restos que se obtienen al ir dividiendo la parte
entera entre 2 y el último cociente, en orden inverso a cómo se han obtenido
❑Parte decimal: se va multiplicando por 2 la parte fraccionaria del número y las partes
fraccionarias de los números que se van obteniendo. Nos quedamos con las partes enteras de
los productos obtenidos
❑Ejercicios 1)Expresar 57 3,125 323,4 en binario
2) Escribir en decimal los binarios: 11100101 10100,00111 0,10101
Paso de sistema decimal a
sistema binario
32. Representación de números en el computador
La representación de punto flotante permite que tanto fracciones como
números muy grandes se expresan en la computadora.
35. NÚMEROS DE SIMPLE Y DOBLE PRECISIÓN
Precisión simple: (32 bits)
La doble precisión
permite manejar
más cifras
significativas y
exponentes de
mayor rango que en
simple precisión.
38. CONSIDERACIONES
ESPECIALES
- Definición del cero: puesto que el significado se supone
almacenado en forma normalizada, no es posible representar
el cero (se supone siempre precedido de un 1).Por esta razón
se convino que el cero se representaría con valores 0 en el
exponente y en la mantisa.
0 00000000 00000000000000000000000 = +0
1 00000000 00000000000000000000000 = -0
Observe que en estas
condiciones el bit de signo S
aún permite distinguir +0
de -0. Sin embargo el
Estándar establece que al
comparar ambos "ceros" el
resultado debe indicar que
son iguales.