El análisis numérico es una disciplina que se ocupa de los métodos para realizar cálculos numéricos. A medida que la computación se vuelve ubicua en diversas áreas, es crucial comprender los errores que pueden surgir al realizar cálculos numéricos. Estos errores pueden tener un impacto significativo en los resultados de los cálculos y, por lo tanto, es fundamental estudiarlos y minimizar su efecto.
Computación ubicua término creado por Mark Weiser a finales de la década de los 80, afirmando que la tecnología se debe adaptar a los humanos y no vernos obligados a adaptarnos a esta; para ello se usan los sistemas de información como base, logrando el acceso a la información las 24/7 por medio de diversos dispositivos intuitivos que ofrecen a los usuarios confiabilidad y tranquilidad.
La computación ubicua se soporta en sistemas operativos, protocolos de comunicación, interfaces de usuarios, redes, microprocesadores, sensores, internet, entre otros; en la actualidad contamos con entornos cada vez más inteligentes, siempre conectados a sistemas con la capacidad de interactuar de forma natural con los humanos, generando a su vez un aprendizaje con el cual podrán mejorar su capacidad de adaptarse al entorno, con el fin de no ser percibidos como objetos diferenciados.
1. UNIDAD 1
Introducción y tipos de errores.
Introducción.
El análisis numérico es una disciplina que se ocupa de los métodos para realizar
cálculos numéricos. A medida que la computación se vuelve ubicua en diversas
áreas, es crucial comprender los errores que pueden surgir al realizar cálculos
numéricos. Estos errores pueden tener un impacto significativo en los resultados de
los cálculos y, por lo tanto, es fundamental estudiarlos y minimizar su efecto.
Computación ubicua término creado por Mark Weiser a finales de la década de los
80, afirmando que la tecnología se debe adaptar a los humanos y no vernos
obligados a adaptarnos a esta; para ello se usan los sistemas de información como
base, logrando el acceso a la información las 24/7 por medio de diversos
dispositivos intuitivos que ofrecen a los usuarios confiabilidad y tranquilidad.
La computación ubicua se soporta en sistemas operativos, protocolos de
comunicación, interfaces de usuarios, redes, microprocesadores, sensores,
internet, entre otros; en la actualidad contamos con entornos cada vez más
inteligentes, siempre conectados a sistemas con la capacidad de interactuar de
forma natural con los humanos, generando a su vez un aprendizaje con el cual
podrán mejorar su capacidad de adaptarse al entorno, con el fin de no ser percibidos
como objetos diferenciados.
Fundamentación.
El análisis numérico se basa en la aproximación de soluciones mediante métodos
computacionales, ya que muchas veces no es posible obtener soluciones exactas
de manera analítica. Sin embargo, esta aproximación conlleva la presencia
inevitable de errores. Comprender y controlar estos errores es crucial para
garantizar la fiabilidad de los resultados obtenidos.
En el contexto del análisis numérico, los errores se pueden clasificar en varias
categorías principales:
2. Error de Truncamiento: Este tipo de error surge cuando se aproxima un
número infinito o una serie infinita por un número finito de términos. A medida
que se toman menos términos, el error de truncamiento aumenta.
Error de Redondeo: Debido a que las computadoras tienen una capacidad
finita para representar números reales, se producen errores de redondeo al
almacenar y operar con estos números. Estos errores son inevitables en la
aritmética de punto flotante.
Error de Modelado: Este error se produce al utilizar un modelo matemático
para representar un fenómeno del mundo real. Dado que ningún modelo es
perfecto, siempre habrá un error asociado con su uso.
Error de Iteración: Algunos métodos numéricos implican iteraciones, y los
errores pueden acumularse en cada iteración, lo que lleva a un error total
significativo.
Comprender estos tipos de errores es fundamental para desarrollar y seleccionar
métodos numéricos apropiados y para evaluar la confiabilidad de los resultados
obtenidos a través de cálculos computacionales.
La propagación de errores es otro fenómeno importante en análisis numérico. Un
pequeño error en una etapa del cálculo puede magnificarse al pasar por varias
operaciones, afectando significativamente el resultado final. Es esencial
comprender cómo se propagan los errores a lo largo de un algoritmo para minimizar
su impacto.
Conclusión.
La introducción y comprensión de los tipos de errores en análisis numérico son
fundamentales para garantizar la validez y confiabilidad de los resultados obtenidos
mediante métodos computacionales.
Los profesionales en análisis numérico deben ser conscientes de la presencia de
errores y adoptar estrategias para minimizar su impacto. Esto implica la selección
cuidadosa de algoritmos, el control de la propagación de errores y el uso de técnicas
de análisis numérico avanzadas.
3. El estudio de los tipos de errores, como el error de truncamiento, el error de
redondeo, el error de modelado y el error de iteración, sienta las bases para realizar
cálculos numéricos de manera precisa y para evaluar la confiabilidad de los
resultados obtenidos.
1.1. Marco Teórico.
Introducción.
El análisis numérico es una disciplina fundamental en la resolución de problemas
matemáticos y científicos, ya que permite abordar de manera eficiente y precisa el
cálculo de soluciones aproximadas mediante métodos computacionales. Sin
embargo, es crucial comprender los tipos de errores que pueden surgir en este
contexto, ya que pueden afectar la precisión y fiabilidad de los resultados.
Fundamentación.
En el marco teórico del análisis numérico, es esencial considerar los errores que
surgen durante la aproximación de soluciones exactas. Dos tipos principales de
errores son el error de truncamiento y el error de redondeo. El error de truncamiento
se produce al aproximar un proceso infinito por un proceso finito, como en el caso
de la aproximación de una serie infinita mediante un número finito de términos. Por
otro lado, el error de redondeo ocurre al representar números reales en sistemas de
punto flotante, lo que puede llevar a aproximaciones inexactas.
Un ejemplo común de error de truncamiento se encuentra en la aproximación de la
derivada de una función mediante la fórmula de diferencia finita. A medida que el
tamaño de paso se reduce, el error de truncamiento disminuye, pero a su vez puede
aumentar el error de redondeo al restar dos números muy cercanos. Por lo tanto,
es crucial encontrar un equilibrio en la elección de los métodos numéricos para
minimizar la propagación de estos errores.
La comprensión de estos errores es fundamental en el análisis numérico, ya que
permite evaluar la calidad de las soluciones aproximadas y establecer límites en la
precisión de los resultados. Además, el desarrollo de algoritmos numéricos que
4. minimicen el impacto de estos errores es un aspecto clave en la investigación en
este campo.
Marco teórico del análisis numérico. y su aplicación en la ingeniería en sistemas
computacionales
El análisis numérico es una disciplina de las matemáticas y la informática que se
enfoca en el desarrollo y estudio de algoritmos para la resolución numérica de
problemas matemáticos. Su aplicación en la ingeniería en sistemas
computacionales es fundamental, ya que proporciona herramientas para abordar
problemas complejos que no tienen solución analítica. El origen del análisis
numérico se remonta a los albores de la computación, cuando se empezaron a
desarrollar métodos para resolver numéricamente problemas matemáticos.
Definición y aplicación
El análisis numérico se aplica en una amplia gama de campos, incluyendo la
ingeniería, la física, la economía y muchas otras disciplinas. Su importancia radica
en que permite resolver problemas prácticos que no tienen solución exacta,
mediante el uso de algoritmos y técnicas de aproximación. En la ingeniería en
sistemas computacionales, el análisis numérico es esencial para el desarrollo y la
optimización de algoritmos, la simulación de sistemas complejos y la resolución de
ecuaciones diferenciales y sistemas de ecuaciones.
Importancia
La importancia del análisis numérico en la ingeniería en sistemas computacionales
radica en su capacidad para abordar problemas del mundo real de manera efectiva,
a través de métodos computacionales. Esto permite a los ingenieros y científicos
modelar y simular fenómenos físicos, predecir el comportamiento de sistemas
complejos y tomar decisiones fundamentadas basadas en resultados numéricos.
Conclusión
Los métodos numéricos se emplean en la solución de sistemas de ecuaciones
lineales, la solución de ecuaciones no lineales y la resolución numérica de
ecuaciones diferenciales ordinarias y sistemas de ecuaciones diferenciales. Estos
métodos son fundamentales para abordar problemas prácticos que no tienen
5. solución analítica, lo que los hace esenciales en la ingeniería en sistemas
computacionales.
Conclusión.
El estudio de los tipos de errores en el análisis numérico, como el error de
truncamiento y el error de redondeo, es esencial para garantizar la fiabilidad de los
resultados obtenidos mediante métodos computacionales. La gestión adecuada de
estos errores, ya sea mediante la selección de algoritmos apropiados o el uso de
técnicas de análisis de sensibilidad, es fundamental en aplicaciones donde la
precisión de los cálculos numéricos es crítica, como en la simulación de fenómenos
físicos o en el diseño de sistemas de ingeniería. Por lo tanto, el marco teórico de los
tipos de errores en el análisis numérico no solo es un aspecto teórico, sino que tiene
implicaciones prácticas significativas en diversas áreas de la ciencia y la ingeniería.
1.2. Números complejos y polinomios.
Introducción.
Los números complejos son una extensión de los números reales que incluyen tanto
una parte real como una parte imaginaria, y son fundamentales en el análisis
numérico. Estos números se representan en la forma: a+bi, donde “a” es la parte
real, “b” es la parte imaginaria e: “i” es la unidad imaginaria. Tienen diversas
aplicaciones en matemáticas, física e ingeniería, incluyendo el estudio de
polinomios y sistemas dinámicos. Los polinomios, por su parte, son expresiones
algebraicas que involucran sumas, restas y multiplicaciones de variables elevadas
a exponentes enteros no negativos. Los números complejos están estrechamente
relacionados con la teoría de polinomios, ya que cada polinomio con coeficientes
reales o complejos tiene raíces que pueden ser números complejos. Por lo tanto, el
estudio de los números complejos y los polinomios es esencial para comprender
diversos fenómenos matemáticos y físicos.
Los números complejos fueron creados para solucionar un problema al aplicar la
raíz cuadrada al número -1.
6. Para profundizar en este tema, es importante estudiar las operaciones con números
complejos, su representación en forma binómica y polar, el teorema de De Moivre,
así como la relación entre los números complejos y las raíces de polinomios. Estos
conceptos son fundamentales en el análisis numérico y tienen aplicaciones en
diversos campos de la ciencia y la ingeniería.
Fundamentación
El análisis numérico es una rama de las matemáticas que se enfoca en el estudio y
desarrollo de métodos numéricos para resolver problemas matemáticos mediante
aproximaciones y cálculos numéricos. Entre los fundamentos esenciales de esta
disciplina se encuentran los números complejos y los polinomios, elementos
cruciales en la representación y solución de una variedad de problemas
matemáticos y científicos.
Números Complejos:
Los números complejos constituyen un campo amplio y fascinante dentro del
análisis numérico. La introducción de los números complejos se hizo para abordar
las limitaciones de los números reales en la resolución de ecuaciones algebraicas.
Un número complejo se expresa como: a+bi, donde a y b son números reales, e: “i”
es la unidad imaginaria, definida como la raíz cuadrada de -1.
La representación de los números complejos en el plano complejo, conocido como
el plano de Argand-Gauss, facilita la visualización y comprensión de operaciones
como la adición, sustracción, multiplicación y división. Los números complejos no
solo han demostrado ser esenciales para el análisis numérico, sino que también
tienen aplicaciones significativas en campos como la física, la ingeniería y la teoría
de control.
En el análisis numérico, los números complejos se utilizan para modelar y resolver
ecuaciones que involucran raíces cuadradas de números negativos. Además,
7. proporcionan una representación eficiente de fenómenos oscilatorios, como ondas
y vibraciones, lo que los hace indispensables en la simulación y modelado numérico.
Polinomios:
Los polinomios son expresiones algebraicas compuestas por términos variables
elevados a exponentes enteros no negativos, multiplicados por coeficientes. Un
polinomio general tiene la forma:
donde “n” es el grado del polinomio y a 1, son los coeficientes.
La factorización de polinomios y la búsqueda de sus raíces son problemas
fundamentales en el análisis numérico. Las raíces de un polinomio son los valores
de la variable para los cuales el polinomio se anula. La búsqueda y aproximación
de estas raíces son cruciales en la resolución de ecuaciones algebraicas y en la
optimización de funciones.
Métodos numéricos como el método de Newton-Raphson y el método de bisección
se utilizan para encontrar raíces de polinomios. Estos métodos, junto con las
propiedades de los números complejos, permiten abordar problemas complejos de
manera eficiente y precisa.
Interacción entre Números Complejos y Polinomios:
La intersección entre números complejos y polinomios se evidencia en el Teorema
Fundamental del Álgebra, que establece que todo polinomio con coeficientes
complejos tiene al menos una raíz compleja. Esta conexión es esencial para el
análisis numérico, ya que proporciona un marco teórico sólido para abordar la
resolución de ecuaciones algebraicas.
8. Además, la descomposición de un polinomio en factores lineales complejos a través
de las raíces complejas facilita la resolución de ecuaciones polinómicas. La
aplicación de métodos numéricos para la determinación de estas raíces complejas
es un componente integral del análisis numérico moderno.
Los números reales
Los números reales son una parte fundamental de las matemáticas y tienen una
amplia gama de aplicaciones en la vida cotidiana y en diversos campos, como la
física, la ingeniería y la economía. Se definen como todos los números que se
pueden representar en una línea numérica continua, e incluyen a los números
enteros, fraccionarios y decimales. Su importancia radica en su utilidad para realizar
operaciones matemáticas, modelar fenómenos del mundo real y resolver problemas
en diversas disciplinas. Los números reales se clasifican en racionales e
irracionales, y poseen propiedades únicas, como la transitividad y la densidad, que
los hacen fundamentales para el desarrollo de la matemática y su aplicación
práctica.
Su estudio es esencial para comprender y analizar el mundo que nos rodea, y su
relevancia trasciende el ámbito académico, ya que son ampliamente utilizados en
situaciones cotidianas, desde realizar compras hasta calcular trayectorias de vuelo
o diseño de estructuras.
Operaciones con números complejos, su representación en forma binómica y polar.
Introducción
Los números complejos, surgidos para superar limitaciones en la resolución de
ecuaciones algebraicas, constituyen una herramienta matemática fundamental que
va más allá de su origen teórico. Su definición, operaciones, y representaciones en
forma binómica y polar forman una parte esencial del acervo matemático. Este
ensayo examinará con detenimiento estos aspectos, destacando su importancia y
aplicaciones.
Origen y Definición:
9. Los números complejos se originaron como una respuesta a la necesidad de
encontrar soluciones para ecuaciones cuadráticas que carecían de raíces reales.
Se introdujo la unidad imaginaria “i”, definida como la raíz cuadrada de -1,
permitiendo la creación de números complejos de la forma: a+bi, donde: a y b son
números reales.
La definición de los números complejos expande el conjunto de los números reales,
otorgando soluciones a ecuaciones algebraicas anteriormente insolubles. Esta
extensión conceptual ha demostrado ser esencial no solo en matemáticas puras,
sino también en aplicaciones prácticas en diversas disciplinas.
Operaciones con Números Complejos:
Las operaciones con números complejos siguen las reglas algebraicas
tradicionales, pero con consideraciones particulares para la unidad imaginaria. La
adición, sustracción, multiplicación y división de números complejos se realizan
componente a componente.
La multiplicación de dos números complejos:
se realiza distribuyendo y simplificando, y el resultado es un nuevo número complejo
La división se realiza multiplicando el numerador y el denominador por el conjugado
del denominador para eliminar la parte imaginaria del denominador.
Estas operaciones son esenciales en el análisis numérico y la resolución de
ecuaciones algebraicas y diferenciales, donde los números complejos permiten
abordar problemas que involucran raíces cuadradas de números negativos.
Representación en Forma Binómica y Polar:
La representación en forma binómica a+bi es la forma estándar de expresar
números complejos, pero existe otra representación poderosa: la forma polar. Un
número complejo “z” se puede representar en forma polar como:
10. donde r es la magnitud y θ es el argumento del número
complejo.
La forma polar simplifica la multiplicación y la potenciación de números complejos,
convirtiendo las operaciones complejas en manipulaciones más intuitivas de
magnitudes y ángulos. Esta representación es crucial en problemas de física,
ingeniería y trigonometría, donde las magnitudes y direcciones son de vital
importancia.
Aplicaciones e Importancia:
La importancia de los números complejos se extiende a numerosos campos, desde
la ingeniería eléctrica hasta la física cuántica. En ingeniería eléctrica, los números
complejos se utilizan para analizar circuitos de corriente alterna, simplificando
cálculos y proporcionando resultados precisos.
En física cuántica, los números complejos aparecen en la descripción matemática
de las funciones de onda, siendo fundamentales para entender el comportamiento
de las partículas subatómicas. Además, en análisis de vibraciones, dinámica de
fluidos y procesamiento de señales, los números complejos ofrecen un marco
matemático elegante y eficiente.
Teorema de, De Moivre.
El teorema de Moivre es una herramienta fundamental en el estudio de los números
complejos y los polinomios. Este teorema, también conocido como la fórmula de
Moivre, establece una relación entre los números complejos y la trigonometría, lo
que lo hace de gran importancia en diversas áreas de las matemáticas y la física.
Números complejos
Los números complejos son una extensión de los números reales que incluyen una
parte imaginaria, definida como el producto de la unidad imaginaria: “i” por un
número real. Un complejo número se expresa en la forma: a+bi, donde “a” es la
parte real, “b” es la parte imaginaria e, “i” es la unidad imaginaria. Estos números
tienen aplicaciones en diversas áreas, como la ingeniería, la física y las
matemáticas, y son fundamentales en el estudio de fenómenos ondulatorios,
circuitos eléctricos y dinámica de fluidos.
11. Teorema de Moivre
El teorema de Moivre, nombrado en honor a Abraham de Moivre, establece que
para cualquier número complejo “z” en forma polar, elevado a la potencia norte, el
resultado es otro número complejo en forma polar cuyo módulo es: ∣ z ∣ norte y
cuyo argumento es norte veces el argumento de “z”. Matemáticamente, se expresa
como:
Esta fórmula es de gran utilidad para calcular potencias y raíces enésimas de
números complejos, lo que la hace fundamental en el álgebra y el cálculo de
funciones complejas.
Aplicaciones y relevancia
El teorema de Moivre tiene diversas aplicaciones, entre las que se incluyen el
cálculo de potencias y raíces enésimas de números complejos, la resolución de
ecuaciones polinómicas, el estudio de fenómenos periódicos y oscilatorios, y la
representación de números complejos en el plano complejo. Además, es un
resultado fundamental en la teoría de números complejos y encuentra aplicaciones
en campos tan diversos como la teoría de la señal, la mecánica cuántica y la teoría
de control.
Plano de Argand-Gauss
Los números complejos son una extensión de los números reales que incluyen una
parte imaginaria. Se representa en el plano de Argand-Gauss, donde el eje
horizontal es la parte real y el eje vertical es la parte imaginaria. La importancia de
esta representación radica en su utilidad para resolver ecuaciones, en aplicaciones
en física e ingeniería, y en la comprensión de conceptos matemáticos más
avanzados. Las operaciones con números complejos, como la suma, resta,
multiplicación y división, se pueden realizar de manera intuitiva en este plano, lo que
facilita su comprensión y aplicación en diversos contextos.
12. La representación en el plano complejo permite asociar a cada número complejo un
único punto en el plano cartesiano, lo que facilita la visualización y comprensión de
estos números. Esta representación es fundamental en el análisis complejo y la
teoría de las funciones complejas.
Método de Newton-Raphson.
Introducción:
En el vasto campo de la ingeniería, la resolución eficiente de ecuaciones no lineales
es esencial. Uno de los métodos más influyentes y ampliamente utilizados para
abordar este desafío es el Método de Newton-Raphson.
Antecedentes:
El Método de Newton-Raphson lleva los nombres de Sir Isaac Newton y Joseph
Raphson. Newton, un destacado matemático y físico del siglo XVII, contribuyó
significativamente a la teoría del cálculo y la física. Joseph Raphson, un matemático
inglés que vivió en la misma época, colaboró con la difusión y aplicación del método
propuesto por Newton. Este método se derivó inicialmente de los trabajos de
Newton en cálculo infinitesimal y la teoría de aproximaciones.
Definición:
El Método de Newton-Raphson es un algoritmo iterativo para encontrar
aproximaciones sucesivas de las raíces de una función no lineal. La fórmula iterativa
general es:
Donde f(xn) es el valor de la función en la iteración n y f ′(xn) es la derivada de la
función en xn.
Fundamentación:
La base teórica del Método de Newton-Raphson se basa en la teoría del cálculo y
la aproximación de funciones mediante rectas tangentes. Al derivar la función
original, se utiliza la pendiente de la recta tangente para ajustar la aproximación a
la raíz. La convergencia del método está respaldada por condiciones específicas,
13. como la elección adecuada del punto inicial y la continuidad de la función y su
derivada.
Importancia en el Área de Ingeniería:
Radica en su velocidad de convergencia rápida y su eficacia en la resolución de
ecuaciones no lineales. La capacidad para proporcionar soluciones precisas en un
número reducido de iteraciones lo convierte en una herramienta esencial en la
resolución de problemas prácticos en la ingeniería industrial.
Teorema fundamental del algebra
El teorema fundamental del álgebra es un resultado crucial en matemáticas que
establece que todo polinomio de grado mayor que cero tiene al menos una raíz en
el conjunto de los números complejos. Este teorema es fundamental en el estudio
de los números complejos y los polinomios, y su importancia radica en que garantiza
la existencia de raíces para ecuaciones polinómicas. A lo largo de la historia,
matemáticos como Euler, Lagrange y Laplace han intentado demostrar este
teorema, y finalmente, en 1806, Argand presentó una prueba correcta para el
mismo.
Los números complejos son una extensión de los números reales y son de la forma:
a+bi, donde “a” y “b” son números reales e, “i” es la unidad imaginaria. Estos
números son esenciales en el estudio de ecuaciones algebraicas, ya que permiten
encontrar raíces para polinomios que no tienen solución en los números reales. El
Teorema Fundamental del Álgebra asegura que todo polinomio de grado norte con
coeficientes reales tiene exactamente norte raíces complejas, contando sus
multiplicidades.
Conclusión
Los números complejos y los polinomios son conceptos fundamentales en la
Ingeniería en Sistemas Computacionales. Los números complejos, que tienen un
origen histórico en la resolución de ecuaciones algebraicas, son esenciales en el
análisis de circuitos, el procesamiento de señales y la teoría de control. Por otro
lado, los polinomios, con su origen en la factorización de enteros, tienen
14. aplicaciones cruciales en el diseño y análisis de algoritmos, la interpolación de datos
y la teoría de la computación.
Números Complejos en la Ingeniería en Sistemas Computacionales
Los números complejos, introducidos para resolver ecuaciones que no tienen
solución en los números reales, desempeñan un papel vital en la Ingeniería en
Sistemas Computacionales. En el análisis de circuitos, por ejemplo, se utilizan para
representar fasores en corriente alterna, lo que simplifica los cálculos y predice el
comportamiento de los circuitos. Asimismo, en el procesamiento de señales, los
números complejos son fundamentales para el análisis de frecuencias y la
representación de ondas, lo que es esencial en aplicaciones como la compresión
de audio y video.
Polinomios en la Ingeniería en Sistemas Computacionales
Los polinomios, por su parte, tienen una importancia significativa en la Ingeniería en
Sistemas Computacionales. En el diseño y análisis de algoritmos, se utilizan para
modelar la complejidad computacional de los mismos, lo que permite entender su
eficiencia y rendimiento. Además, en la interpolación de datos, los polinomios son
empleados para ajustar curvas y predecir valores intermedios a partir de un conjunto
discreto de datos, lo que es fundamental en aplicaciones de visualización de
información y aprendizaje automático.
1.3. Tipos de errores.
Todos los resultados de la aplicación de métodos numéricos van acompañados de
un error que es conveniente estimar. En muchas ocasiones esto no es posible
hacerlo de un modo cuantitativo, en otras, en cambio, pueden llevarse a cabo
análisis de errores que pueden ser:
A priori, cuando no se utilizan los resultados en el análisis, que puede llegar a ser
muy complejo, recordar, por ejemplo: las expresiones del error de una simple
división basadas en las del cálculo diferencial), y, o:
A posteriori, cuando se utilizan los propios resultados en el análisis de los errores.
Es conveniente tener presente en todo momento cuáles son las fuentes de los
errores, lo que puede ser una ayuda definitiva a la hora de resolver eventuales
15. problemas prácticos, si bien es cierto que éstas actúan siempre juntas, haciendo
muy difícil el conocimiento detallado de la contribución de cada una en cada caso.
Los errores numéricos se generan con el uso de aproximaciones para representar
las operaciones y cantidades matemáticas.
Esto ocurre cuando tienes pocas interacciones, al tener muchos el error baja, debido
a que los métodos numéricos no son exactos sino simples a aproximaciones a un
valor numérico, para que fueran exactos necesitarías un numero de iteraciones
infinitas lo cual no es posible, además de cuál es el método que vas a utilizar. Cada
uno tiene su nivel de error, y sirve para diferentes cosas
En los métodos numéricos, existen dos tipos principales de errores: errores
absolutos y errores relativos.
Los errores absolutos y relativos son conceptos fundamentales en métodos
numéricos.
Estos errores son importantes para evaluar la precisión y la calidad de los cálculos
numéricos. El error absoluto y el error relativo se utilizan para medir la precisión de
las aproximaciones numéricas y son cruciales en el análisis de la estabilidad y la
convergencia de los algoritmos numéricos.
Errores absolutos: Estos errores se refieren a la diferencia entre el valor real de una
medida (X) y el valor obtenido en la medición (Xi) El error absoluto puede ser positivo
o negativo, según si la medida es superior al valor real o inferior, y tiene las mismas
unidades que las de la medida. El error absoluto es la diferencia entre el valor
medido y el valor real.
Errores relativos: Estos errores se refieren al error en términos de porcentaje, es
decir, la diferencia entre el valor real y el valor aproximado dividido por el valor real.
El error relativo es útil para comparar los resultados de diferentes mediciones y
determinar si un resultado es más preciso que otro. El error relativo es el error
absoluto dividido por el valor real.
Los errores absolutos y relativos son herramientas críticas en métodos numéricos
para evaluar la precisión de los cálculos y las aproximaciones numéricas. El error
absoluto es la diferencia entre el valor medido y el valor real, mientras que el error
16. relativo es el error absoluto dividido por el valor real, y se expresa combinado en
forma de porcentaje.
Ambos tipos de errores son importantes en la interpretación de los resultados de las
mediciones y en la evaluación de la precisión y exactitud de los cálculos numéricos.
1.3.1. Definición de error.
La introducción a los métodos numéricos se enfoca en la resolución de problemas
utilizando aproximaciones y algoritmos para obtener soluciones aproximadas o
exactas en casos donde no existe un método directo o no es viable.
Uno de los aspectos más importantes a considerar en los métodos numéricos es el
error, que puede ser definido como la diferencia entre el resultado deseado y el
resultado obtenido.
Existen diferentes tipos de errores en los métodos numéricos, como:
Errores en el modelo físico/matemático utilizado
Errores en los datos
Errores en la aproximación matemática del modelo.
Errores en las operaciones realizadas al resolver el problema en una
computadora
Es importante tener en cuenta que los errores en los métodos numéricos pueden
ser muy pequeños y, en muchos casos, insignificantes. Sin embargo, en algunos
problemas específicos, como la resolución de ecuaciones diferentes, es crucial
controlar y minimizar estos errores para obtener resultados precisos y confiables.
El error en los métodos numéricos se refiere a la discrepancia entre el resultado
calculado y el resultado exacto o teórico. Este error puede ser causado por varios
factores, como la limitación de precisión en la representación de números, el
redondeo, el truncamiento y la propagación del error en las operaciones
elementales.
El error es la aproximación lejana o cercana entre un resultado cualquiera y el valor
exacto. Este concepto es aplicable en cualquiera de los métodos. Comúnmente se
utilizan dos criterios, por su origen y, por su forma de aplicar.
17. Existen diferentes tipos de errores en los métodos numéricos, que incluyen, por su
origen:
Errores en los datos: Estos errores se originan en la entrada de datos y
pueden ser causados por factores externos o humanos.
Errores de redondeo: Estos errores se producen cuando se almacena un
número fraccionario con una precisión limitada, lo que puede resultar en una
representación inexacta
Errores de truncamiento: Estos errores ocurren cuando se corta una cantidad
para adaptarla a un formato de representación limitada, como en el redondeo
simétrico.
Algunos conceptos claves relacionados con los errores en los métodos
numéricos incluyen, por su forma de aplicar:
Error absoluto: Es la diferencia absoluta entre el resultado deseado y el
resultado obtenido.
Error relativo: Es la proporción del error absoluto sobre el resultado deseado
Propagación del error: Se refiere a cómo se combinan y acumulan los errores
en las operaciones elementales y en la realización de varias iteraciones.
Dígitos decimales significativos: Son los dígitos que se mantienen en una
representación decimal para representar la precisión deseada
1.3.2. Error por redondeo.
El error por redondeo, también conocido como error de redondeo, ocurre cuando se
redondea un número hacia abajo y se obtiene un número menor que el número
original, o se redondea hacia arriba y se obtiene un número mayor que el número
original. Este tipo de error puede ser voluntario o involuntario y puede ocurrir en
cálculos mentales, en la resolución de problemas o en la transcripción de números.
Existen diferentes tipos de errores de redondeo, como el error de redondeo más
simple, que ocurre cuando se redondea hacia abajo o hacia arriba, y el error de
redondeo compuesto, que ocurre cuando se redondea hacia abajo dos veces
consecutivas o hacia arriba dos veces consecutivas.
18. El error de redondeo puede ser causado por una transcripción errónea del número
original, lo que lleva a una resolución incorrecta del problema o a una respuesta
incorrecta a una pregunta. Para evitar este tipo de errores, es importante ser
cuidadosos al realizar cálculos y números del transcriptor, y también es útil revisar
los cálculos y las respuestas a las preguntas.
El error por redondeo es un tipo de error que puede ocurrir en diferentes situaciones,
como en cálculos mentales, en la resolución de problemas o en la transcripción de
números. Es importante estar atento a este tipo de errores y tomar medidas para
evitarlos en las matemáticas y en la vida cotidiana.
Cuando se realizan operaciones aritméticas en sistemas de punto flotante, los
resultados a menudo deben redondearse para ajustarse al número finito de dígitos
permitidos. Esto puede introducir errores de redondeo, que se manifiestan como
diferencias entre el valor exacto y su representación calculada. Estos errores
pueden acumularse y afectar la precisión de los cálculos, especialmente en
situaciones donde se realizan muchas operaciones sucesivas.
El error por redondeo es un aspecto fundamental a considerar al desarrollar y
analizar algoritmos numéricos. Los profesionales en campos como la ingeniería, la
física y la ciencia de la computación deben estar conscientes de sus implicaciones
para diseñar sistemas que minimicen su impacto. Además, el error por redondeo es
un tema estudiado en matemáticas computacionales, donde se buscan métodos
para mitigar sus efectos y realizar cálculos numéricos con la mayor precisión
posible.
El error por redondeo es una consideración crítica en el ámbito de la computación
numérica, ya que puede afectar la precisión de los cálculos en sistemas de punto
flotante. Comprender sus causas y efectos es esencial para desarrollar algoritmos
y realizar cálculos numéricos de manera precisa y confiable.
Un sistema de punto flotante es una forma de representar números reales en una
computadora utilizando una combinación de una mantisa y un exponente. La
mantisa representa la parte significativa del número y el exponente indica la escala
del número. Este sistema permite representar números muy grandes o muy
pequeños con una precisión finita. Las operaciones aritméticas con números de
19. punto flotante pueden ser complejas y pueden requerir hardware especializado o
bibliotecas de software para realizar cálculos precisos. El estándar IEEE 754 es un
ejemplo de un formato de punto flotante comúnmente utilizado en la mayoría de las
computadoras modernas.
Un algoritmo numérico es un procedimiento bien definido que describe una
secuencia finita de pasos para resolver un problema numérico específico. Estos
algoritmos son utilizados en el campo del análisis numérico para realizar cálculos y
obtener soluciones aproximadas a problemas matemáticos, especialmente aquellos
que involucran números reales y operaciones aritméticas. Los algoritmos numéricos
deben tener en cuenta el manejo adecuado del error por redondeo y la estabilidad
numérica para producir resultados precisos y confiables. Son fundamentales en
áreas como la ingeniería, la física y la ciencia de la computación, donde se requiere
un tratamiento cuidadoso de los cálculos numéricos.
1.3.3. Error por truncamiento
El error por truncamiento es un tipo de error que ocurre en métodos numéricos
cuando un proceso que requiere un número infinito de pasos se detiene en un
número finito de pasos. Este error se refiere al error involucrado al usar sumas finitas
o truncadas para aproximar la suma de una serie infinita. Es uno de los tres tipos
básicos de errores en una computación numérica, junto con los errores internos y
los errores de redondeo. El error de truncamiento puede afectar a todas las
operaciones que se realizan en un ordenador y se puede medir mediante el error
relativo.
El error por truncamiento es uno de los tres tipos básicos de errores en la
computación numérica, junto con los errores inherentes y los errores de redondeo.
Para reducir este error, se procede a la mejora de la exactitud del método numérico
empleado, lo que suele acarrear una formulación más compleja y, generalmente, un
incremento en el número de operaciones aritméticas.
El error por truncamiento es un aspecto fundamental a considerar en métodos
numéricos, ya que puede afectar la precisión de los cálculos y la validez de los
20. resultados obtenidos. Es importante comprender su naturaleza y sus implicaciones
para minimizar su impacto en las aplicaciones numéricas.
Ejemplo de Error de Truncamiento: Aproximación de Derivadas mediante
Diferencias Finitas
Un escenario común donde se evidencia el error de truncamiento en análisis
numérico es en la aproximación de la derivada de una función mediante la fórmula
de diferencia finita. Supongamos que se tiene una función f(x) y se desea aproximar
su derivada en un punto x0 utilizando la siguiente fórmula de diferencia finita hacia
adelante:
Donde ℎ es un pequeño incremento en la variable x. Esta fórmula es una
aproximación numérica de la derivada, y el error de truncamiento se introduce al
truncar la serie de Taylor de la función al primer término.
La serie de Taylor de una función f(x) alrededor de x0 está dada por:
Al utilizar la fórmula de diferencia finita, estamos efectivamente truncando esta serie
después del primer término, ya que estamos considerando solo dos puntos
cercanos x0 y x0 + h. Al hacer esto, ignoramos los términos de orden superior en la
serie de Taylor, introduciendo un error de truncamiento.
Este error de truncamiento puede cuantificarse examinando los términos ignorados.
La fórmula de diferencia finita mencionada anteriormente tiene un error de orden ℎ,
ya que el término truncado de la serie de Taylor es proporcional a ℎ. Esto implica
que a medida que ℎ disminuye, el error de truncamiento tiende a cero, pero también
hay limitaciones prácticas en la elección de ℎ debido a errores de redondeo y límites
de precisión de la máquina.
Es importante señalar que, aunque la fórmula de diferencia finita es un método
ampliamente utilizado y efectivo para aproximar derivadas, la comprensión del error
de truncamiento asociado es crucial. En aplicaciones prácticas, la elección
adecuada de ℎ es esencial para equilibrar la precisión de la aproximación con la
estabilidad numérica.
Este ejemplo ilustra cómo el error de truncamiento se manifiesta en la aproximación
numérica de derivadas mediante la fórmula de diferencia finita. La conciencia de
21. este error guía la implementación y ajuste de parámetros en algoritmos numéricos,
contribuyendo a resultados más precisos en el análisis numérico.
El error de truncamiento en los términos de orden superior en la serie de Taylor.
Es un concepto fundamental en matemáticas y su aplicación en ingeniería,
especialmente en sistemas computacionales, es de gran relevancia. La serie de
Taylor es una representación de una función como una suma infinita de términos, y
el error de truncamiento se refiere a la discrepancia entre el valor real de la función
y su aproximación mediante un número finito de términos de la serie.
Origen y definición
La serie de Taylor, nombrada en honor al matemático Brook Taylor, es una
expansión en forma de serie de funciones matemáticas continuamente
diferenciables. Esta serie se utiliza para aproximar funciones complicadas por medio
de polinomios, lo que facilita los cálculos y análisis. El error de truncamiento en los
términos de orden superior se produce al despreciar términos de la serie que no son
considerados en la aproximación, lo que conlleva a una discrepancia entre el valor
real de la función y su representación mediante un número finito de términos.
Aplicación en Ingeniería en Sistemas Computacionales
En el campo de la ingeniería en sistemas computacionales, el error de truncamiento
en los términos de orden superior en la serie de Taylor es de suma importancia.
Dado que muchas operaciones matemáticas en computación se basan en
aproximaciones numéricas, comprender y controlar el error de truncamiento es
esencial para garantizar la precisión de los cálculos. Por ejemplo, en algoritmos
numéricos, el uso de la serie de Taylor conlleva a la necesidad de evaluar el impacto
del error de truncamiento para determinar la validez y la precisión de los resultados
obtenidos.
Importancia
La importancia del error de truncamiento en los términos de orden superior en la
serie de Taylor radica en su influencia en la precisión de los cálculos y en la toma
de decisiones en ingeniería y computación. Comprender su impacto permite a los
ingenieros y científicos de la computación evaluar la confiabilidad de los resultados
22. obtenidos a partir de aproximaciones numéricas, lo que es crucial en el diseño y la
implementación de sistemas computacionales que requieren un alto grado de
exactitud.
1.3.4. Error numérico total
El error numérico total en el contexto de los métodos numéricos se refiere a la suma
de los errores de redondeo y truncamiento introducidos en un cálculo. Este concepto
es fundamental en el estudio de métodos numéricos, los cuales son técnicas para
obtener soluciones aproximadas o exactas a problemas matemáticos,
especialmente aquellos que involucran un gran número de cálculos y
manipulaciones de datos. El error numérico total es importante, ya que puede
afectar la precisión y la confiabilidad de los resultados obtenidos a través de estos
métodos.
El error numérico total en el ámbito de los métodos numéricos hace referencia a la
acumulación de errores durante el proceso de cálculo. Este error puede surgir por
diversas razones, como la representación finita de números reales en una
computadora, la aproximación de funciones, entre otros factores. Es crucial
comprender y gestionar este tipo de error para garantizar la confiabilidad de los
resultados en aplicaciones numéricas.
Para mitigar el error numérico total, es fundamental emplear técnicas como el
análisis de estabilidad y convergencia de los métodos numéricos, el uso de
aritmética de precisión extendida, la minimización de operaciones susceptibles a
amplificación de errores, y la selección adecuada de algoritmos numéricos.
El error numérico total es un aspecto crítico en los métodos numéricos, ya que
puede impactar significativamente la precisión de los cálculos. Comprender sus
causas y aplicar estrategias para su control son fundamentales para obtener
resultados confiables en el ámbito de los métodos numéricos.
1.3.5. Errores humanos
A todos le son familiares los errores por torpeza, en los primeros años de la
computación los resultados números erróneos fueron atribuidos al
23. malfuncionamiento de la computadora misma. Hoy en día esta fuente errores es
muy improbable y la mayor parte de las equivocaciones se puede atribuir a errores
humanos.
Los métodos numéricos son técnicas que se utilizan para resolver problemas
matemáticos complejos mediante la aproximación de soluciones. Sin embargo,
estos métodos no son perfectos y pueden presentar errores. Entre los tipos de
errores que se pueden presentar en los métodos numéricos se encuentran los
errores humanos, que son aquellos que se producen por negligencia o
equivocación. Estos errores pueden minimizarse con un buen conocimiento de los
principios fundamentales y con la posesión de habilidades técnicas.
Los errores humanos son una preocupación importante en el contexto de los
métodos numéricos, los cuales se utilizan para resolver problemas matemáticos
mediante aproximaciones sucesivas. Estos errores pueden surgir en diversas
etapas, como la introducción de datos, la selección de algoritmos o la interpretación
de resultados. Aunque es imposible eliminar por completo los errores humanos, se
pueden tomar medidas para mitigar su impacto.
En la etapa de introducción de datos, los errores humanos pueden manifestarse a
través de la digitalización incorrecta de números o la selección errónea de
parámetros. Por ejemplo, al ingresar manualmente valores en un algoritmo, un
simple error tipográfico puede conducir a resultados significativamente erróneos.
Además, en la selección de algoritmos, la falta de comprensión o la elección
inadecuada de una técnica numérica puede introducir sesgos o inexactitudes en los
cálculos.
Para mitigar los errores humanos en los métodos numéricos, es fundamental
fomentar la capacitación y la conciencia sobre la importancia de la precisión en
todas las etapas del proceso. La implementación de verificaciones cruzadas, el uso
de software de cálculo con validación de datos y la adopción de protocolos de
revisión por pares son estrategias efectivas para reducir el impacto de los errores
humanos en los cálculos numéricos.
Los errores humanos son una preocupación relevante en los métodos numéricos,
ya que pueden afectar la precisión y la confiabilidad de los resultados. Sin embargo,
24. mediante la implementación de buenas prácticas y el uso de herramientas
adecuadas, es posible minimizar su incidencia y mejorar la confiabilidad de los
cálculos numéricos.
Conclusión
En la ingeniería en sistemas computacionales, existen varios tipos de errores que
pueden afectar el correcto funcionamiento de los sistemas. Entre ellos se
encuentran los errores por redondeo, errores por truncamiento, error numérico total
y errores humanos. Los errores por redondeo y truncamiento se originan al realizar
cálculos que todo método numérico o analítico requiere y son debidos a tener que
retener en cada operación el número de cifras que permita el instrumento de cálculo
que se esté utilizando. El error numérico total se entiende como la suma de los
errores de redondeo y truncamiento introducidos en el cálculo. Por otro lado, los
errores humanos son los errores por negligencia o equivocación, y aunque son
inevitables, se pueden minimizar. Es importante tener en cuenta estos tipos de
errores en la ingeniería en sistemas computacionales para poder prevenirlos y
minimizar su impacto en el correcto funcionamiento de los sistemas.
Conclusiones finales.
El marco teórico del análisis numérico es esencial para la ingeniería en sistemas
computacionales, ya que proporciona las herramientas matemáticas y
computacionales necesarias para abordar problemas complejos de manera
efectiva. Su aplicación abarca un amplio espectro de campos, y su importancia
radica en la capacidad de resolver problemas del mundo real a través de métodos
numéricos y computacionales.
Los números complejos y los polinomios son fundamentos esenciales en el análisis
numérico. Su interacción y aplicaciones proporcionan herramientas poderosas para
abordar problemas matemáticos y científicos de manera eficiente. El entendimiento
de estos conceptos no solo enriquece la teoría matemática, sino que también
potencia la capacidad de resolver problemas prácticos en diversas disciplinas. El
25. análisis numérico, al integrar estos elementos, se convierte en una disciplina
poderosa y versátil con aplicaciones que trascienden las fronteras de las ciencias
matemáticas.
Los números complejos y los polinomios son conceptos esenciales en la Ingeniería
en Sistemas Computacionales. Su origen histórico en las matemáticas, su definición
precisa y sus diversas aplicaciones en áreas como el análisis de circuitos, el
procesamiento de señales, el diseño y análisis de algoritmos, y la interpolación de
datos, subrayan su importancia en esta disciplina.
Los números complejos, con su origen teórico y su rica estructura matemática, se
han convertido en una herramienta indispensable en el mundo científico y
tecnológico. Su definición, operaciones y representaciones en forma binómica y
polar ofrecen un abordaje versátil y potente para resolver problemas matemáticos y
aplicaciones prácticas. La capacidad de extender el conjunto de números reales y
proporcionar soluciones a ecuaciones antes insolubles confirma la importancia
perdurable de los números complejos en el desarrollo y avance de las ciencias y la
ingeniería.
Los números reales son una herramienta matemática fundamental con una amplia
relevancia teórica y práctica en diversos contextos.
El teorema de Moivre es una herramienta poderosa que relaciona los números
complejos con la trigonometría, lo que lo hace fundamental en el estudio de los
números complejos, los polinomios y diversas áreas de la matemática y la física.
El plano de Argand-Gauss proporciona una herramienta visual poderosa para
comprender y trabajar con números complejos, lo que los hace fundamentales en
diversas áreas de las matemáticas y sus aplicaciones.
El Método de Newton-Raphson representa un hito en la resolución numérica de
ecuaciones no lineales y ha dejado una huella significativa en la ingeniería en
sistemas computacionales. Con sus sólidos antecedentes históricos, derivados de
26. los trabajos de Newton y Raphson, este método ofrece una herramienta eficiente y
precisa para los ingenieros que buscan optimizar procesos y tomar decisiones
fundamentadas en entornos industriales dinámicos. Su capacidad para converger
rápidamente hacia soluciones hace del Método de Newton-Raphson una elección
valiosa en la caja de herramientas del ingeniero contemporáneo.
El Teorema Fundamental del Álgebra es un pilar en el estudio de los números
complejos y los polinomios, ya que garantiza la existencia de raíces para ecuaciones
polinómicas, tanto en el ámbito real como en el complejo, lo que lo convierte en un
resultado. de gran relevancia en matemáticas.
El error de truncamiento en los términos de orden superior en la serie de Taylor es
un concepto matemático fundamental con aplicaciones significativas en la ingeniería
en sistemas computacionales. Su comprensión es esencial para garantizar la
precisión y confiabilidad de los cálculos numéricos, lo que a su vez contribuye al
desarrollo y la implementación exitosa de sistemas computacionales en diversos
ámbitos de la ingeniería.