El documento describe conceptos clave relacionados con los métodos numéricos. Explica que un método numérico es un algoritmo que intenta resolver problemas matemáticos complejos en una computadora mediante aproximaciones. También describe conceptos como algoritmo, pseudocódigo, error, exactitud, precisión, redondeo, truncamiento, combinaciones, permutaciones y convergencia, los cuales son importantes para entender y desarrollar métodos numéricos.
1. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Objetivos: Estudiar los conceptos relacionados con los métodos numéricos yasociarlos a la
caracterización de la misma
Indicaciones
1.- Investiga yexplica los conceptos relacionados con laasignatura
Métodos numéricos
Un método numérico es un algoritmo que intenta resolver una operación matemática
compleja en un ordenador. Los motivos por los que se usa un método numérico en vez de
intentar una solución analítica pueden ser varios:
El problema es muy complejo, y no se puede encontrar una solución analítica en la
práctica
El problema no tiene solución analítica conocida, pero puede resolverse de manera
numérica
El tamaño de la solución lo hace impracticable para resolver a mano
El objetivo del análisis numérico es obtener un método para resolver el problema
matemático en un ordenador. Hay que tener en cuenta que el ordenador solo es capaz de
realizar operaciones matemáticas sencillas, y sobre todo, que los ordenadores usan
un sistema discreto de representación de la información. En el desarrollo de un método
numérico hay que tener en cuenta por tanto dos aspectos:
Es necesario traducir el problema a operaciones elementales (operaciones
aritméticas)
Es necesario controlar el error producido por usar una aproximación para que el
algoritmo sea estable y genere una solución cercana a la realidad
Algunos paquetes de software, como por ejemplo Octave UPM, poseen una biblioteca de
métodos numéricos y de operaciones matemáticas que hacen más sencilla la
implementación de un método numérico. Por ejemplo, aunque un ordenador no puede
resolver un sistema de ecuaciones directamente, en Octave UPM la solución del sistema
A⋅x=bA⋅x=b
se obtiene simplemente con
x = Ab;
En cuanto a controlar el error, existen dos fuentes principales de error:
2. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
El ordenador, o más concretamente, la representación numérica en un ordenador
El método numérico en sí, que no deja de ser una aproximación al problema
matemático
Existen también diferentes conceptos que suelen aparecer relacionados con métodos
numéricos:
Cuando hablamos de un método numérico, normalmente nos referimos a un
algoritmo que resuelve un problema matemático y que se puede implementar en un
ordenador.
En ocasiones, también se usa el término cálculo numérico, para denominar la
actividad de resolver problemas matemáticos usando un ordenador.
Por último, el análisis numérico es una rama de la Matemática que se encarga del
análisis de los algoritmos numéricos, con el fin de controlar el error y producir una
solución fiel a la solución exacta.
Algoritmo
Un algoritmo es una secuencia lógica y finita de pasos que permite solucionar un
problema o cumplir con un objetivo.
Los algoritmos deben ser precisos e indicar el orden lógico de realización de cada uno de
los pasos, debe ser definido y esto quiere decir que si se ejecuta un algoritmo varias veces
se debe obtener siempre el mismo resultado, también debe ser finito o sea debe iniciar
con una acción y terminar con un resultado o solución de un problema.
Cuando se elabora un algoritmo se debe tener en cuenta lo siguiente.
Tener claro cuál es el problema que va a solucionar.
Establecer un objetivo que permita medir la solución del problema.
Elaborar un algoritmo que solucione el problema.
Realizar pruebas al algoritmo para verificar los resultados.
Ejemplo
Elabore un algoritmo que permita ir de la casa al colegio.
Objetivo: Ir de la casa al colegio.
3. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Inicio
1. Salir de la casa
2. Si está lejos del colegio entonces tomar un medio de transporte que lo deje cerca
del mismo.
3. Si no está lejos del colegio entonces dirigirse caminando hacia él mismo
4. Llegar a la puerta del colegio
Fin
Aproximación
Una aproximación usualmente se realiza cuando una forma exacta o un valor numérico
exacto es desconocido o difícil de obtener. Sin embargo, puede conocerse alguna forma,
que sea capaz de representar a la forma real, de manera que no se presenten
desviaciones significativas. También se utiliza cuando un número es irracional, como el
número π, en cuyo lugar muchas veces se emplea el 3.14, √7 como ≈ 2.65
Pseudocódigo
Los Algoritmos se puede expresar de muchas maneras, pero trataremos solo dos
formas: Pseudocódigo y Diagrama de Flujo. En Pseudocódigo la secuencia de instrucciones
se representa por medio de frases o proposiciones, mientras que en un Diagrama de Flujo
se representa por medio de gráficos.
El pseudocódigo (o falso lenguaje) es una descripción de alto nivel compacta e
informal del principio operativo de un programa informático u otro algoritmo.
4. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Utiliza las convenciones estructurales de un lenguaje de programación real, pero está
diseñado para la lectura humana en lugar de la lectura mediante máquina, y con
independencia de cualquier otro lenguaje de programación. Normalmente, el
pseudocódigo omite detalles que no son esenciales para la comprensión humana del
algoritmo, tales como declaraciones de variables, código específico del sistema y
algunas subrutinas. El lenguaje de programación se complementa, donde sea conveniente,
con descripciones detalladas en lenguaje natural, o con notación matemática compacta.
Se utiliza pseudocódigo pues este es más fácil de entender para las personas que el código
del lenguaje de programación convencional, ya que es una descripción eficiente y con un
entorno independiente de los principios fundamentales de un algoritmo. Se utiliza
comúnmente en los libros de texto y publicaciones científicas que se documentan varios
algoritmos, y también en la planificación del desarrollo de programas informáticos, para
esbozar la estructura del programa antes de realizar la efectiva codificación.
En la actualidad y por lo general, el pseudocódigo, como su nombre lo indica, no obedece
a las reglas de sintaxis de ningún idioma en particular ni es de forma estándar sistemática,
a pesar de que cualquier escritor en particular vaya a pedir prestado las estructuras de
control general, la sintaxis y el estilo, por ejemplo, de algún lenguaje de programación
convencional. Pero en caso de que se quiera ejecutar, se debe llevar a forma tipo, para
que no genere mensajes de error. Las fuentes populares incluyen la sintaxis
de Pascal, BASIC, C, C++, Java, Lisp, y ALGOL. Por lo general, se omiten las declaraciones de
5. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
variables. A veces, las llamadas a funciones, los bloques de código y el código contenido
dentro de un loop se remplazan por una sentencia de una línea en lenguaje natural.
Dependiendo del escritor, el pseudocódigo puede variar mucho en su estilo, yendo desde
en un extremo, una imitación casi exacta de un lenguaje de programación real, hasta al
acercarse a una descripción en prosa de formato de pseudocódigo en el otro extremo.
Exactitud
En ingeniería, ciencia, industria y estadística, se denomina exactitud a la capacidad de
un instrumento de acercarse al valor de la magnitud real. La exactitud es diferente de
la precisión.
6. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
La exactitud depende de los errores sistemáticos que intervienen en la medición,
denotando la proximidad de una medida al verdadero valor y, en consecuencia, la validez
de la medida
Suponiendo varias mediciones, no estamos midiendo el error de cada una, sino la
distancia a la que se encuentra la medida real de la media de las mediciones (cuán
calibrado está el aparato de medición).
Esta cualidad también se encuentra en instrumentos generadores de magnitudes físicas,
siendo en este caso la capacidad del instrumento de acercarse a la magnitud física real.
Exactitud es la cercanía del valor experimental obtenido, con el valor exacto de dicha
medida. El valor exacto de una magnitud física es un concepto utópico, ya que es
imposible conocerlo sin incertidumbre alguna.
Por ejemplo, si leemos la velocidad del velocímetro de un auto, esta tiene una precisión
de 3 cifras significativas y una exactitud de 5 km/h.
Presición
En ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de
un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las
mismas condiciones o de dar el resultado deseado con exactitud. Esta cualidad debe
evaluarse a corto plazo. No debe confundirse con exactitud ni con reproducibilidad.
La precisión refleja la proximidad de distintas medidas entre sí, y es función exclusiva de
los errores accidentales.
Es un parámetro relevante, especialmente en la investigación de fenómenos físicos,
ámbito en el cual los resultados se expresan como un número más una indicación del
error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual
está comprendido el verdadero valor de la magnitud.2
En informática, se denomina asimismo precisión al número de bits usados para
representar un valor. En general, en un sistema computacional la precisión está dada por
el valor del dígito menos significativo de una palabra digital que representa un número
con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la
diferencia entre dos valores sucesivos representables en el tipo de dato y escala del
número.
7. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Error
En ciencias naturales y matemáticas:
o Error experimental: la inexactitud cometida por culpa de no poder controlar
adecuadamente la influencia de todas las variables presentes en un experimento.
o Error de medición: la inexactitud que se acepta como inevitable al comparar
una magnitud con su patrón de medida. El error de medición depende de la escala
de medida empleada, y tiene un límite. Los errores de medición se pueden
clasificar en distintas clases (accidentales, aleatorios, sistemáticos, etc.).
o Error de aproximación: es una medida del error cometido al aproximar una
magnitud numérica por una expresión aproximada más sencilla que la expresión
original exacta.
o Error de cálculo: inexactitud o equivocación al realizar una operación matemática.
En informática:
o Error de programación
o Código de error de los programas
Redondeo
El redondeo es la acción de redondear. Se encuentra definido como el proceso por medio
del cual se reducen algunos decimales, a fin de lograr un monto más exacto que permita
facilitar los cálculos matemáticos. Esto quiere decir, que si se desea realizar un redondeo
en la cifra 4,2 basta con quitarle el 0,2 para que el monto quede en 4.
Este procedimiento puede tener sus desventajas, ya que al realizar cálculos con datos que
se aproximan se tienden a acumular errores que al final, generarían variaciones
significativas en el valor estimado obtenido, respecto al valor real.
El redondeo puede realizarse de dos maneras: hacia abajo, cuando al redondear se
obtiene un número menor. Por ejemplo: 5,2 se puede redondear a 5. Otra manera de
hacerlo es hacia arriba, en este caso se obtiene un número mayor. Ejemplo: 5,9 se puede
redondear a 6.
8. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Sin embargo, el redondeo no se aplica solamente para trabajar con números enteros,
también sirven para eliminar decimales. Ejemplo: 7,1463 puede redondearse a 7,146.
Dentro del método de redondeo existen ciertas reglas muy bien definidas, las cuales
deben respetarse al momento de redondear:
Si el número es menor que 5, el dígito anterior no se modifica. Ej.: 45,423 si se desea
redondear a dos decimales, se debe tener presente el tercer decimal: 45,423 quedando el
monto en 45,42.
Si el número es mayor o igual a 5, el dígito anterior se incrementa en una unidad. Ej.:
29,618 de la misma manera que la regla anterior, si se desea redondear a dos decimales
se debe tener en cuenta el tercer decimal: 29,618 quedando el monto en 29,62.
TRUNCAMIENTO
En el truncamiento de un número decimal se eliminan las cifras a partir de aquellas en la
que se realiza el truncamiento.
- Truncamiento por la unidad: se eliminan todas las cifras decimales.
45,325 se trunca por 45
122,3434 se trunca por 122
91,435123 se trunca por 91
- Truncamiento por la décima: tan sólo se deja esta cifra decimal:
45,325 se trunca por 45,3
122,3434 se trunca por 122,3
91,435123 se trunca por 91,4
- Truncamiento por la centésima: tan sólo se dejan dos cifras decimales:
9. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
45,325 se trunca por 45,32
122,3434 se trunca por 122,34
91,435123 se trunca por 91,43
Y así sucesivamente.
Combinaciones y permutaciones
Combinaciones:
Las combinaciones son aquellas formas de agrupar los elementos de un conjunto teniendo
en cuenta que:
· No influye el orden en que se colocan.
· Si permitimos que se repitan los elementos, podemos hacerlo hasta tantas veces
como elementos tenga la agrupación:
Existen dos tipos: Combinaciones sin repetición y combinaciones con repetición, cuyos
símbolos son los siguientes.
Antes de realizar cálculos debes repasar los conceptos de factorial de un número y de
número combinatorio.
Permutaciones:
Las permutaciones son aquellas formas de agrupar los elementos de un conjunto teniendo
en cuenta que:
· Influye el orden en que se colocan.
10. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
· Tomamos todos los elementos de que se disponen.
· Serán permutaciones sin repetición cuando todos los elementos de que disponemos
son distintos.
· Serán permutaciones con repetición si disponemos de elementos repetidos. (ese es el
nº de vaces que se repite elemento en cuestión).
Es por ello que también se llaman ordenaciones. Los simbolos que utilizamos son los
siguientes.
Convergencia
Se entiende por convergencia de un método numérico la garantía de que, al realizar un
“buen número” de iteraciones, las aproximaciones obtenidas terminan por acercarse
cada vez mas al verdadero valor buscado.
En la medida en la que un método numérico requiera de un menor numero de iteraciones
que otro, para acercarse al valor deseado, se dice que tiene una mayor rapidez de
convergencia.
No todos los métodos numéricos convergen, por el contrario, divergen; es decir, se alejan
cada vez mas del resultado deseado. Es en esta situación cuando decimos que no tienen
buena estabilidad.
Divergencia
En las matemáticas y en la física la divergencia es muy utilizada para aludir por ejemplo
al teorema de Gauss, también conocido como teorema de la divergencia o teorema de
Gauss-Ostrogradsky, que relaciona el flujo de un campo vectorial por medio de una
superficie cerrada con la integral de su divergencia en aquel volumen delimitado por dicha
superficie. Por otro lado está la divergencia de Kullback-Leibler que alude a indicador de
11. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
similitud que existe entre dos funciones de distribución de probabilidad. En geometría
divergencia es el posicionamiento de los líneas que progresivamente son separadas la una
de la otra.
ITERACIÓN.
Una iteración es una secuencia de pasos que se repite varias veces, se parte de uno o
varios valores iniciales, estos datos se procesan aplicando la secuencia de pasos en
cuestión y, se obtiene uno o varios resultados parciales. Estos resultados parciales serán
los valores iniciales que se utilicen al aplicar la siguiente iteración. Cuando todo va bien,
una iteración va mejorando los datos de la iteración anterior y sus resultados sirven para
que la próxima iteración los mejore aún más.
Interpolación matemática
En el subcampo matemático del análisis numérico, se denomina interpolación a obtención
de nuevos puntos partiendo del conocimiento de un conjunto de puntos.
En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos
obtenidos por muestreo o a partir de un experimento y pretender construir
una función que los ajuste.
Otro problema estrechamente ligado con el de la interpolación es la aproximación de una
función complicada por una más simple. Si tenemos una función cuyo cálculo resulta
costoso, podemos partir de un cierto número de sus valores e interpolar dichos datos
construyendo una función más simple. En general, por supuesto, no obtendremos los
mismos valores evaluando la función obtenida que si evaluamos la función original, si bien
dependiendo de las características del problema y del método de interpolación usado la
ganancia en eficiencia puede compensar el error cometido.
Valor intermedio
12. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Sea una función continua en el intervalo (cerrado) y sea un número
entre y . Entonces, existe un número en el intervalo (es
decir, ) que satisface: .
En otras palabras, una función continua toma todos los valores entre y cuando
los valores de cambian desde hasta . La siguiente gráfica muestra esto de una
manera más clara:
Polinomio
En álgebra, un polinomio puede tener más de una variable (x, y, z), constantes (números
enteros o fracciones) y exponentes (que solo pueden ser números positivos enteros).
Los polinomios están formados por términos finitos. Cada término es una expresión que
contiene uno o más de los tres elementos de los que están hechos: variables, constantes o
exponentes. Por ejemplo: 9, 9x, 9xy son todos términos. Otra forma de identificar los
términos es que se separan por sumas y restas.
Para resolver, simplificar, sumar o restar polinomios se deben agrupar los términos con las
mismas variables como, por ejemplo, los términos con x, los términos con y y los términos
que no tienen variables. Además, es importante fijarse en el signo que está antes del
término que determinará si suma, resta o multiplica. Por ejemplo:
4x + 5y + 2xy + 2y +2
13. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Sistema numérico posicional
Los sistemas de numeración posicionales son aquellos en los que cada símbolo (cifra)
tiene un valor dependiendo de su posición relativa respecto de los otros con los que
construye el número. Por ejemplo, el sistema decimal que usamos cotidianamente.
Equidistante
Equidistante es un adjetivo empleado para referirse a algo que se encuentra a igual
distancia entre dos puntos.
La palabra equidistante se deriva del verbo equidistar, compuesto por el sufijo “equi-”, de
raíz latina aequi-, que significa ‘igual’, y “distar”, del verbo latín distāre, que traduce ‘estar
lejos’.
En áreas como la Matemática, la Geometría, la Geometría analítica o el Dibujo técnico,
la equidistancia se refiere a aquel punto, línea, plano o sólido que se encuentra a la misma
distancia de otro punto, línea, plano o sólido determinado.
Asimismo, podemos decir que un lugar es equidistante cuando consideramos que se
encuentra a medio camino entre otros dos puntos de referencia.
Por otro lado, también se puede emplear la palabra equidistante en un sentido
figurado para señalar que algo está a la misma distancia de dos cosas, o en la mitad entre
ambas, aunque se refiera a un plano abstracto. Por ejemplo: “Es una ideología de centro,
equidistante de las ideas radicales de derecha y de izquierda”.
Equidistante en Matemáticas
14. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
En el campo de las Matemáticas, como equidistante se designa al punto que se encuentra
situado a la misma distancia de dos puntos ubicados en extremos opuestos. Visto desde
la Geometría, el punto equidistante es aquel a partir del cual se puede dividir un
segmento en dos partes iguales, siendo que por este punto equidistante o punto medio
pasa la recta de la mediatriz, que es la que corta el segmento por la mitad. Un ejemplo
elemental de equidistancia es el de la circunferencia, donde todos sus puntos se
encuentran equidistantes del centro de la circunferencia.
Diferencial
Si es una función derivable, la diferencial de una función correspondiente al
incremento de la variable independiente, es el producto .
La diferencial de una función se representa por ó .
Interpretación geométrica de la diferencial
15. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
La diferencial en un punto representa el incremento de la ordenada de la tangente,
correspondiente a un incremento de la variable independiente.
Sumatoria
La sumatoria o sumatorio (llamada también notación sigma ) es una operación
matemática que se emplea para calcular la suma de muchos o infinitos sumandos.
La operación sumatoria se expresa con la letra griega sigma mayúscula Σ, y se representa
así:
Expresión que se lee: " sumatoria de Xi, donde i toma los valores desde 1 hasta n ".
i es el valor inicial, llamado límite inferior.
16. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
n es el valor final, llamado límite superior.
Pero necesariamente debe cumplirse que:
i ≤ n
Si la sumatoria abarca la totalidad de los valores, entonces no se anotan sus límites y su
expresión se puede simplificar:
Si se quiere expresar la suma de los cinco primeros números naturales se puede hacer de
esta forma:
Palabra computacional
En el contexto de la informática, una palabra es una cadena finita de bits que son
manejados como un conjunto por la máquina. El tamaño o longitud de una palabra hace
referencia al número de bits contenidos en ella, y es un aspecto muy importante al
momento de diseñar una arquitectura de ordenadores.
El tamaño de una palabra se refleja en muchos aspectos de la estructura y las operaciones
de las computadoras. La mayoría de los registros en un ordenador normalmente tienen el
tamaño de la palabra. El valor numérico típico manipulado por un ordenador es
probablemente el tamaño de palabra. La cantidad de datos transferidos entre la CPU del
ordenador y el sistema de memoria a menudo es más de una palabra. Una dirección
utilizada para designar una localización de memoria a menudo ocupa una palabra.
Los ordenadores modernos normalmente tienen un tamaño de palabra de 16, 32 ó 64
bits. Muchos otros tamaños se han utilizado en el pasado, como 8, 9, 12, 18, 24, 36, 39,
40, 48 y 60 bits. El slab es uno de los ejemplos de uno de los primeros tamaños de palabra.
Algunos de los primeros ordenadores eran decimales en vez de binarios, típicamente
teniendo un tamaño de palabra de 10 ó 12 dígitos decimales y algunos de los primeros
ordenadores no tenían una longitud de palabra fija.
17. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Entero
En informática, un número entero es un dato de tipo de datos integral , un tipo de
datos que representa algún rango de números enteros matemáticos . Los tipos de datos
integrales pueden ser de diferentes tamaños y pueden contener o no valores negativos.
Los números enteros se representan comúnmente en una computadora como un grupo
de dígitos binarios (bits). El tamaño de la agrupación varía, por lo que el conjunto de
tamaños enteros disponibles varía entre los diferentes tipos de computadoras. El
hardware de la computadora, incluidas las máquinas virtuales , casi siempre proporciona
una forma de representar un registro de procesador o una dirección de memoria como un
número entero.
El valor de un elemento con un tipo integral es el número entero matemático al que
corresponde. Los tipos integrales pueden estar sin signo (capaces de representar solo
enteros no negativos) o con signo (capaces de representar también enteros negativos).
Un valor entero se especifica típicamente en el código fuente de un programa como una
secuencia de dígitos opcionalmente prefijados con + o -. Algunos lenguajes de
programación permiten otras notaciones, como hexadecimal (base 16) u octal (base 8).
Algunos lenguajes de programación también permiten separadores de grupos de dígitos .
La representación interna de este dato es la forma en que el valor se almacena en la
memoria de la computadora. A diferencia de los números enteros matemáticos, un dato
típico en una computadora tiene un valor mínimo y máximo posible.
Punto flotante
La representación de punto flotante (en inglés floating point) es una forma de notación
científica usada en los computadores con la cual se pueden representar números
reales extremadamente grandes y pequeños de una manera muy eficiente y compacta, y
18. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
con la que se pueden realizar operaciones aritméticas. El estándar actual para la
representación en coma flotante es el IEEE 754.
Cómo funcionan los números de punto flotante
La idea es descomponer el número en dos partes:
Una mantisa (también llamada coeficiente o significando) que contiene los dígitos
del número. Mantisas negativas representan números negativos.
Un exponente que indica dónde se coloca el punto decimal (o binario) en relación
al inicio de la mantisa. Exponentes negativos representan números menores que
uno.
Este formato cumple todos los requisitos:
Puede representar números de órdenes de magnitud enormemente dispares
(limitado por la longitud del exponente).
Proporciona la misma precisión relativa para todos los órdenes (limitado por la
longitud de la mantisa).
Permite cálculos entre magnitudes: multiplicar un número muy grande y uno muy
pequeño conserva la precisión de ambos en el resultado.
Los números de coma flotante decimales normalmente se expresan en notación
científica con un punto explícito siempre entre el primer y el segundo dígitos. El
exponente o bien se escribe explícitamente incluyendo la base, o se usa una e para
separarlo de la mantisa.
Mantisa Exponente Notación científica Valor en punto fijo
1.5 4 1.5 ⋅ 104 15000
19. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Mantisa Exponente Notación científica Valor en punto fijo
-2.001 2 -2.001 ⋅ 102 -200.1
5 -3 5 ⋅ 10-3 0.005
6.667 -11 6.667e-11 0.0000000000667
El estándar
Casi todo el hardware y lenguajes de programación utilizan números de punto flotante en
los mismos formatos binarios, que están definidos en el estándar IEEE 754. Los formatos
más comunes son de 32 o 64 bits de longitud total:
Formato
Bits
totales
Bits
significativos
Bits del
exponente
Número más
pequeño
Número más
grande
Precisión
sencilla
32 23 + 1 signo 8 ~1.2 ⋅ 10-38 ~3.4 ⋅ 1038
Precisión
doble
64 52 + 1 signo 11 ~5.0 ⋅ 10-324 ~1.8 ⋅ 10308
Hay algunas pecularidades:
La secuencia de bits es primero el bit del signo, seguido del exponente y
finalmente los bits significativos.
El exponente no tiene signo; en su lugar se le resta un desplazamiento (127 para
sencilla y 1023 para doble precisión). Esto, junto con la secuencia de bits, permite
que los números de punto flotante se puedan comparar y ordenar correctamente
incluso cuando se interpretan como enteros.
Se asume que el bit más significativo de la mantisa es 1 y se omite, excepto para
casos especiales.
20. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Hay valores diferentes para cero positivo y cero negativo. Estos difieren en el bit
del signo, mientras que todos los demás son 0. Deben ser considerados iguales
aunque sus secuencias de bits sean diferentes.
Hay valores especiales no numéricos (NaN, «not a number» en inglés) en los que el
exponente es todo unos y la mantisa no es todo ceros. Estos valores representan el
resultado de algunas operaciones indefinidas (como multiplicar 0 por infinito,
operaciones que involucren NaN, o casos específicos). Incluso valores NaN con
idéntica secuencia de bits no deben ser considerados iguales.
Mantisa y característica
Originalmente mantisa, en el ámbito de los logaritmos, se refiere a la diferencia entre un
número y su parte entera, es decir, su parte fraccionaria.
En el número decimal 123,7585, la parte entera es 123 y la mantisa es 0,7585.
En el número decimal negativo -17,228, la parte entera es -17 y la mantisa es 0,228.
Es en este sentido que se habla de mantisa y característica de un logaritmo decimal.
En log(123,7) = 2,09237, la característica es 2 y la mantisa es 0,09237
En log(0,001237) = - 2,90763 = -3 + 0,09237, la característica es -3 y la mantisa es
0,09237.
Es en este sentido que se habla de mantisa y característica de un logaritmo decimal.1
En log(123,7) = 2,09237, la característica es 2 y la mantisa es 0,09237
En log(0,001237) = - 2,90763 = -3 + 0,09237, la característica es -3 y la mantisa es
0,09237.
La característica es la parte entera de un logaritmo decimal o común, o el número entero
inmediatamente inferior o igual al logaritmo; llamándose mantisa su complemento
21. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
decimal. La característica indica la posición de la coma en el número asociado al
logaritmo.
Por coincidir la base de la numeración (10) con la base de los logaritmos comunes, la
característica puede determinarse por simple apreciación: para números mayores que
la unidad, es positiva y coincide con el número de cifras de la parte entera del número
asociado menos uno. Así, la característica del logaritmo de un número mayor o igual a 1 y
menor que 10 (una cifra) es cero. Es lógico, ya que el logaritmo decimal de uno es cero, y
el de diez, uno. Del mismo modo, la de los números mayores o iguales a 10, pero menores
que 100 (dos cifras), será 1; la de los mayores o iguales a 100, pero menores que 1000
(tres cifras), será 2... La característica del logaritmo de un número comprendido entre 0 y
1 es negativa, tanto más cuanto más se acerque el número a cero, concretamente igual al
número de ceros entre la coma decimal y la primera cifra significativa del número, más
uno. Así, la característica del logaritmo de un número menor que 1 pero mayor o igual que
0,1 es –1; la de un número menor que 0,1, pero mayor o igual que 0,01 es –2...
Así pues, si se conoce el número, la característica se puede averiguar simplemente
observando la ubicación de la coma decimal respecto a la primera cifra significativa; y, al
contrario, si se conoce la característica, resulta directo ubicar correctamente la coma
decimal en el número asociado. Las tablas de logaritmos suelen contener únicamente las
mantisas, con mayor o menor precisión, pues las características, como se ha explicado,
son fácilmente deducibles. La característica coincide siempre con el exponente del
número asociado al logaritmo puesto en notación científica; pues ambas cifras
representan, en realidad, lo mismo.
Normalización de una palabra
computacional
22. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Cuando se diseña una arquitectura de computadores, la elección de la longitud de palabra
es de substancial importancia. Hay consideraciones de diseño que promueven tamaños de
agrupaciones de bits para usos particulares (p.ej. direcciones) y estas consideraciones
apuntan a diferentes tamaños para diferentes usos. Sin embargo, las consideraciones de
economía en diseños fuertemente apuestan por un tamaño o unos cuantos tamaños
relacionados por múltiplos o fracciones (submúltiplos) de una longitud primaria. El
tamaño elegido se convierte en la longitud de palabra de la arquitectura.
El tamaño de carácter es una de las influencias en la elección de la longitud de palabra.
Antes de mediados de los años 1960, los caracteres se almacenaban a menudo en seis
bits, esto permitía como mucho 64 caracteres, así que los alfabetos se limitaban a las
mayúsculas. Como es eficiente en tiempo y espacio que el tamaño de palabra sea un
múltiplo del tamaño de carácter, las longitudes de palabra en este periodo sean
normalmente múltiplos de 6 bits (en máquinas binarias). Una elección común fueron las
palabras de 32 bits, que es también un buen tamaño para las propiedades numéricas de
un formato en coma flotante.
Después de la introducción del IBM S/360, diseño que utilizaba caracteres de 8 bits y
soportaba letras minúsculas, el tamaño estándar de un carácter (o más correctamente,
un byte) se convirtió en ocho bits. Los tamaños de palabra a partir de entonces fueron
naturalmente múltiplos de ocho bits, con 16, 32 y 64 bits siendo utilizados comúnmente.
En arquitectura de ordenadores, 16 bits es un adjetivo usado para
describir enteros, direcciones de memoria u otras unidades de datos que comprenden
hasta 16 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas
en registros, bus de direcciones o bus de datos de ese ancho.
En ciencias de la computación, Dword (en inglés double word, doble palabra) es una
unidad de datos que es dos veces el tamaño de una palabra. En las plataformas x86, que
tienen una longitud de palabra de 16 bits, una unidad dword tiene una longitud de 32 bits.
23. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Qword (en inglés quadruple word, cuádruple palabra) es una unidad de datos que es
cuatro veces el tamaño de una palabra. En las plataformas x86, esta unidad de datos es 64
bits.
Finalmente, Intel utiliza el término DQWord (en inglés double quadruple word, doble
cuádruple palabra) para denotar datos de 128 bits, encontrado en la implementación
del SSE y sus antecesores.
Matemáticas aplicadas
El término matemáticas aplicadas se refiere a aquellos métodos y
herramientas matemáticas que pueden ser utilizados en el análisis o resolución de
problemas pertenecientes al área de las ciencias básicas o aplicadas como el cálculo,
el álgebra lineal, las ecuaciones diferenciales, entre otras que puede haber desde que se
descubrió.
Muchos métodos matemáticos han resultado efectivos en el estudio de problemas
en física, química, biología, ingeniería, medicina, ciencias
sociales, informática, economía, finanzas o ecología. Sin embargo, una posible diferencia
es que en matemáticas aplicadas se procura el desarrollo de las matemáticas "hacia
afuera", es decir su aplicación o transferencia hacia el resto de las áreas. Y en menor grado
"hacia dentro" o sea, hacia el desarrollo de las matemáticas mismas. Este último sería el
caso de las matemáticas puras o matemáticas elementales.
Las matemáticas aplicadas se usan con frecuencia en distintas
áreas tecnológicas para modelado, simulación y optimización de procesos o fenómenos,
como el túnel de viento o el diseño de experimentos. En las últimas décadas, una de las
aplicaciones más directas de la matemática tales como: álgebra lineal, geometría plana y
del espacio, cálculo y física han sido un fundamento para el desarrollo de simuladores y
videojuegos en 3D.
Áreas de las matemáticas con frecuentes aplicaciones
24. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Cálculo diferencial e integral
Análisis numérico
Álgebra lineal
Análisis complejo / variable compleja
Análisis funcional y álgebras de Lie
Ecuaciones diferenciales
Estadística inferencial
Investigación operativa
Matemática discreta
Optimización
Sistemas dinámicos
Teoría de control
Cálculo de probabilidad
Fractales
Se incluyen como parte central de las matemáticas aplicadas el análisis numérico y
la computación científica.
Modelo matemático
En ciencias aplicadas y en tecnología, un modelo matemático es uno de los tipos
de modelos científicos que emplea algún tipo de formulismo matemático para expresar
relaciones, proposiciones sustantivas de hechos, variables, parámetros, entidades y
25. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
relaciones entre variables de las operaciones, para estudiar comportamientos de sistemas
complejos ante situaciones difíciles de observar en la realidad. El término modelización
matemática es utilizado también en diseño gráfico cuando se habla de modelos
geométricos de los objetos en dos (2D) o tres dimensiones (3D).
El significado de modelo matemático en filosofía de la matemática y fundamentos de la
matemática es, sin embargo, algo diferente. En concreto en esas áreas se trabajan con
"modelos formales". Un modelo formal para una cierta teoría matemática es un conjunto
sobre el que se han definido una serie de relaciones unarias, binarias y trinarias, que
satisface las proposiciones derivadas del conjunto de axiomas de la teoría. La rama de la
matemática que se encarga de estudiar sistemáticamente las propiedades de los modelos
es la teoría de modelos.
Clasificaciones de los modelos
Se podría decir que un modelo de las ciencias físicas es una traducción de la realidad física
de un sistema físico en términos matemáticos, es decir, una forma de representar cada
uno de los tipos de entidades que intervienen en un cierto proceso físico mediante
objetos matemáticos.Las relaciones matemáticas formales entre los objetos del modelo,
deben representar de alguna manera las relaciones reales existentes entre las diferentes
entidades o aspectos del sistema u objeto real. Así una vez "traducido" o "representado"
cierto problema en forma de modelo matemático, se pueden aplicar el cálculo, el álgebra
y otras herramientas matemáticas para deducir el comportamiento del sistema bajo
estudio. Un modelo físico requerirá por tanto que se pueda seguir el camino inverso
al modelado, permitiendo reinterpretar en la realidad las predicciones del modelo.
Según la información de entrada
Con respecto a la función del origen de la información utilizada para construir los modelos
pueden clasificarse de otras formas. Podemos distinguir entre modelos heurísticos y
modelos empíricos:
26. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Modelos heurísticos (del griego euriskein 'hallar, inventar'). Son los que están
basados en las explicaciones sobre las causas o mecanismos naturales que dan
lugar al fenómeno estudiado.
Modelos empíricos (del griego empeirikos relativo a la 'experiencia'). Son los que
utilizan las observaciones directas o los resultados de experimentos del fenómeno
estudiado.
Según el tipo de representación
Además los modelos matemáticos encuentran distintas denominaciones en sus diversas
aplicaciones. Una posible clasificación puede atender a si pretenden hacer predicciones de
tipo cualitativo o pretende cuantificar aspectos del sistema que se está modelizando:
Modelos cualitativos o conceptuales, estos pueden usar figuras, gráficos o
descripciones causales, en general se contentan con predecir si el estado del
sistema irá en determinada dirección o si aumentará o disminuirá alguna
magnitud, sin importar exactamente la magnitud concreta de la mayoría de
aspectos.
Modelos cuantitativos o numéricos, usan números para representar aspectos del
sistema modelizado, y generalmente incluyen fórmulas y algoritmos matemáticos
más o menos complejos que relacionan los valores numéricos. El cálculo con los
mismos permite representar el proceso físico o los cambios cuantitativos del
sistema modelado.
Según la aleatoriedad
Otra clasificación independiente de la anterior, según si a una entrada o situación inicial
concreta pueden corresponder o no diversas salidas o resultados, en este caso los
modelos se clasifican en:
27. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Determinista. Se conoce de manera puntual la forma del resultado ya que no hay
incertidumbre. Además, los datos utilizados para alimentar el modelo son
completamente conocidos y determinados.
Estocástico. Probabilístico, que no se conoce el resultado esperado, sino su
probabilidad y existe por tanto incertidumbre.
Clasificación según su aplicación u objetivo
Por su uso suelen utilizarse en las siguientes tres áreas, sin embargo existen muchas otras
como la de finanzas, ciencias etc.
Modelo de simulación o descriptivo, de situaciones medibles de manera precisa o
aleatoria, por ejemplo con aspectos de programación lineal cuando es de manera
precisa, y probabilística o heurística cuando es aleatorio. Este tipo de modelos
pretende predecir qué sucede en una situación concreta dada.
Modelo de optimización. Para determinar el punto exacto para resolver alguna
problemática administrativa, de producción, o cualquier otra situación. Cuando la
optimización es entera o no lineal, combinada, se refiere a modelos matemáticos
poco predecibles, pero que pueden acoplarse a alguna alternativa existente y
aproximada en su cuantificación. Este tipo de modelos requiere comparar diversas
condiciones, casos o posibles valores de un parámetro y ver cual de ellos resulta
óptimo según el criterio elegido.
Modelo de control. Para saber con precisión como está algo en una organización,
investigación, área de operación, etc. Este modelo pretende ayudar a decidir qué
nuevas medidas, variables o qué parámetros deben ajustarse para lograr un
resultado o estado concreto del sistema modelado.
Diseño experimental
La experimentación es una técnica utilizada para encontrar el comportamiento de una
variable a partir de diferentes combinaciones de factores o variables de entrada de un
28. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
proceso, que al cambiar afectan la respuesta. Para entrar a experimentar es necesario
pasar primero por el diseño de experimentos, esta técnica busca la manipulación
sistemática de las variables de entrada de un proceso para entender el efecto que estas
pueden causar en la variable respuesta. Es ampliamente utilizado en las empresas debido
a que éste permite visualizar situaciones que pueden suceder a partir de la realización de
un proceso. En la industria se utiliza principalmente para buscar el mejoramiento del
rendimiento de un proceso, para reducir la variabilidad y permitir que haya un mayor
acercamiento a los parámetros de la empresa, para reducir tiempos de procesamiento y
reducir costos. Cualquier problema experimental incluye: diseño del experimento y
análisis de los datos.
PASOS A SEGUIR EN EL DISEÑO DE EXPERIMENTOS
1. Reconocimiento y establecimiento del problema
2. Selección de los factores y niveles de cada uno de estos
3. Selección de la variable respuesta
4. Determinación del diseño experimental que debe llevarse a cabo
5. Realización del experimento para la obtención de los datos de la respuesta
6. Análisis de los datos
7. Conclusiones y recomendaciones
8. Estudio de confirmación
VENTAJAS DEL DISEÑO EXPERIMENTAL
· Se elimina el efecto de las variables perturbadoras o extrañas, mediante el efecto de
la aleatorización.
29. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
· El control y manipulación de las variables predictorias clarifican la dirección y
naturaleza de la causa.
· Se requiere una estrecha colaboración entre los estadísticos y el investigador o
científicos con las consiguientes ventajas en el análisis e interpretación de las etapas del
programa.
· Se enfatiza respecto a las alternativas anticipadas y respecto a la pre-planeación
sistemática, permitiendo aun la ejecución por etapas y la producción única de datos útiles
para el análisis en combinaciones posteriores.
· Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación de
fuentes de variabilidad en los resultados.
· El número de pruebas requerido puede determinarse con certeza y a menudo puede
reducirse.
· La comparación de los efectos de los cambios es más precisa debido a la agrupación
de resultados.
· La exactitud de las conclusiones se conoce con una precisión matemáticamente
definida.
DESVENTAJAS DEL DISEÑO EXPERIMENTAL
1. Tales diseños y sus análisis, usualmente están acompañados de enunciados basados
en el lenguaje técnico del estadístico. Sería significativos a la generalidad de la gente,
además, el estadístico no debería subestimar el valor de presentarnos los resultados en
forma gráfica. De hecho, siempre debería considerar a la representación gráfica como un
paso preliminar de un procedimiento más analítico.
2. Muchos diseños estadísticos, especialmente cuando fueron formulados por primera
vez, se han criticado como demasiado caros, complicados y que requieren mucho tiempo.
30. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Tales críticas, cuando son válidas, deben aceptarse de buena fe y debe hacerse un intento
honesto para mejorar la situación, siempre que no sea en detrimento de la solución del
problema.
Análisis Matemático
El análisis es una rama de las matemáticas que estudia los números reales, los complejos y
sus funciones. Se empieza a desarrollar a partir del inicio de la formulación rigurosa del
Cálculo y estudia conceptos como la continuidad, la integración y la diferenciabilidad de
diversas formas.
El análisis, actualmente se divide en los siguientes campos:
Análisis real, esto es, el estudio formalmente riguroso de las derivadas e
integrales de las funciones real-valuadas, lo que incluye el estudio de límites, Series
de potencias y de las medidas.
Análisis funcional, que estudia espacios y funciones e introduce conceptos como
los de espacios de Banach y espacios de Hilbert.
Análisis armónico, que trata de las Series de Fourier y de sus abstracciones.
Análisis complejo, que estudia funciones que van del Plano complejo hacia sí
mismo y que son complejo-diferenciables, las funciones holomorfas.
Análisis no-standard, que investiga ciertos Números hiperreales y sus funciones y
da un tratamiento riguroso de los números infinitesimales y los infinitamente
grandes.
Cifras significativas
Al realizar una medición con un instrumento de medida este nos devuelve un valor
formado por una serie de cifras. Dicha serie de cifras recibe el nombre de cifras
significativas.
31. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
Se denominan cifras significativas (c.s.) al conjunto de los dígitos que se conocen con
seguridad en una medida.
De todas las cifras significativas siempre hay una, la última, que estará afectada por un
error. Por esta razón al resto de cifras se le denominan cifras exactas.
Ejemplo: Termómetro digital
Los termómetros digitales utilizados en la medicina práctica
utilizan 3 cifras significativas. Las dos primeras son cifras exactas
y la última es una cifra significativa afectada por error ya que
probablemente la temperatura real estará formada por infinitos
decimales imposibles de representar y que además no son
necesarios para determinar si el paciente tiene fiebre o no.
Reglas para determinar las cifras significativas
Cualquier cifra distinta de cero se considera significativa.
o Ejemplos: 25,36 m tiene 4 c.s. o 154 tiene 3 c.s.
Se consideran cifras significativas los ceros situados entre dos dígitos distintos de
cero y los situados después de la coma decimal.
o Ejemplos: 2005.20 tiene 6 c.s. o 34.00 tiene 4 c.s.
Sin embargo no se consideran cifras significativas los ceros situados al comienzo de
un número, incluidos aquellos situados a la derecha de la coma decimal hasta
llegar a un dígito distinto de cero.
o Ejemplo: 0,000560 tiene 3 c.s. (560)
Tampoco se consideran significativos los ceros situados al final de un número sin
coma decimal, excepto si se indican con un punto.
32. BenjamínJoaquínMartínez
https://www.linkedin.com/in/benjaminjoaquinmartinez/
o Ejemplos: 450 tiene 2 c.s. (45), sin embargo 450. tiene 3 c.s.
Fuentes:
https://mat.caminos.upm.es/wiki/M%C3%A9todos_num%C3%A9ricos
http://aprende.colombiaaprende.edu.co/sites/default/files/naspublic/curriculos_ex/n1g10_fproy/
nivel1/programacion/unidad1/leccion1.html
https://es.wikipedia.org/wiki/Aproximaci%C3%B3n
https://sites.google.com/site/info080910/lenguajes-de-programacion
https://es.wikipedia.org/wiki/Exactitud