1. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 1
U.N.E.D.
GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS
6502102- MATEMÁTICAS I
PROGRAMA
Tema 1. Espacios vectoriales.
Tema 2. Aplicaciones lineales.
Tema 3. Matrices.
Tema 4. Sistemas de ecuaciones lineales.
Tema 5. Sucesiones de números reales
Apéndice A. Temas preliminares (conjuntos, relaciones, aplicaciones, grupos y cuerpos,
polinomios)
Apéndice B. Determinantes.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
2. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 2
Resumen de Teoría
6502102- Matemáticas I
TEMA 1. Espacios vectoriales
I. Vectores de n
Vector: Un vector de n (o vector de n componentes) es un conjunto (n-tupla) ordenado de
números reales: x = ( x1 , x 2 , . . . , x n ) ∈ n , con xi ∈
Cada elemento xi del vector se denomina componente del mismo.
Suma de vectores: Dados dos vectores x = ( x1 , x 2 ,..., x n ) e y = ( y1 , y 2 ,..., y n ) de n , su suma
es otro vector de n definido en la forma:
x + y = ( x1 + y1 , x 2 + y 2 ,..., x n + y n ) , con xi , y j ∈
Propiedades y elementos notables:
a. Es asociativa: ∀x , y , z ∈ n , se tiene: x + ( y + z ) = ( x + y ) + z
b. Es conmutativa: ∀x , y ∈ n , se tiene: x + y = y + x
c. Existe el vector nulo, designado por 0 tal que: ∀x ∈ n : x + 0 = x
d. Existe vector opuesto: ∀x ∈ n , ∃ − x tal que x + (− x ) = 0
Producto de un vector por un número real: Dado un número a ∈ y un vector
x = ( x1 , x 2 , . . . , x n ) ∈ n , se define el producto del número real por el vector como otrro
vector: a ( x1 , x 2 , . . . , x n ) = (ax1 , ax 2 , . . . , ax n )∈ n , con xi ∈
Propiedades de esta operación:
a. Distributiva respecto de la suma en n : ∀a ∈ , ∀x , y ∈ n : a ( x + y ) = ax + ay
b. Distributiva respecto de la suma en : ∀a , b ∈ , ∀x ∈ n : (a + b) x = ax + bx
c. Asociatividad mixta: ∀a , b ∈ , ∀x ∈ n : (a b) x = a (bx )
d. Siendo 1 al elemento unidad para el producto en , se verifica: ∀x ∈ n : 1x = x
Espacio vectorial: El conjunto de vectores de n , con las operaciones de suma de vectores y
producto de un vector por un número real, anteriormente definidas, es un espacio vectorial
real. Lo representaremos en la forma: ( n , + , ⋅ ) .
Consecuencias:
a. Cualquiera que sea el valor a ∈ , se verifica: a 0 = 0
b. Cualquiera que sea x ∈ n , se verifica: 0 x = 0
c. Si ax = 0 , entonces: a = 0 ó x = 0 .
d. Cualquiera que sea x ∈ n , se tiene que ( −1) x = − x .
Aplicación: Cualquiera que sea x ∈ n , se tiene: (−a ) x = −(ax ) = a (− x ) .
e. Cualquiera que sea a ≠ 0 de , si ax = ay , se sigue que x = y .
f. Cualquiera que sea x ≠ 0 de n , si ax = bx , se sigue que a = b
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
3. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 3
Subespacio vectorial: Diremos que un subconjunto S ≠ ∅ de n , es un subespacio vectorial de
n , si las operaciones definidas en n son estables en S, es decir:
- Para todo par de vectores x , y ∈ S : x + y ∈ S
- Para todo x ∈ S y para todo a ∈ : ax ∈ S
Así ( S , + , ⋅) , con las mismas operaciones, es también espacio vectorial.
{}
Por definición, el conjunto formado por el vector nulo, 0 , y el propio n son subespacios
vectoriales de n , a los que llamamos subespacios impropios.
A los demás subespacios los llamamos subespacios propios.
Teorema de caracterización de subespacios vectoriales: La condición necesaria y
suficiente para que una parte S ≠ ∅ de un espacio vectorial n sea un subespacio vectorial es
que: ∀x , y ∈ n , ∀a , b ∈ : a x + b y ∈ S .
Intersección de subespacios vectoriales: Se define en esta forma al conjunto de los vectores
de n que pertenecen simultáneamente a los dos subespacios S1 y S2 .
Teorema: La intersección de dos subespacios vectoriales, S1 y S2 , de un espacio vectorial
n , es un subespacio vectorial de n .
Suma de subespacios vectoriales: Sean S1 y S2 dos subespacios vectoriales del espacio
vectorial n y dos vectores genéricos: x1 ∈ S1 y x2 ∈ S2 . Llamaremos suma de ambos
subespacios vectoriales al conjunto de vectores x ∈ n que se expresan en la forma:
{ }
x = x1 + x2 : S1 + S 2 = x ∈ n x = x1 + x 2 , x1 ∈ S1 , x 2 ∈ S 2
Teorema: La suma de dos subespacios vectoriales S1 y S2 de un espacio vectorial n es un
subespacio vectorial de n .
Subespacios suplementarios: Dos subespacios vectoriales S1 y S2 de un espacio vectorial
n , se dice que son suplementarios si cumplen las siguientes condiciones: S1 ∩ S2 = 0 , {}
S1 + S 2 = n .
También se denomina suma directa de subespacios vectoriales y se designa por: S1 ⊕ S2 .
Consecuencia: Si S1 y S2 son subespacios suplementarios de un espacio vectorial n , todo
vector x ∈ n se expresa de forma única como suma de un vector de S1 y un vector de S2 .
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
4. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 4
II. Relación entre vectores
Sistema de vectores: Se denomina sistema de vectores de n a un conjunto de vectores
{x1 , x2 , . . . , xn } (alguno podría repetirse).
Combinación lineal de vectores: Se dice que un vector x ∈ n , es una combinación lineal del
conjunto de vectores {x1 , x 2 ,..., x n } de n , si y sólo si existen unos números reales
a1 , a 2 , ... , a n (llamados coeficientes de la combinación lineal), tales que el vector x se puede
escribir en la forma: x = a1 x1 + a 2 x 2 + . . . + a n x n
Dependencia lineal de vectores: Se dice que un sistema de n vectores {x1 , x 2 ,..., x n } de un
espacio vectorial n , son linealmente dependientes, si y sólo si existen n números reales
a1 , a 2 , ... , a n , no todos nulos, tales que: a1 x1 + a 2 x 2 + . . . + a n x n = 0
A dicho conjunto de vectores también se le denomina familia ligada o sistema ligado de
vectores.
Consecuencias
a. Todo sistema de vectores de n que contenga al vector nulo, es un sistema ligado de
vectores.
b. La condición necesaria y suficiente para que un sistema de n vectores {x1 , x 2 ,..., x n } de
n sea linealmente dependiente es que, al menos uno de ellos sea combinación lineal
de los restantes.
Dependencia lineal de conjuntos de vectores: Un conjunto H de vectores se dice que
depende linealmente de otro conjunto H', si cada uno de los vectores de H depende
linealmente de los vectores de H'.
Independencia lineal de vectores: Se dice que un conjunto de n vectores {x1 , x 2 ,..., x n } de
n , es linealmente independiente cuando la igualdad: a1 x1 + a 2 x 2 + . . . + a n x n = 0 se verifica
si y sólo si todos los escalares son nulos.
Un conjunto de vectores linealmente independiente se dice que es una familia libre o un
sistema libre de vectores.
Consecuencias
a. Cualquier vector x ≠ 0 constituye un sistema libre.
b. Si el sistema de vectores {x1 , x 2 ,..., x n } es libre, todo sistema extraído de él es libre.
Rango de un sistema de vectores: Se define el rango de un sistema como el número máximo
de vectores linealmente independientes que contiene dicho sistema.
Consecuencias: El rango de un sistema de vectores no cambia por transformaciones elementales:
a. Intercambiar la posición de dos vectores
b. Multiplicar un vector por un número distinto de cero.
c. Sumar a un vector un múltiplo de otro.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
5. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 5
Nota. En la práctica se puede analizar el rango de un sistema de vectores escribiendo sus
componentes como filas o columnas de una matriz y estudiando el rango de dicha
matriz, lo cual nos dará el número de vectores linealmente independientes.
Subespacios engendrados: Dada una familia de n vectores {x1 , x 2 ,..., x n } de n , el conjunto
de todas las posibles combinaciones lineales realizadas con los vectores de tal familia
constituye un subespacio vectorial.
Dicho subespacio vectorial se dice engendrado por los n vectores de la familia.O bien:
Subespacios engendrados: Dado un subespacio vectorial S, se dice que el sistema
{x1 , x 2 ,..., x n } es generador de S si todo vector de S se puede escribir como
combinación lineal de los vectores del sistema. Es decir, si:
∀x ∈ S :∃a1 , a 2 ,..., a n ∈ ∋ x = a1 x1 + a 2 x 2 + ... + a n x n
Diremos, por tanto, que el subespacio S está engendrado por el sistema anterior.
Base de un espacio vectorial: Se llama base de un subespacio vectorial S a todo sistema de
generadores de dicho subespacio, que sea un sistema libre.
En particular, una base de n es un sistema generador y linealmente independiente del
espacio n .
Dimensión de un subespacio vectorial S: Es el número de vectores de una base de dicho
subespacio S. Se denota por “dim S”.
En particular la dimensión de n es n y, en consecuencia, la de cualquier subespacio propio
de n es menor que n, siendo la dimensión del subespacio impropio {0} cero.
Coordenadas de un vector: Se denominan de esta forma a los coeficientes de la combinación
lineal del vector respecto de los vectores de una base.
Base canónica: Es claro que en n todo vector x = ( x1 , x 2 , . . . , x n ) se puede escribir en la
forma: x = x1 (1, 0 , . . . 0) + x 2 (0 ,1, . . . 0) + . . . + x n (0 , 0 , . . .1)
En consecuencia, el sistema formado por los vectores: {(1, 0 , . . . 0) , (0 ,1, . . . 0) , (0 , 0 , . . .1)} es
un sistema generador de n . Como además es libre, forma una base de n .
Nota: En este último caso, las componentes y coordenadas de un vector coinciden.
Teoremas referentes a la base
1. Todo subespacio vectorial S de dimensión finita, distinto del vector nulo, posee, al
menos, una base.
2. Todos los sistemas generadores de un subespacio vectorial S tienen el mismo rango.
En particular, todas las bases tienen el mismo número de vectores.
3. Para que un sistema libre de un subespacio vectorial S, formado por n vectores, sea una
base, basta (es suficiente) con que todo sistema de S formado por mas de n vectores sea
ligado.
4. Todo vector de un subespacio vectorial S de n , se escribe de forma única como
combinación lineal de los vectores de una base.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
6. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 6
III. Subespacios afines
Subespacio afín. Definición: Dado un subconjunto A, no vacío, del espacio vectorial
( n , + , ⋅ ) , se dice que es un subespacio afín de n si puede obtenerse como suma de un
{
vector de n y un subespacio vectorial S de n . Esto es: A = v + S = v + x v ∈ n , x ∈ S }
Ejemplo 1: Ver si el subconjunto {(1, 2 , 3)} de 3 es un subespacio afín de 3 .
Solución:
Es un subespacio afín puesto que puede escribirse: {(1, 2 , 3)} = (1, 2 , 3) + {(0 , 0 , 0)}, siendo este
último conjunto subespacio, en este caso trivial, de 3 .
{ }
Ejemplo 2: Ver si el subconjunto de 3 : A = ( x , y , z ) ∈ 3 x − z = 4 es un subespacio afín
3
de .
Solución:
Es un subespacio afín puesto que puede escribirse en la forma:
A = (4 , 0 , 0) +
En efecto:
1. A ≠ 0 , puesto que, al menos contiene al vector (4 , 0 , 0)
/
2. Todo vector de A puede escribirse en la forma:
( x , y , z ) = (4 + z , y , z ) = (4 , 0 , 0) + y (0 ,1, 0) + z (1, 0 ,1)
Es decir, como suma de un vector de 3 mas un vector del subespacio vectorial de 3
engendrado por los vectores (0 ,1, 0) y (1, 0 ,1) .
Consecuencias:
1. Un subconjunto de 3 formado por un solo vector es un subespacio afín de 3 .
2. Todo subespacio vectorial de 3 es un subespacio afín de 3 .
3. Si v y w son vectores de 3 , el conjunto v + w = {v + a w a ∈ } es un subespacio
afín de 3 .
Teoremas:
1. Si v + S es un subespacio afín de un espacio vectorial 3 y w ∈ , entonces:
w ∈v + S ⇔ w+S =v+S
2. Si v + S es un subespacio afín de un espacio vectorial 3 , se verifica:
v + S es subespacio vectorial ⇔ v + S = S ⇔ v ∈ S
3. Si v + S y v + T son el mismo subespacio afín de un espacio vectorial 3 , entonces los
subespacios vectoriales S y T son iguales.
4. Si v + S y w + T son subespacios afines de un espacio vectorial 3 , tales que su
intersección no sea el vacío, entonces dicha intersección, definida en la forma
(v + S ) ∩ ( w + T ) = z + ( S ∩ T ) con z ∈ (v + S ) ∩ ( w + T ) , es también un subespacio
afín de 3 .
Ejemplo: Dados los subespacios afines A = (3 , 2 ,1) + S1 y B = (7 , 5 , 3) + S 2 , siendo S1 y S 2
{ } {
subespacios vectoriales: S1 = ( x , y , z ) ∈ 3 x − 2 y + z = 0 , S 2 = ( x , y , z ) ∈ 3 x − 2 z = 0 , }
hallar el subespacio afín de 3 intersección de ambos.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
7. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 7
Solución:
Veamos en primer lugar la intersección de los subespacios afines A y B:
Un vector u = ( x , y , z ) ∈ A ∩ B deberá ser de la forma:
(3 , 2 ,1) + a (2 ,1, 0) + b(−1, 0 ,1)
( x , y , z) =
(7 , 5 , 3) + a ' (0 ,1, 0) + b ' (2 , 0 ,1)
Igualando ambas expresiones se tiene:
(4 , 3 , 2) + a ' (0 ,1, 0) + b ' (2 , 0 ,1) − a (2 ,1, 0) − b(−1, 0 ,1) = (0 , 0 , 0)
2b '−2a + b = −4
Es decir: a '− a = −3 , sistema con infinitas soluciones, una de las cuales es
b '−b = −2
a = 3 , b = 2 , a ' = 0 , b ' = 0 . Por tanto un vector de la intersección es u = (7 , 5 , 3) .
Hallamos la intersección de los subespacios S1 y S 2 : Serán los vectores de la forma:
3
( x , y , z ) = ( 2 z , z , z ) = 2 z ( 4 , 3 , 2) .
2
En consecuencia, se tiene: A ∩ B = (7 , 5 , 3) + S1 ∩ S 2 = (7 , 5 , 3) + (4 , 3 , 2)
Hiperplanos de n : Se llama hiperplano de n al conjunto:
n
H = ( x1 , x 2 , ... , x n ) ∈ n ∑ ai xi = d
i =1
donde d ∈ y los coeficientes a i son también números reales no simultáneamente nulos.
Ejemplo: Los siguientes conjuntos, de acuerdo con la definición son hiperplanos:
{
A = ( x1 , x 2 ) ∈ 2 x1 − x 2 = 3 } {
B = ( x1 , x 2 , x3 ) ∈ 3 2 x1 + x3 = −2 }
Consecuencia: Todo hiperplano de n es subespacio afín de n .
Ejemplo: Ver que el hiperplano de 4 {
A = ( x1 , x 2 , x3 , x 4 ) ∈ 4 2 x 2 + x 4 = −2 es un }
subespacio afín de 4 .
Solución:
Todo vector de A se puede escribir en la forma:
( x1 , x 2 , x3 , x 4 ) = ( x1 , x 2 , x3 , − 2 − 2 x 2 ) = (0 , 0 , 0 , − 2) + (1, 0 , 0 , 0) , (0 ,1, 0 , − 2) , (0 , 0 ,1, 0)
= (0 , 0 , 0 , − 2) + R (1, 0 , 0 , 0) , (0 , 1, 0 , − 2) , (0 , 0 ,1 , 0)
Lo cual nos dice que A es un subespacio afín de 4 .
Subespacios afines paralelos: Dados dos subespacios afines v + S y w + T del espacio
vectorial n , diremos que son paralelos si S = T .
Ejemplo: Ver si son paralelos el hiperplano A = ( x1 , x 2 , x3 ) ∈ 3 x1 − x3 = 4{ } y el
subespacio afín B = (1,1,1) + (1, 0 ,1) , (0 ,1, 0) .
Solución:
Es claro que lo son, puesto que un vector cualquiera del hiperplano se puede poner:
( x1 , x 2 , x3 ) = ( x3 + 4 , x 2 , x3 ) = (4 , 0 , 0) + (0 ,1, 0) , (1, 0 ,1) .
Es decir que el subespacio es el mismo.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
8. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 8
Combinaciones afines: Se dice que un vector x de un espacio vectorial n , es una
combinación afín del conjunto de vectores {x1 , x 2 ,..., x n } de n , si y sólo si existen unos
n
escalares a1 ,a 2 ,..., a n de , tales que ∑a
i =1
i = 1 , y el vector x se puede escribir en la forma:
x = a1 x1 + a 2 x 2 + ...a n x n .
Ejemplo: Ver si el vector (0 , − 1, 3) ∈ 3 es combinación afín del conjunto de vectores
{(1,1, 0) , (0 ,1,1) , (1, 0 ,1)} .
Solución:
Escribimos el vector como combinación lineal del sistema dado:
(0 , − 1, 3) = a (1,1, 0) + b(0 ,1,1) + c(1, 0 ,1)
0=a+c a = −2
Resolviendo el sistema: − 1 = a + b se tiene b = 1 , cuya suma es la unidad, por tanto el
3=b+c
c = 2
vector es combinación afín.
Consecuencia: Todo vector que es combinación afín de vectores de un mismo subespacio
afín, pertenece, a su vez, al subespacio afín.
Ejemplo: Estudiar si el siguiente subconjunto de 3 es un subespacio afín:
{
A = ( x , y , z) ∈ 3 x − z = 3 }
Solución:
En primer lugar, es claro que no es vacío, puesto que el vector (4 , − 1,1) ∈ A .
Por otra parte un vector genérico de A se puede escribir en la forma:
( x , y , z ) = ( z + 3 , y , z ) = (3 , 0 , 0) + y (0 ,1, 0) + z (1, 0 ,1)
Es decir: como suma del vector (3 , 0 , 0) mas el subespacio engendrado por los vectores
(0 ,1, 0) y (1, 0 ,1) . En consecuencia A es un subespacio afín de 3 .
NOTA: Entre las páginas 40 y 55 del libro de problemas, hay diversos ejercicios resueltos
sobre este apartado de subespacios afines.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
9. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 9
TEMA 2. Aplicaciones lineales
1. Aplicaciones lineales
Definición: Una aplicación f : n → m se llama lineal (u homomorfismo) si:
1. ∀x , y ∈ n : f ( x + y ) = f ( x ) + f ( y )
2. ∀a ∈ ,∀x ∈ n : f (ax ) = af ( x )
Casos particulares:
a. Una aplicación lineal se dice inyectiva si siendo x1 ≠ x 2 se sigue que sus imágenes son
distintas, f ( x1 ) ≠ f ( x 2 )
b. Se dice que una aplicación lineal es suprayectiva si todo vector de m es imagen de
algún vector de n ( Im f = m )
c. Una aplicación lineal que sea biyectiva recibe el nombre de isomorfismo
d. Si la aplicación lineal es de un espacio vectorial en si mismo se denomina
endomorfismo
e. A todo endomorfismo biyectivo se le llama automorfismo
f. A una aplicación lineal de un espacio vectorial en el espacio vectorial real (,+,⋅ ) , se
la denomina forma lineal.
Teorema de caracterización de aplicaciones lineales: La condición necesaria y suficiente
para que una aplicación f : n → m sea lineal, es que:
∀a, b ∈ ,∀x , y ∈ n : f (ax + by ) = af ( x ) + bf ( y )
Consecuencias:
a. Imagen del vector nulo: La imagen del vector nulo de n es el vector nulo de m
b. Imagen del vector opuesto: La imagen del opuesto de un vector, es igual al opuesto de
la imagen de dicho vector.
c. Imagen de un subespacio: La imagen de un subespacio vectorial de n es un
subespacio vectorial de m .
Caso particular: A la imagen del espacio vectorial n (como subespacio de si mismo) se le
denomina subespacio imagen de f y se representa por:
{
Im f = y ∈ m ∃x ∈ n ∋ f ( x ) = y }
Rango de una aplicación lineal: Dada una aplicación lineal f : n → m , se llama rango de
dicha aplicación a la dimensión del subespacio imagen. Esto es:
rango f = dim f ( n ) = dimIm f .
Núcleo de una aplicación lineal: Dada una aplicación lineal f : n → m , se llama núcleo de
dicha aplicación lineal al conjunto de vectores de R n cuya imagen por f es el vector nulo de
{
m , es decir: ker f = x ∈ n f ( x ) = 0 ∈ m }
Propiedades:
a. El núcleo de una aplicación lineal es un subespacio vectorial de V.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
10. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 10
b. La condición necesaria y suficiente para que una aplicación lineal entre dos espacios
vectoriales sea inyectiva, es que el núcleo se reduzca al vector nulo.
Matriz asociada a una aplicación lineal: Sea una aplicación lineal f : n → m .
Consideremos una base de cada uno de los espacios vectoriales B = {v1 , v 2 ,..., v n }∈ n y
B' = {w1 , w2 ,..., wm }∈ m .
Se llama matriz asociada a la aplicación lineal a la matriz traspuesta de la formada por los
coeficientes del sistema que resulta de expresar las imágenes de los vectores de la base B de
n , como combinación lineal de los vectores de la base B' de m . Es decir:
f (v1 ) = a11 w1 + a 21 w2 +...+ a m1 wm a11 a12 ... a1n
f (v 2 ) = a12 w1 + a 22 w2 +...+ a m2 wm a 21 a 22 ... a 2 n
⇒ A=
... ... .. ... ... ... ... ... ... ... ... ... ..
f (v n ) = a1n w1 + a 2 n w2 +...+ a mn wm
a m1 a m2 ... a mn
Hay que tener en cuenta que esta matriz A depende de las bases que hayamos elegido en los
espacios vectoriales.
Ecuación matricial de una aplicación lineal: Es la ecuación que nos permite relacionar las
coordenadas de un vector de n con las coordenadas de su vector imagen en m . Es de la
forma: Y = AX , siendo X la matriz columna de las coordenadas de un vector x en la base B
de n considerada, Y la matriz columna de las coordenadas de su vector imagen f ( x ) en la
base B' de m y A la matriz asociada a la aplicación lineal referida a las bases consideradas.
Núcleo e imagen en su expresión matricial: De acuerdo con la expresión matricial de una
aplicación lineal, podemos expresar:
• {
el núcleo en la forma: ker f = X ∈ n AX = 0 }
• {
la imagen en la forma: Im f = Y ∈ m ∃X ∈ n , AX = Y . }
Teorema de la dimensión: Dada una aplicación lineal f : n → m , se tiene:
dim n = dim Im f + dim ker f
Matriz asociada a un cambio de base: Sean dos bases del mismo espacio vectrial n
B = {v1 , v 2 ,..., v n } y B ' = {v '1 , v ' 2 ,..., v ' n }.
Se llama matriz asociada al cambio de base a la matriz traspuesta de la formada por los
coeficientes del sistema que resulta de expresar los vectores de la base B1 , como combinación
lineal de los vectores de la base B. Es decir:
v '1 = a11v1 + a 21v 2 +...+ a n1v n a11 a12 ... a1n
v ' 2 = a12 v1 + a 22 v 2 +...+ a n 2 v n a 21 a 22 ... a 2 n
⇒ P=
... ... ... ... ... ... ... ... ... ... ... ...
v ' n = a1n v1 + a 2 n v 2 +...+ a nn v n
a n1 a n 2 ... a nn
A esta matriz P se la denomina matriz del cambio de base y ha de ser una matriz regular
( P ≠ 0), pues de lo contrario los vectores de la base B ' serían linealmente dependientes.
El sistema anterior se puede expresar en forma matricial:
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
11. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 11
a11 a12 ... a1n
a 21 a 22 ... a 2 n
(v '1 v ' 2 ... v ' n ) = (v1 v2 ... vn ) ... ... ... ...
a n1 a n 2 ... a nn
Ecuación de un cambio de base: Esta ecuación relaciona las coordenadas de un vector en dos
bases distintas y es de la forma: X = PX ' , siendo X la matriz columna de las coordenadas del
vector x en la base B, X' la matriz columna de las coordenadas del vector x en la base B1 y P
la matriz del cambio de base.
Homomorfismo y cambio de base: Es claro que al efectuar un cambio de bases se modifica la
matriz asociada a una aplicación lineal.
Expresión de la nueva matriz: Sea A la matriz asociada a una aplicación lineal
f : n → m referida a las bases B de n y B' de m . La ecuación, en este caso será:
Y = AX .
Si nos referimos a unas nuevas bases B1 de n y B'1 de m , la nueva matriz asociada a la
aplicación lineal será A' y, en consecuencia, la ecuación será: Y ' = A' X ' , siendo X' e Y' las
matrices columna de las coordenadas de los vectores x y f ( x ) en las nuevas bases.
Llamando P y Q a las matrices de los cambios de base en V y W, respectivamente, las
ecuaciones de los cambios de base son X = PX ' e Y = QY ' .
En resumen, escribiremos: Y = AX ⇒ QY ' = APX ' ⇒ Y ' = (Q −1 AP ) X '
Podemos concluir que A' = Q −1 AP ya que la expresión matricial de una aplicación lineal, para
unas bases dadas, es única. Será la matriz asociada en las nuevas bases.
Caso particular: Si ambos espacios vectoriales coinciden, entonces P = Q y, por tanto,
A' = P −1 AP , lo cual nos asegura que las matrices asociadas a un endomorfismo en distintas
bases son semejantes.
Composición de aplicaciones lineales: Sea f : n → m una aplicación lineal tal que
y = f ( x ) y g : m → p otra aplicación lineal en la que z = g ( y ) . Con ambas se puede
definir una tercera aplicación lineal h : n → p mediante: h( x ) = g ( f ( x )) que también es
lineal.
A esta nuena aplicación h se la denomina composición de las aplicaciones f y g y se escribe:
h= go f .
Matricialmente, sean A f (matriz de orden m × n ) y Ag (matriz de orden p × m ),
respectivamente, las matrices asociadas a las aplicaciones f y g, se tiene: Y = A f X , Z = Ag Y
Combinando ambas expresiones se tiene: Z = Ag A f X
Esto es, la matriz asociada a la composición de f y g es: Ah = Ag A f
2. El espacio vectorial L(U, V)
Definición: Dados dos espacios vectoriales (U , + , ⋅ K ) y (V , + , ⋅ K ) ambos sobre el mismo cuerpo
conmutativo K, se designa por L(U , V ) al conjunto de todas las aplicaciones lineales entre
ambos espacios vectoriales.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
12. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 12
Es inmediato comprobar, a través del teorema de caracterización de subespacios que L(U , V )
es un subespacio vectorial del espacio vectorial de las aplicaciones de U en V.
Ejemplo: Dado el espacio vectorial de las aplicaciones lineales de en , L( , ) ,
comprobar que el sistema de aplicaciones lineales { f 1 , f 2 , f 3 } dadas por f 1 (1) = e1 = (1, 0 , 0) ,
f 2 (1) = e2 = (0 ,1, 0) , f 3 (1) = e3 = (0 , 0 ,1) constituye una base de dicho espacio vectorial.
Solución:
Puesto que en cualquier número no nulo es base, se ha tomado por comodidad la unidad.
Sea f una aplicación cualquiera de L( , ) , entonces: f (1) = ( x1 , x 2 , x3 ) . Veamos si puede
expresarse como combinación lineal de { f 1 , f 2 , f 3 }:
( x1 f 1 + x 2 f 2 + x3 f 3 )(1) = x1 f 1 (1) + x 2 f 2 (1) + x3 f 3 (1) = x1e1 + x 2 e2 + x3 e3 = ( x1 , x 2 , x3 ) = f (1)
En consecuencia { f 1 , f 2 , f 3 } es un sistema generador.
Estudiamos si son linealmente independientes:
De x1 f 1 + x 2 f 2 + x3 f 3 = f 0 (siendo f 0 la aplicación nula) se deduce:
( x1 f 1 + x 2 f 2 + x3 f 3 )(1) = f 0 (1) ⇒ x1 f 1 (1) + x 2 f 2 (1) + x3 f 3 (1) = f 0 (1) = (0 , 0 , 0)
En consecuencia ( x1 , x 2 , x3 ) = (0 , 0 , 0) ⇒ x1 = x 2 = x3 = 0
Por lo tanto, el sistema { f 1 , f 2 , f 3 } es una base de L( , ) ⇒ dim L( , ) = 3
Isomorfismos de espacios vectoriales. Definición: Un isomorfismo entre dos espacios
vectoriales definidos sobre el mismo cuerpo conmutativo K es una aplicación lineal biyectiva.
En este caso se dice que los espacios vectoriales son isomorfos.
Consecuencias:
1. Si U es un espacio vectorial sobre K de dimensión finita n (n ≥ 1) , entonces U y K n son
espacios vectoriales isomorfos.
2. Dos espacios vectoriales (sobre el mismo cuerpo conmutativo) de igual dimensión
(finita) son isomorfos.
3. Dados dos espacios vectoriales U y V de dimensión finita (no nula) y una aplicación
lineal entre ellos y dada una base {u1 , u 2 , ... , u n } de U, la condición necesaria y suficiente para
que la aplicación lineal sea un isomorfismo es que el sistema { f (u1 ) , f (u 2 ) , ... , f (u n )} sea una
base de V.
4. Si dos espacios vectoriales de dimensión finita son isomorfos, entonces tienen la misma
dimensión.
5. Una condición necesaria y suficiente para que una aplicación lineal f entre dos espacios
vectoriales, de la misma dimensión finita n, sea un isomorfismo es que su rango coincida con
la dimensión común ( rango f = n ).
Ejemplo: Estudiar si el endomorfismo en f ( x1 , x 2 , x3 ) = ( x 2 + x3 , x1 + x3 , x1 + x 2 ) es un
isomorfismo.
Solución:
Estudiamos su núcleo: Los elementos que pertenecen al núcleo verifican:
x 2 + x3 = 0
x1 + x3 = 0 ⇒ x1 = x 2 = x3 = 0
x + x = 0
1 2
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
13. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 13
por tanto el núcleo es el vector nulo y, en consecuencia su dimensión es cero. Por el teorema
de la dimensión deducimos que la dimensión del subespacio imagen es tres. En consecuencia
la aplicación es inyectiva y suprayectiva. Por tanto es un isomorfismo.
Formas lineales. Espacio dual: Se ha definido anteriormente (como caso particular de
aplicación lineral) una forma lineal como una aplicación lineal de un espacio vectorial U en un
cuerpo conmutativo K, considerado como espacio vectorial.
Sabemos que el conjunto L(U , K ) de las aplicaciones lineales de U en K es un espacio
vectorial, al que se denomina espacio dual de U, y se representa por U*. Esto es
U * = L(U , K ) .
Ejemplo: Estudiar cómo es el espacio dual del espacio vectorial 2 : ( 2 ) *
Solución:
Sea un elemento f ∈ ( 2 )* = L( 2 , . Para determinarlo, bastará con conocer las imágenes,
por f, de los vectores de una base de 2 (por ejemplo de la base canónica). Sea f (0 ,1) = a1 y
f (0 ,1) = a 2 . Por tanto, para cualquier vector de 2 se tiene:
f ( x1 , x 2 ) = f ( x1 (1, 0) + x 2 (0 ,1)) = x1 a1 + x 2 a 2
Por tanto, el conjunto ( 2 ) * es el conjunto de las aplicaciones f de 2 en que verifican:
∀ ( x1 , x 2 ) ∈ 2 , f ( x1 , x 2 ) = x1 a1 + x 2 a 2 para algunos números reales a1 , a 2 .
Consecuencias:
1. Si U es un espacio vectorial de dimensión finita (no nula) n, U* es de la misma
dimensión.
2. Si U es un espacio vectorial de dimensión finita (no nula) y A = {u1 , u 2 , ... , u n } es una
{ }
base del mismo, y A* = u1* , u 2* , ... , u n* es su base dual, entonces para el vector x ∈ U de
coordenadas x1 , x 2 , ... , x n , en la base A, se verifica: u i* ( x ) = xi para i = 1, 2, ... , n
Ejemplo: Hallar la base dual de la base canónica de 3 .
Solución:
Se trata de hallar la base BC = {e1∗ , e2∗ , e3∗ } dual de la base BC = {e1 , e2 , e3 } de 3 .
∗
Las componentes y coordenadas de un vector, referido a la base canónica, son las mismas, por
tanto: ( x1 , x 2 , x3 ) = x1e1 + x 2 e2 + x3 e3 De la consecuencia anterior se deduce:
e1∗ ( x1 , x 2 , x3 ) = x1 , e2∗ ( x1 , x 2 , x3 ) = x 2 , e3∗ ( x1 , x 2 , x3 ) = x3
Por ejemplo: e1∗ : 3 → es una forma lineal que asocia al vector ( x1 , x 2 , x3 ) ∈ 3 el vector
x1 ∈ .
Ortogonalidad: Dado un espacio vectorial U de dimensión finita, sea U* su dual. Se dice que un
elemento f ∈U ∗ y un vector v ∈ U son ortogonales si se verifica: f (v ) = 0 .
Consecuencia: El conjunto de vectores de U que son ortogonales a f, constituye el núcleo
de ( ker f ).
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
14. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 14
Aplicación afin. Definición: Dados dos espacios vectoriales U y V sobre el mismo cuerpo
conmutativo K y una aplicación Φ : U → V , se dice que es afín si existe un vector v ∈ V y
una aplicación lineal f : U → V tales que: ∀ x ∈ U , Φ ( x ) = v + f ( x )
Ejemplo: Sea Φ : 2 → tal que Φ( x1 , x 2 ) = 2 x1 + 3x 2 + 1 . Ver si es aín.
Solución:
Sea f : 2 → la aplicación lineal definida por f ( x1 , x 2 ) = 2 x1 + 3x 2 . Si llamamos v = 1
(vector de ), se tiene:
∀ ( x1 , x 2 ) ∈ 2 , Φ ( x1 , x 2 ) = v + f ( x1 , x 2 )
En consecuencia la aplicación dada es afín.
Consecuencias:
1. La aplicación Φ : U → V determina unívocamente el vector v ∈ V y la aplicación lineal
f :U → V .
2. La imagen, mediante una aplicación afín, de una combinación afín de vectores de U es
igual a la misma combinación afín de sus imágenes, es decir, si v1 , v 2 , ... , v n son vectores de U
y λ1 , λ 2 , ... , λ n son escalares de K, tales que λ1 + λ 2 + ... + λ n = 1 , entonces se verifica:
Φ(λ1v1 + λ 2 v 2 + ... + λ n v n ) = λ1Φ (v1 ) + λ 2 Φ (v 2 ) + ... + λ n Φ(v n )
3. La imagen mediante una aplicación afín de un subespacio afín de U es un subespacio
afín de V. Es decir que si u + U 1 es un subespacio afín de U, se verifica:
Φ(u + U 1 ) = (v + f (u )) + f (U 1 )
4. La imagen inversa por Φ de un subespacio afín de V puede ser el conjunto vacío.
5. Si la imagen inversa por Φ de un subespacio afín de V no es el conjunto vacío, entonces
esta imagen inversa es un subespacio afín de U.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
15. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 15
TEMA III. Matrices
I. Matrices
Definición: Llamamos matriz a un conjunto de números reales dispuestos en filas y columnas. Se
representa en la forma:
a11 a12 ... a1n
A= a 21 a 22 ... a 2 n = ( a )
... ... ... ... ij
a m1 a m 2 ... a mn
Observamos que cada elemento lleva dos subíndices, el primero indica la fila en la que está el
elemento y el segundo la columna. Así, el elemento aij es un elemento que está en la fila i-
ésima y en la columna j-ésima. A las matrices las designaremos mediante letras mayúsculas.
Orden de una matriz: Decimos que una matriz es de orden m × n si tiene m filas y n columnas.
Diversos tipos de matrices
1. Matriz fila: Es una matriz de orden 1 × n , es decir tiene una sóla fila.
2. Matriz columna: Es una matriz de orden m × 1 , es decir tiene una sóla columna.
Nota: Una matriz de orden m × n puede considerarse como como un sistema de m
vectores fila (de n ) o un sistema de n vectores columna (de m )
3. Matriz cuadrada: Aquella matriz de orden n × n (nº de filas = nº de columnas).
Diagonal principal de una matriz cuadrada: Llamamos así al conjunto de los
elementos aii , i = 1, 2,..., n
4. Matriz diagonal: Es una matriz cuadrada en la que todos sus elementos, excepto los de
la diagonal principal, son nulos:
5. Matriz escalar: Es una matriz diagonal en la que aii = cte., i = 1, 2,..., n
6. Matriz unidad: Es una matriz escalar en la que los elementos de la diagonal principal
son todos igual a la unidad. Se representa por I n ó I si no hay lugar a confusión.
7. Matriz nula: Es una matriz, cuadrada o rectangular, en la que todos sus elementos son
nulos.
8. Matriz triangular superior (inferior) o escalonada: Es aquella matriz cuadrada, tal
que todos sus elementos por debajo (por encima) de la diagonal principal son nulos.
Igualdad entre matrices: Se dice que dos matrices A = ( aij ) y B = (bij ) son iguales si, siendo del
mismo orden, los elementos que ocupan los mismos lugares, en ambas matrices, son iguales.
Es decir, si: aij = bij ,∀i = 1,2,..., m y ∀j = 1,2,..., n .
Suma de matrices: Dadas dos matrices A = ( aij ) y B = (bij ) del mismo orden (pueden ser
cuadradas o rectangulares), se define la suma de ambas matrices como otra matriz, del mismo
orden que aquellas, cuyos elementos sean la suma de los correspondientes elementos de las
matrices A y B ( S = A + B ⇔ s ij = a ij + bij ).
Propiedades y elementos notables:
a. Conmutativa: ∀A, B ∈M m×n : A + B = B + A
b. Asociativa: ∀A, B , C ∈M m×n : A + ( B + C ) = ( A + B ) + C
c. Elemento neutro: ∃(0) ∈ M m×n ∋ ∀A ∈ M m×n : A + (0) = (0) + A = A
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
16. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 16
d. Elemento opuesto: ∀A ∈ M m×n ,∃A'∈ M m×n ∋ A + A' = A'+ A = (0) . A esta matriz A' la
designaremos por –A.
Producto de una matriz por un número: Dada la matriz A = ( aij ) ∈M m× n , se define su
producto por un número real k ≠ 0, como otra matriz B = (bij ) ∈M m× n cuyos elementos son los
de la primitiva multiplicados por dicho número: bij = ka ij .
Propiedades:
a. Distributiva respecto de la suma en : ∀a, b ∈ , ∀A ∈ M m×n : (a + b) A = aA + bA
b. Distributiva respecto de la suma en M m× n : ∀a ∈ , ∀A, B ∈ M m×n : a ( A + B ) = aA + aB
c. Asociatividad mixta: ∀a, b ∈ , ∀A ∈ M m×n : a (bA) = (ab) A
d. Para toda matriz A ∈ M m×n , se verifica: 1A = A
Estructura del conjunto Mm×n : El conjunto M m×n con las operaciones suma de matrices y
producto por un número tiene, vistas las propiedades anteriores, estructura de espacio
vectorial.
El elemento neutro será la matriz nula: (0) .
El elemento opuesto de la matriz A = (a i j ) será la matriz opuesta: − A = (− ai j )
Producto de matrices: Dadas dos matrices A ∈M m×n y B ∈M n× r (con los órdenes indicados) se
define el producto A × B (en este orden) como otra matriz P ∈M m×r , cuyos elementos son de
n
la forma: pij = ∑ a is bsj = a i1b1 j + ai 2 b2 j +...+ ain bnj
s =1
Es decir, que cada elemento pij de la matriz producto se obtiene mediante la suma de los
productos de los elementos de la fila i-ésima de la primera matriz por los elementos de la
columna j-ésima de la segunda.
En general, el producto de matrices no es conmutativo, por lo cual habrá que distinguir el
producto por la izquierda (premultiplicación) y por la derecha (postmultiplicación).
Nota 1. En el caso de que se verifique AB = BA se dice que ambas matrices conmutan. Es
evidente que en este caso ambas matrices han de ser cuadradas y del mismo orden.
Nota 2. Las matrices nula y unidad (cuadradas) conmutan con cualquier matriz del mismo
orden que ellas.
Nota 3. El hecho de que el producto de dos matrices sea la matriz nula, no implica que alguna
de las matrices lo sea, como lo prueba el siguiente
Propiedades:
a. Asociativa: ∀A ∈ M h × k , B ∈ M k × m , C ∈ M m× n : A( BC ) = ( AB)C
b. Distributiva respecto de la suma de matrices:
∀A ∈ M m×n ,∀B, C ∈ M n× p : A( B + C ) = AB + AC
Potencias de una matriz cuadrada: Llamaremos A n a la matriz resultante de multiplicar la
matriz cuadrada A consigo misma un número n ∈ * de veces. Este cálculo se efectúa
empleando la propiedad asociativa:
∀A ∈ M n×n ,∀p ∈ * : A p = ((( AA) A)... A) , siendo A0 = I ∈M n × n
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
17. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 17
Matriz traspuesta: Dada una matriz A ∈M m×n , llamamos traspuesta de ésta, a otra matriz
B ∈M n ×m obtenida de la primera convirtiendo las filas en columnas y viceversa, sin modificar
su orden relativo, es decir: bij = aij = a ji .
t
A la matriz traspuesta de la matriz A la designaremos por B = A t .
Consecuencias:
a. La traspuesta de una suma de matrices, del mismo orden, es igual a la suma de las
traspuestas de las matrices, es decir: ( A + B ) = A + B
t t t
b. La traspuesta de un producto de matrices, con los órdenes necesarios, es igual al
producto de las traspuestas cambiadas de orden, esto es: ( AB ) t = B t A t
Matriz simétrica: Una matriz cuadrada se dice simétrica, si es igual a su traspuesta: A = A t .
Matriz antisimétrica: Se dice que una matriz cuadrada es antisimétrica (o hemisimétrica), si es
igual a la opuesta de su traspuesta: A = − A t .
Consecuencia: Toda matriz cuadrada A se puede descomponer, en forma única, como suma
de una matriz simétrica S y otra antisimétrica T.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
18. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 18
II. Determinantes (Apéndice A)
Definición: Determinante es un valor numérico de una matriz cuadrada y equivale a la suma de
todos los productos posibles que se pueden efectuar con los elementos de dicha matriz, de tal
forma que en cada producto intervenga un elemento y sólo uno de cada fila y un elemento y
sólo uno de cada columna.
El signo, positivo o negativo de estos productos vendrá dado por la clase de la permutación de
los subíndices de las columnas (supuestos ordenados los de las filas según la permutación
principal), según que dicha clase sea par o impar. Es decir:
a11 a12 ... a1n
a 21 a 22 ... a 2 n
A= = ∑ ( −1) v a1i1 a 2i2 ... a nin
... ... ... ... v
a n1 a n 2 ... a nn
donde v indica el número de inversiones de los subíndices de las columnas respecto de la
permutación principal.
Consecuencias
a. El número de factores de cada sumando será igual al número de filas o columnas de la
matriz, o sea n.
b. El número de sumandos será igual al número de permutaciones que se puedan efectuar
con los subíndices correspondientes a las columnas, es decir n!.
c. Se demuestra que la mitad de los sumandos llevan signo positivo y la otra mitad
negativo.
Algunos determinantes particulares:
a. Es evidente que si n = 1 se tiene A = a11 = a11
a11 a12
b. Determinante de una matriz de orden 2: A = = a11a 22 − a12 a 21
a 21 a 22
c. Determinante de una matriz de tercer orden:
a11 a12 a13
A = a21 a22 a23 = a11 a 22 a 33 + a12 a 23 a 31 + a13 a 21 a 32 − a11 a 23 a 32 − a12 a 21 a 33 − a13 a 22 a 31
a31 a32 a33
De este desarrollo se deduce la regla de Sarrus, válida para determinantes de orden 3.
d. El determinante de una matriz triangular (superior o inferior) es igual al producto de los
n
elementos de la diagonal principal: A = ∏ a ii
i =1
Para el cálculo de determinantes de orden superior al tercero, se utilizan técnicas que veremos
mas adelante, salvo en el caso siguiente:
Propiedades de los determinantes:
a. El determinante de una matriz es igual al determinante de su traspuesta ( A = At ).
Consecuencia: Toda propiedad que, en un determinante, se pueda demostrar para
filas, es válida también para columnas.
b. Al cambiar, entre si, dos líneas paralelas, el determinante cambia de signo pero
mantiene su valor absoluto.
Consecuencia: Si un determinante tiene dos líneas (filas o columnas) iguales, su
valor es cero.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
19. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 19
c. Si en un determinante multiplicamos los elementos de una línea por un número k ≠ 0, el
determinante queda multiplicado por dicho número.
Consecuencia: Un determinante con dos líneas proporcionales, vale cero.
Menor complementario de un elemento: Es el determinante de orden n − 1 que resulta de
suprimir, en el determinante primitivo, la fila y la columna correspondientes a dicho elemento.
Será α hk el menor complementario del elemento que ocupa la fila h y la columna k.
Adjunto de un elemento: Es el polinomio aritmético que resulta de sacar factor común a dicho
elemento de todos los sumandos en los que interviene en el desarrollo del determinante. Lo
designaremos por Ahk .
Se demuestra que el adjunto de un elemento es igual al menor complementario de dicho
elemento afectado de un signo, positivo o negativo, según que la suma de los subíndices (fila
y columna) del elemento sea par o impar: Ahk = (−1) h+ k α hk
Desarrollo de un determinante por los elementos de una línea: Si en el desarrollo de un
determinante se saca factor común, sucesivamente, a los elementos de una línea de todos los
sumandos en los que intervienen dichos elementos, según lo dicho anteriormente, quedará
cada uno de ellos multiplicado por su adjunto correspondiente, es decir:
A = a1h A1h + a 2 h A2 h +...+ a nh Anh
Por lo tanto, un determinante es igual a la suma de los productos de los elementos de una línea
por sus adjuntos respectivos.
Consecuencias:
a. La suma de los elementos de una línea por los adjuntos de una línea paralela es igual a
cero.
b. Si todos los elementos de una línea de un determinante se descomponen en el mismo
número de sumandos, el determinante puede descomponerse en suma de determinantes,
tantos como sumandos, con el resto de las líneas iguales.
c. Si en un determinante una línea es combinación lineal de otras paralelas, el valor del
determinante es cero.
d. Si a una línea de un determinante se le añade una combinación lineal de otras paralelas,
su valor no se modifica.
Producto de determinantes: El producto de dos determinantes del mismo orden es un número
(como producto de dos números) que se puede expresar como otro determinante, del mismo
n
orden que aquellos, cuyos elementos son de la forma: pij = ∑ air brj
r =1
Determinante de un producto de matrices: Se demuestra que el determinante de un producto
de matrices cuadradas del mismo orden, es igual al producto de los determinantes de dichas
matrices: AB = A B .
Cálculo de determinantes: Aplicando las propiedades anteriores, se puede hallar el valor de un
determinante de cualquier orden, reduciendo sucesivamente su orden.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
20. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 20
III. Otros tipos de matrices
Matriz regular: Es una matriz cuadrada, tal que su determinante (valor numérico) es distinto de
cero.
Matriz singular: Es una matriz cuadrada, cuyo determinante vale cero.
Matriz inversa: Llamamos matriz inversa de una matriz cuadrada A, supuesto que sea regular
( A ≠ 0) , a otra matriz que designaremos por A −1 y que verifica: AA −1 = A −1 A = I
Matriz adjunta: Dada una matriz cuadrada A, se llama adjunta de dicha matriz a la matriz
traspuesta de la formada por los adjuntos de los elementos de la primera matriz en el
correspondiente determinante.
Cálculo de la matriz inversa: Si A es una matriz regular, se tiene:
A 0 ... 0
0 A ... 0 Aα Aα
AAα = = A I ⇒A = I = AA −1 ⇒ A −1 =
... ... ... ... A A
0 0 ... A
Matriz ortogonal: Se dice que una matriz cuadrada A es ortogonal cuando verifica:
n
1 si i = j
∑ air a jr = 0 si i ≠ j
r =1
Consecuencias de las definiciones:
a. La inversa de la inversa de una matriz, es la propia matriz: ( A −1 ) −1 = A .
b. Si existe, la matriz inversa es única.
c. Si una matriz tiene inversa, el determinante de la matriz inversa es igual al inverso del
determinante de la matriz.
d. Dada una matriz simétrica, su inversa también es una matriz simétrica
e. Si A y B son dos matrices regulares del mismo orden, existe la inversa de su producto y
es el igual al producto de las inversas en orden contrario.
f. Si una matriz admite inversa, la traspuesta de la matriz inversa es igual a la inversa de la
matriz traspuesta.
g. Si A es una matriz ortogonal, se tiene: AA t = I .
h. En una matriz ortogonal, su inversa y su traspuesta coinciden.
i. La inversa de una matriz ortogonal, es otra matriz ortogonal.
j. El producto de dos matrices ortogonales, es otra matriz ortogonal.
Relaciones entre matrices:
1. Relación de semejanza: Se dice que dos matrices A, B ∈M n × n son semejantes si existe
una matriz P regular, del mismo orden que aquellas, tal que: B = P −1 AP
2. Relación de congruencia: Se dice que dos matrices A, B ∈M n × n son congruentes si
existe una matriz P regular, del mismo orden que aquellas, tal que B = P t AP .
Rango (o característica) de una matriz: El rango de una matriz es el número de filas (o
columnas) linealmente independientes que contiene.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
21. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 21
Otra definición: También se puede definir el rango de una matriz como: El orden del mayor
menor no nulo. Es decir, una matriz será de rango h, si todos los menores complementarios de
dicha matriz de orden h + 1 son nulos, existiendo, al menos, un menor de orden h distinto de
cero.
Nota: Equivalente a estudiar la dependencia e independencia lineal de vectores.
Propiedades: El rango de una matriz se conserva por transformaciones elementales. Esto es:
a. El rango no se modifica si se traspone la matriz.
b. Si se cambian entre si dos líneas de una matriz, su rango no se modifica.
c. Si se multiplican los elementos de una línea de una matriz por un número no nulo, el
rango no varía.
d. Si a una línea de una matriz se le agrega una línea que sea combinación lineal de las
restantes, el rango no varía.
Cálculo práctico del rango
1. Método de Gauss, triangulando la matriz (obteniendo una matriz triangular superior),
mediante el empleo de las propiedades anteriores que conservan el rango de la matriz.
2. Cálculo secuencial, a partir de un menor no nulo, orlándolo con las sucesivas filas y
columnas.
3. Mediante tranformaciones elementales.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
22. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 22
TEMA 4. Sistemas de ecuaciones lineales
Ecuación: Es una igualdad que se verifica para algunos valores de los parámetros. A estos
parámetros se les denomina incógnitas de la ecuación.
Solución de una ecuación: Es el valor o valores de las incógnitas que satisfacen a dicha
ecuación.
Identidad: Es una igualdad que se verifica para cualquier valor de las incógnitas.
Ecuación lineal: Se dice que una expresión polinómica es una ecuación lineal si las incógnitas no
aparecen multiplicadas entre sí ni elevadas a una potencia mayor que la unidad.
Sistema de ecuaciones lineales: Se llama sistema de ecuaciones lineales a un conjunto de
expresiones de la forma:
a11 x1 + a12 x 2 +...+ a1n x n = y1
a 21 x1 + a 22 x 2 +...+ a 2 n x n = y 2
... ... ... ... ... ... ... ...
a m1 x1 + a m2 x 2 +...+ a mn x n = y m
Siendo los aij (con 1 ≤ i ≤ m, 1 ≤ j ≤ n ) números conocidos, así como los yi , (siendo
1 ≤ i ≤ m ).
Los elementos x j con 1 ≤ j ≤ n son las incógnitas (o valores desconocidos).
Cuando yi = 0, ∀i , el sistema se dice homogéneo.
Solución de un sistema: Se llama así a la n-tupla ( x10 , x2 ,..., xn ) que satisface todas las
0 0
ecuaciones del anterior sistema.
Definición: Se dice que un sistema de ecuaciones lineales es compatible si tiene solución e
incompatible si carece de ella.
Definición: Un sistema de ecuaciones lineales compatible es determinado si la solución es única e
indeterminado si tiene mas de una (en este caso se comprueba que serán infinitas).
Sistemas equivalentes: Dos ecuaciones (o dos sistemas de ecuaciones) con las mismas
incógnitas se dicen equivalentes, si tienen las mismas soluciones. Esto quiere decir que toda
solución del primer sistema es solución del segundo y recíprocamente.
Transformaciones elementales:
a: Al cambiar entre si dos ecuaciones de un sistema, se obtiene otro sistema equivalente al
primero.
b: Al multiplicar una ecuación de un sistema por un número distinto de cero, se obtiene
otro sistema equivalente al anterior.
c: Si a una ecuación de un sistema lineal se le suma un múltiplo de otra ecuación, el
sistema obtenido es equivalente al primero.
Interpretación matricial de un sistema lineal: El anterior sistema de ecuaciones lineales lo
podemos escribir en forma matricial, de la siguiente manera:
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
23. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 23
a11 a12 ... a1n x1 y1
a 21 a 22 ... a 2 n x 2 = y 2 ⇒ AX = Y
... ... ... ... ... ...
a m1 a m2 ... a mn x n y m
Donde: A es la matriz de los coeficientes
X es la matriz columna (o vector), desconocida, de las incógnitas
Y es la matriz columna (o vector) de los términos independientes
Esta expresión AX = Y , como veremos mas adelante, corresponde a la ecuación matricial de
una aplicación lineal.
Nota. Las transformaciones elementales indicadas para sistemas de ecuaciones, son válidas
como transformaciones por filas de una matriz.
Sistema de Cramer: En el caso de que la matriz A sea inversible (cuadrada tal que A ≠ 0), una
solución será: X 0 = A −1Y , puesto que: AX 0 = A( A −1Y ) = ( AA −1 )Y = IY = Y
Además esta solución será única, pues si existiera otra X 10 , se tendría:
X 10 = ( A −1 A) X 10 = A −1 ( AX 10 ) = A −1Y = X 0
Resumen: Siempre que la matriz de los coeficientes de un sistema de ecuaciones lineales, sea
inversible, el sistema admite solución única y se llama sistema de Cramer.
Solución de un sistema de Cramer: Dado un sistema de Cramer, la solución única se puede
calcular en la forma:
x10 A11 A21 ... An1 y1
0
x 2 = A −1Y = 1 A12 A22 ... An 2 y 2
X =
0
⇒
... A ... ... ... ... ...
0
xn A1n A2 n ... Ann y n
( A1i y1 + A2i y2 +...+ Ani yn ) = i A , i = 1,2,..., n
1 A (Y )
⇒ xi0 =
A
Donde Ai (Y ) representa el determinante de la matriz A, en la que se ha sustituido la columna
i-ésima por la columna de los términos independientes.
Interpretación vectorial de un sistema lineal: Dada la matriz A de los coeficientes de un
sistema de ecuaciones, llamemos:
a1i
a
a i = 2i ∈ m ⇒ A = (a1 a 2 ... a n )
...
a
mi
El sistema de ecuaciones AX = Y , lo escribimos:
y1
y2
AX = x1a1 + x 2 a 2 +...+ x n a n = = Y
...
ym
Existirá solución del sistema si y sólo si el vector Y es combinación lineal del sistema de
vectores {a1 , a2 ,..., a n } .
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
24. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 24
Teorema: La condición necesaria y suficiente para que un sistema de ecuaciones lineales AX = Y
tenga mas de una solución, es que los vectores {a1 , a2 ,..., a n } sean linealmente dependientes.
Teorema de Rouché-Fröbenius
Teorema 1: La condición necesaria y suficiente para que un sistema de ecuaciones lineales
AX = Y tenga solución es que el rango de la matriz de los coeficientes sea igual al
rango de dicha matriz ampliada con los términos independientes.
Teorema 2: La condición necesaria y suficiente para que un sistema de ecuaciones lineales
AX = Y tenga más de una solución es que el rango de la matriz de los coeficientes sea
igual al rango de dicha matriz ampliada con los términos independientes y que dicho
rango sea menor que n.
Resumen:
1. Si rango ( A) = rango ( A Y ) = n existe solución única. El sistema es compatible y
determinado.
2. Si rango ( A) = rango ( A Y ) = h < n existen infinitas soluciones. El sistema es
compatible e indeterminado.
3. Si rango ( A) ≠ rango ( A Y ) el sistema no tiene solución. Es incompatible.
El método de Gauss: Este método se basa en las transformaciones elementales de una matriz,
mediante las que se pasa de una matriz cualquiera a otra triangular superior (o escalonada).
Sistemas homogéneos: Se dice que un sistema de ecuaciones lineales es homogéneo, cuando
todos los términos independientes son cero. Esto es:
a11 x1 + a12 x 2 +...+ a1n x n = 0
a 21 x1 + a 22 x 2 +...+ a 2 n x n = 0
... ... ... ... ... ... ... ...
a m1 x1 + a m2 x 2 +...+ a mn x n = 0
De lo visto anteriormente se deduce que todo sistema homogéneo siempre tiene solución. Esta
será única (solución nula) cuando rango (A) = n y poseerá infinitas soluciones en caso
contrario. Es decir, un sistema homogéneo posee solución no trivial si y sólo si A = 0.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
25. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 25
TEMA 5. Sucesiones de números reales
Definición: Sea una aplicación f :∗ → , tal que a cada número natural, distinto de cero, le
asocia un número real. Se llama sucesión de números reales al conjunto de las imágenes en
dicha aplicación.
El número real f ( n) se representa por un y se denomina término general de la sucesión. Una
sucesión se representa en la forma:
{
{un } = r ∈ f (n) = r, ∀n ∈ ∗ }
A los elementos imágenes se les llama elementos o términos de la sucesión.
Límite finito de una sucesión de números reales: Se dice que una sucesión {u n } de
números reales, tiene por límite L (tiende al límite L) y se escribe limu n = L , cuando para
n →∞
todo número ε > 0 , tan pequeño como se quiera, existe un número natural n 0 (que en general
dependerá de ε ), tal que para todo n > n 0 , se verifica: u n − L < ε .
Consecuencia: La desigualdad un − L < ε , puede escribirse en la forma:
− ε < un − L < ε ⇒ L − ε < un < L + ε
Esto nos indica que si L es el límite de la sucesión {un } , en todo entorno suyo hay puntos de
la sucesión, en consecuencia L es punto de acumulación de la sucesión. Así pues, un entorno
del límite L, contiene todos los puntos de la sucesión a partir del n0 en adelante. Fuera de
dicho entorno, sólo habrá un número finito de puntos de la sucesión.
Límite infinito de una sucesión de números reales: Se dice que una sucesión de números
reales {u n } tiende a infinito o que su límite es infinito, y escribiremos lim un = ∞, cuando para
n →∞
todo número H positivo, tan grande como se quiera, existe un número natural n0 tal que, para
todo n > n0 se verifica que: un > H .
Consecuencia: Para que una sucesión de números reales tenga por límite infinito, es
necesario que tenga un punto de acumulación en el infinito.
Carácter de una sucesión
1. Sucesión convergente: Diremos que una sucesión {un } es convergente si tiene límite
finito
2. Sucesión divergente: Diremos que una sucesión {un } es divergente si tiene límite
infinito.
3. Sucesión oscilante: Diremos que una sucesión {un } es oscilante si tiene mas de un
límite.
4. Sucesiones con términos repetidos: Son aquellas sucesiones de números reales tales
que uno o varios de sus términos se repiten un número indefinido de veces.
Definición de sucesión de Cauchy: Se dice que una sucesión {un } de números reales es de
Cauchy si a todo número ε > 0 ,arbitrariamente elegido, se le pueda asociar un número natural
n0 tal que, para todo par de valores p y q mayores que n0 , se verifique que u p − uq < ε .
∀ε > 0, ∃ n0 ∈ , ∋ p, p > n0 ⇒ u p − u q < ε
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
26. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 26
Propiedades de los límites de sucesiones
1. Unicidad del límite: Si una sucesión tiene límite (finito o infinito), éste es único.
2. Acotación: Si una sucesión tiene un límite finito L y es c > L , a partir de un término n0
en adelante se verifica que c > un .
Consecuencia: Si tenemos dos sucesiones {un } y {v n } convergentes, de límites
respectivos L y L', si se verifica L > L ' , a partir de un término n0 en adelante, se
verifica: un > vn .
Caso particular: Si c = 0, la propiedad anterior se traduce: A partir de un término n0 en
adelante, los términos de la sucesión tienen el mismo signo que su límite, siempre que
éste sea distinto de cero.
3. Sucesión comprendida entre otras dos: Si dos sucesiones tienen un límite común,
toda sucesión cuyos términos se conserven comprendidos entre los dos correspondientes
de aquellas, tiene el mismo límite.
4. Sucesiones contenidas en otras
a. Definición: Diremos que una sucesión {un } está contenida en otra {v n } , cuando
todo elemento de la primera (manteniendo el orden) pertenece a la segunda, pudiendo
tener ésta otros elementos.
b. Propiedad: Toda sucesión contenida en otra, convergente o divergente, tiene el
mismo carácter que ésta.
5. Sucesiones crecientes y decrecientes
a. Definición: Se dice que una sucesión {un } es monótona no decreciente (no
creciente), si se verifica: un ≤ un +1 (un ≥ un +1 ), ∀n ∈ ∗
Diremos que una sucesión {un } es monótona creciente (decreciente) si:
un < un +1 (un > un +1 ), ∀n ∈ ∗
b. Propiedad: Toda sucesión creciente (decreciente) que esté acotada superiormente
(inferiormente), tiene límite finito.
n
Aplicación. El número e: La sucesión cuyo término general es u n = 1 + ,
1
c.
n
tiene límite finito por ser creciente y acotada superiormente. Este límite es
n
1 + 1 = e ≅ 2' 7182818284...
lim
n →∞
( )
n
Caso general: Dada una sucesión {un } tal que lim un = +∞ , se verifica:
un
1
lim 1 + =e
n →∞ un
Cálculo de límites
1. Límite de la suma o diferencia: Si las sucesiones {un } y {v n } tienden,
respectivamente, a los límites finitos L y L', las sucesiones {un + v n } y {un − vn }
tienden a L + L ' y L − L ' , respectivamente.
Casos particulares de la suma:
a. Si la sucesión {un } tiene por límite +∞ , − ∞ ó ∞ , y {v n } es una sucesión acotada,
la sucesión {un + v n } tiene por límite +∞ , − ∞ ó ∞ , respectivamente.
b. Si las dos sucesiones {un } y {v n } tienen por límite +∞ ó − ∞ , su suma tiene el
mismo límite.
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
27. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 27
2. Límite del producto: Si las sucesiones {un } y {v n } tienen límites finitos L y L',
respectivamente, la sucesión {un v n } tiene por límite L. L ' .
Casos particulares del producto:
a. Si la sucesión {un } tiene por límite cero y la sucesión {v n } está acotada, el límite
del producto es cero.
b. Si la sucesión {un } tiene por límite infinito y el límite de la sucesión {v n } es
positivo, el límite del producto es infinito.
3. Límite del cociente: Si las sucesiones {un } y {v n } tienen límites finitos L y L' (éste, al
menos, no nulo), respectivamente, la sucesión {u n / v n } tiene por límite L / L ' .
Casos particulares del cociente:
a. Si la sucesión {un } está acotada y la sucesión {v n } tiene por límite infinito, la
sucesión {u n / v n } tiene por límite cero.
b. Si los términos de la sucesión {un } se conservan, en valor absoluto, superiores a
un número fijo k la sucesión {v n } tiende a cero, la sucesión {u n / v n } tiene por límite
infinito.
c. Si la sucesión {un } tiende a infinito y la sucesión {v n } está acotada, la sucesión
{un / v n } tiene por límite infinito.
4 Límite del logaritmo: Si la sucesión {un } es convergente y de términos positivos
( un > 0 ∀n) y su límite es L > 0, se tiene: lim log a un = log a L (a > 1)
n →∞
Consecuencia: Esta última igualdad pone de manifiesto que la operación de tomar
logaritmos es conmutable con la operación de paso al límite.
5. Límite de una expresión exponencial: Dado un número a positivo y una sucesión
{un } convergente y de límite L, se verifica que: lim a un = a L .
n →∞
6. Límite de una expresión potencial: Dada una sucesión {un } convergente de límite
L > 0, se verifica: lim unp = Lp .
n →∞
7. Límite de una expresión potencial – exponencial: Dadas las sucesiones {un } y {v n }
de límites finitos L( > 0) y L', respectivamente, se verifica: lim un n = LL' .
v
n →∞
Infinitésimos: Se dice que una sucesión {un } es un infinitésimo, cuando el límite del término
general de la sucesión es cero: lim u n = 0 .
n →∞
1. Comparación: Se dice que una sucesión infinitésimo {un } es de orden superior, igual o
inferior que otra sucesión infinitésimo {v n } , según que:
0
un
lim = λ ≠ 0
n →∞ v
n ∞
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
28. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 28
Nota. Si este límite no existe, se dice que los infinitésimos no son comparables.
2. Equivalencia: Se dice que dos sucesiones infinitésimos son equivalentes, cuando el
u
límite de su cociente de sus términos generales es la unidad. lim n = 1
n →∞ v
n
3. Sustitución: En el cálculo de límites puede sustituirse un factor o divisor, infinitésimo,
por otro equivalente, sin que varíe dicho límite.
4. Principales equivalencias: Las siguientes equivalencias, que las justificaremos mas
adelante, son especialmente útiles en el cálculo de límites.
Si lim un = 0 se tienen las siguientes:
n →∞
ln (1+ un ) ≈ un un ≈ sen un ≈ tag un ≈ arcsen un ≈ arctag un
Infinitos: Se dice que una sucesión {un } es un infinito, cuando el límite del término general de la
sucesión es infinito: lim u n = ∞ .
n →∞
1. Comparación: Se dice que una sucesión infinito {un } es de orden superior, igual o
inferior que otra sucesión infinito {v n } , según que:
∞
un
lim = λ ≠ 0
n →∞ v
n 0
Nota. Si este límite no existe, se dice que los infinitos no son comparables.
2. Equivalencia: Se dice que dos sucesiones infinitos son equivalentes, cuando el límite
u
del cociente de sus términos generales es la unidad. lim n = 1
n →∞ v
n
3. Sustitución: En el cálculo de límites puede sustituirse un factor o divisor, infinito, por
otro equivalente, sin que varíe dicho límite.
4. Principales equivalencias: Las siguientes equivalencias, que se justificarán mas
adelante, son especialmente útiles en el cálculo de límites.
a0n p + a1n p −1 +... + a p −1n + a p ≈ a0n p ,, n ! ≈ n n e − n 2πn (fórmula de Stirling)
Dominancias entre términos generales de sucesiones
Entendiendo que el símbolo << debe leerse mucho menor que y interpretándose en el sentido
de que el cociente un v n , siendo un << v n , tiende a cero, se tiene:
ln n << n a << b n << n ! << n n siendo a > 0 y b > 1 .
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
29. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 29
Límites indeterminados: Son los siguientes:
condiciones operación símbolos
lim un = 0, lim v n = 0 lim ( un vn ) ( 0 0)
n →∞ n →∞ n→∞
lim un = ∞, lim v n = ∞ lim ( un vn ) ( ∞ ∞)
n →∞ n →∞ n→∞
lim un = ∞,
n →∞
lim v n = 0
n →∞
lim (un vn )
n →∞
( ∞0)
lim un = ∞, lim v n = ∞ lim ( un − vn ) ( ∞ − ∞)
n →∞ n →∞ n →∞
lim un = 0,
n →∞
lim v n = 0
n →∞
lim un
n→∞
vn
(0 )
0
lim un = +∞,
n→∞
lim v n = 0
n→∞
lim un
n→∞
vn
(∞ )
0
lim un = 1,
n→∞
lim v n = ∞
n→∞
lim un
n→∞
vn
(1 )
∞
Vamos a considerar los tipos generales de expresiones indeterminadas y cuyo límite puede
hallarse:
1. Expresiones racionales de la forma (∞ ∞) : Es el caso más sencillo y se representa
mediante el cociente de dos polinomios con n como variable. La solución en los
posibles casos es:
0 si p < q
a 0 n p + a1 n p −1 +...+ a p
lim = a 0 b0 si p = q
n →∞ b n q + b n q −1 +...+ b
0 1 q ∞ si p > q
Estas soluciones se obtienen dividiendo numerador y denominador por la mayor
potencia de n.
a 0 n p + a1 n p −1 +...+ a p
A partir de los resultados precedentes, vemos que: lim =1
n →∞ a0 n p
En consecuencia, ambos infinitos son equivalentes.
2. Expresiones de la forma (∞ − ∞) : Se puede reducir a la anterior mediante las técnicas
expresadas en los siguientes ejemplos:
3. Expresiones de la forma (∞0) : La expresión indicada, se puede poner en la forma
( ∞ ∞ ) mediante:
∞
lim (un vn ) = (∞ 0) = lim n =
u
n →∞ n →∞ 1 v
n
∞
4. Expresiones de la forma (0 0) : Son también reducibles al caso anterior:
1 vn ∞
lim n = = lim
u 0
=
n →∞ v
n
0 n→∞ 1 u n ∞
5. Expresiones de la forma 1∞ :
Pueden expresarse en la forma:
lim un vn = (1∞ ) = e n →∞
lim vn ( un −1)
= e (∞0) .
n →∞
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA
30. GRADO DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS 30
6. Expresiones de la forma 0 0 ó ∞ 0 : Ambos casos se pueden reducir a los
estudiados anteriormente, teniendo en cuenta que:
lim un vn = ( 0 0 ó ∞ 0 ) = e n →∞ = ( e 0∞ ) .
lim vn ln un
n →∞
a n − a n −1
7. Criterio de Stolz: Sean {a n } y {bn } dos sucesiones. Si existe lim , entonces:
n →∞ b − b
n n −1
an a − a n−1
lim = lim n , siempre que {bn } sea una sucesión monótona divergente.
n →∞ bn n →∞ b − b
n n −1
2011 – 2012 MATEMÁTICAS I RESUMEN DE TEORÍA