SlideShare una empresa de Scribd logo
1 de 652
Descargar para leer sin conexión
ALGEBRA LINEAL
Y GEOMETRIA CARTESIANA
Juan de Burgos
A.0 0
0 A.0
0 0 A
=
a
T erc era e d ició n
ALGEBRA LINEAL
y
geometría cartesiana
Tercera edición
Juan de Burgos Román
Catedrático de Matemática Aplicada de la Escuela
Técnica Superior de Ingenieros Aeronáuticos
Universidad Politécnica de Madrid
MADRID · BOGOTÁ · BUENOS AIRES * CARACAS · GUATEMALA · LISBOA
MÉXICO · NUEVA YORK · PANAMÁ · SAN JUAN · SANTIAGO · SAO PAULO
AUCKLAND · HAMBURGO · LONDRES * MILÁN · MONTREAL · NUEVA DELHI · PARÍS
SAN FRANCISCO · SIDNEY · SINGAPUR · ST. LOUIS · TOKIO · TORONTO
Contenido
PRÓL0(;0 A LA PRIMERA EDICIÓN........................................................... xiü
PRÓLOGO A LA SEGUNDA EDICIÓN........................................................... xvn
PRÓLOGO A LA TERCERA EDICIÓN........................................................... ixx
INICIACIÓN: LINEALIDAD Y RANGO
P A R T E I
Introducción.............................................................................................................. 2
Capítulo L Sistemas de ecuaciones lineales; el método de Gauss................. 3
a Primeras definiciones. Equivalencia......................................................... 3
1.1. Sistemas de ecuaciones lineales....................................................... 3
1.2. Sistemas equivalentes....................................................................... 8
P El método de Gauss..................................................................................... 12
1.3. Matrices escalonadas y sistemas escalonados.................................. 12
1.4. El método de Gauss........................................................................... 16
1.5. Sistemas homogéneos con menos ecuaciones que incógnitas......... 21
Capítulo 2. Rango (de vectores y de matrices)................................................ 22
a Vectores de n componentes........................................................................ 22
2.1. El espacio vectorial K"..................................................................... 23
2.2. Dependencia e independencia lineal................................................. 26
p Rango de un sistema de vectores............................................................... 30
2.3. Rango. Operaciones elementales....................................................... 30
2.4. Cálculo del rango de un si.stema de vectores.................................. 34
y Rango de una matriz................................................................................... 36
2.5. Existencia y cálculo del rango......................................................... 36
2.6. Matrices equivalentes....................................................................... 40
Capítulo 3. Operaciones con matrices; matriz inversa................................... 42
a Matrices; álgebra de matrices.................................................................... 43
3. l. Primeras definiciones......................................................................... 43
3.2. Producto de matrices......................................................................... 46
3.3. Traspuesta de una matriz.................................................................. 54
3.4. Relación entre las operaciones elementales y el producto............. 55
3.5. Multiplicación de matrices por bloques............................................ 60
P Matrices invertibles.................................................................................... 62
3.6. Definición y primeras propiedades................................................... 62
3.7. Cálculo efectivo de la inversa.......................................................... 65
3.8. Caracterizaciones de las matrices invertibles................................... 67
vii
CONTENIDO
Capítulo 4. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . 70
a Definición y valor de un determinante. . . . . . . . . . . . . . . . 71
4.1. Determinante de una matriz cuadrada. . . . . . . . . . . . . . 72
4.2. Expresión del valor de un determinante. . . . . . . . . . . . 75
4.3. Cálculo efectivo de un determinante. . . . . . . . . . . . . . 83
P Propiedades: desarrollo de un determinante, determinante de la matriz
inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4. Determinante de un producto: consecuencia. . . . . . . . . . . 85
4.5. Desarrollo por los elementos de una línea. . . . . . . . . . . . 87
4.6. Maüiz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.7. Rango de menores de una matriz. . . . . . . . . . . . . . . . 93
y Teoremas de Cramer y de Rouché. . . . . . . . . . . . . . . . . . 96
4.8. Sistemas de C r a m e r . . . . . . . . . . . . . . . . . . . . . . . 98
4.9. Teorema de R o u c h é . . . . . . . . . . . . . . . . . . . . . . . 99
Ejercicios y problemas a la parte 1 . . . . . . . . . . . . . . . . . . . . . 103
Enunciados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
ALGEBRA LINEAL
PARTE II
Capítulos. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . 116
a Espacios, subespacios y combinaciones lineales. . . . . . . . . . . 116
5.1. Concepto de espacio vectorial. . . . . . . . . . . . . . . . . . 116
5.2. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . 118
5.3. Dependencia e independencia lineal. . . . . . . . . . . . . . . 120
P Bases, Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.4. Espacios de dimensión finita. . . . . . . . . . . . . . . . . . 126
5.5. Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.6. Rango de un sistema de vectores. . . . . . . . . . . . . . . . 137
y Suma de subespacios. . . . . . . . . . . . . . . . . . . . . . . . . 139
5.7. S u m a y s uma directa. . . . . . . . . . . . . . . . . . . . . . 139
5.8. Dimensión de la s u m a . . . . . . . . . . . . . . . . . . . . . . 146
Capítulo 6 . Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . 149
a Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . 149
6.1. Definición y propiedades. . . . . . . . . . . . . . . . . . . . 149
6.2. Isomorfismos. . . . . . . . . . . . . . . . . . . . . . . . . . 156
P Matrices de las aplicaciones lineales. . . . . . . . . . . . . . . . . 160
6.3. Ecuaciones y matriz de una aplicación lineal. . . . . . . . . . 160
6.4. Matrices equivalentes. . . . . . . . . . . . . . . . . . . . . . 167
y Operaciones con aplicaciones lineales. . . . . . . . . . . . . . . . 175
6.5. Espacios vectoriales de homomorfísmos y de maü ic e s . . . . . 176
6 .6 . Anillo de endomorfísmos. Matrices invertibles. . . . . . . . . 1^^
8 Sistemas de ecuaciones lineales. . . . . . . . . . . . . . . . . . . 1^5
6.7. Variedades afínes. . . . . . . . . . . . . . . . . . . . . . . . 186
6 .8 . Teorema de R o u c h é . . . . . . . . . . . . . . . . . . . . . . . 188
€ Espacio dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
6.9. Espacio d u a l . . . . . . . . . . . . . . . . . . . . . . . . . . 190
6.10. Aplicación dual o traspuesta. . . . . . . . . . . . . . . . . . 1^^
íx
f Factorízjación L U de una matríz (’·'). . . . . . . . . . . . . . . . 195
A. 13. Existencia de la factorízación L U ........................................................ 616
A. 14. Factorízación L D U ................................................................................... 623
A. 15. Resolución de un sistema de ecuaciones acudiendo a la factoríza*
ción L U ....................................................................................................... 623
A. 16. Factorízación L D U ..................................................................................... 623
Ejercicios y problemas a la parte 11. . . . . . . . . . . . . . . . . . . . 196
Enunciados................................................................................................................. 196
Soluciones.................................................................................................................. 202
P A R T E I I I
Capítulo 7. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . 208
a Formas cuadráticas. Conjugación. . . . . . . . . . . . . . . . . 208
7.1. Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . 208
7.2. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . . 218
7.3. Conjugación respecto de una forma cuadrática. . . . . . . . . 224
p Diagonalización de una forma cuadrática. . . . . . . . . . . . . 231
7.4. Forma diagonal (congruencia). . . . . . . . . . . . . . . . . 231
7.5. Diagonalización efectiva de una forma cuadrática. . . . . . . 234
y Formas cuadráticas reales. . . . . . . . . . . . . . . . . . . . . 239
7.6. Formas definidas y ley de inercia. . . . . . . . . . . . . . . 240
7.7. Expresión canónica de una forma cuadrática. . . . . . . . . . 246
Capítulo 8. Espacios vectoriales euclídeos. . . . . . . . . . . . . . . . 253
a Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . 254
S.L Producto escalar de vectores. . . . . . . . . . . . . . . . . 254
8.2. Normas y ángulos. . . . . . . . . . . . . . . . . . . . . . 259
P Vectores ortogonales y ortonormales. . . . . . . . . . . . . . . . 266
8.3. Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . 267
8.4. Proyección ortogonal. . . . . . . . . . . . . . . . . . . . . 277
y Transformaciones ortogonales. . . . . . . . . . . . . . . . . . . . 284
8.5. Transformaciones ortogonales . . . . . . . . . . . . . . . . 285
8.6.Matrices ortogonales. . . . . . . . . . . . . . . . . . . . . . . 290
8.7. Transformaciones ortogonales en 2 y 3 dimensiones. . . . . . 297
8 Producto mixto y producto vectorial. . . . . . . . . . . . . . . . 304
8.8. Producto m ix to . . . . . . . . . . . . . . . . . . . . . . . . 305
8.9. Producto vectorial. . . . . . . . . . . . . . . . . . . . . . 308
6 Pseudoinversa. Soluciónsegún mínimos cuadrados (’*'*). . . . . . . 313
A. 16. Descomposición de una matriz en valoresprincipales. . . . . 625
A. 17. Aplicación y matriz pseudoinversas. . . . . . . . . . . . . 629
A. 18. Aproximación de soluciones por mínimos cuadrados. . . . . 313
Ejercicios y problemas a la parte III. . . . . . . . . . . . . . . . . . . 314
Enunciados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
(·) Véase el Apéndice 6.
( ·· ) Véase el Apéndice 7.
a Autovalores yautovectores............................................................................ 32(;
9.1. Autovalores y autovectores. Polinomio característico................... 3
2
5
9.2. Multiplicidades algebraica y geométrica de un autovalor.............. 3
3
5
9.3. Complejificación de un espacio vectorial real................................. 3
4
1
P Endomorfismosdiagonalizjobles.................................................................... 3
4
5
9.4. Diagonalización (por semejanza)..................................................... 345
9.5. Diagonalización ortogonal................................................................. 353
Ejercicios y problemas a la parte IV ...................................... ............................ 364
Enunciados....................................................................................................... 364
Soluciones........................................................................................................ 368
G E O M E T R ÍA C A R T E S IA N A
P A R T E V
Capítulo 10. Los espacios geométricos E iJ ........................................ 374
a Axiomas y definiciones............................................................................... 374
10.1. Los espacios geométricos bi y tridimensionales............................ 374
10.2. Las rectas y los planos..................................................................... 380
P Geometría plana (afin y euclídea).............................................................. 383
10.3. Problemas afínes (en el plano E^)................................................... 383
10.4. Problemas euclídeos (en el plano £ j) ............................................. 391
yGeometría tridimensional (afin y euclídea)................................................ 402
10.5. Ecuaciones de rectas y planos.......................................................... 402
10.6. Posiciones relativas de rectas y planos........................................... 409
10.7. Angulos y disuincias (en £ 3
) ............................................................ 420
Ejercicios y problemas a la parte V — .............................................................. 436
Enunciados...................................................................................................... 436
Soluciones....................................................................................................... 440
P A R T E V I
Capítulo 11· Cónicas: estudios particular ygeneral......................................... 446
a Estudio particular de las cónicas................................................................ 446
11.1. Las tres cónicas................................................................................. 447
11.2. Primeras propiedades de las cónicas............................................... 456
P Estudio general de las cónicas................................................................... 467
11.3. Las cónicas: ecuaciones y tangencia.............................................. 468
11.4. Ecuaciones reducidas y clasifícación de las cónicas................... 476
11.5. Elementos de las cónicas................................................................ 485
Capítulo 12. Cuádricas: estudios particular ygeneral.................................... 4%
a Estudio particular de las cúpricas............................................................ 4%
12.1. Las cinco cuádricas........................................................................ 497
12.2. Primeras propiedades de las cuádricas...........................................
P Estudio general de las cuádricas...............................................................
12.3. Las cuádricas: ecuaciones y tangencia........................................... 523
P A R T E I V
Capítulo 9. Diagonalización de endomorfismos y de m atrices........................ 3 2 ^
12.4. Ecuaciones reducidas y clasificación de las cu ád ricas....................... 534
12.5. Elementos de las cu ád ricas........................................................................... 554
Ejercicios y problemas a la parte VI............................................................. 564
E nunciados............................................................................................................................ 564
Soluciones.............................................................................................................................. 569
APENDICES
1. Algebra básica.......................................................................................... 577
2. Diagonalización por bloques de una transformación ortogonal.................... 590
3. Forma canónica de Jordan......................................................................... 594
4. Espacio afín (de dimensión n e N).................................................................... 601
5. Espacio afín ampliado (puntos del infinito)................................................ 612
6. Factorización L U de una matriz................................................................. 616
7. Pseudoinversa. Solución en el sentido de los mínimoscuadrados................. 625
Alfabeto griego................................................................................................ 617
Referencias bibliográficas............................................................................... 619
índice.............................................................................................................. 621
INICIACIÓN:
LINEALIDAD T RANGO
íntTüííu£CÍón.
1. 5tst£míi5 de. ecuaciones íineaícs: eí método de Gauss.
2. Rango (de vectoresy de tnatríces).
3. Operaciones con matrices: matriz inversa.
4. Det£rminante5.
Ejercicios y proSíetnas.
RELUDIO introito o a^prdio, en eíque se
fuéía a^o, por ib aeneraípoco y no siempre
bastante, acerca ae Ib
pecuacionesfinales el iranio», (as
imatrices» y (os ideterminantes», queriendo así ofrecer
a((ector, tanto una fierramienta que (epermita
manejarse con so(tura y eficacia, en (o que (ueao vendrá,
como una referenciay un cobijo a (os quepoder acogerse
cuando, pronto, se estudien conceptos más abstractos y
generales.
Introducción
Este modo de iniciar un curso de «Álgebra Lineal», hablando de los «sistemas
de ecuaciones lineales» y del «rango», no es ninguna tontería. Hay importantes
motivos para ello: Bien es verdad que, desde un punto de vista lógico y formal,
quizá habría que pensar en emprender la tarea presentando en primer lugar a
los «espacios vectoriales», luego a los «hormomorfismos» o «aplicaciones li­
neales» entre espacios vectoriales, más tarde a las «inatrices» y, con todo ello
y algo más, abordar debidamente el estudio de los «sistemas de ecuaciones
lineales» y de otras cuestiones. Creemos, no obstante, que la didáctica dice otra
cosa.
Los conceptos deberán presentarse de la manera que mejor puedan enten­
derse, la cual no es, generalmente, la que demanda la lógica. Ello no debe
impedir que, al final del proceso de aprendizaje, los conocimientos adquiridos
terminen formando el entramado adecuado, de suerte que, a la postre, se
consiga que los saberes queden pertinentemente estructurados.
Con el correr de los años, han sido muchos los problemas que han desem­
bocado en sistemas de ecuaciones lineales, de las que ha habido que hallar las
soluciones. Al abrigo de estos procesos de búsqueda de soluciones, y al de otros
desarrollos similares, se han ido perfilando los conceptos de vector, matriz,
rango, homomorfismo, etc.; no ha ocurrido al revés. Por ello, entendemos que,
al menos ahora, al comienzo, todos estos conceptos se deben dar a conocer
respetando su «antigüedad». Piénsese que aquello que primero se resolvió fue,
a no dudarlo, lo que era más fácil de resolver.
Es obvio que con el poco bagaje de conocimientos que, a estas alturas, se
nos supone, no nos va a ser posible llegar al fondo de las cuestiones que aquí
se abordan; tiempo tendremos para ello más adelante.
Este capítulo introductorio pretende cubrir varios objetivos, todos ellos
valiosos. Este capítulo es el escalón que permitirá acceder a una estancia que
está situada más alta de lo que es ordinario. Este capítulo es la base en la que
sustentar los conceptos abstractos que luego vendrán. Este capítulo será la
herramienta o instrumento que permitirá manejarse con soltura en lo que sigue.
Este capítulo es el germen de multitud de ideas y conceptos que pueblan el
«álgebra lineal».
Sistemas de ecuaciones
lineales; el método
de Gauss
CAPÍTULO
1
a PRIMERAS DEFINICIONES.
EQUIVALENCIA
¡CUIDADO CON LA
PALABRA «LINEAL»!
lay que avisar que. en el hablar
ndioarío de las gentes, hoy día
e está utilizando la palabra li-
leal para denotar a lo que es
ODStante. Así, cuando se dice
(ue se ha producido un «aumen-
o lineal del sueldo» de unos tra-
>ajadores y que dicho aumento
la sido de A euros, se nos quiere
ndicar que a todos y cada uno
je los trabajadores se le ha
iumentado el sueldo en una mis-
na cantidad, A euros, constante
jara todos. Si en esto de las su­
bidas de sueldos, la linealidad
íignificase lo mismo que en Ma-
lemáticas, una subida lineal de
iin 10 por 100, pongamos por
;:aso. significaría que al que ga­
na 100 se le aumenta en 10 y al
que gana 200 se le aumenta en
20; esta subida no es «constan­
te» es «proporcional» a lo que se
gana.
Según ya reza en el título de este libro, los problemas que nos van a ocupar
son los «lineales», entendiendo por tales a aquellos en los que al duplicar,
triplicar, etc., la causa, acontece que se duplica, triplica, etc., el efecto;
también se requiere que, al sumar las causas, se sumen los efectos. Así, por
ejemplo, si las causas vienen representadas por jc e y. que denotan a dos
números cualesquiera, y el efecto es a = 3jc —ly^ este a depende linealmente
de los jc e y.
Los problemas directos son aquellos en los que los datos conducen direc­
tamente, sin rodeos, a los resultados. Si lo que se conocen son los resultados
y se buscan los datos que se necesitarían para obtener dichos resultados, se está
considerando un problema inverso (o recíproco). Los sistemas de ecuaciones
lineales tienen esta condición de problema inverso; en ellos, hay que hallar los
datos (x e y, por ejemplo) que, en un problema de tipo lineal, conducirían a
unos resultados que nos son conocidos (a y (i, por ejemplo). Así, en un sistema
como él
hay que hallar los valores ác x c y (que se llaman incógnitas) que conducen a
los resultados a y p (que son dados).
1.1. SISTEMAS DE ECUACIONES LINEALES
Debemos empezar precisando el significado de los distintos términos que va­
mos a utilizar en lo que sigue:
ÁLGEBRA LINEAL
[«01]
DEFINICIONES
Un sistema de m ecuaciones lineales en las n incógnitas x^^ x^ es
todo conjunto de relaciones del tipo:
Ecuación primera: + «12^:2 + "· + ciy„x„ =
=
Ecuación segunda: «22-^2 *
*
’ ~ ^2
Ecuación m-ésima: a„^^Xy + //l/I n ftl
fíl
Los a,y (coeficientes) y los />
,· (términos independientes) son escalares
dados; es decir, elementos de un cuerpo cualquiera**^ Se dice que los
escalares a,, a ^ , a „ constituyen una solución de S si al tomar j
c
, = a„
X2 = 0 Í2, x„ = a„, las m ecuaciones se convierten en igualdades; resot-
ver S es hallar todas sus soluciones. Se dice que un sistema es compatible
si tiene alguna solución y que es incom patible si carece de ellas; cuando
es compatible, se dice que es determ inado si tiene una sola solución e
indeterminado si tiene más de una.
(·) El cuerpo Kde los escalares puede ser cualquiera. Puede suponerse, si ello faciliu
la comprensión de estas cuestiones, que K es el cuerpo real (/C= R) o que es el cuerpo
complejo (K= C).
Discutir un sistema de ecuaciones es analizar si éste tiene soluciones y, caso
de tenerlas, cuántas tiene.
EJEMPLOS
L x + > + z = 6
a: + ) i - z = 0
X +z = 4
x + y =3
Este sistema (en las incógnitas x, y, z) tiene solución
única que es la (j:, y, z) = (1, 2, 3); se trata, pues, de un
sistema compatible y determinado.
2. x + y + z = 6
x + y - z= 0
x + y =3
J
C+ y + 2z = 3
Este sistema es compatible indeterminado, ya que tiene
infinitas soluciones; éstas son todas las (x, y, 2) = («>
3 —a, 3), donde a es un número real cualquiera.
3. ■*+ y + z = 6
x + y - z = 0
- 2 x - 2 y = 1
Este sistema es incompatible, carece de soluciones.
Nótese que al sumar las tres ecuaciones se llega
a0 = 7.
: ECUACIONES LINEALES; EL MÉTODO DE GAUSS
Q SIGNO SUMATORIO;
ÍNDICES MUDOS E INDICES LIBRES
1. Para escribir de manera abreviada una suma como la se
recurrirá a la leü-a griega S (sigma mayúscula), que recibe el nombre de
signo sumaíorioy y se pone:
P ,+ />, + ··· + />„= i P,
Aquí se ha recurrido a la letra y, que se llama índice mudo, que no tiene
un valor determinado; se supone que j varía recorriendo todos los valores
naturales 1, 2. n. La letra j se puede sustituir porotra letra cualquiera,
sin que por ello varíe el resultado; esto es:
n n n
lpj=lp,= I
ja, A-1 0-1
Así, por ejemplo, las m ecuaciones del sistema S (de [001]) pueden ponerse
en la forma:
n n n
2. Por otra parte, para denotar de manera conjunta a todas y cada una de las
m ecuaciones del sistema 5, se puede recurrir a otro índice, que llamaremos
i y representará a cualquiera de los números 1, 2, m, y poner:
a,.,,ti + a¡2 X2 + - + = b¡ para /= 1, 2....m [5]
Aquí / es un índice libre; para cada valor que se le dé a /, se va a obtener
una de las ecuaciones del sistema S,
3. Recurriendo ahora a un índice libre i (que varía de 1 a m) y a un índice
mudo (que varía de 1 a n), el sistema S se puede expresar como sigue:
n
Z a¡jXj = b, (i = 1, 2...... m) [5]
J EXPRESION MATRICIAL DE UN SISTEMA
Lo que distingue a los sistemas de ecuaciones lineales, diferenciando a unos
de otros, son sus coeficientes y sus términos independientes. Para caracterizar
a un sistema de ecuaciones, como el
^ ^ ^ /de m ecuaciones: / = 1, 2, m 
L a yX j = b, (1= 1 ,2 .......m) · ^ ^
jm ^ ^ con n incógnitas: 7 = 1, 2, ..., n ]
ÁLGEBRA LINEAL
basta con saber los valores que toman los siguientes escalares;
a¡j (coeficiente que afecta a la incógnita y-ésima de la ecuación /-ésimas)
b¡ (término independiente de la ecuación /-ésimas)
Un sistema de ecuaciones queda, pues, determinado en cuanto se conozca
la tabla rectangular, o matriz, que forman sus coeficientes y sus términos
independientes, situados todos ellos en la misma posición relativa que ocupa­
ban en el sistema. Nótese que esta tabla es lo que queda del sistema al
prescindir en él de las incógnitas y de los signos (+ e = ). Concretando:
[002] Sea dado un sistema de m ecuaciones lineales con n incógnitas, al que
llamaremos [5]:
a¡^x^+a,2Xi + - + a¡„x„ = b¡
02lJC| + fl22^2 + - + " 2 A , = ¿2
[S]
a„,Xi + a„2X2 + - + a ^ „ = b^
Se llaman matriz de los coeficientes, matriz de los términos independien­
tes y matriz del sistema (o ampliada) a las siguientes tablas rectangula­
res^*^ A, B y formadas por escalares:
’ «11
«21
«12
«22
- « l»
··· «2«
; B =
í»2 ♦ AD —
«11
« 2 .
«12
«22 ·" «2» ¿ 2
:
» /tts —
« « 2
A . «m i «m2 - « m .
De manera abreviada y, por el momento, también simbólicamente, el
sistema S se expresará poniendo:
se llama columna o vector
columna de las incógnitas
(*) Posteriormente, se precisará y se completará la defmición dc matríz. Dc momento
nos basta con saber que la matriz A. por ejemplo» cs una tabla rectangular de m-n escalares
dispuestos en m filas y n columnas. La fila i<ésíma de A cs la sucesión de escalares
columna y-ésima dc A cs la sucesión de escalares (que en A aparecen
dispuestos venicalmente). Se dice que el elemento a,j, que está situado en la fila i y en la
columna y, es el elemento que ocupa cl lugar (i,J) o ij.
CUACIONES LINEALES; EL MÉTODO DE GAUSS
J SISTEMAS HOMOGENEOS
Los sistemas de ecuaciones que tienen nulos sus términos independientes, se
llaman homogéneos. Esto es:
[003] Un sistema de ecuaciones lineales se dice homogéneo si es dcl tipo:
i m
Abreviadanienic, se pondrá
AX = O, donde O cs inairiz
(de una sola columna) cuyos
elementos son todos nulos
Todo sislcma de ecuaciones lineales homogéneo [//| tiene» al menos, la
solución JC, = = ··· = jc^ = O, llamada solución trivial o nula, por lo que
siempre cs compatible. Será compatible indeterminado si tiene alguna
solución no nula.
Las combinaciones lineales de las soluciones de un sistema homogéneo
son, también, soluciones de éste; es decir:
á y 0 son soluciones de H =>
=> Á á '^ fjL0 es solución de // (A y /t escalares)
(♦) Por razones de brevedad, se ha llajiiado A"(a,...... or^). y
AA+ + /i/3,......Ao, +
COMPROBACIÓN
Expresando el sistema homógeneo en la forma abreviada X UijXj = O, como á
y p son soluciones, se sabe que
H n
X a¡¡Xj = O y Z = O (para í = 1, 2..................m)
Por tanto,  á + también es solución, ya que (para / = 1, 2.......m):
n n
X a„{ka,+ n P ) = X (Aa,j«^ + =
>-·
= A X a,.a, + A
t X a¡fi, = A- 0 + /i-0 = 0
>-i J-l
Alg e b r a lineal
I a la «cantidad» de
ut tienen los conjun-
s se les clasifica en
• INFINITOS. Si C es
0 finito, se dirá que
número finito de ele-
C cs un conjunlo in-
lirá que C tiene infí-
;ntos. No es correcto
iste último caso, que
1 número infinito de
infinito no es un nú-
EJERCICIO
Se desea comprobar que, si un sistema de ecuaciones lineales tiene más de una
solución, entonces el sistema tiene infinitas soluciones. Más exactamente, va­
mos a probar que:
Dado un sistema de ecuaciones lineales
Σ a¡jXj = b¡ (con / = 1, 2, .... m)
SI
á = (a ,, a^. .... a J
0 = (l3,,/3„
son dos raíces distintas del sistema, entonces se verifica que
a) á - /3 = («I - )3,, Ü2 — - /3„) es raíz del sistema homogéneo
2 atjXj = 0.
b) á + A(á —p) es raíz del sistema dado X a¡jX¡ = b¡ para todo escalar A.
RESOLUCIÓN
a) Σ α,/α^ - β ) = Σ a¡¡a¡ - Σ Uyfij = b ¡ - b ¡ = 0
J J J
luego a - β es raíz del sistema homogéneo.
b) Σ a¡JÍ_a¡ + A (a,- βι)] = Σ a¡jO¡ + A Σ a¡j{aj- β^) = b¡+  - 0 = b¡
j J j
luego á + Λ(ά —β) es raíz del sistema dado para cualquier A.
1.2. SISTEMAS EQUIVALENTES
Para resolver un sistema de ecuaciones, se le irá «reduciendo» a otros sistemas
que sean más simples; eslo es, se buscarán sistemas que tengan las mismas
soluciones que el dado y que resulten cada vez más fáciles de resolver. A los
sistemas que tienen las mismas soluciones se les llama equivalentes; de ellos
nos ocupamos ahora:
"EMAS DE ECUACIONES LINEALES: EL MÉTODO DE GAUSS
^ EQUIVALENCIA DE SISTEMAS; OPERACIONES
ELEMENTALES
[004]
LAS OPERACIONES
ELEMENTALES
un sistema de ecuaciones)
►
;]: intercambio, de las ecua­
ciones i y j ésimas.
►
Ai]: Multiplicar por A^ O la
ecuación /-ésima.
*i'+ Aj]: sumar, a la ecua­
ción i-ésima, A por
la y-ésima.
Dos sistemas de ecuaciones (con las mismas incógnitas) se dicen equi­
valentes si tienen las mismas soluciones, o sea, si toda solución de
cualquiera de ellos es también solución dcl otro.
Propiedad fundamental de la equivalencia.-Un sistema de ecuaciones
lineales es equivalente a cualquiera de los sistemas que resultan de rea­
lizar, en aquél, cualesquiera de las singuientes manipulaciones, que se
llaman operaciones elementales:
I C a m b i a r el orden con el que figuran las ecuaciones en el sistema.
2.° Multiplicar una de las ecuaciones por cualquier escalar no nulo.
3.^ Sumarle, a una de las ecuaciones, otra cualquiera de ellas.
4.® Aplicar, reiteradamente, cualesquiera de las operaciones anteriores
(en particular, sumarle a una ecuación, cualquier combinación lineal
dc las demás)
NOTA: Hay quienes consideran también como operación elcmeniaJ (cosa que no hare­
mos no.sotros) a la siguicnlc: suprimir una ecuación que sea combinación lineal de otras
ecuaciones del sistema.
(♦) Por definición, las combinaciones lineales de las ecuaciones + />,y + c,r = d^ y
a¿x + bjV + CjT=
»rfj son las ecuaciones
(afl, + + (ab, + J3b2)y + (aec, + /Sc2)z = or^, +
donde ar y p .son escalares cualesquiera.
Nótese que entre las operaciones elementales del apartado 4.°, cabe destacar la
siguiente: sustituir una cualquiera de las ecuaciones por una combinación lineal
de otras y de ella misma de manera que el coeficiente que multiplica a ésta
sea no nulo.
Vamos aquí a simplificar la notación llamando
E^(x) = a.yXf -h 0 , ^ 2 + *·· + (para / = 1, 2...... m)
con lo que el anterior sistema de ecuaciones S (véase [002]) se expresará en la
forma S*
E,(x) = 0
E2Íx) = 0
IS l
10 Algebra uneal
Con este Upo de notación, la propiedad anterior asegura que. por ejemplo, son
equivalentes los siguientc.s sistemas:
£,(jf) = 0
£j(í) = 0 >
£,(-?) = oJ
2£,(;t) = 0
3 £ j(.f)-£ j(.f) = 0
£,(í) = 0.
£ ,(/) = Oí
2 £j(jf) + 3£,(jt) = 0
J£ 3(jE )-£ ,(í) + 5£j(x) = oJ
DEMOSTRACION
VECTORES
Aquí, para dcnouu· a las sucesio­
nes (Xi,X2.....x„) y (a„aj.....
Jc n escalares, se ha recurrido a
íscribirJ
Cy o. A estos elementos
?e les llamará vectores. Un poco
rás adelante se estudiarán con
Jetenimiento estos objetos mate-
náticos; de momento, sólo he­
lios necesitado de sus combina­
ciones lineales: si
“ =(«|. ",)
(P........ P.)
« llama Ad-*f a
(Aíir, + /x/9,.......Aof, + /X/3J
A y son escalares).
Los casos 1.®
) y 2.®) son obvios; el caso 4 “) se reduce a aplicar reiteradamente
los resultados de los casos que le preceden. Por ello, sólo consideraremos el ¡
caso 3.®).
Para señalar que jc, = a,, jc, = ofj» ~ solución del sistema,
se dirá que la solución es la x = á, esto es, se ha llamado ;
I
.f=(A·,, A
·,...... X,) y á = (o·,, a,, ..., Qf„) ,
Para verificar que la propiedad es cierta en el caso 3.®), no hay más que '
darse cuenta de que las siguientes afirmaciones son equivalentes entre sí:
á es solución
del sistema
£,(Á) = 0‘
£ 2(jO = 0
EJX) = 0
se verifican se verifican á cs solución
las igualdades las igualdades del sistema
£,(«) = O £,(d) + £ j ( á ) = 0 £ ,( jc
) + £2(jc) = 0
£ 2
( 5) = 0 £ 2
( 5) = 0 E2(x) = 0
E j á ) = 0
OBSERVACIÓN
Sea S un sistema de m ecuaciones lineales y sea S' un sistema formado por m
combinaciones lineales de aquellas. Es evidente que toda solución de S es.
también, solución de S'. Sin embargo, en general puede haber soluciones de S'
que no lo sean de S. Así puede ocurrir en los dos ejemplos siguientes, en los
que se toma para 5' uno de los 5¡ o S^:
£,
(í
)= 0
E2(j0 = 0
£ ,( ^ = 0.
[ÍI
£,(x) = 0
£3(;0 = o
£,(í) + £j(jc) = 0.
£ ,(J)-£ j(jí) = 0
[5¡] ; £ ,(í) - £ ,( x ) = 0
£ ,(jt)-£ ,(J ) = 0
[Sí]
Tómese, en concreto
£,(jt) = x,+X2- 2, £,(x) = X2+-*3 ~ 2 y £j(i) = Xj + JC
| - 2
En este caso, S tiene una única solución que es la x, = 1, JC
2= 1, X3= 1. El
sistema S[ tiene infinitas soluciones, que son las jc, = A (cualquiera), jCj = 2 —A
y JC
3= 2 - A. El sistema 5^ tiene infinitas soluciones, que son las
Xi= X2 = Xy = Á (cualquiera).
EJEMPLO
IES; EL MÉTODO DE GAUSS 11
Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden
resolver los sistemas de ecuaciones. Así, por ejemplo, el siguiente sistema S es
equivalente a los 5' y 5" y la resolución de este último es elemental:
(1.“) — JC+ y'l·2z = 9
(2.®)—
► 3jcH-6y~5z = 0
(3.“)— 2x + 4 y - 3 z = l
IS]
( r ) = (l.“) - 2z = 9
(2') = (2.“) - 3(1.“) - 3>^- 1Iz = -2 7 V [S']
(30 = (3.“) - 2 ( 1 .“) - 2 y - 7 z = - 1 7 j
( r O = (l') JC+ 2z = 9
(2'') = (2') - 3 > ^ - l l z = - 2 7 y [5"]
(3") = 3 ( 3 ') - 2 ( 2 ') - z = 3
La solución de 5" es, evidentemente, la z = 3, y = 2, jc = 1, que es también
la solución del sistema dado.
□ ENFOQUE MATRICIAL
Si se conoce la matriz de un sistema, éste también se conoce y, por ello, se
podrá resolver. Al ser mucho más cómodo manejar solamente la matriz, en
lugar de todo el sistema, así se hará, con lo que simplificaremos el proceso de
resolución. En este sentido, es útil observar que la anterior propiedad [004],
sobre sistemas equivalentes, puede formularse en los siguientes términos:
Tómese, en concreto
£ ,(í)= .r,+ X 2 - 2 . £j(í)=jc2 + jc ,-2 y E,{x) = Xy + x ^ - 2
En este caso. S liene una única solución que es la jc, = I. J
C
2 = I, J
C
j = L El
sistema 5¡ tiene infinitas soluciones, queson las jc, = A (cualquiera), jC
j = 2 - A
y jC
j = 2 - A, El sislema S[ tiene infinitas soluciones, quesonlas
J
C
, = J
C
2 = J
C
, = A (cualquiera).
EJEMPLO
Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden
resolver los sistemas de ecuaciones. Así. por ejemplo, el siguiente sistema S es
equivalente a los 5' y 5" y la resolución de este último eselemental:
(1.“)— y + 2z = 9 ‘
( 2 . * ) - 3.c + 6 y - 5 z = 0 > [S]
(3.“)— 2x + 4 y ~ 3 z = 1.
(l') = (L“)^ jc+ y + 2z = 9 )
(20 = (2.·) - 3(1.“)-^ 3y - 1Iz = “ 27 > [S']
(30 = (3.-)-2(1.“) - 2 y - 7 z = - 1 7 j
(rO = (r> x+ y + 2z = 9
(2'0 = (20 - 3 y - l l z = - 2 7 ^ [S '']
(3'') = 3 ( 3 0 - 2 ( 2 0 - z = 3
4LES: EL MÉTODO DE GAUSS 11
La solución de S'* es. evidentemente, la z = 3. y = 2. jc = 1. que es lambién
la solución del sistema dado.
□ ENFOQUE MATRICIAL
Si se conoce la matriz de un sistema, éste también se conoce y. por ello, se
podrá resolver. Al ser mucho más cómodo manejar solamente la matríz. en
lugar de lodo el sistema, así se hará, con lo que simplificaremos el proceso de
resolución. En este sentido, es útil observiu· que la anterior pmpiedad [004].
sobre sistemas equivalentes, puede formularse en los siguientes términos:
12 ÁLGEBRA UNEAL
[005]
LAS OPERACIONES
ELEMENTALES
(en las filas de una matriz)
[/ ^ j ]: intercambio, de las filas i
y j ésimas.
[/—
♦A/]: Multiplicar por A Ola
nía /-ésima.
[/—
►
/ + Áj]: sumar, a la fila /-ési­
ma, Apor lay-ésima.
j
Un sistema de ecuaciones lineales AX —B equivalente a cualquiera de j
los que se obtienen de realizar operaciones elementales en las filas de su |
matriz ; se llaman operaciones elementales a las siguientes manipula- |
ciones: ;;
1.° Cambiar el orden en el que, en aparecen las filas. ;
2.*^ Multiplicar una fila por un escalar no nulo. j
3.° Sumarle, a una fila, otra cualquiera de ellas. |
4.** Aplicar, reiteradamente, cualesquiera de las operacionesanteriores |
(en particular, sumarle, a una fila, cualquier combinación lineal de j
las demás). !
EJEMPLO
Para resolver el siguiente sistema S (que es el ya considerado en el último ejemplo), si
manejamos (en lugar de todo el sistema) solamente su matriz AB, al realizar operaciones
elementales en sus filas, se obtiene
> - + 2 2 = 9 ·
) " 1 1 2 9 · 1 .‘
6 > - - 5 z = 0 > [5 ] ; / © = 3 6 - 5 0 * - 2 .
·
4 > r - 3 z = I J 2 4 - 3 1 _ — 3 .‘
( ! ' ) = ( ! . “) ^ ' 1 1 2 9 ·
( 2 ') = ( 2 .“) - 3 ( l . * ) - 0 3 - 1 1 - 2 7
( 3 ') = (3 .“) - 2 ( l . “) - _ 0 2 - 7 — 1 7 .
d " ) = ( l ' ) - ' 1 1 2 9 ·
(2 " ) = ( 2 ') - 0 3 - 1 1 - 2 7
(3 ” ) = 3 (3 ' ) - 2 (2 ' ) - . 0 0 1 3 .
Esta última matriz lo es de un sistema que se resuelve trivialmente; su
solución, que es la misma que la de 5, es la jc = 1, = 2, z = 3.
EL MÉTODO DE GAUSS
MATRICES ESCALONADAS
V SISTEMAS ESCALONADOS
Nos vamos a referir aquí a unos sistemas de ecuaciones, especialmente fáciles
de resolver, a los que luego reduciremos todos los demás sistemas: todo ’
sistema de ecuaciones lineales resultará ser equivalente a alguno de los sis­
temas escalonados.
ACIONES LINEALES; EL MÉTODO DE GAUSS 13
[006] Se llaman matrices escalonadas a aquellas matrices en las que:
1."
2.°
Cada una de las filas (a partir de la 2.“) comienza con una sucesión
de ceros que tiene algún cero más (uno como mínimo) que la fila
anterior. Nótese que si hubiera filas formadas sólo por ceros, éstas
serían las últimas filas de la matriz.
En las filas en las que algún elemento no es nulo, el primero de
éstos (que llamaremos cabecera de la fila) es un l^*
Se llaman matrices escalonadas reducidas a las matrices escalonadas
en las que. además, se verifica:
3.° En las columnas en las que están ubicadas las cabeceras de las
filas, todos los demás elementos son nulos.
A la matriz traspuesta^**^ de una matriz escalonada se la suele llamar
«matriz escalonada por columnas».
Un sistema de ecuaciones lineales se dice que es un sistema escalonado
(respectivamente, sistema escalonado reducido) si su matriz de coefi­
cientes es escalonada (respectivamente, escalonada reducida).
(♦) Este requisito podría omitirse sin que, por ello, varíase, en esencia, el proceso y
los razonamientos que haremos a continuación.
(*♦) matriz traspuesta de A se obtiene al cambiar, en A, las filas por las columnas.
MATRIZ
ESCALONADA
0 = elementos nulos
1 = elementos unidad
♦ = elementos cualesquiera
(todos los que están sobre cada
uno de los elementos l pueden
hacerse nulos)
EJEMPLOS
En cada uno de los siguientes ejemplos, con los que se pretenden aclarar las
anteriores definiciones, se da un sistema de ecuaciones escalonadas, su matriz
ampliada y su solución, si la tiene:
Algebra lineal
SISTEMA;
MATRIZ:
j + 4)· + I + « = 1
_
v+ 2í ~ u — 4
I —4tt = 9
« = - 2
SOLUCION:
'
a
: = 2 - 3 z + i!
X +3j -i'= 2' '1 0 3 0 -1 2' y = 7 - 5 z
y + 5z = 7 0 1 5 0 0 7 z = cualquiera
u + 2t' = —I _0 0 0 1 2 - 1. M= - 1 - 2ü
V= cualquiera
= 2 —3z + »
^ +3z -i>= 2 ' "l 0 3 0 - I 2‘ y = 7 - 5 z
y + 5z = 7 0 l 5 0 0 7 z = cualquiera
« + 2r = -1 0 0 0 1 2 - l m= - 1- 2i)
0 = 0‘** 0 0 0 0 0 0_ V= cualquiera
X +3z - 1
’= 2 ' ‘l 0 3 l) -1 i 2'
> + 5z = 7 »
0 l 5 0 0 ;
1 . sistema incompatible
« + 2r = - 1 0 0 0 1 2 1- i
0 = 4'“> 0 0 0 ü 0 ; 4_
1 4 1 1 1
0 1 2 -1 4
0 0 1 -4 9
0 0 0 1 - 2
u = - 2
z= I
y = 0
2
J l DISCUSIÓN DE LOS SISTEMAS ESCALONADOS
HM)7| Sea 5, un sistema escalonado de tn ecuaciones lineales con n incógnitas;
sea M la matriz de los coeficientes de S,. De las m filas de M, llamaremos
r al número de ellas que tienen algún elemento no nulo; las m —r últimas
tilas de M sólo contienen ceros. Respecto de la compatibilidad del sistema
S,. se verifica:
1.® 5, es compatible si y sólo si sus últimos m - r términos indepen­
dientes son todos nulos.
2."^ Suponiendo que los m - r últimos términos independientes son nu­
los, el sistema 5, es compatible determinado si r = /i y es compatible
indeterminado si r< n (nótese que no es posible que r > n ) .
(··) Est(K tipos de ecuadoncs no son usuales y, ello, sobre lodo cuando, como aquí, son datos
de partid^ Sin embargo, pueden aparecer, y de hecho aparecen con frecuencia« cuando el sistemi
de ecuaciones es el resultado de aplicar operaciones elementales en un sistema dado.
MES: EL MÉTODO DE GAUSS 15
COMPROBACION
Esta verificación puede reducirse al caso de sistemas escalonados reducidos.
En efecto: si no es reducido, recurriendo a ciertas operaciones elementales,
que se localizan trivialmente, se obtiene un sistema 5^ equivalente a 5^ esca­
lonado reducido, con el mismo valor de r y con los mismos m —r últimos
términos independientes. Si para S' las cosas son como se dice en el enunciado,
es obvio, entonces, que también lo son para y, por ello, bastará considerar
aquí a los sistemas escalonados reducidos.
XiX,..
t t t
Xl Jf2·
♦ ♦
.X,.
t ♦
l ^ O O ^ O O * « 1 ♦ ♦ ♦ ♦
1
_
1 0 ♦ 0 0 ♦ ♦ 1 0 0 ♦ ♦ ♦
r * 0 0 ♦ ♦ ¡ 1 0 ♦ ♦ ♦
0 l i o ♦ * r1 0 1 0 0 ♦ ♦
H i ♦ * 1 0 0 ♦ 4i
0 0
Términos independientes
Supongamos, pues, que es un sistema escalonado reducido. La discusión
de resultará más fácil de obtener si, previamente, alteramos el orden de las
incógnitas x,, Xj, ..., x„, que pasaremos a llamarlas x¡, Xj, ..., x', y ello del modo
que ahora se indica: si las cabeceras de las sucesivas filas de la matriz M son
los elementos de lugares (1, 1), (2, /i), (3, k), ..., (r, /), entonces tomamos
X-l Xl,
las restantes m - r incógnitas se tomarán en el mismo orden relativo que tienen.
Haciendo esto, el sistema queda de la forma siguiente (para ciertas constan­
tes: coeficientes c¿j y términos independientes //,):
•^1 (^Ir+I -^r+I ^In Xn)
•^2“ ^2 ” Xf+Í ^ ^ ^2n K)
Alg ebra u n e a i
Aquí, los h¡ son los términos independientes de 5/, ios c son umjs ciertíA
escalares» que forman parte de ia matriz M. A la vista ae la forma 5* de
presentar el sistema 5,, resultan evidentes las afirmaciones 1/ y 2.· de! anterior
enunciado.
1.4. EL METODO DE GAUSS
Todo sistema de ecuaciones lineales 5 se va a poder reducir a uno escalona­
do S/y es decir, realizando adecuadas operaciones elementales en 5, siempre
se conseguirá un sistema escalonado 5^. equivalente a S, Si el sistema 5 cs
compatible, como la resolución de S, es üivial» según acabamos de ver en el
apartado anterior, resulta que tenemos ya a nuestro alcance un procedimiento
práctico para resolver sistemas de ecuaciones lineales, que no es otro, en
esencia, que el método de eliminación de Gauss, que aquí se considera.
□ ELIMINACION SUCESIVA DE INCOGNITAS
[008] Dado un sistema S de m ecuaciones en las n incógnitas jc,, jcj, ..., x„,
eliminar la incógnita es obtener un sistema S' equivalente a 5, también
de m ecuaciones y con las mismas n incógnitas, tal que la incógnita jc,
no interviene en ~ 1 de las ecuaciones de S, es decir, del siguiente tipo:
JC
j...... Jt,) = o'
.
. = 0
[Si-, ............................
^2* *
*
*
’ O
£■
2(^1
. Xz.......Xn) = O
E„{x,, Xj, .... JT„) = O E„(X2.......X.) = O
[S'l
OBSERVACIONES
Supongamos que se ha eliminado jc, y llamemos S, al sistema de las m - 1
últimas ecuaciones de 5, (que tiene n - 1 incógnitas). Si en S, pudiéramos
eliminar ahora otra incógnita (la x^) y seguir así sucesivamente, llegaríamos, al
fínal del proceso, a un último sistema S“, equivalente a S, en el que cada
ecuación tendría una incógnita menos que la ecuación anterior; S* sería del tip<i:
.. Jt,) = O
.. x„) = 0
.. - 0 = 0 f í“l
LES; EL MÉTODO DE GAUSS 17
Con el signo de interrogación que se ha puesto en la última ecuación de
5“, se quiere señalar que este proceso puede concluir de manera distinta,
dependiendo de las ecuaciones que se consideren y, en particular, de si ni es
mayor, menor o igual que n. Este sistema 5“ es, previsiblemente, más fácil de
resolver que el 5. En el caso de compatibilidad, se comenzará resolviendo la
última ecuación de 5", que nos dará el valor de si 5“ sólo tiene esta incógnita
(la jc^), o una cierta jc^ en función de las ......Avanzando ahora de
abajo a arriba y llevando a cada ecuación el resultado obtenido en la siguiente,
se van despejando las sucesivas incógnitas, hasta llegar a la primera ecuación,
de la que se obtiene finalmente x^.
En los sistemas de ecuaciones lineales, el anterior proceso de eliminación
se puede realizar fácilmente recurriendo a las operaciones elementales; nótese
que, en esencia, se trata de conseguir un sistema equivalente al dado que sea
escalonado. Esto es lo que se hace en el siguiente ejemplo:
EJEM PLO
Consideremos el siguiente sistema de ecuaciones, cuya matriz ampliada es la
que se indica a su derecha (en este sistema, a denota a un parámetro):
x + 2y+ 2 = r "l 2 1 r ^ 1.“
I t + >’+ 3z = - 4 2 1 3 - 4 ^ 2."
X - >’-H(fl + 2)z = “ 3 f l-5
^ 15);
1 - 1 a-- 2 - 3 f l - 5 — 3.“
4x + 2y + (tí + 6)z = -3íT - 8 _4 2 a + 6 - 4 . “
Al intentar resolver el sistema e ir, piu*a ello, eliminando incógnitas me­
diante operaciones elementales en las filas de la matriz, obtenemos sucesiva­
mente las siguientes matrices, que conducen al sistema 15,] que es equivalente
al dado y escalonado:
r = 1.· — 'l 2 1 f
2' = 2. · - 2( 1.·) — 0 - 3 1 - 6
3' = 3 .·- 1.· — 0 - 3 1 + a -3 a - 6
4' = 4.·-4(1.·) — _
^0 - 6 2 *f a -3 a ^-- 12_
r ' = r ’ l 2 1 r
2' '= - 2' — 0 3 -1 6
3 ' ' = 3 ' - 2' — 0 0 a -3fl
4 - = 4 ' - 2(2' ) - 0 0 a - 3 <
r - = i - "l 2 1 l‘ JC+ 2>
^+ z = r
2- ' = 2'' - 0 3 - 1 6 3 > - z = 6
3'" = 3'' - 0 0 a -3fl ♦
az' -3 a
0 0 0 - 3a(a 0 =
= -3fl(a - 1)
Alg ebra lineal
La ultima ecuación de [5,J sólo se verifica si el paràmetro a toma uno de los
valoies a = 0 o ti = 1. Por elio, concluimos que:
• Para a # 0 y a ^ 1, [S) es incompatible.
» Para a = 0,15] es compatible indeterminado, pues es equivalente al sistema
x + 2y + z = i
3 y - z = 6
0 = 0
0 = 0
2 = A cualquiera
’ , que tiene las soluciones: ^y = 2 + A/3
5A/3
<y = ¿ + A
U = - 3 -
Para a = 1, [5] es compatible determinado, pues es equivalente al sistema:
x + 2y + z= I
3 y - z = 6
z = - 3
, que tiene sólo la solución:
- 3
^ 1
^ 2
□ MÉTODO DE ELIMINACIÓN DE GAUSS
[009J Sea S el sistema de ecuaciones lineales Y,a¡jXj = bt ( /= 1, 2, m y
J
7 = 1, 2, n) sea /ÍB su matriz ampliada.
Se dice que un elemento a¡j =
5
^ O se utiliza de pivote hacia abajo (o hacia
arriba o ambas cosas) si en las filas de se realizan aquellas operaciones
elemenuiles que transfonnan a a¡j en 1 y convierten en O a los demás
elementos, de la columna j, que están por debajo (o por arriba o ambas
cosas) del üij. Todo elemento no nulo a¡j de A puede utilizarse como
pivote.
Utilizando como pivotes a ciertos elementos de A, elegidos de modo
idóneo para realizar adecuadas operaciones elementales en las filas de A,
siempre es posible transformar S en un sistema equivalente que sea
escalonado e, incluso, que sea escalonado reducido.
Si S es compatible, para resolver este sistema se puede proceder de dos
maneras:
1.®
2.®
Hallando el citado sistema escalonado, pero no reducido, despe­
jando la incógnita de cabecera de su última ecuación y, avanzando
de abajo a arriba, sustituir el valor hallado para cada incógnita en
la ecuación anterior, de 1
a que se despeja una nueva incógnita
(método de eliminación de Gauss).
Hallando el sistema escalonado reducido, de cada una de sus
ecuaciones se despeja (directamente) la incógnita que esté en su
cabecera (eliminación de Gauss-Jordan).
LES; EL MÉTODO DE GAUSS 19
COMHKOtíACJONl-S
—Cercioréiiionos primero de que cuiilquicr clemciilt) ^ Ose puede ulili/ar de
pivote. Para ello, realicemos las siguientes operaciones elenienlales en las Illas
de Primero dividamos la lila de lugar i por con lo que el elemento de
lugar (/■
, j) pasa a valer l; después, a la lila de lugar h ^ i le restamos la lila
de lugar i nuiltiplicada |X)r con lo que el elemento de lugar (//. j) se trans­
forma en 0. Al repetir esta líltima operación para todos los fi > i (o h < i o am­
bas cosas), todos los elenientos que están por debajo del (/, j) (o por arriba o
ambas cosas) pasan a ser O, con lo que í/,, ha podido ser utilizado como pivote.
— Veamos ahora cómo obtener un sistema escalonado  que sea equiva­
lente al .V
. lin la primera columna de A hay algini elemento no nulo^*'; inter­
cambiando dos filas de si Cuera preciso, se obtendría en el lugar (1. 1) un
elemento no nulo; utilizándolo de pivote, se transfonnan en O todos los ele­
mentos situados por debajo de él. Con esto, la 1.“ columna está ya en la forma
deseada. Si todos los elementos que quedan por debajo del (1. 2) son nulos, se
deja la 2.“ columna como está; si alguno de ellos es no nulo, intercambiando
dos lilas si fuera preciso, .se le lleva al lugar (2. 2) y. luego, se le utiliza de
pivote para íuuilar lodos los elenientos que están situados por debajo de él. Con
esto, las 1.“ y 2.“ columnas están ya en la forma deseada. Se pasa ahora a la 3.“
columna, con la que se procede de manera análoga y se reitera el proceso hasta
llegar a la última columna de la matriz de coeficientes, con lo que ésta queda,
después de aplicarle las o|)eraciones elementales, en forma escalonada.
—Comprobemos que .se puede conseguir que el susodicho sislema escalo­
nado (equivalente a 5) .sea reducido. Para ello, partimos del sistema escalonado
5, (no reducido), obtenido como .se ha indicado en el párrafo anterior. Fijé­
monos ahora en la cabecera de cada una de las ecuaciones no nulas de S^ a
los lugiu*es que ocupan estas cabeceras les llamaremos ( 1. 1). (2. /j), (3. Z,). ...»
(r. i^). Utilizando como pivote al elemento de lugíu* (r. /^). se convierten en
ceros lodos los elementos que están por encima de él; luego, utilizando como
pivote al elemento de lugar (r —1. /,._,). se convierten en ceros todos los
elementos situados por encima de él; .se reitera este proceso hasta, finalmente,
transformar en cero al elemento situado encima del de lugar (2. ij). De todo
ello, resulta que el sistema (equivalente a S) que así se ha obtenido es. obvia­
mente. e.scalonado reducido,
—Respecto de cómo resolver los sistemas escalonados y los escalonados
reducidos, no hay nada importante que añadir a lo ya dicho en su de.scripción.
Q OBSERVACIONES (RANGO Y GRADOS
DE LIBERTAD)
Sea S un sistema compatible de m ecuaciones lineales con n incógnitas. Su­
pongamos que hemos aplicado el método de Gauss-Jordan y que de él se ha
obtenido un sistema escalonado reducido S,, equivalente a S,
(*) Si no lo hubiere, en S no apureceríu lu incógniia jt,. pues iodos sus ct>cricicnics serían
nulos; eslo es, .r, seríu lu primera incógnita y no es así.
ÁLGEBRA LINEAL
El sistema sin más que alterar adecuadamente el orden de sus incógni-
tas^* esto es, de cambiar sus subíndices, se puede expresar en la siguiente
forma E^ (que ya fue analizada al finalizar [007]:
0 = 0
m — r
Si es r = fi, el sistema tiene solución única; si es r </i, el sistema tiene
infinitas soluciones. En este segundo caso, al tomar para las incógnitas jc^+,,
unos valores cualesquiera, nos encontramos con que hay unos únicos valores
para ,r,, Xj» —» junto con aquellos, forman una solución del sistema. Para
expresar que los valores de las n - r incógnitas ..., x^ (incógnitas secun­
darias) se pueden elegir libremente, se acostumbra a decir, que las soluciones
del sistema forman una familia con n —r grados de libertad. El valor que toma
n - r es fijo, es decir, depende del sistema S pero no del camino que se haya
seguido para obtener E^. Esta afirmación, que quizá le parezca evidente al
lector, no se ha demostrado aún; lo haremos, más adelante, cuando volvamos
sobre este asunto de los sistemas de ecuaciones.
Al echar una ojeada al sistema 5*, se ve que en él hay r ecuaciones
«efectivas» (las r primeras) y que las m - r restantes son identidades, se
satisfacen para cualesquiera valores de las incógnitas. Esta situación viene a
reflejar lo que ocurre en S: de entre las m ecuaciones de 5, va a haber r que
son independientes, de manera que cada una añade una nueva exigencia, y
las m - r restantes resultarán ser consecuencia de las r primeras. Para expresar
esto, diremos que r es el rango del sistema 5 o de la matriz de sus coeficien­
tes. Más adelante veremos que estas consideraciones intuitivas tienen total
justificación.
(*) Si no se altera el orden de sus incógnitas, es decir, manteniendo su numeración, el sistema
5, tendría la siguiente expresión:
 - (cw,.A ,, + - + CuX,)
0 = 0
0 = 0
•+ C„X,J
/j, ..., /, son las r índices que
señalan los lugares en que están
situadas las cabeceras de las
ccuaciones del sistema S,
£ DE ECUACIONES LINEALES; EL MÉTODO DE GAUSS 21
SISTEMAS HOMOGÉNEpS CON MENOS
ECUACIONES QUE INCOGNITAS
[010]
Sabemos que los sistemas lineales homogéneos tienen siempre solución; estos
sistemas pueden ser o compatibles determinados, cuando sólo tienen la solución
nula, o compatibles indeterminados y, entonces, tienen infmitas soluciones,
pues si tienen una solución también son soluciones suyas todas las proporcio­
nales a aquélla. Pues bien, vamos a considerar aquí una condición suficiente
para que los sistemas homogéneos tengan infmitas soluciones:
Sea 5;, un sistema homogéneo de m ecuaciones lineales con n incógnitas:
«,,A, + = O
a,,A·, + «jjx, + - + = O
«mi·*! + = O
(5„:
Si 5;, tiene menos ecuaciones que incógnitas, o sea, si es /w<«, entonces
Sf, tiene alguna solución no nula y, por tanto, tiene infmitas soluciones
(*) Se supone que los escalares son los elementos de un cuerpo infinito, como R o
como C: no se consideran aquí los cuerpos, K, finitos (esto es. de un número finito de
elementos).
DEMOSTRACION
Aplicando el método de Gauss al sistema 5;,, siempre es posible obtener un
sistema escalonado 5, equivalente al 5^; el sistema 5, ha de ser también
homogéneo, como resulta obvio. De acuerdo con la discusión de los sistemas
escalonados que se hizo en [007] nos encontramos con que, en nuestro caso, co­
mo todos los términos independientes son nulos y es r ^ m < n (se llama r,
como siempre, al niímero de ecuaciones de 5, que tienen sus primeros miem­
bros no nulos), resulta que (segtín se dijo en [(X)7]) S^ es compatible indeter­
minado, luego también lo es 5^.
Como S^ ha resultado tener más de una solución, S^, tiene entonces alguna
solución no nula; sea ésta la (a,, ofj» ···» ^n)· Consecuentemente, también son
soluciones de S^ todas las infinitas (Acr,, Aaj, ..., Aor„) para cualquier escalar
A, como se comprueba trivialmente.
CAPÍTULO
2 Rango
(de vectores
y de matrices)
Ya hemos tenido, anteriormente, un encuenü*o con el rango, cuando hablábamos
del proceso de resolución de un sistema de ecuaciones lineales. Recuérdese que
allí, al estudiar un sistema de m ecuaciones, desechábamos todas las que eran
combinaciones lineales de otras y, a la postre, terminábamos quedándonos,
solamente, con aquellas que, en número mínimo, eran independientes unas de
otras y tales que de ellas dependían todas las rechazadas. Este número mínimo
de ecuaciones era el rango.
Vamos ahora a precisar este concepto y a profundizar en él. Esta tarea la
haremos desde los puntos de vista vectorial y matricial.
Oí VECTORES DE nCOMPONENTES
A poca Física que hayamos es­
tudiado, habremos visto que esta
ciencia está «plagada» de vecto­
res: las fuerzas, las velocidades,
los campos eléctricos, etc. La
cosa no fue siempre así; los vec­
tores entraron en la Física con
no poca resistencia por parte de
muchos, incluso de gentes emi­
nentes. A este respecto, bueno es
recordar que el gran físico Lord
Kelvin llegó a decir que «los
vectores nunca han tenido la me­
nor utilidad para nadie».
Mas adelante, cuando sea preciso, hablaremos de los espacios vectoriales
abstractos con toda la generalidad que nos sea necesaria. Por el momento no
nos hace falta tanto; sólo hablaremos aquí de los «vectores de n componen­
tes», situados ya en el terreno de lo abstracto, pero no muy lejos de los
vectores elementales que, de seguro, hemos venido utilizando en nuesü*os
estudios anteriores. Hablar aquí de los «vectores de n componentes» nos ha
de ayudar, en su momento, a llegar sosegadamente al concepto de espacio
vectorial.
Todos conocemos ya los vectores geométricos (segmentos orientados del
espacio) y sabemos que, recurriendo a las coordenadas, se pueden identificar
con las lemas de números reales, o sea, con los vectores de tres componentes
reales. Los vectores de n componentes están ya haciéndonos falta, hay que
hablar de ellos sin demora. Nótese, a este respecto, que en los apartados
anteriores ya se ha recurrido tímidamente a ellos cuando se echó mano de
objetos como el x = Xj, ..., jc„), que nos sirvió para representar a todos y
cada uno de los elementos de la sucesión x^, jCj, ..., x„.
Abundando en la conveniencia de estudiar aquí los vectores de n compo­
nentes y no otros más generales, que se aplazan para más adelante, hay que
argüir otra razón de importancia: Las propiedades de los vectores de n compo­
nentes, que nos va a costar muy poco comprobar, se tomarán como punto de
partida para definir vectores en general. Conocer dichas propiedades nos va a
pemutir entender las razones por las que los vectores abstractos se definen dcl
modo que se hace y no de otra manera.
22
ORES Y DE MATRICES) 2 3
2.1. E l. E S P A C IO V E C T O R IA L A'
L a s s i g u i e n t e s d e f i n i c i o n e s g e n e r a l i z a n , d e n u m e r a n a t u r a l y o b v i a , a la s n o ­
c i o n e s d e v e c t o r e s d e 2 y d e 3 c o m p o n e n t e s ( q u e n o s s o n c o n o c i d a s ) a s í c o m o
líLs d e s u s u m a y d e p r o d u c t o p o r u n e s c a h u -. C o n t o d o e l l o s e o b t i e n e u n a
e s t r u c t u r a a l g e b r a i c a q u e , s e g ú n s e v e r á m á s a d e l a n t e , n o e s o t r a q u e la d e
e s p a c i o v e c tí> ria l d e d i m e n s i ó n n .
ÍOIIJ
D E F IN IC IO N
D a d o s u n n ú m e r o n a t u r a l n ( l i j o ) y u n c u e r p o /w ( e n p a r t i c u l a r AT = IR o
A' = C ) , a c u y o s e l e m e n t o s l l a m a r e m o s e s c a l a r e s , s e l l a m a n « v e c t o r e s d e
n c o m p o n e n t e s » d e l c u e r p o K ( e n p a r t i c u l a r , r e a l e s o c o m p l e j a s ) a lo s
e l e m e n t o s q u e s e e s p e c i f i c a n e n I e n t r e l a s q u e h a y e s t a b l e c i d a s l a s d o s
o p e r a c i o n e s q u e s e d e t a l l a n e n II:
II.
L S e l l a m a n v e c t o r e s d e n c o m p o n e n t e s d e l c u e r p o K a l a s s u c e s i o n e s
o s i s t e m a s o r d e n a d o s d e n e s c a l a r e s d e e s d e c ir * a l o s e l e m e n t o s
d e I C , E s t o s v e c t o r e s s o n , p u e s , l o s o b j e t o s :
d o n d e
a « ( li„ «2,
w ,, U j.......... u„ s o n e s c a l a r e s ( d e l c u e r p o K )
M, s e l l a m a c o m p o n e n t e / - é s i m a d e ii
t i e t i c n i g u a l e s s u s r e s p e c t i v a s c o m p o n e n t e s ; e s t o e s , s i p a r a
1 = 1 , 2 , //.
S e l l a m a s u m a ü + D, ú c d o s v e c t o r e s ü y 0 , y s e l l a m a p r o d u c t o Am,
d o n d e Á e s u n e s c a l a r , a l o s s i g u i e n t e s v e c t o r e s :
i7 = (li,, U2.
.
.
.
.
.
.
.
.
.
.
. ¡O
0 = (v^, Ü2....... v j
14^(14^, u„)
A e s u n e s c a l a r
— ^ Aw = ( A w ,, A « 2 ..........Aw „)
E J E M P L O
A s í , p a r a l o s s i g u i e n t e s v e c t o r e s d e 5 c o m p o n e n t e s :
i7 = ( 3 , - 2 , O, 2 , 4 ) ; Í T = ( 2 , 1, - I , 2 , 3 ) ; h > = (O , 7 . - 3 , 2 , 3 )
24 Alg eb r a lineal
los vectores ü + O
, ü — O
, —2w y 2m—3<f+ tv son los:
« + 0 = (5, - I , - I , 4, 7)
ü - 0 = (l, - 3 . i, 0. I)
- 2 w = (0, - 1 4 . 6. - 4 . - 6 )
2m- 3 í + = (0. 0. 0. 0. 0)
Supongamos que, en una empre-
sa, las citas se comunican dando
un vector (a, 6, c), donde a es la
hora, b es el día y c es el mes.
Así (12. 24, 04) es una cita para
las 12 del día 24 de abril. Si
alguien se equivoca en cl orden
y comunica que lu cita cs (04,
24, 12), cl citado deberá acudir
a las 4 de la madrugada dcl día
dc nochebuena.
OBSERVACIONES
1. Un vector de n componentes no es un conjunto de /i escalares, sino un
elemento de A
T
*. Si las n componentes de un vector se colocan en distinto
orden, ya no encaman al mismo vector; éste pasa a ser otro.
2. Es co.stumbre denotar a los vectores de distinto modo que a los e.scalares;
para distinguir a aquéllos se suele poner una tilde o una flechita .sobre la
letra que los simboliza o, también, escribir ésta con letra negrita. Ello, que
suele resultar útil, sobre todo al principio, no es algo necesario; es más,
cuando se tiene bastante hábito en el manejo de vectores y escalares, puede
llegar a ser incómodo y tedioso verse en la obligación de escribir las
referidas tildes.
3. Se suele decir que el vector Áü cs proporcional al vector ü y que Á es la
constante de proporcionalidad.
4. Si a es un escalar no nulo, «dividir el vector ü por a» es multiplicar el
vector ü por el escalar i/a,
5. Vectores fila y vectores columna. Para señalar que las componentes de un
vector ü se escriben una detrás de otra, en el mismo renglón, se suele decir
que ü aparece como vector fila. Si las componentes de ü se escriben en
vertical, poniendo cada una debajo de su anterior, .se dice que ü se presenta
en forma de vector columna:
u =
Con esta notación en forma de columna, las operaciones entre vectores se
presentarán en la siguiente forma:
« i '
O í7 =
«2
:
W
l u, + y, U| Aw,“
"2 + =
^2 + t^2
:
; Á
"2
=
Awj
J*n, U '· 1
Q PROPIEDADES DE LAS OPERACIONES
CON VECTORES
Para los vectores de n componentes y en relación con la suma y el producto
por un escalar, se verifica:
DRES Y DE MATRICES) 25
t012] Si ¿4, 0 y w son vectores de n componentes (n escalares de un cuerpo K;
en particular, reales o complejos) y si A y /x son dos escalares, entonces:
1.
2.
3.
4.
5.
6.
7.
8.
(w + ü) + vv= w+ (i; + vv)
w+ iJ=t5-f-w
¿
4+ ó = ü, donde ó = (O, O, 0) se llama vector nulo
Para cada w. existe un vector —w tal que w+ (-« ) = ¿?;
Si w= (Wp Uj, u„), entonces -w = (-w ,, ···» “ ^n)
Al vector - ü se le llama opuesto del ü.
A(zJ + íO = Aw + A
íT
(A + fx)ü = ü + fiü
KijjLÜ) = (A/i)/7
lw = «
а) O ü -o y A¿; = o
б ) Áü = ó => [A = O o M= ó]
c) (-A)w = A(-í7)=-(A«)
Obsérvese que las últimas propiedades se han separado de las primeras con
una raya horizontal; con ello se quiere indicar que, cuando se definan los
espacios vectoriales abstractos, las ocho primeras propiedades serán las que
caractericen a los vectores y las tres últimas van a ser consecuencias de
aquéllas.
COMPROBACION
Las anteriores propiedades se comprueban trivialmente; hagámoslo, como ejer­
cicio, paradosde ellas (la 5 y la b)
•Llamandow= (w,, W
j» ···» y ^ = (*^p ···»*
^n
)» propiedad 5 se tiene:
Á(Ü^l·Ü) = A[(m,, M
j, u„) + (ü,, ^2, v„)] =
= A(w, + üp W
j + ···. “« + O =
= [A(w, + y,), A(w2+ ^2 )* -MA(w„ + y„)l =
= (Aw, + APj, ÁU2 + Awj, ·..»Aw„ + Áv„) =
= (Aw„ Awj, AwJ + (Ai;„ ÁVj, ...» AuJ = Áü + ÁC
• La propiedad ¿>), en lugar de comprobarla directamente, que no sería difícil,
vamos a obtenerla como consecuencia de las primeras propiedades. Nótese
que esta propiedad se puede enunciar diciendo que: de ser Aw = ó y A ^ O,
entonces se verifica que w= á Así ocurre, ya que por ser A O existe A’ *
y, por tanto (multiplicando por  " ‘):
Áü = d A-*'(Aw) = A-*ó (A-'A)m= J lM= d ü = d
Algebra lineai
DEPENDENCIA E INDEPENDENCIA IJNEAL
Vamos ahora a concretar una idea c|ue ya hemos manejado anteriormente y
que, en lo que sigue, va a seguir siendo enormemente frúctifera; n concepto dé
«vector que depende linealmente de oü-os»
^ COMBINACIONES LINEALES;
DEPENDENCIA LINEAL
[013J Se dice que un vector v es una combinación lineal de los vectores w,, Oj,
...» ü,, O que 0 depende linealmente de ellos si, paia algunos escalares x,,
jCj, ..., JC
;,, se verifica:
V= jc,5, + JC
2 W
2 + ·" + x^úf,
La dependencia lineal es transitiva: si D depende linealmente de unos
vectores y cada uno de éstos depende linealmente de otros, entonces í
depende linealmente de los últimos.
Se dice que un sistema (o conjunto) de vectores 5 = {i;,, ..., 0^] es un
sistema ligado o linealmente dependiente si se verifíca una de las siguien­
tes condiciones (1) o (II), que son equivalentes entre sí:
(I) Alguno de los vectores de S depende linealmente de los demás.
(II) Para algunos escalares A,, A2, ..., A^ que no son todos nulos es:
A,i;| +A202 + - +A y = J
DEMOSTRACIÓN
I. Comprobemos en primer lugar la transitividad de la dependencia lineal. Se
supone que v depende linealmente de los w„ .......ü^, y que cada uno de
estos a^ depende linealmente de los esto es, para ciertos
escalares A, y se verifica que:
De aquí se infiere que:
donde se hu Humado
h
«, = X
Resulta, pues, que ü depende linealmente de los Wj, según había que
comprobar.
2. También debemos comprobar que las condiciones 1 y 1
1 son equivalentes;
eslo es, que 1 => II y que 1
1 => 1. Así ocurre, en efecto:
I => II La hipótesis es, ahora, que alguno de los v¡ depende linealmenle
de los demás; vamos a suponer que dicho vector es el 0, (de no
ser así, cambiamos la numeración para que lo sea), es decir, que
para algunos escalares A2. ...» A
^, es:
y, = A,Ü2 + A
3¿J3 + ... + A A
Pasando íJ, al segundo miembro y llamando A, = - I , resulta que
ó = A,ü,-f A2ÍJ2+ - +A,,0^
luego se verifica la condición II, como había que probar, ya que
los A,. A2. .... Áf, no son todos nulos por ser A, = - 1 # 0.
II => I La hipótesis es ahora que A,tJ, + ÁjVj + *
*
*+ = ó para algunos
escalares Á¡ no todos nulos. Podemos, pues, suponer que es A, # O
(de no ser así, cambiando la numeración se consigue que lo sea),
lo que nos permite poner:
■RICES) 27
y .=
A
iJ,+ ■
{-'é
es decir, uno de los vectores de S (el tJ,) depende linealmente de
los demás, esto es, se verifica la condición I.
EJEMPLOS
1. El vector nulo. ó. es combinación lineal de cualesquiera vectores w,, W
j, ...,
üf,, ya que
ó = Ow, + 0Ü2 + ·· + O
M
;,
Por tanto si ó es uno de los vectores de un sistema 5, entonces S es
linealmenle dependiente.
2. Sean m,, W
j. üy y € los siguientes vectores de 4 componentes:
«, = (2, - 1 , 5, 1)
fÍ2= ( - L 3, - 2 , 0) í?= (l, - 8, I, - I )
W
3= (3, 1, 8, 2)
Algebra lineal
El vector ü depende linealmente de los vcctores üj y W
j, ya que:
I m , - 2 w2 - IÙ3
Nótese que» en este caso, € también puede expresarse de otros modos como
combinación lineal de los 5,» «2 y ^3»y^
íJ= 3tt, - íÍ2~ y i; = -w, - 3^2 + O
W
3
Señalemos» de paso» que la última igualdad nos permite afirmar que Oes
una combinación lineal de los w, y (solamente).
3. Sea S = {íí» í» c) el sistema formado por los siguientes vectores
d= (l, 4,-2) , í=(4, 1,7) y c = (2, -1, 5)
Este sistema 5 es un sistema ligado ya que 2a - 3b + 5c = ó. Nótese que,
para cualesquiera que sean los vectores ¿f y è (de tres componentes), el
sistema 5' = ¡a» b, c, d, é] también es ligado» ya que
2 ó - 3 ^ + 5 c + 0 j+ 0 # = ó
PROBLEMA
Pruébese que, si á,» áj. ···» son p vectores de n componentes y si es /? > n,
entonces S = {¿f„ ...» á^,] es un sistema ligado.
RESOLUCIÓN
Denotemos a los vectores dados, áy, del siguiente modo:
...... flny) para y = 1»2........p
Hay que comprobar que existen unos ciertos escalares jc„ jCj, ...» x no todos
nulos y tales que ^
xfiy + x^á^ + - + Xpá^ = ó
es decir, de manera que:
-^l(fl|I» ^21*—
»^nl) ^22» —» ^*«2) ----
^np) = (0. O, ...» 0)
Esta igualdad vectorial equivale a las n ecuaciones (escalares) que resultan de !
i
.’
i
■
I
(DE VECTORES Y DE MATRICES) 29
igualar a cero cada una de las componentes de la suma dcl prinicr inicinhro,
esto es, al sistema;
10141
+ ··· + = O
+ ··· +
|W|
Como H es un sislema homogéneo que liene nuiyor número de incógnitas (p)
que de ecuaciones (n), según ya sabemos (véase (OlOl) dicho sislema tiene
alguna solución no nula, que es lo que había que comprtibiu^.
□ INDEPENDENCIA LINEAL
Si unos veciorcs no formiin un sislema ligado, diremos que son linealmenle
independientes; más precisamente:
Se dice que un sislema (o conjunto) dc vectores 5 = {íí,. í· » tin
sistema Ubre o lineabnente independiente si se verifica una dc las siguien*
tes condiciones (A) o {B que son equivalentes entre sí:
(A) El sistema S no cs linealmenle dependiente, cs decir, ninguno de
los vectores de 5 depende linealmente de los demás.
(fi) La única combinación lineal dc vectores de S que es nula es la que
tiene todos sus coeficientes nulos; esto es:
A,íJ| + + - + =
(A,. Aj, .... A^ escalares).
A| —Aj —· A, = 0
COMPROBACIÓN
Si comparamos las condiciones (A) y (fi) con las (I) y (II) de la dependencia
lineal (véase [013]). nos encontramos con que (/) es la negación de (1) y (fi)
cs la negación dc (II). Como (I) y (II) son equivalentes, según ya se demosü-ó.
concluimos de ello que umibién son equivalentes sus negaciones (/) y (fi).
EJEMPLO
Los vectores a, b y c (de 5 componentes):
ó = (3. 1. 7 ,- 5 . 4) . ^ = (0 . 2, 4, -3 , -2 ) y c = (O, 0. - 6, 5. l)
ÁLGEBRA UNEAL
forman un sistema libre, ya que la relación aü fib + ye = ó sólo se verifica
para a —/3 = y = 0. Así ocurre, en efecto, ya que la citada relación equivale
al sistema:
3 a = O
a + 2/S = 0
7 a + 4)3 - 6 y = O
- 5 a - 3 / í + 5 r = 0
4 a - 2)0 + y = O
que sólo tiene (obviamente)
la solución a = O, yS = O, y = 0.
RANGO DE UN SISTEMA DE VECTORES
Dado un conjunto de vectores no nulos, estamos interesados en estudiar si hay
algunos de ellos lales que satisfagan a los dos requerimientos siguientes: 1) que
formen un sistema independiente; y 2) que los dem ás vectores dados dependan
linealmente de ellos. Vamos a probar que lales sistemas existen y que todos
ellos tienen el mismo número de vectores, que se llama rango del conjunto de
vectores dado.
B
RANGO. OPERACIONES ELEMENTALES
TEOREMA (EXISTENCIA DEL RANGO)
ÍÜ15J Para cualquiera que sea el sistema 5= lí5|, V
j, ü
p
] de p vectores, no
todos nulos, se verifica que;
(I) Hay algún sistema 5o de vectores de S tal que: 1) es linealmente
independiente; y 2) todos los demás vectores de Sdependen lineal­
mente de los de
(II) Todos los sistemas S
^
, de vectores de S
, que satisfacen a los reque­
rimientos 1) y 2) tienen el mismo número de vectores.
Para cada sistema 5= {t?,, C , , D„ de vectores no nulos, existe pues un
número r tal que: a) hay algún sistema formado por r vectores de Sque
es linealmente independiente; y b) todo sistema formado por más de r
vectores de Ses linealmente dependiente. Este número r es. entonces, el
mayor número de vectores linealmente independientes que hay en 5; a él
se le llama rango de 5 y se pone:
r = rang S
31
DEMOSTRACIÓN
Hemos de comprobar la veracidad de las dos proposiciones (I) y (II). Las demás
afirmaciones del enunciado son consecuencias obvias de (I) y (II).
(I) Esla proposición la comprobaremos por inducción sobre p esto es, veri­
ficaremos que es cierta para p -  y probaremos que, de ser cierta para
p - m , entonces lambién lo es para = I. Esta proposición (I) es
evidentemente cierta para /? = I ya que, como ahora es 5 = {O,) con
tJi =
5
¿ ó. la proposición se satisface obviamente para = 5. Suponiendo
ahora que la proposición (I) es cierta para los sistemas S que tengan p = m
vectores, debemos comprobar que también lo es si S tiene p = m + I vec­
tores. Consideremos, para ello, los dos ca.sos que pueden presentarse (los
m f 1 vectores son independientes o son dependientes). Si los m + I
vectores de S son independientes, entonces la propiedad se verifica para
5(, = 5. Si los m + I vectores de S son linealmente dependientes, entonces
uno de ellos depende linealmente de los demás; llamemos a aquel
con lo que los demás son iJ,, Dj, ..., En este ca.so, como el sistema
S' = (yp ^2» · ·» vectores, para él existe el sistema que
asegura la proposición (I); esta proposición (I) se verifica, entonces, (para
S) si se toma 5o = ya que este es independiente y todos los vectores
de S (incluyendo el ÍJ„+,) dependen, obviamente, de los de
(II) Procederemos por reducción al absurdo; esto es, partiendo de que la
proposición es falsa, encontraremos una contradicción. Supongamos,
pues, que hubiera dos sistemas que llamaremos y Sq que cumplie­
ran lo exigido en (I) y tuvieran distinto número de vectores. Si denotamos
So = (t?|. ^2. y So = (»V,, M
>
2
. ..., vi>j
lo que se ha admitido es que r y s son distintos; supongamos, por
ejemplo, que es r< s. Pues bien, vamos a comprobar que por verificarse
que es r < 5 y que para 5/, se cumple lo exigido en (I), el sistema
S¡/ no puede ser linealmente independiente; esta contradicción conduce
a la veracidad de (II). Vamos, pues, a comprobar que existen algunos
escalares jc,, jCj. ···. Xs todos nulos y tales que
s
XyWy + 0
:2^2 + - + ^ » O sea E x¡w¡ = o [1]
/-I
Como todos los vectores de 5, y en particular los de Sq dependen
linealmente de los vectores de resuha que para unos ciertos escalares
U
j¡ se verifica que
r
ajfij (para » = 1. 2, ..., s)
Recurriendo a estas igualdades, la relación [I] puede expresarse del si­
guiente modo:
6 = ' L x¡w,= 'L x, i a¡,C, = I s xflO = Z I xfl C = i I í
<-i V -' 7 < -u -i y-i V -i 7
Algebra lineal
esto es:
s 
I O u X ,
/ » ' / ' 
?
, + I Ü 2 ,X t í>
2+ - I «
„
J
C
,
v-l y v-l ^ V-l /
0 = 0 (21
Como {tJ„ 0 } , P,) es un sistema linealmente independiente, la relación
[2] se verifica si y sólo si son nulos todos los escalares que figuran en
ella; esto es, si:
I
i-l
[3
J
La relación [3] es un sistema lineal homogéneo de r ecuaciones con las s
incógnitas x,, x,. Como se ha supuesto que es r < s , resulta que el
sistema [3] tiene alguna solución no nula (según se probó en [010]). Como
[31 cs equivalente a [1], nos encontramos con que [1] se verifica para
algunos escalares x,, x^,.... x^ no todos nulos» como queríamos comprobar.
OBSERVACIÓN
Para hallar el rango de un sistema de vectores habrá que ir desechando aquellos
vcctores que resulten ser combinación lineal de los que van quedando, hasta
que éstos formen un sistema independiente; el número de vectores de éste es
el rango buscado. Conviene proceder, para ello, de una manera metódica, como
por ejemplo:
Sea 5 un sistema, de p vcctores no todos nulos, del que se quiere hallar el
rango. Tomemos un vector no nulo de 5; sea éste el iJi. Si todos los vectores
de S dependen linealmente de (?,. entonces el rango es 1. Si en 5 hay algún
vector que no dependa linealmente de O,, al que llamaremos y los demás
vectores dependen de los tJ, y üj, entonces el rango de S cs 2. Si en S hay un
vector, que llamaremos Vy que no dcf)ende linealmente de los y d jy todos
los demás vectores dependen linealmente de 0,, D
2 y Vy entonces el rango de
5 es 3. Prosiguiendo de este modo, se liega a cnconü*ar (a lo más es p etapas)
el rango de 5.
EJERCICIO
Sean S={iJ,, üp] y = í?2» ·*·* sistemas de vectores.
Sabiendo que S cs un sistema independiente y que los vectores de 5' dependen
linealmente de los de 5, comprobar que rang 5' ^ p.
RESOLUCIÓN
El sistema 5U 5' = {m,...... i?„ ..., (?„} tiene rango /?, ya que sus p primeros
vcctores son linealmente independientes y todos los restantes dependen lineal-
mcnte de ellos. El rango de S' no puede ser mayor que p, pues si lo fuese,
habría más de p vectores de S  y por tanto, de S U S  que serían linealmente
independientes, lo que cs falso ya que el rango de cs p.
GO (DE VECTORES Y DE MATRICES) 33
EJEMPLO
Sea 5 = {J, h, c, d] el sistema formado por los vectores:
J = (l, 0. 0. O
, 1)
í=((), 2. 0. 2, 0)
c = (3, 0. 3, O, 3)
J = ( l . 2, 3. 2, I)
Los vectores á, b y c forman un sistema independiente, ya que la relación
a ü -^l^b + yc —d equivale a:
a + 3y = 0 ; 2)3 = 0 ; 3^ = 0
cuya única solución es la a = yS= y = 0. Por otra parte, d es una combinación
lineal de las J, y c, ya que d - - 2 J + f *f c. Por tanto, el rango de S es
rang 5 = 3.
^ RANGO Y OPERACIONES ELEMENTALES
Igual que ocurría con los sistemas de ecuaciones lineales, también aquí las
operaciones elementales juegan un papel importante. Allí (véase [004]), al
realizar operaciones elementales en un sistema de ecuaciones lineales, no va­
riaban las soluciones de éste. Aquí vamos a comprobar que, al realizar opera­
ciones elementales en un sistema de vectores, no varía su rango.
[016]
LAS OPERACIONES
ELEMENTALES
un sistema de vectores)
j. intercambio, de los vec­
tores i y j ésimos.
A/j: Multiplicar por A Oel
vector í-ésimo.
/+ Ay]: sumar, al vector
i-ésimo, A por el
vector 7-ésimo.
Propiedad fundamental del rango: el rango de un sistema de vectores no
se altera si se realizan en él cualesquiera operaciones elementales. Se
llaman operaciones elementales a las siguientes manipulaciones:
1. Intercambiar el orden con el que figuran los vectores en el sistema.
2. Multiplicar uno de los vectores por cualquier escalar no nulo.
3. Sumarle, a uno de los vectores, otro cualquiera de ellos.
4. Aplicar, reiteradamente, cualesquiera de las operaciones anteriores
(en particular, sumarle, a un vector, cualquier combinación lineal de
los demás).
NOTA: Hay quienes consideran tumbién como operación elemental (cosa que no hare­
mos no.solros) a la siguiente: suprimir un vector que sea combinación lineal de otros vectores
del sistema.
COMPROBACIÓN
La conservación del rango a! realizar operaciones elementales del tipo 1 es
evidente; para la operación 4, como es consecuencia de las tres anteriores, no
hay nada que demostrar. Sólo habrá que comprobar la conservación del rango
frente a las operaciones 2 y 3. Estas dos propiedades podemos englobarlas en
Algebra uneal
una sola quc diga: cl rungo de un sL*vienìa 5 —(m» u‘. cs igual al del
sistema S* = t h·. ...), donde u = a« + para a ^ 0 (sì es ^ = 0, se
obtiene la operación 2; si « = /?== K se obtiene la operación 3). P;u*a demostrar
esto, recurnrcmos al rango r del sistema U w
*. ...I y distinguiremos dos
casos:
a) El vector ù depende linealmente de En este supuesto, es nmg 5 * r.
Como cs evidente que. ahi>ra. u = aü + fiC también depende linealnicme
de 5,^ rcNulüi que rang 5' = r. Por tanto, S y 5' tienen igual ningo.
b) El vector ü no depende linealmente de iV En este supuesto, es
rang S = r + I. AhiKa. ü* tampivo depende linealmente de pues si m
no fuese, como es w= (l a ) u - { f i a)C, resultaría que ít dependería li-
nealnieme de cuando se ha supuesto lo contrario. Resulta de ello
que S' tiene rango r ^ 1. luego S y 5' tienen, también en este caso, igual
rango.
C
A
I.CI1.«O
K
I.R
A
N
ÍÍOl)Kl’NS
IS
'IK
M
A
l)KK
í'IO
R
K
S
Para hallar el rango Je un sisiema .V
. cs aconsejable pn>ceder sisteniáticamentc,
aplicando adecuadas operaciones elenurntales. hasta obtener un sistema en el
que halUr el rango sea algt> clenientaL El rango de 5. por ser igual al de este
último, «erá ya contKido.
J P
R
()l‘()S
IC
I()N
10171 DfcJoS —(i). í . .... sistema formado por los vectores de n componentes:
J = <
1,. .... tf.) r«.
.... t>.) h, .·· ^
sea =
= c,. O c, ..
Rcali¿ar operaciones elementales en 5 equivale a hacer las operaciones
en las filas de la matriz K Utilizando como pivotes (véase [()09J) a ciertos
elementos de M, elegidos de modo idóneo para realizar adecuada.s ope·
ncHHKs elementales en las filas de M. siempre cs posible transformar 5
en un sistema equivalente 5, que sea escalonado (véase [OOóJ). esto es.
tal qiK cada vector (a partir del 2.®
) comience con una sucesión de ceros
que liene algún cero más (uno como mínimo) que la fila anterior. El rango
de que cs igual al de 5. cs el número de vectores no nulos que contiene.
TRICES) 35
COMPROBACIÓN
Respecto de cómo conseguir el sistema escalonado 5, del que se habla en el
enunciado, no hay más que seguir el camino, ya conocido, para transformar M
en una matriz escalonada aplicando operaciones elementales a sus filas (véase,
en [0091, lo dicho al describir el método de Gauss).
Sólo tenemos, pues, que compmbar que el rango de es igual al número r
de vectores no nulos que contiene. Comencemos recordando que es de la forma
S,= (m,, w,» — "r. Ò......ó
donde la primera componente no nula dc cada m
,, a la que denotaremos por
ocupa algún lugar más a la derecha que la dc Nótese que lo que debemos
comprobar es que M
j. ..., son lineaimente independientes. Así ocurre, en
efecto, ya que la relación a,M, + + ♦
·· + « À = ^ (donde los a¡ son esca­
lares) equivale al sistema
a,«,i = 0
ar,» + « 2
*^2
1 “ ^
(con los ♦ .se denotan a las restantes componentes de los vectores m,) y este
sistema sólo liene. obviamente, la solución nula a, = aj = ··· = a, = 0.
EJEMPLO
Siguiendo el j^rocedimiento antes descrito, calculemos el rango del sistema
S = |J, c, dy è]y siendo:
J = (l, 3, 2, -1 , I, 4)
* = ( 1 . 4 , 1 , 1 ,2 . 3)
c = (2, 5, 5. 1. 3. 7)
J = ( 2 , 4. 6. - I . 2. 8)
f = (3, 8, 7, 0 , 4 , 1 1 )
Realizando sucesivas operaciones elementales en las filas de la matriz cuyos
vectores fila son los a, b, c, d, é, se obtiene;
— l 3 2 -1 1 4
à 0 1 - l 2 l - 1
c* = c - 2 á — 0 “ l l 3 l - l
d ' = d - 2 á — 0 - 2 2 1 0 0
è ' = è - 3 à — 0 -1 l 3 1 - l
(♦) Los vectores ú, son del tipo ü¡« (O, ..., 0, ii„, ♦, ♦); los * son escalares cualesquiera.
— 1 3 2 - l 1 4
b - ^ b · — 0 1 - 1 2 1 - l
c" = c '+ b' 0 0 0 5 2 - 2
d*' = <?' + 2b' — 0 0 0 5 2 - 2
0 0 0 0 0 0
— l 3 2 -1 l 4
b '" = b " — 0 1 - l 2 l - l
— 0 0 0 5 2 - 2
— 0 0 0 0 0 0
- 0 0 0 0 0 0
El rango de este último sistema es 3, pues b*" y c''' son independien­
te s y J '" = ò y é'"' = ó; por tanto, el rango del sistema dado, 5, es 3.
Una matriz que tenga m filas y n columnas puede concebirse como un sistema
(sucesión) de m vectores (vectores fila) de n componentes cada uno de ellos;
la maü-iz también es un sistema (sucesión) de n vectores (vectores columna)
de m componentes cada uno. Concretando, para la matriz
« I I «12 - - « In
«21 ^22 ··' ^2; - «2n
> =
| « / I « ,2 ^ « y - «in
« « 2 · · ’ %
l(w son escalares (de un cuerpo A
T
; en particular e R o e C), para
1=1,2, m y j = l, 2, ...» n. Los vectores Illa y los vectores columna son:
(vector fila i-ésima)—
^(a,,, a¡2 , «,„)
)RES Y DE MATRICES) 37
(para cada uno de los valores / = 1, 2......m se obtiene un vector fila de A, que
tiene n componentes)
(vector columna y-ésima) —
♦
(para cada uno de los valores y = I, 2, n se obtiene un vector columna, de
A, que tiene m componentes).
Pues bien, los vectores fila, de A, tienen el mismo rango que los vectores
columna; más exactamente:
□ TEOREMA DEL RANGO
1018] Para cualquiera que sea la matriz A = la^], de m filas y n columnas (esto
es, de tamaño m x /i), se verifica que el rango del sistema de sus m
vectores fila (que se llama rango de filas de A) es igual al rango del
sistema de sus n vectores columna (que se llama rango de columnas de
A). A cualquiera de estos dos rangos, iguales entre sí, se le llama rango
de la matriz A.
DEMOSTRACION
Llamamos r y r' a los rangos de filas y de columnas de la matriz A. Vamos a
comprobar que es r' ^ r y r', de lo que se infiere que r y r son iguales.
Solamente comprobaremos que es r ' ^ r , pues la relación r ^ r ' se pruebe de
modo totalmente análogo.
Si el rango de filas de A es r, entonces hay r filas de A que son linealmente
independientes y las restantes filas dependen de ellas. Cambiando el orden de
las filas, si fuera necesario, se puede suponer que las r primeras filas de A son
independientes. Llamando / al_vector fila de lugar /, se sabe, pues, que para
/ = r + l, r + 2, ..., m, la fila f es combinación lineal de las esto
es, para ciertos escalares se verifica que
fi = « ,i/i ^aJi *'· ^irfr / = r + 1, r + 2, ..., m)
Esto equivale a poner que las componentes del vector del primer miembro son,
respectivamente, iguales a las de la suma del segundo miembro, es decir, a:
r
+ - + «iAn = I »0,%
Algebra lineal
(para / = r + I, r + 2......m y ; = I, 2, .... n). Por tanto, la columna j-ésima de
A, que llamiu^emos c^. se puede poner en la forma:
c¡ —(fl|y. Oy, .... fl,y, Or+iy. ···.
^ r r '
= "l/. fljj......O
rj, ^ ...... ^ «m/.“»
./
^ /í" I 1
= rt,/l. O, .... O, ,, «„,,) +
+ 1.O, ar,+22..............."m2) +
+ «r/0, 0...... 1, «r+tr» ·*- 0 =
ÍI,/, + + - + VV
Resulta entonces que todos los vectores columnas de A dependen linealmente
de los r vectores que intervienen en esta última suma (que los hemos llamado
t?2»···» ^r) y» por rango r* de columnas de A no puede ser mayor que
el número total r de vectores para 1, 2, r, (véase el ejercicio que
sigue a [0151, en la página 32); esto es, se verifica que r' ^ r, como se quería
comprobar.
1 CALCULO DEL RANGO DE UNA MATRIZ
De lo dicho hasta ahora, primero al relacionar el rango de un sistema de
vectores con las operaciones elementales (véase [016]), después cuando se
sistematizó el cálculo del rango de un sistema de vectores (véase [017]) y,
también, al defmir los rangos de filas y de columnas de una matriz, que
resultaron ser iguales, de lodo ello, se desprenden las siguientes conclusiones:
[019] Para cualquiera que sea la matriz A = [a^], de m filas y n columnas, se
verifica que:
2
.
"
El rango de filas (o de columnas) de A no se altera si se realizan en
las filas (o las columnas) de A cualesquiera operaciones elementales.
Utilizando como pivote (véase [009]) a ciertos elementos de A,
elegidos de modo idóneo para realizar adecuadas operaciones ele­
mentales en las filas (o las columnas) de A, siempre es posible
transformar A en una matriz escalonada A^, El rango de filas (o de
columnas) de la matriz E, que es igual al de /,,, es el número de
filas (o de columnas) no nulas que contiene.
^CES) 39
EJEMPLO
Como ejemplo, de aplicación inmediata del método descrito, calculemos los
rangos de filas y de columnas de la siguiente matriz A, que deberán resultamos
¡guales:
1
2
“ 1
3
3
5
3
- 4
- 2
1
2
- I
1
- 3
- 3
2
2
5
- 3
9
Para el rango de filas, al realizar las operaciones elementales, en filas, que
se indican a continuación, se llega a:
i r = 1.“ — 1 3 --2 1 2
2.·' = 2.· - 2 · i.· — 0 --1 5 - 5 1
3r = 3.*-f 1.· 0 6 0 - 2 -1
4.·' = 4.· ~ 3 · 1.· — 0 - 13 5 - 1 3
i r ' = 1.·' — ’ l 3 - 2 1 2
2 ' = 2 — 0 -1 5 - 5 1
3.·" = 3.*'+ 6 · 2.*' — 0 0 30 - 3 2 5
4.·” = 4.* '- 13- I · ' — 0 0 - 6 0 64 --10
— 'l 3 - 2 1 2'
) Mtrt — 2 — 0 -1 5 - 5 1
— 0 0 30 - 3 2 5
^r^' = 4r ' + 2 - 3r ‘
' — 0 0 0 0 0
= >4'
= A ' - = A ^
Como la matriz escalonada A^ tiene tres filas no nulas, resulta que el rango
de filas de A, y, por tanto de A, es 3,
Para el rango de columnas, al realizar las operaciones elementales, en
columnas, que se indican a continuación, se obtiene:
i r = L·
2 . · '= 2 . · - 3 · 1.·
3.*' =^3.· + 2 · 2.·
4 . · '= 4 . · - 1.·
5.*' = 5.· - 2 · 2.·
1
0 0 0 0
2 - 1 5 - 5 1
-1 6 0 - 2 - 1
3 - 1 3 5 - 1 3
i r
9 ·'' : i r
3.*'' = 3.-' + 5 · l y
r 4 . - = 4 r - 5 * 2 . · '
3 *" = 5.“'+ 2.·'
-
l 0 0 0 0“
2 - l 0 0 0
_
_l 6 30 - 3 2 5
3 - 1 3 - 60 - 6 4 - 1 0 _
7 u/r/ _ I O
M
- a//# = 2
a t f
- :30
“ 3 0 -4 .
5.“'" = :
-
1 0 0 0 0'
2 --l 0 0 0
-l 6 1 0 0
3 - 13 --2 0 0
esia última matriz escalonada tiene tres columnas no nulas, luego su rango de
columnas, que es igual al de A, vale 3.
OBSERVACIÓN
realizar operaciones elementales se conserva
el rango debe mantenerse siempre que se
otras que sean combinaciones lineales de
no aumenta, pero puede disminuir. Así, por
A formada por tres columnas independientes,
^1
» ^2 y 'o rang A = 3; sea A' la matriz cuyas columnas son
= 2c, ~ C2~ Cy Las tres columnas de A' son
+ ci + C3= ó, luego rang A' < 3, con lo que
Según lo que venimos diciendo, al
el rango. Ello no significa que
sustituyan filas o columnas por
aquéllas; al hacer esto, el rango
ejemplo, consideremos una matriz
c¡ = - c , + c2,ci = - c , + c 3 y c i
linealmente dependientes, pues c¡
rang A' < rang A.
MATRICES EQUIVALENTES
Más adelante, cuando se habla de las matrices de las aplicaciones lineales, se
volverá sobre este concepto de equivalencia de matrices y, entonces, se le dará
un enfoque nuevo y de mayor alcance. No obstante, la estrecha relación que
existe entre el rango y la equivalencia de matrices, hace aconsejable que sea
ahora, y no más adelante, cuando se introduzca este concepto.
DRES Y DE MATRICES) 41
Í020J Dos matrices del mismo tamaño m x n (ambas con m lilas y ;i columnas)
se dicc que son matrices equivalemes si tienen el mismo rango. Para el
conjunto de las matrices m X la equivalencia es (etectivamentc) una
relación de equivalencia; es decir, es rellexiva, simétrica y transitiva. Hay
tantas Chuses de esta equivalencia como posibles valores del rango /·, los
cuales son todos los números naturales comprendidos entre r* () y
r = nu'n (m, «)» ambos inclusive.
De entre tenias las matrices m x n que tienen rango r, interesa destacar
la que hemos llamado C,. que tiene tínlos sus elementos nulos excepto
los r primeros elementos de su diagonal que valen I. Esta matriz
se llama representante canónico o matriz canónica de equivalencia de las
matrices m x n que tienen rango r.
Aplicando adecuadas o(Kracíones elementales, en tilas y en columnas,
cualquier matriz m x n de rango r se puede translomiar en
C
(*) luí diagonal de una niatri/ está formada por los elementos que iK:upan los lugares
(I. I). (2. 2). (33)» ...
COMPROHACIONES
• Es trivial comprobar que la equivalencia de matrices es reflexiva (toda matriz
tiene el mismo rango que ella misma), es simétrica (si rang A = rang B,
entonces rang B = rang A) y es transitiva (si rang A = rang B, y
rang B = rang C, entonces rang A = rang C).
• matriz tiene rango r pues sus r primeras filas (y columnas) son
linealmente independientes y todas las restantes son nulas.
• Según ya sabemos (ver ((K)9|), realizando las oportunas operaciones elemen­
tales. a una matriz m x n que tenga rango r, es posible obtener una matriz
escalonada con r filas no nulas, las cuales tienen a 1 como elemento de
cabecera, esto es. como primer elemento no nulo. Utilizando como pivotes a
estas r cabeceras y aplicando operaciones elementales en columnas, se ob­
tiene una matriz cuyos únicos elementos no nulos son dichas r cabeceras,
que valen 1. Sin más que permutar ahora, si ello fuera preciso, algunas
columnas, se obtiene ya la matriz C,,
CAPÍTULO
3 Operaciones con matrices;
matriz inversa
Es ahora momento de hablar sobre las matrices y hacerlo con algún dete­
nimiento. No se trata de contar aquí muchas cosas acerca de ellas, sino de
traer a colación algunas cuestiones que nos permitan avanzar con cierta
holgura en los próximos capítulos. Nos referimos en concreto a la suma de
matrices, al producto por un escalar, a la multiplicación de matrices, a la
matriz inversa, cuando exista, y a las principales propiedades relacionadas con
todo ello.
Poder recurrir a las matrices desde los primeros momentos, aunque ello sólo
sea como apoyo, en ejemplos y en problemas, puede sernos de inestimable
ayuda.
Detrás de todo esto de las matrices hay una idea básica: la de familia o
sistema de elementos que dependen de dos índices. Éste es el caso, por ejemplo,
del horario de salidas de los trenes de una determinada línea férrea; aquí, las
horas de salida de los trenes dependen de las siguientes «variables discretas»
o índices: i = (número del tren) y y = (número de la estación). Si llamamos
a la hora de salida del tren /-ésimo de la estación y-ésima, la tabla de los
horarios de salida será la «matriz» cuyo elemento de lugar (/, j) es h¡j. En esle
caso, como en otros muchos, los elementos h¡j (horas de salida) se representan
recurriendo a una «tabla de doble entrada» y se pone:
Número de la estación
1= 1
P / = 2
s
T
T
•s
i
1
:
i = m
7=1 7 = 2 ... i
8,05 8,25 9,00 9,40 10,05 ! 10,35
9,15 9,30 9,55 10,25 10,45 11,00
— — — — — —
— — — — —
— — — — — —
19,00 19,30 20,20 21,20 21,55 22,30
(*) También, por ejemplo. ; = l puede ser «Robledal de las cabras»; y * 2 , puede ser «Vi-
llachica del Páramo»; i = n podría ser «San Veremundo de la Vera».
( ·♦) Por ejemplo, i = 1 cs «tren expreso»; i = 2 cs un «tren rápido»; i « m cs un «tren corr«o*·
12
OPERACIONES CON MATRICES; MATRIZ INVERSA 43
a MATRICES; ÁLGEBRA DE MATRICES
Venimos recurriendo a las matrices desde las primeras páginas, pero de ellas
sólo se ha dicho, por no haber necesitado más, que son tablas rectangulares de
escalares. Es obligado, pues, dar ahora las definiciones pertinentes.
3.1, P R IM E R A S D E FIN IC IO N E S
SOBRE U DEFINICIÓN
DE MATRIZ
¿Qué se entiende por tabla rec­
tangular? ¿Qué son filas y qué
son columnas? Para salvar estas
objeciones, se puede dar la si­
guiente definición dc matriz:
Dados m, r
t e y si / y y son
/={l,2....w} yy = {1,2.....n]y
se llama matriz de tamaño m x n ,
de escalares de un cuerpo K, a
toda aplicación A: I x J - * K;
la imagen por A de un par (/, j )
se le llama elemento de lugar
(iJ) de y le representaremos
poniendo
Se llama matriz de tamaño m x n, constituida por escalares de un cuerpo
K (en particular, K = U o K - C ) , a cualquier tabla rectangular A formada
por m ·n escalares, dispuestos en m filas y n columnas. Se llama
elemento de lugar (/, j) o ij de A al escalar que está situado en la
intersección de la fila /-ésima (para /= 1, 2, m) y la columna y-ésima
(para7 = 1, 2, ..., n) si a este elemento se le llama la matriz se denota
poniendo:
«11 tí,2 - «12 ··’ « In '
A =
«21 «22 - «2.,
0 A =
«21 «22 - «2n
-"mi «„,2 - «m
2 - «mJ
Abreviadamente, también se suele escribir A —la¡j]. Cuando se quiera
señalar expresamente que la matriz A tiene tamaño m x /i, se la denotará
poniendo A^^„, Dos matrices de igual tamaño, A = {a¡^ y B = [tf¡j]y se
dicen matrices iguales si tienen respectivamente iguales los elementos
que ocupan los mismos lugares, esto es. si a¡j = b¡j para / = 1, 2, ..., m y
y = 1, 2, ..., m,
Al conjunto de las matrices de tamaño m x /i se le denota por (K),
donde K es el cuerpo de escalares, o simplemente Si m = /í, se
simplifica la notación y. en lugar de se pone
Si m = n, se dice que A es matriz cuadrada; si m ^ n, se dice que A es
rectangular. Si para i > j es a¡j = O, se dice que A es triangular superior,
si para i < j es a,y= O, se dice que A es triangular inferior; si para i ^ j
es a¡j = O, se dice que A es matriz diagonal. Se llama diagonal de A a la
sucesión a^^a^iQ^v^. Matriz escalar es una matriz diagonal que tiene
iguales todos los elementos de su diagonal. Si w = 1, se dice que A es
matriz fila: si n = l, se dice que A es matriz columna. Si A es cuadrada
y, para cualesquiera i y 7, es a¡j = aj¡ o si cs a^¡ = —aj¡ se dice, respecti­
vamente, que A es matriz simétrica o que A es matriz antisimétrica.
EJERCICIOS
Si A = [a¡jl es la matriz que se da al final de este enunciado, analícese en qué
Alg e b r a u n ea i
casos es: 1) iriangular superior; 2) triangular inferior; 3) simétrica, esto es. tal
que sus elementos y a¡¡ son iguales (para / = I, 2, 3 y y = I. 2, 3).
X + > x - z
x - y y y - ^ z
L
oc+ z - 2 z - y zj
RESOLUCIÓN
1. Han de ser a,, = = «
3
2= O, esto e s a c - y = 0, j: + z - 2 = ü y z - > ' = 0.
que se verifica parax = y = z= 1 solamente. La solución es, pues, la matriz
A, que figura al final de este ejercicio.
2. Ha de ser a,
2= «
,
3= 0
2
3= 0*®sto es + y = 0. jc - z = O e y + z = O, que
se verifica para = —
y = z, lo que conduce a las matrices /4j que figuran
al final.
Ha de ser «
1
2= 0
2
1
· «n = «3
i y <»a="3
2
· esto es, jc + >
- = x -> '. jt~z =
= jt + z ~ 2e y + z = z —y. que se verifica para y = O, z = 1 y x cualquiera;
luego las soluciones son las matrices A,:
3.
A ,=
“l 2 0“ J
C 0 oí ’jc X j c - f
0 1 2 ; ^2 — 2jc -JC 0 ; >^3- J
C 0 1
_0 0 L 2 { x -  ) 2x JC. . j c - l 1 1,
□ SUMA (DE MATRICES)
Y PRODUCTO POR UN ESCALAR
Al dar ahora, tan pronto, las definiciones de suma de matrices y de producto
de escalar por matriz, no disponemos aún de una justificación suficiente de las
mismas. Por ello, nos ha parecido oportuno presentar aquí un ejemplo en el
que se puede apreciar que las citadas definiciones van a ser provechosas:
EJEMPLO PRELIMINAR
Un ludopata adquiere 7 boletos de cada una de las loterías 1.*, 2.* y 3,*; por
cada uno de ellos paga la cantidad c,, Cj y Cy respectivamente, y obtiene, en
premios, las cantidades P{>Pi y Py· ocasión, adquiere 4 boletos y, ahora,
las cantidades anteriores pasan a ser cJ, y p¡, p^ respectivamente. El
jugador hace balance económico (para determinar, el muy iluso, cuál de las
loterías le es más propicia); los gastos y los beneficios pnxiucidos con la loteria
/-ésima son 7c/ + 4c,' y lp¡ + 4p¡, Nuestro hombre, que a pesar de tcxio C
5
metódico y ordenado, realiza sus cuentas de manera conjunta y agrupa tixlos
sus cálculos poniendo:
Pi c¡ P p 7c, + 4<·; lp^ + Ap'
<
^
2 Pl + 4 <
^í Pl = Ic^ + 4c2 Ipi + 4/>'
Sy Py, Sy P , _7cj + 4r; 7/), + 4/>;_
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf
Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf

Más contenido relacionado

Similar a Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf

Similar a Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf (20)

Notas de algebra lineal
Notas de algebra linealNotas de algebra lineal
Notas de algebra lineal
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Algebra_Lineal (3) GABRIELA GERONIMO.pdf
Algebra_Lineal (3) GABRIELA GERONIMO.pdfAlgebra_Lineal (3) GABRIELA GERONIMO.pdf
Algebra_Lineal (3) GABRIELA GERONIMO.pdf
 
Polinomio
PolinomioPolinomio
Polinomio
 
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdfHUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
HUGO_ALBERTO_RINCON_MEJIA_ALGEBRA_LINEAL.pdf
 
problemas-resueltos-de-analisis-matematico.pdf
problemas-resueltos-de-analisis-matematico.pdfproblemas-resueltos-de-analisis-matematico.pdf
problemas-resueltos-de-analisis-matematico.pdf
 
Calculo tensorial bueno
Calculo tensorial buenoCalculo tensorial bueno
Calculo tensorial bueno
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematica
 
Algebra lineal 2
Algebra lineal 2Algebra lineal 2
Algebra lineal 2
 
1321. Matemáticas básicas para el acceso a la universidad.pdf
1321. Matemáticas básicas para el acceso a la universidad.pdf1321. Matemáticas básicas para el acceso a la universidad.pdf
1321. Matemáticas básicas para el acceso a la universidad.pdf
 
Perez calculo1
Perez calculo1Perez calculo1
Perez calculo1
 
Perez calculo1
Perez calculo1Perez calculo1
Perez calculo1
 
notas de calculo
notas de calculonotas de calculo
notas de calculo
 
Perez, calculo1
Perez, calculo1Perez, calculo1
Perez, calculo1
 
Perez calculo1
Perez calculo1Perez calculo1
Perez calculo1
 
Antologia calculo ii
Antologia calculo iiAntologia calculo ii
Antologia calculo ii
 
Apuntes
ApuntesApuntes
Apuntes
 
Diseño de Experimentos.pdf
Diseño de Experimentos.pdfDiseño de Experimentos.pdf
Diseño de Experimentos.pdf
 
Diseño de Experimentos Métodos y Aplicaciones.pdf
Diseño de Experimentos Métodos y Aplicaciones.pdfDiseño de Experimentos Métodos y Aplicaciones.pdf
Diseño de Experimentos Métodos y Aplicaciones.pdf
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 

Último

Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdffrank0071
 
Tractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médulaTractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la méduladianymorales5
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALEScarlasanchez99166
 
Vectores y operaciones con vectores, producto interno y vectorial de vectores...
Vectores y operaciones con vectores, producto interno y vectorial de vectores...Vectores y operaciones con vectores, producto interno y vectorial de vectores...
Vectores y operaciones con vectores, producto interno y vectorial de vectores...ErichManriqueCastill
 
Teoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxTeoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxlm24028
 
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoPIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoArturoDavilaObando
 
Harvey, David. - Paris capital de la modernidad [2008].pdf
Harvey, David. - Paris capital de la modernidad [2008].pdfHarvey, David. - Paris capital de la modernidad [2008].pdf
Harvey, David. - Paris capital de la modernidad [2008].pdffrank0071
 
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdfFowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdffrank0071
 
Informe Aemet Tornados Sabado Santo Marchena Paradas
Informe Aemet Tornados Sabado Santo Marchena ParadasInforme Aemet Tornados Sabado Santo Marchena Paradas
Informe Aemet Tornados Sabado Santo Marchena ParadasRevista Saber Mas
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...ocanajuanpablo0
 
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfDESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfssuser6a4120
 
registro cardiotocografico interpretacion y valoracion
registro cardiotocografico interpretacion y valoracionregistro cardiotocografico interpretacion y valoracion
registro cardiotocografico interpretacion y valoracionMarcoAntonioJimenez14
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxSergioSanto4
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdffrank0071
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdffrank0071
 
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...frank0071
 
Centro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxCentro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxErichManriqueCastill
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfCarlaLSarita1
 
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdfvguadarramaespinal
 
Campo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfCampo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfArturoDavilaObando
 

Último (20)

Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdfHolland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
Holland, Tom - Milenio. El fin del mundo y el origen del cristianismo [2010].pdf
 
Tractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médulaTractos ascendentes y descendentes de la médula
Tractos ascendentes y descendentes de la médula
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
 
Vectores y operaciones con vectores, producto interno y vectorial de vectores...
Vectores y operaciones con vectores, producto interno y vectorial de vectores...Vectores y operaciones con vectores, producto interno y vectorial de vectores...
Vectores y operaciones con vectores, producto interno y vectorial de vectores...
 
Teoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptxTeoría de usos y gratificaciones 2024.pptx
Teoría de usos y gratificaciones 2024.pptx
 
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoPIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
 
Harvey, David. - Paris capital de la modernidad [2008].pdf
Harvey, David. - Paris capital de la modernidad [2008].pdfHarvey, David. - Paris capital de la modernidad [2008].pdf
Harvey, David. - Paris capital de la modernidad [2008].pdf
 
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdfFowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
 
Informe Aemet Tornados Sabado Santo Marchena Paradas
Informe Aemet Tornados Sabado Santo Marchena ParadasInforme Aemet Tornados Sabado Santo Marchena Paradas
Informe Aemet Tornados Sabado Santo Marchena Paradas
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
 
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfDESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
 
registro cardiotocografico interpretacion y valoracion
registro cardiotocografico interpretacion y valoracionregistro cardiotocografico interpretacion y valoracion
registro cardiotocografico interpretacion y valoracion
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptx
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
 
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
López, L. - Destierro y memoria. Trayectorias de familias judías piemontesas ...
 
Centro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxCentro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptx
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdf
 
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
4.-ENLACE-QUÍMICO.-LIBRO-PRINCIPAL (1).pdf
 
Campo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfCampo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdf
 

Álgebra Lineal y Geometría Cartesiana Juan de Burgos.pdf

  • 1. ALGEBRA LINEAL Y GEOMETRIA CARTESIANA Juan de Burgos A.0 0 0 A.0 0 0 A = a T erc era e d ició n
  • 2. ALGEBRA LINEAL y geometría cartesiana Tercera edición Juan de Burgos Román Catedrático de Matemática Aplicada de la Escuela Técnica Superior de Ingenieros Aeronáuticos Universidad Politécnica de Madrid MADRID · BOGOTÁ · BUENOS AIRES * CARACAS · GUATEMALA · LISBOA MÉXICO · NUEVA YORK · PANAMÁ · SAN JUAN · SANTIAGO · SAO PAULO AUCKLAND · HAMBURGO · LONDRES * MILÁN · MONTREAL · NUEVA DELHI · PARÍS SAN FRANCISCO · SIDNEY · SINGAPUR · ST. LOUIS · TOKIO · TORONTO
  • 3. Contenido PRÓL0(;0 A LA PRIMERA EDICIÓN........................................................... xiü PRÓLOGO A LA SEGUNDA EDICIÓN........................................................... xvn PRÓLOGO A LA TERCERA EDICIÓN........................................................... ixx INICIACIÓN: LINEALIDAD Y RANGO P A R T E I Introducción.............................................................................................................. 2 Capítulo L Sistemas de ecuaciones lineales; el método de Gauss................. 3 a Primeras definiciones. Equivalencia......................................................... 3 1.1. Sistemas de ecuaciones lineales....................................................... 3 1.2. Sistemas equivalentes....................................................................... 8 P El método de Gauss..................................................................................... 12 1.3. Matrices escalonadas y sistemas escalonados.................................. 12 1.4. El método de Gauss........................................................................... 16 1.5. Sistemas homogéneos con menos ecuaciones que incógnitas......... 21 Capítulo 2. Rango (de vectores y de matrices)................................................ 22 a Vectores de n componentes........................................................................ 22 2.1. El espacio vectorial K"..................................................................... 23 2.2. Dependencia e independencia lineal................................................. 26 p Rango de un sistema de vectores............................................................... 30 2.3. Rango. Operaciones elementales....................................................... 30 2.4. Cálculo del rango de un si.stema de vectores.................................. 34 y Rango de una matriz................................................................................... 36 2.5. Existencia y cálculo del rango......................................................... 36 2.6. Matrices equivalentes....................................................................... 40 Capítulo 3. Operaciones con matrices; matriz inversa................................... 42 a Matrices; álgebra de matrices.................................................................... 43 3. l. Primeras definiciones......................................................................... 43 3.2. Producto de matrices......................................................................... 46 3.3. Traspuesta de una matriz.................................................................. 54 3.4. Relación entre las operaciones elementales y el producto............. 55 3.5. Multiplicación de matrices por bloques............................................ 60 P Matrices invertibles.................................................................................... 62 3.6. Definición y primeras propiedades................................................... 62 3.7. Cálculo efectivo de la inversa.......................................................... 65 3.8. Caracterizaciones de las matrices invertibles................................... 67 vii
  • 4. CONTENIDO Capítulo 4. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . 70 a Definición y valor de un determinante. . . . . . . . . . . . . . . . 71 4.1. Determinante de una matriz cuadrada. . . . . . . . . . . . . . 72 4.2. Expresión del valor de un determinante. . . . . . . . . . . . 75 4.3. Cálculo efectivo de un determinante. . . . . . . . . . . . . . 83 P Propiedades: desarrollo de un determinante, determinante de la matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.4. Determinante de un producto: consecuencia. . . . . . . . . . . 85 4.5. Desarrollo por los elementos de una línea. . . . . . . . . . . . 87 4.6. Maüiz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.7. Rango de menores de una matriz. . . . . . . . . . . . . . . . 93 y Teoremas de Cramer y de Rouché. . . . . . . . . . . . . . . . . . 96 4.8. Sistemas de C r a m e r . . . . . . . . . . . . . . . . . . . . . . . 98 4.9. Teorema de R o u c h é . . . . . . . . . . . . . . . . . . . . . . . 99 Ejercicios y problemas a la parte 1 . . . . . . . . . . . . . . . . . . . . . 103 Enunciados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 ALGEBRA LINEAL PARTE II Capítulos. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . 116 a Espacios, subespacios y combinaciones lineales. . . . . . . . . . . 116 5.1. Concepto de espacio vectorial. . . . . . . . . . . . . . . . . . 116 5.2. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . 118 5.3. Dependencia e independencia lineal. . . . . . . . . . . . . . . 120 P Bases, Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.4. Espacios de dimensión finita. . . . . . . . . . . . . . . . . . 126 5.5. Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . . 132 5.6. Rango de un sistema de vectores. . . . . . . . . . . . . . . . 137 y Suma de subespacios. . . . . . . . . . . . . . . . . . . . . . . . . 139 5.7. S u m a y s uma directa. . . . . . . . . . . . . . . . . . . . . . 139 5.8. Dimensión de la s u m a . . . . . . . . . . . . . . . . . . . . . . 146 Capítulo 6 . Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . 149 a Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . 149 6.1. Definición y propiedades. . . . . . . . . . . . . . . . . . . . 149 6.2. Isomorfismos. . . . . . . . . . . . . . . . . . . . . . . . . . 156 P Matrices de las aplicaciones lineales. . . . . . . . . . . . . . . . . 160 6.3. Ecuaciones y matriz de una aplicación lineal. . . . . . . . . . 160 6.4. Matrices equivalentes. . . . . . . . . . . . . . . . . . . . . . 167 y Operaciones con aplicaciones lineales. . . . . . . . . . . . . . . . 175 6.5. Espacios vectoriales de homomorfísmos y de maü ic e s . . . . . 176 6 .6 . Anillo de endomorfísmos. Matrices invertibles. . . . . . . . . 1^^ 8 Sistemas de ecuaciones lineales. . . . . . . . . . . . . . . . . . . 1^5 6.7. Variedades afínes. . . . . . . . . . . . . . . . . . . . . . . . 186 6 .8 . Teorema de R o u c h é . . . . . . . . . . . . . . . . . . . . . . . 188 € Espacio dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 6.9. Espacio d u a l . . . . . . . . . . . . . . . . . . . . . . . . . . 190 6.10. Aplicación dual o traspuesta. . . . . . . . . . . . . . . . . . 1^^
  • 5. íx f Factorízjación L U de una matríz (’·'). . . . . . . . . . . . . . . . 195 A. 13. Existencia de la factorízación L U ........................................................ 616 A. 14. Factorízación L D U ................................................................................... 623 A. 15. Resolución de un sistema de ecuaciones acudiendo a la factoríza* ción L U ....................................................................................................... 623 A. 16. Factorízación L D U ..................................................................................... 623 Ejercicios y problemas a la parte 11. . . . . . . . . . . . . . . . . . . . 196 Enunciados................................................................................................................. 196 Soluciones.................................................................................................................. 202 P A R T E I I I Capítulo 7. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . 208 a Formas cuadráticas. Conjugación. . . . . . . . . . . . . . . . . 208 7.1. Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . 208 7.2. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . . 218 7.3. Conjugación respecto de una forma cuadrática. . . . . . . . . 224 p Diagonalización de una forma cuadrática. . . . . . . . . . . . . 231 7.4. Forma diagonal (congruencia). . . . . . . . . . . . . . . . . 231 7.5. Diagonalización efectiva de una forma cuadrática. . . . . . . 234 y Formas cuadráticas reales. . . . . . . . . . . . . . . . . . . . . 239 7.6. Formas definidas y ley de inercia. . . . . . . . . . . . . . . 240 7.7. Expresión canónica de una forma cuadrática. . . . . . . . . . 246 Capítulo 8. Espacios vectoriales euclídeos. . . . . . . . . . . . . . . . 253 a Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . 254 S.L Producto escalar de vectores. . . . . . . . . . . . . . . . . 254 8.2. Normas y ángulos. . . . . . . . . . . . . . . . . . . . . . 259 P Vectores ortogonales y ortonormales. . . . . . . . . . . . . . . . 266 8.3. Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . 267 8.4. Proyección ortogonal. . . . . . . . . . . . . . . . . . . . . 277 y Transformaciones ortogonales. . . . . . . . . . . . . . . . . . . . 284 8.5. Transformaciones ortogonales . . . . . . . . . . . . . . . . 285 8.6.Matrices ortogonales. . . . . . . . . . . . . . . . . . . . . . . 290 8.7. Transformaciones ortogonales en 2 y 3 dimensiones. . . . . . 297 8 Producto mixto y producto vectorial. . . . . . . . . . . . . . . . 304 8.8. Producto m ix to . . . . . . . . . . . . . . . . . . . . . . . . 305 8.9. Producto vectorial. . . . . . . . . . . . . . . . . . . . . . 308 6 Pseudoinversa. Soluciónsegún mínimos cuadrados (’*'*). . . . . . . 313 A. 16. Descomposición de una matriz en valoresprincipales. . . . . 625 A. 17. Aplicación y matriz pseudoinversas. . . . . . . . . . . . . 629 A. 18. Aproximación de soluciones por mínimos cuadrados. . . . . 313 Ejercicios y problemas a la parte III. . . . . . . . . . . . . . . . . . . 314 Enunciados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 Soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 (·) Véase el Apéndice 6. ( ·· ) Véase el Apéndice 7.
  • 6. a Autovalores yautovectores............................................................................ 32(; 9.1. Autovalores y autovectores. Polinomio característico................... 3 2 5 9.2. Multiplicidades algebraica y geométrica de un autovalor.............. 3 3 5 9.3. Complejificación de un espacio vectorial real................................. 3 4 1 P Endomorfismosdiagonalizjobles.................................................................... 3 4 5 9.4. Diagonalización (por semejanza)..................................................... 345 9.5. Diagonalización ortogonal................................................................. 353 Ejercicios y problemas a la parte IV ...................................... ............................ 364 Enunciados....................................................................................................... 364 Soluciones........................................................................................................ 368 G E O M E T R ÍA C A R T E S IA N A P A R T E V Capítulo 10. Los espacios geométricos E iJ ........................................ 374 a Axiomas y definiciones............................................................................... 374 10.1. Los espacios geométricos bi y tridimensionales............................ 374 10.2. Las rectas y los planos..................................................................... 380 P Geometría plana (afin y euclídea).............................................................. 383 10.3. Problemas afínes (en el plano E^)................................................... 383 10.4. Problemas euclídeos (en el plano £ j) ............................................. 391 yGeometría tridimensional (afin y euclídea)................................................ 402 10.5. Ecuaciones de rectas y planos.......................................................... 402 10.6. Posiciones relativas de rectas y planos........................................... 409 10.7. Angulos y disuincias (en £ 3 ) ............................................................ 420 Ejercicios y problemas a la parte V — .............................................................. 436 Enunciados...................................................................................................... 436 Soluciones....................................................................................................... 440 P A R T E V I Capítulo 11· Cónicas: estudios particular ygeneral......................................... 446 a Estudio particular de las cónicas................................................................ 446 11.1. Las tres cónicas................................................................................. 447 11.2. Primeras propiedades de las cónicas............................................... 456 P Estudio general de las cónicas................................................................... 467 11.3. Las cónicas: ecuaciones y tangencia.............................................. 468 11.4. Ecuaciones reducidas y clasifícación de las cónicas................... 476 11.5. Elementos de las cónicas................................................................ 485 Capítulo 12. Cuádricas: estudios particular ygeneral.................................... 4% a Estudio particular de las cúpricas............................................................ 4% 12.1. Las cinco cuádricas........................................................................ 497 12.2. Primeras propiedades de las cuádricas........................................... P Estudio general de las cuádricas............................................................... 12.3. Las cuádricas: ecuaciones y tangencia........................................... 523 P A R T E I V Capítulo 9. Diagonalización de endomorfismos y de m atrices........................ 3 2 ^
  • 7. 12.4. Ecuaciones reducidas y clasificación de las cu ád ricas....................... 534 12.5. Elementos de las cu ád ricas........................................................................... 554 Ejercicios y problemas a la parte VI............................................................. 564 E nunciados............................................................................................................................ 564 Soluciones.............................................................................................................................. 569 APENDICES 1. Algebra básica.......................................................................................... 577 2. Diagonalización por bloques de una transformación ortogonal.................... 590 3. Forma canónica de Jordan......................................................................... 594 4. Espacio afín (de dimensión n e N).................................................................... 601 5. Espacio afín ampliado (puntos del infinito)................................................ 612 6. Factorización L U de una matriz................................................................. 616 7. Pseudoinversa. Solución en el sentido de los mínimoscuadrados................. 625 Alfabeto griego................................................................................................ 617 Referencias bibliográficas............................................................................... 619 índice.............................................................................................................. 621
  • 8. INICIACIÓN: LINEALIDAD T RANGO íntTüííu£CÍón. 1. 5tst£míi5 de. ecuaciones íineaícs: eí método de Gauss. 2. Rango (de vectoresy de tnatríces). 3. Operaciones con matrices: matriz inversa. 4. Det£rminante5. Ejercicios y proSíetnas. RELUDIO introito o a^prdio, en eíque se fuéía a^o, por ib aeneraípoco y no siempre bastante, acerca ae Ib pecuacionesfinales el iranio», (as imatrices» y (os ideterminantes», queriendo así ofrecer a((ector, tanto una fierramienta que (epermita manejarse con so(tura y eficacia, en (o que (ueao vendrá, como una referenciay un cobijo a (os quepoder acogerse cuando, pronto, se estudien conceptos más abstractos y generales.
  • 9. Introducción Este modo de iniciar un curso de «Álgebra Lineal», hablando de los «sistemas de ecuaciones lineales» y del «rango», no es ninguna tontería. Hay importantes motivos para ello: Bien es verdad que, desde un punto de vista lógico y formal, quizá habría que pensar en emprender la tarea presentando en primer lugar a los «espacios vectoriales», luego a los «hormomorfismos» o «aplicaciones li­ neales» entre espacios vectoriales, más tarde a las «inatrices» y, con todo ello y algo más, abordar debidamente el estudio de los «sistemas de ecuaciones lineales» y de otras cuestiones. Creemos, no obstante, que la didáctica dice otra cosa. Los conceptos deberán presentarse de la manera que mejor puedan enten­ derse, la cual no es, generalmente, la que demanda la lógica. Ello no debe impedir que, al final del proceso de aprendizaje, los conocimientos adquiridos terminen formando el entramado adecuado, de suerte que, a la postre, se consiga que los saberes queden pertinentemente estructurados. Con el correr de los años, han sido muchos los problemas que han desem­ bocado en sistemas de ecuaciones lineales, de las que ha habido que hallar las soluciones. Al abrigo de estos procesos de búsqueda de soluciones, y al de otros desarrollos similares, se han ido perfilando los conceptos de vector, matriz, rango, homomorfismo, etc.; no ha ocurrido al revés. Por ello, entendemos que, al menos ahora, al comienzo, todos estos conceptos se deben dar a conocer respetando su «antigüedad». Piénsese que aquello que primero se resolvió fue, a no dudarlo, lo que era más fácil de resolver. Es obvio que con el poco bagaje de conocimientos que, a estas alturas, se nos supone, no nos va a ser posible llegar al fondo de las cuestiones que aquí se abordan; tiempo tendremos para ello más adelante. Este capítulo introductorio pretende cubrir varios objetivos, todos ellos valiosos. Este capítulo es el escalón que permitirá acceder a una estancia que está situada más alta de lo que es ordinario. Este capítulo es la base en la que sustentar los conceptos abstractos que luego vendrán. Este capítulo será la herramienta o instrumento que permitirá manejarse con soltura en lo que sigue. Este capítulo es el germen de multitud de ideas y conceptos que pueblan el «álgebra lineal».
  • 10. Sistemas de ecuaciones lineales; el método de Gauss CAPÍTULO 1 a PRIMERAS DEFINICIONES. EQUIVALENCIA ¡CUIDADO CON LA PALABRA «LINEAL»! lay que avisar que. en el hablar ndioarío de las gentes, hoy día e está utilizando la palabra li- leal para denotar a lo que es ODStante. Así, cuando se dice (ue se ha producido un «aumen- o lineal del sueldo» de unos tra- >ajadores y que dicho aumento la sido de A euros, se nos quiere ndicar que a todos y cada uno je los trabajadores se le ha iumentado el sueldo en una mis- na cantidad, A euros, constante jara todos. Si en esto de las su­ bidas de sueldos, la linealidad íignificase lo mismo que en Ma- lemáticas, una subida lineal de iin 10 por 100, pongamos por ;:aso. significaría que al que ga­ na 100 se le aumenta en 10 y al que gana 200 se le aumenta en 20; esta subida no es «constan­ te» es «proporcional» a lo que se gana. Según ya reza en el título de este libro, los problemas que nos van a ocupar son los «lineales», entendiendo por tales a aquellos en los que al duplicar, triplicar, etc., la causa, acontece que se duplica, triplica, etc., el efecto; también se requiere que, al sumar las causas, se sumen los efectos. Así, por ejemplo, si las causas vienen representadas por jc e y. que denotan a dos números cualesquiera, y el efecto es a = 3jc —ly^ este a depende linealmente de los jc e y. Los problemas directos son aquellos en los que los datos conducen direc­ tamente, sin rodeos, a los resultados. Si lo que se conocen son los resultados y se buscan los datos que se necesitarían para obtener dichos resultados, se está considerando un problema inverso (o recíproco). Los sistemas de ecuaciones lineales tienen esta condición de problema inverso; en ellos, hay que hallar los datos (x e y, por ejemplo) que, en un problema de tipo lineal, conducirían a unos resultados que nos son conocidos (a y (i, por ejemplo). Así, en un sistema como él hay que hallar los valores ác x c y (que se llaman incógnitas) que conducen a los resultados a y p (que son dados). 1.1. SISTEMAS DE ECUACIONES LINEALES Debemos empezar precisando el significado de los distintos términos que va­ mos a utilizar en lo que sigue:
  • 11. ÁLGEBRA LINEAL [«01] DEFINICIONES Un sistema de m ecuaciones lineales en las n incógnitas x^^ x^ es todo conjunto de relaciones del tipo: Ecuación primera: + «12^:2 + "· + ciy„x„ = = Ecuación segunda: «22-^2 * * ’ ~ ^2 Ecuación m-ésima: a„^^Xy + //l/I n ftl fíl Los a,y (coeficientes) y los /> ,· (términos independientes) son escalares dados; es decir, elementos de un cuerpo cualquiera**^ Se dice que los escalares a,, a ^ , a „ constituyen una solución de S si al tomar j c , = a„ X2 = 0 Í2, x„ = a„, las m ecuaciones se convierten en igualdades; resot- ver S es hallar todas sus soluciones. Se dice que un sistema es compatible si tiene alguna solución y que es incom patible si carece de ellas; cuando es compatible, se dice que es determ inado si tiene una sola solución e indeterminado si tiene más de una. (·) El cuerpo Kde los escalares puede ser cualquiera. Puede suponerse, si ello faciliu la comprensión de estas cuestiones, que K es el cuerpo real (/C= R) o que es el cuerpo complejo (K= C). Discutir un sistema de ecuaciones es analizar si éste tiene soluciones y, caso de tenerlas, cuántas tiene. EJEMPLOS L x + > + z = 6 a: + ) i - z = 0 X +z = 4 x + y =3 Este sistema (en las incógnitas x, y, z) tiene solución única que es la (j:, y, z) = (1, 2, 3); se trata, pues, de un sistema compatible y determinado. 2. x + y + z = 6 x + y - z= 0 x + y =3 J C+ y + 2z = 3 Este sistema es compatible indeterminado, ya que tiene infinitas soluciones; éstas son todas las (x, y, 2) = («> 3 —a, 3), donde a es un número real cualquiera. 3. ■*+ y + z = 6 x + y - z = 0 - 2 x - 2 y = 1 Este sistema es incompatible, carece de soluciones. Nótese que al sumar las tres ecuaciones se llega a0 = 7.
  • 12. : ECUACIONES LINEALES; EL MÉTODO DE GAUSS Q SIGNO SUMATORIO; ÍNDICES MUDOS E INDICES LIBRES 1. Para escribir de manera abreviada una suma como la se recurrirá a la leü-a griega S (sigma mayúscula), que recibe el nombre de signo sumaíorioy y se pone: P ,+ />, + ··· + />„= i P, Aquí se ha recurrido a la letra y, que se llama índice mudo, que no tiene un valor determinado; se supone que j varía recorriendo todos los valores naturales 1, 2. n. La letra j se puede sustituir porotra letra cualquiera, sin que por ello varíe el resultado; esto es: n n n lpj=lp,= I ja, A-1 0-1 Así, por ejemplo, las m ecuaciones del sistema S (de [001]) pueden ponerse en la forma: n n n 2. Por otra parte, para denotar de manera conjunta a todas y cada una de las m ecuaciones del sistema 5, se puede recurrir a otro índice, que llamaremos i y representará a cualquiera de los números 1, 2, m, y poner: a,.,,ti + a¡2 X2 + - + = b¡ para /= 1, 2....m [5] Aquí / es un índice libre; para cada valor que se le dé a /, se va a obtener una de las ecuaciones del sistema S, 3. Recurriendo ahora a un índice libre i (que varía de 1 a m) y a un índice mudo (que varía de 1 a n), el sistema S se puede expresar como sigue: n Z a¡jXj = b, (i = 1, 2...... m) [5] J EXPRESION MATRICIAL DE UN SISTEMA Lo que distingue a los sistemas de ecuaciones lineales, diferenciando a unos de otros, son sus coeficientes y sus términos independientes. Para caracterizar a un sistema de ecuaciones, como el ^ ^ ^ /de m ecuaciones: / = 1, 2, m L a yX j = b, (1= 1 ,2 .......m) · ^ ^ jm ^ ^ con n incógnitas: 7 = 1, 2, ..., n ]
  • 13. ÁLGEBRA LINEAL basta con saber los valores que toman los siguientes escalares; a¡j (coeficiente que afecta a la incógnita y-ésima de la ecuación /-ésimas) b¡ (término independiente de la ecuación /-ésimas) Un sistema de ecuaciones queda, pues, determinado en cuanto se conozca la tabla rectangular, o matriz, que forman sus coeficientes y sus términos independientes, situados todos ellos en la misma posición relativa que ocupa­ ban en el sistema. Nótese que esta tabla es lo que queda del sistema al prescindir en él de las incógnitas y de los signos (+ e = ). Concretando: [002] Sea dado un sistema de m ecuaciones lineales con n incógnitas, al que llamaremos [5]: a¡^x^+a,2Xi + - + a¡„x„ = b¡ 02lJC| + fl22^2 + - + " 2 A , = ¿2 [S] a„,Xi + a„2X2 + - + a ^ „ = b^ Se llaman matriz de los coeficientes, matriz de los términos independien­ tes y matriz del sistema (o ampliada) a las siguientes tablas rectangula­ res^*^ A, B y formadas por escalares: ’ «11 «21 «12 «22 - « l» ··· «2« ; B = í»2 ♦ AD — «11 « 2 . «12 «22 ·" «2» ¿ 2 : » /tts — « « 2 A . «m i «m2 - « m . De manera abreviada y, por el momento, también simbólicamente, el sistema S se expresará poniendo: se llama columna o vector columna de las incógnitas (*) Posteriormente, se precisará y se completará la defmición dc matríz. Dc momento nos basta con saber que la matriz A. por ejemplo» cs una tabla rectangular de m-n escalares dispuestos en m filas y n columnas. La fila i<ésíma de A cs la sucesión de escalares columna y-ésima dc A cs la sucesión de escalares (que en A aparecen dispuestos venicalmente). Se dice que el elemento a,j, que está situado en la fila i y en la columna y, es el elemento que ocupa cl lugar (i,J) o ij.
  • 14. CUACIONES LINEALES; EL MÉTODO DE GAUSS J SISTEMAS HOMOGENEOS Los sistemas de ecuaciones que tienen nulos sus términos independientes, se llaman homogéneos. Esto es: [003] Un sistema de ecuaciones lineales se dice homogéneo si es dcl tipo: i m Abreviadanienic, se pondrá AX = O, donde O cs inairiz (de una sola columna) cuyos elementos son todos nulos Todo sislcma de ecuaciones lineales homogéneo [//| tiene» al menos, la solución JC, = = ··· = jc^ = O, llamada solución trivial o nula, por lo que siempre cs compatible. Será compatible indeterminado si tiene alguna solución no nula. Las combinaciones lineales de las soluciones de un sistema homogéneo son, también, soluciones de éste; es decir: á y 0 son soluciones de H => => Á á '^ fjL0 es solución de // (A y /t escalares) (♦) Por razones de brevedad, se ha llajiiado A"(a,...... or^). y AA+ + /i/3,......Ao, + COMPROBACIÓN Expresando el sistema homógeneo en la forma abreviada X UijXj = O, como á y p son soluciones, se sabe que H n X a¡¡Xj = O y Z = O (para í = 1, 2..................m) Por tanto, á + también es solución, ya que (para / = 1, 2.......m): n n X a„{ka,+ n P ) = X (Aa,j«^ + = >-· = A X a,.a, + A t X a¡fi, = A- 0 + /i-0 = 0 >-i J-l
  • 15. Alg e b r a lineal I a la «cantidad» de ut tienen los conjun- s se les clasifica en • INFINITOS. Si C es 0 finito, se dirá que número finito de ele- C cs un conjunlo in- lirá que C tiene infí- ;ntos. No es correcto iste último caso, que 1 número infinito de infinito no es un nú- EJERCICIO Se desea comprobar que, si un sistema de ecuaciones lineales tiene más de una solución, entonces el sistema tiene infinitas soluciones. Más exactamente, va­ mos a probar que: Dado un sistema de ecuaciones lineales Σ a¡jXj = b¡ (con / = 1, 2, .... m) SI á = (a ,, a^. .... a J 0 = (l3,,/3„ son dos raíces distintas del sistema, entonces se verifica que a) á - /3 = («I - )3,, Ü2 — - /3„) es raíz del sistema homogéneo 2 atjXj = 0. b) á + A(á —p) es raíz del sistema dado X a¡jX¡ = b¡ para todo escalar A. RESOLUCIÓN a) Σ α,/α^ - β ) = Σ a¡¡a¡ - Σ Uyfij = b ¡ - b ¡ = 0 J J J luego a - β es raíz del sistema homogéneo. b) Σ a¡JÍ_a¡ + A (a,- βι)] = Σ a¡jO¡ + A Σ a¡j{aj- β^) = b¡+ - 0 = b¡ j J j luego á + Λ(ά —β) es raíz del sistema dado para cualquier A. 1.2. SISTEMAS EQUIVALENTES Para resolver un sistema de ecuaciones, se le irá «reduciendo» a otros sistemas que sean más simples; eslo es, se buscarán sistemas que tengan las mismas soluciones que el dado y que resulten cada vez más fáciles de resolver. A los sistemas que tienen las mismas soluciones se les llama equivalentes; de ellos nos ocupamos ahora:
  • 16. "EMAS DE ECUACIONES LINEALES: EL MÉTODO DE GAUSS ^ EQUIVALENCIA DE SISTEMAS; OPERACIONES ELEMENTALES [004] LAS OPERACIONES ELEMENTALES un sistema de ecuaciones) ► ;]: intercambio, de las ecua­ ciones i y j ésimas. ► Ai]: Multiplicar por A^ O la ecuación /-ésima. *i'+ Aj]: sumar, a la ecua­ ción i-ésima, A por la y-ésima. Dos sistemas de ecuaciones (con las mismas incógnitas) se dicen equi­ valentes si tienen las mismas soluciones, o sea, si toda solución de cualquiera de ellos es también solución dcl otro. Propiedad fundamental de la equivalencia.-Un sistema de ecuaciones lineales es equivalente a cualquiera de los sistemas que resultan de rea­ lizar, en aquél, cualesquiera de las singuientes manipulaciones, que se llaman operaciones elementales: I C a m b i a r el orden con el que figuran las ecuaciones en el sistema. 2.° Multiplicar una de las ecuaciones por cualquier escalar no nulo. 3.^ Sumarle, a una de las ecuaciones, otra cualquiera de ellas. 4.® Aplicar, reiteradamente, cualesquiera de las operaciones anteriores (en particular, sumarle a una ecuación, cualquier combinación lineal dc las demás) NOTA: Hay quienes consideran también como operación elcmeniaJ (cosa que no hare­ mos no.sotros) a la siguicnlc: suprimir una ecuación que sea combinación lineal de otras ecuaciones del sistema. (♦) Por definición, las combinaciones lineales de las ecuaciones + />,y + c,r = d^ y a¿x + bjV + CjT= »rfj son las ecuaciones (afl, + + (ab, + J3b2)y + (aec, + /Sc2)z = or^, + donde ar y p .son escalares cualesquiera. Nótese que entre las operaciones elementales del apartado 4.°, cabe destacar la siguiente: sustituir una cualquiera de las ecuaciones por una combinación lineal de otras y de ella misma de manera que el coeficiente que multiplica a ésta sea no nulo. Vamos aquí a simplificar la notación llamando E^(x) = a.yXf -h 0 , ^ 2 + *·· + (para / = 1, 2...... m) con lo que el anterior sistema de ecuaciones S (véase [002]) se expresará en la forma S* E,(x) = 0 E2Íx) = 0 IS l
  • 17. 10 Algebra uneal Con este Upo de notación, la propiedad anterior asegura que. por ejemplo, son equivalentes los siguientc.s sistemas: £,(jf) = 0 £j(í) = 0 > £,(-?) = oJ 2£,(;t) = 0 3 £ j(.f)-£ j(.f) = 0 £,(í) = 0. £ ,(/) = Oí 2 £j(jf) + 3£,(jt) = 0 J£ 3(jE )-£ ,(í) + 5£j(x) = oJ DEMOSTRACION VECTORES Aquí, para dcnouu· a las sucesio­ nes (Xi,X2.....x„) y (a„aj..... Jc n escalares, se ha recurrido a íscribirJ Cy o. A estos elementos ?e les llamará vectores. Un poco rás adelante se estudiarán con Jetenimiento estos objetos mate- náticos; de momento, sólo he­ lios necesitado de sus combina­ ciones lineales: si “ =(«|. ",) (P........ P.) « llama Ad-*f a (Aíir, + /x/9,.......Aof, + /X/3J A y son escalares). Los casos 1.® ) y 2.®) son obvios; el caso 4 “) se reduce a aplicar reiteradamente los resultados de los casos que le preceden. Por ello, sólo consideraremos el ¡ caso 3.®). Para señalar que jc, = a,, jc, = ofj» ~ solución del sistema, se dirá que la solución es la x = á, esto es, se ha llamado ; I .f=(A·,, A ·,...... X,) y á = (o·,, a,, ..., Qf„) , Para verificar que la propiedad es cierta en el caso 3.®), no hay más que ' darse cuenta de que las siguientes afirmaciones son equivalentes entre sí: á es solución del sistema £,(Á) = 0‘ £ 2(jO = 0 EJX) = 0 se verifican se verifican á cs solución las igualdades las igualdades del sistema £,(«) = O £,(d) + £ j ( á ) = 0 £ ,( jc ) + £2(jc) = 0 £ 2 ( 5) = 0 £ 2 ( 5) = 0 E2(x) = 0 E j á ) = 0 OBSERVACIÓN Sea S un sistema de m ecuaciones lineales y sea S' un sistema formado por m combinaciones lineales de aquellas. Es evidente que toda solución de S es. también, solución de S'. Sin embargo, en general puede haber soluciones de S' que no lo sean de S. Así puede ocurrir en los dos ejemplos siguientes, en los que se toma para 5' uno de los 5¡ o S^: £, (í )= 0 E2(j0 = 0 £ ,( ^ = 0. [ÍI £,(x) = 0 £3(;0 = o £,(í) + £j(jc) = 0. £ ,(J)-£ j(jí) = 0 [5¡] ; £ ,(í) - £ ,( x ) = 0 £ ,(jt)-£ ,(J ) = 0 [Sí]
  • 18. Tómese, en concreto £,(jt) = x,+X2- 2, £,(x) = X2+-*3 ~ 2 y £j(i) = Xj + JC | - 2 En este caso, S tiene una única solución que es la x, = 1, JC 2= 1, X3= 1. El sistema S[ tiene infinitas soluciones, que son las jc, = A (cualquiera), jCj = 2 —A y JC 3= 2 - A. El sistema 5^ tiene infinitas soluciones, que son las Xi= X2 = Xy = Á (cualquiera). EJEMPLO IES; EL MÉTODO DE GAUSS 11 Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden resolver los sistemas de ecuaciones. Así, por ejemplo, el siguiente sistema S es equivalente a los 5' y 5" y la resolución de este último es elemental: (1.“) — JC+ y'l·2z = 9 (2.®)— ► 3jcH-6y~5z = 0 (3.“)— 2x + 4 y - 3 z = l IS] ( r ) = (l.“) - 2z = 9 (2') = (2.“) - 3(1.“) - 3>^- 1Iz = -2 7 V [S'] (30 = (3.“) - 2 ( 1 .“) - 2 y - 7 z = - 1 7 j ( r O = (l') JC+ 2z = 9 (2'') = (2') - 3 > ^ - l l z = - 2 7 y [5"] (3") = 3 ( 3 ') - 2 ( 2 ') - z = 3 La solución de 5" es, evidentemente, la z = 3, y = 2, jc = 1, que es también la solución del sistema dado. □ ENFOQUE MATRICIAL Si se conoce la matriz de un sistema, éste también se conoce y, por ello, se podrá resolver. Al ser mucho más cómodo manejar solamente la matriz, en lugar de todo el sistema, así se hará, con lo que simplificaremos el proceso de resolución. En este sentido, es útil observar que la anterior propiedad [004], sobre sistemas equivalentes, puede formularse en los siguientes términos:
  • 19. Tómese, en concreto £ ,(í)= .r,+ X 2 - 2 . £j(í)=jc2 + jc ,-2 y E,{x) = Xy + x ^ - 2 En este caso. S liene una única solución que es la jc, = I. J C 2 = I, J C j = L El sistema 5¡ tiene infinitas soluciones, queson las jc, = A (cualquiera), jC j = 2 - A y jC j = 2 - A, El sislema S[ tiene infinitas soluciones, quesonlas J C , = J C 2 = J C , = A (cualquiera). EJEMPLO Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden resolver los sistemas de ecuaciones. Así. por ejemplo, el siguiente sistema S es equivalente a los 5' y 5" y la resolución de este último eselemental: (1.“)— y + 2z = 9 ‘ ( 2 . * ) - 3.c + 6 y - 5 z = 0 > [S] (3.“)— 2x + 4 y ~ 3 z = 1. (l') = (L“)^ jc+ y + 2z = 9 ) (20 = (2.·) - 3(1.“)-^ 3y - 1Iz = “ 27 > [S'] (30 = (3.-)-2(1.“) - 2 y - 7 z = - 1 7 j (rO = (r> x+ y + 2z = 9 (2'0 = (20 - 3 y - l l z = - 2 7 ^ [S ''] (3'') = 3 ( 3 0 - 2 ( 2 0 - z = 3 4LES: EL MÉTODO DE GAUSS 11 La solución de S'* es. evidentemente, la z = 3. y = 2. jc = 1. que es lambién la solución del sistema dado. □ ENFOQUE MATRICIAL Si se conoce la matriz de un sistema, éste también se conoce y. por ello, se podrá resolver. Al ser mucho más cómodo manejar solamente la matríz. en lugar de lodo el sistema, así se hará, con lo que simplificaremos el proceso de resolución. En este sentido, es útil observiu· que la anterior pmpiedad [004]. sobre sistemas equivalentes, puede formularse en los siguientes términos:
  • 20. 12 ÁLGEBRA UNEAL [005] LAS OPERACIONES ELEMENTALES (en las filas de una matriz) [/ ^ j ]: intercambio, de las filas i y j ésimas. [/— ♦A/]: Multiplicar por A Ola nía /-ésima. [/— ► / + Áj]: sumar, a la fila /-ési­ ma, Apor lay-ésima. j Un sistema de ecuaciones lineales AX —B equivalente a cualquiera de j los que se obtienen de realizar operaciones elementales en las filas de su | matriz ; se llaman operaciones elementales a las siguientes manipula- | ciones: ;; 1.° Cambiar el orden en el que, en aparecen las filas. ; 2.*^ Multiplicar una fila por un escalar no nulo. j 3.° Sumarle, a una fila, otra cualquiera de ellas. | 4.** Aplicar, reiteradamente, cualesquiera de las operacionesanteriores | (en particular, sumarle, a una fila, cualquier combinación lineal de j las demás). ! EJEMPLO Para resolver el siguiente sistema S (que es el ya considerado en el último ejemplo), si manejamos (en lugar de todo el sistema) solamente su matriz AB, al realizar operaciones elementales en sus filas, se obtiene > - + 2 2 = 9 · ) " 1 1 2 9 · 1 .‘ 6 > - - 5 z = 0 > [5 ] ; / © = 3 6 - 5 0 * - 2 . · 4 > r - 3 z = I J 2 4 - 3 1 _ — 3 .‘ ( ! ' ) = ( ! . “) ^ ' 1 1 2 9 · ( 2 ') = ( 2 .“) - 3 ( l . * ) - 0 3 - 1 1 - 2 7 ( 3 ') = (3 .“) - 2 ( l . “) - _ 0 2 - 7 — 1 7 . d " ) = ( l ' ) - ' 1 1 2 9 · (2 " ) = ( 2 ') - 0 3 - 1 1 - 2 7 (3 ” ) = 3 (3 ' ) - 2 (2 ' ) - . 0 0 1 3 . Esta última matriz lo es de un sistema que se resuelve trivialmente; su solución, que es la misma que la de 5, es la jc = 1, = 2, z = 3. EL MÉTODO DE GAUSS MATRICES ESCALONADAS V SISTEMAS ESCALONADOS Nos vamos a referir aquí a unos sistemas de ecuaciones, especialmente fáciles de resolver, a los que luego reduciremos todos los demás sistemas: todo ’ sistema de ecuaciones lineales resultará ser equivalente a alguno de los sis­ temas escalonados.
  • 21. ACIONES LINEALES; EL MÉTODO DE GAUSS 13 [006] Se llaman matrices escalonadas a aquellas matrices en las que: 1." 2.° Cada una de las filas (a partir de la 2.“) comienza con una sucesión de ceros que tiene algún cero más (uno como mínimo) que la fila anterior. Nótese que si hubiera filas formadas sólo por ceros, éstas serían las últimas filas de la matriz. En las filas en las que algún elemento no es nulo, el primero de éstos (que llamaremos cabecera de la fila) es un l^* Se llaman matrices escalonadas reducidas a las matrices escalonadas en las que. además, se verifica: 3.° En las columnas en las que están ubicadas las cabeceras de las filas, todos los demás elementos son nulos. A la matriz traspuesta^**^ de una matriz escalonada se la suele llamar «matriz escalonada por columnas». Un sistema de ecuaciones lineales se dice que es un sistema escalonado (respectivamente, sistema escalonado reducido) si su matriz de coefi­ cientes es escalonada (respectivamente, escalonada reducida). (♦) Este requisito podría omitirse sin que, por ello, varíase, en esencia, el proceso y los razonamientos que haremos a continuación. (*♦) matriz traspuesta de A se obtiene al cambiar, en A, las filas por las columnas. MATRIZ ESCALONADA 0 = elementos nulos 1 = elementos unidad ♦ = elementos cualesquiera (todos los que están sobre cada uno de los elementos l pueden hacerse nulos) EJEMPLOS En cada uno de los siguientes ejemplos, con los que se pretenden aclarar las anteriores definiciones, se da un sistema de ecuaciones escalonadas, su matriz ampliada y su solución, si la tiene:
  • 22. Algebra lineal SISTEMA; MATRIZ: j + 4)· + I + « = 1 _ v+ 2í ~ u — 4 I —4tt = 9 « = - 2 SOLUCION: ' a : = 2 - 3 z + i! X +3j -i'= 2' '1 0 3 0 -1 2' y = 7 - 5 z y + 5z = 7 0 1 5 0 0 7 z = cualquiera u + 2t' = —I _0 0 0 1 2 - 1. M= - 1 - 2ü V= cualquiera = 2 —3z + » ^ +3z -i>= 2 ' "l 0 3 0 - I 2‘ y = 7 - 5 z y + 5z = 7 0 l 5 0 0 7 z = cualquiera « + 2r = -1 0 0 0 1 2 - l m= - 1- 2i) 0 = 0‘** 0 0 0 0 0 0_ V= cualquiera X +3z - 1 ’= 2 ' ‘l 0 3 l) -1 i 2' > + 5z = 7 » 0 l 5 0 0 ; 1 . sistema incompatible « + 2r = - 1 0 0 0 1 2 1- i 0 = 4'“> 0 0 0 ü 0 ; 4_ 1 4 1 1 1 0 1 2 -1 4 0 0 1 -4 9 0 0 0 1 - 2 u = - 2 z= I y = 0 2 J l DISCUSIÓN DE LOS SISTEMAS ESCALONADOS HM)7| Sea 5, un sistema escalonado de tn ecuaciones lineales con n incógnitas; sea M la matriz de los coeficientes de S,. De las m filas de M, llamaremos r al número de ellas que tienen algún elemento no nulo; las m —r últimas tilas de M sólo contienen ceros. Respecto de la compatibilidad del sistema S,. se verifica: 1.® 5, es compatible si y sólo si sus últimos m - r términos indepen­ dientes son todos nulos. 2."^ Suponiendo que los m - r últimos términos independientes son nu­ los, el sistema 5, es compatible determinado si r = /i y es compatible indeterminado si r< n (nótese que no es posible que r > n ) . (··) Est(K tipos de ecuadoncs no son usuales y, ello, sobre lodo cuando, como aquí, son datos de partid^ Sin embargo, pueden aparecer, y de hecho aparecen con frecuencia« cuando el sistemi de ecuaciones es el resultado de aplicar operaciones elementales en un sistema dado.
  • 23. MES: EL MÉTODO DE GAUSS 15 COMPROBACION Esta verificación puede reducirse al caso de sistemas escalonados reducidos. En efecto: si no es reducido, recurriendo a ciertas operaciones elementales, que se localizan trivialmente, se obtiene un sistema 5^ equivalente a 5^ esca­ lonado reducido, con el mismo valor de r y con los mismos m —r últimos términos independientes. Si para S' las cosas son como se dice en el enunciado, es obvio, entonces, que también lo son para y, por ello, bastará considerar aquí a los sistemas escalonados reducidos. XiX,.. t t t Xl Jf2· ♦ ♦ .X,. t ♦ l ^ O O ^ O O * « 1 ♦ ♦ ♦ ♦ 1 _ 1 0 ♦ 0 0 ♦ ♦ 1 0 0 ♦ ♦ ♦ r * 0 0 ♦ ♦ ¡ 1 0 ♦ ♦ ♦ 0 l i o ♦ * r1 0 1 0 0 ♦ ♦ H i ♦ * 1 0 0 ♦ 4i 0 0 Términos independientes Supongamos, pues, que es un sistema escalonado reducido. La discusión de resultará más fácil de obtener si, previamente, alteramos el orden de las incógnitas x,, Xj, ..., x„, que pasaremos a llamarlas x¡, Xj, ..., x', y ello del modo que ahora se indica: si las cabeceras de las sucesivas filas de la matriz M son los elementos de lugares (1, 1), (2, /i), (3, k), ..., (r, /), entonces tomamos X-l Xl, las restantes m - r incógnitas se tomarán en el mismo orden relativo que tienen. Haciendo esto, el sistema queda de la forma siguiente (para ciertas constan­ tes: coeficientes c¿j y términos independientes //,): •^1 (^Ir+I -^r+I ^In Xn) •^2“ ^2 ” Xf+Í ^ ^ ^2n K)
  • 24. Alg ebra u n e a i Aquí, los h¡ son los términos independientes de 5/, ios c son umjs ciertíA escalares» que forman parte de ia matriz M. A la vista ae la forma 5* de presentar el sistema 5,, resultan evidentes las afirmaciones 1/ y 2.· de! anterior enunciado. 1.4. EL METODO DE GAUSS Todo sistema de ecuaciones lineales 5 se va a poder reducir a uno escalona­ do S/y es decir, realizando adecuadas operaciones elementales en 5, siempre se conseguirá un sistema escalonado 5^. equivalente a S, Si el sistema 5 cs compatible, como la resolución de S, es üivial» según acabamos de ver en el apartado anterior, resulta que tenemos ya a nuestro alcance un procedimiento práctico para resolver sistemas de ecuaciones lineales, que no es otro, en esencia, que el método de eliminación de Gauss, que aquí se considera. □ ELIMINACION SUCESIVA DE INCOGNITAS [008] Dado un sistema S de m ecuaciones en las n incógnitas jc,, jcj, ..., x„, eliminar la incógnita es obtener un sistema S' equivalente a 5, también de m ecuaciones y con las mismas n incógnitas, tal que la incógnita jc, no interviene en ~ 1 de las ecuaciones de S, es decir, del siguiente tipo: JC j...... Jt,) = o' . . = 0 [Si-, ............................ ^2* * * * ’ O £■ 2(^1 . Xz.......Xn) = O E„{x,, Xj, .... JT„) = O E„(X2.......X.) = O [S'l OBSERVACIONES Supongamos que se ha eliminado jc, y llamemos S, al sistema de las m - 1 últimas ecuaciones de 5, (que tiene n - 1 incógnitas). Si en S, pudiéramos eliminar ahora otra incógnita (la x^) y seguir así sucesivamente, llegaríamos, al fínal del proceso, a un último sistema S“, equivalente a S, en el que cada ecuación tendría una incógnita menos que la ecuación anterior; S* sería del tip<i: .. Jt,) = O .. x„) = 0 .. - 0 = 0 f í“l
  • 25. LES; EL MÉTODO DE GAUSS 17 Con el signo de interrogación que se ha puesto en la última ecuación de 5“, se quiere señalar que este proceso puede concluir de manera distinta, dependiendo de las ecuaciones que se consideren y, en particular, de si ni es mayor, menor o igual que n. Este sistema 5“ es, previsiblemente, más fácil de resolver que el 5. En el caso de compatibilidad, se comenzará resolviendo la última ecuación de 5", que nos dará el valor de si 5“ sólo tiene esta incógnita (la jc^), o una cierta jc^ en función de las ......Avanzando ahora de abajo a arriba y llevando a cada ecuación el resultado obtenido en la siguiente, se van despejando las sucesivas incógnitas, hasta llegar a la primera ecuación, de la que se obtiene finalmente x^. En los sistemas de ecuaciones lineales, el anterior proceso de eliminación se puede realizar fácilmente recurriendo a las operaciones elementales; nótese que, en esencia, se trata de conseguir un sistema equivalente al dado que sea escalonado. Esto es lo que se hace en el siguiente ejemplo: EJEM PLO Consideremos el siguiente sistema de ecuaciones, cuya matriz ampliada es la que se indica a su derecha (en este sistema, a denota a un parámetro): x + 2y+ 2 = r "l 2 1 r ^ 1.“ I t + >’+ 3z = - 4 2 1 3 - 4 ^ 2." X - >’-H(fl + 2)z = “ 3 f l-5 ^ 15); 1 - 1 a-- 2 - 3 f l - 5 — 3.“ 4x + 2y + (tí + 6)z = -3íT - 8 _4 2 a + 6 - 4 . “ Al intentar resolver el sistema e ir, piu*a ello, eliminando incógnitas me­ diante operaciones elementales en las filas de la matriz, obtenemos sucesiva­ mente las siguientes matrices, que conducen al sistema 15,] que es equivalente al dado y escalonado: r = 1.· — 'l 2 1 f 2' = 2. · - 2( 1.·) — 0 - 3 1 - 6 3' = 3 .·- 1.· — 0 - 3 1 + a -3 a - 6 4' = 4.·-4(1.·) — _ ^0 - 6 2 *f a -3 a ^-- 12_ r ' = r ’ l 2 1 r 2' '= - 2' — 0 3 -1 6 3 ' ' = 3 ' - 2' — 0 0 a -3fl 4 - = 4 ' - 2(2' ) - 0 0 a - 3 < r - = i - "l 2 1 l‘ JC+ 2> ^+ z = r 2- ' = 2'' - 0 3 - 1 6 3 > - z = 6 3'" = 3'' - 0 0 a -3fl ♦ az' -3 a 0 0 0 - 3a(a 0 = = -3fl(a - 1)
  • 26. Alg ebra lineal La ultima ecuación de [5,J sólo se verifica si el paràmetro a toma uno de los valoies a = 0 o ti = 1. Por elio, concluimos que: • Para a # 0 y a ^ 1, [S) es incompatible. » Para a = 0,15] es compatible indeterminado, pues es equivalente al sistema x + 2y + z = i 3 y - z = 6 0 = 0 0 = 0 2 = A cualquiera ’ , que tiene las soluciones: ^y = 2 + A/3 5A/3 <y = ¿ + A U = - 3 - Para a = 1, [5] es compatible determinado, pues es equivalente al sistema: x + 2y + z= I 3 y - z = 6 z = - 3 , que tiene sólo la solución: - 3 ^ 1 ^ 2 □ MÉTODO DE ELIMINACIÓN DE GAUSS [009J Sea S el sistema de ecuaciones lineales Y,a¡jXj = bt ( /= 1, 2, m y J 7 = 1, 2, n) sea /ÍB su matriz ampliada. Se dice que un elemento a¡j = 5 ^ O se utiliza de pivote hacia abajo (o hacia arriba o ambas cosas) si en las filas de se realizan aquellas operaciones elemenuiles que transfonnan a a¡j en 1 y convierten en O a los demás elementos, de la columna j, que están por debajo (o por arriba o ambas cosas) del üij. Todo elemento no nulo a¡j de A puede utilizarse como pivote. Utilizando como pivotes a ciertos elementos de A, elegidos de modo idóneo para realizar adecuadas operaciones elementales en las filas de A, siempre es posible transformar S en un sistema equivalente que sea escalonado e, incluso, que sea escalonado reducido. Si S es compatible, para resolver este sistema se puede proceder de dos maneras: 1.® 2.® Hallando el citado sistema escalonado, pero no reducido, despe­ jando la incógnita de cabecera de su última ecuación y, avanzando de abajo a arriba, sustituir el valor hallado para cada incógnita en la ecuación anterior, de 1 a que se despeja una nueva incógnita (método de eliminación de Gauss). Hallando el sistema escalonado reducido, de cada una de sus ecuaciones se despeja (directamente) la incógnita que esté en su cabecera (eliminación de Gauss-Jordan).
  • 27. LES; EL MÉTODO DE GAUSS 19 COMHKOtíACJONl-S —Cercioréiiionos primero de que cuiilquicr clemciilt) ^ Ose puede ulili/ar de pivote. Para ello, realicemos las siguientes operaciones elenienlales en las Illas de Primero dividamos la lila de lugar i por con lo que el elemento de lugar (/■ , j) pasa a valer l; después, a la lila de lugar h ^ i le restamos la lila de lugar i nuiltiplicada |X)r con lo que el elemento de lugar (//. j) se trans­ forma en 0. Al repetir esta líltima operación para todos los fi > i (o h < i o am­ bas cosas), todos los elenientos que están por debajo del (/, j) (o por arriba o ambas cosas) pasan a ser O, con lo que í/,, ha podido ser utilizado como pivote. — Veamos ahora cómo obtener un sistema escalonado que sea equiva­ lente al .V . lin la primera columna de A hay algini elemento no nulo^*'; inter­ cambiando dos filas de si Cuera preciso, se obtendría en el lugar (1. 1) un elemento no nulo; utilizándolo de pivote, se transfonnan en O todos los ele­ mentos situados por debajo de él. Con esto, la 1.“ columna está ya en la forma deseada. Si todos los elementos que quedan por debajo del (1. 2) son nulos, se deja la 2.“ columna como está; si alguno de ellos es no nulo, intercambiando dos lilas si fuera preciso, .se le lleva al lugar (2. 2) y. luego, se le utiliza de pivote para íuuilar lodos los elenientos que están situados por debajo de él. Con esto, las 1.“ y 2.“ columnas están ya en la forma deseada. Se pasa ahora a la 3.“ columna, con la que se procede de manera análoga y se reitera el proceso hasta llegar a la última columna de la matriz de coeficientes, con lo que ésta queda, después de aplicarle las o|)eraciones elementales, en forma escalonada. —Comprobemos que .se puede conseguir que el susodicho sislema escalo­ nado (equivalente a 5) .sea reducido. Para ello, partimos del sistema escalonado 5, (no reducido), obtenido como .se ha indicado en el párrafo anterior. Fijé­ monos ahora en la cabecera de cada una de las ecuaciones no nulas de S^ a los lugiu*es que ocupan estas cabeceras les llamaremos ( 1. 1). (2. /j), (3. Z,). ...» (r. i^). Utilizando como pivote al elemento de lugíu* (r. /^). se convierten en ceros lodos los elementos que están por encima de él; luego, utilizando como pivote al elemento de lugar (r —1. /,._,). se convierten en ceros todos los elementos situados por encima de él; .se reitera este proceso hasta, finalmente, transformar en cero al elemento situado encima del de lugar (2. ij). De todo ello, resulta que el sistema (equivalente a S) que así se ha obtenido es. obvia­ mente. e.scalonado reducido, —Respecto de cómo resolver los sistemas escalonados y los escalonados reducidos, no hay nada importante que añadir a lo ya dicho en su de.scripción. Q OBSERVACIONES (RANGO Y GRADOS DE LIBERTAD) Sea S un sistema compatible de m ecuaciones lineales con n incógnitas. Su­ pongamos que hemos aplicado el método de Gauss-Jordan y que de él se ha obtenido un sistema escalonado reducido S,, equivalente a S, (*) Si no lo hubiere, en S no apureceríu lu incógniia jt,. pues iodos sus ct>cricicnics serían nulos; eslo es, .r, seríu lu primera incógnita y no es así.
  • 28. ÁLGEBRA LINEAL El sistema sin más que alterar adecuadamente el orden de sus incógni- tas^* esto es, de cambiar sus subíndices, se puede expresar en la siguiente forma E^ (que ya fue analizada al finalizar [007]: 0 = 0 m — r Si es r = fi, el sistema tiene solución única; si es r </i, el sistema tiene infinitas soluciones. En este segundo caso, al tomar para las incógnitas jc^+,, unos valores cualesquiera, nos encontramos con que hay unos únicos valores para ,r,, Xj» —» junto con aquellos, forman una solución del sistema. Para expresar que los valores de las n - r incógnitas ..., x^ (incógnitas secun­ darias) se pueden elegir libremente, se acostumbra a decir, que las soluciones del sistema forman una familia con n —r grados de libertad. El valor que toma n - r es fijo, es decir, depende del sistema S pero no del camino que se haya seguido para obtener E^. Esta afirmación, que quizá le parezca evidente al lector, no se ha demostrado aún; lo haremos, más adelante, cuando volvamos sobre este asunto de los sistemas de ecuaciones. Al echar una ojeada al sistema 5*, se ve que en él hay r ecuaciones «efectivas» (las r primeras) y que las m - r restantes son identidades, se satisfacen para cualesquiera valores de las incógnitas. Esta situación viene a reflejar lo que ocurre en S: de entre las m ecuaciones de 5, va a haber r que son independientes, de manera que cada una añade una nueva exigencia, y las m - r restantes resultarán ser consecuencia de las r primeras. Para expresar esto, diremos que r es el rango del sistema 5 o de la matriz de sus coeficien­ tes. Más adelante veremos que estas consideraciones intuitivas tienen total justificación. (*) Si no se altera el orden de sus incógnitas, es decir, manteniendo su numeración, el sistema 5, tendría la siguiente expresión: - (cw,.A ,, + - + CuX,) 0 = 0 0 = 0 •+ C„X,J /j, ..., /, son las r índices que señalan los lugares en que están situadas las cabeceras de las ccuaciones del sistema S,
  • 29. £ DE ECUACIONES LINEALES; EL MÉTODO DE GAUSS 21 SISTEMAS HOMOGÉNEpS CON MENOS ECUACIONES QUE INCOGNITAS [010] Sabemos que los sistemas lineales homogéneos tienen siempre solución; estos sistemas pueden ser o compatibles determinados, cuando sólo tienen la solución nula, o compatibles indeterminados y, entonces, tienen infmitas soluciones, pues si tienen una solución también son soluciones suyas todas las proporcio­ nales a aquélla. Pues bien, vamos a considerar aquí una condición suficiente para que los sistemas homogéneos tengan infmitas soluciones: Sea 5;, un sistema homogéneo de m ecuaciones lineales con n incógnitas: «,,A, + = O a,,A·, + «jjx, + - + = O «mi·*! + = O (5„: Si 5;, tiene menos ecuaciones que incógnitas, o sea, si es /w<«, entonces Sf, tiene alguna solución no nula y, por tanto, tiene infmitas soluciones (*) Se supone que los escalares son los elementos de un cuerpo infinito, como R o como C: no se consideran aquí los cuerpos, K, finitos (esto es. de un número finito de elementos). DEMOSTRACION Aplicando el método de Gauss al sistema 5;,, siempre es posible obtener un sistema escalonado 5, equivalente al 5^; el sistema 5, ha de ser también homogéneo, como resulta obvio. De acuerdo con la discusión de los sistemas escalonados que se hizo en [007] nos encontramos con que, en nuestro caso, co­ mo todos los términos independientes son nulos y es r ^ m < n (se llama r, como siempre, al niímero de ecuaciones de 5, que tienen sus primeros miem­ bros no nulos), resulta que (segtín se dijo en [(X)7]) S^ es compatible indeter­ minado, luego también lo es 5^. Como S^ ha resultado tener más de una solución, S^, tiene entonces alguna solución no nula; sea ésta la (a,, ofj» ···» ^n)· Consecuentemente, también son soluciones de S^ todas las infinitas (Acr,, Aaj, ..., Aor„) para cualquier escalar A, como se comprueba trivialmente.
  • 30. CAPÍTULO 2 Rango (de vectores y de matrices) Ya hemos tenido, anteriormente, un encuenü*o con el rango, cuando hablábamos del proceso de resolución de un sistema de ecuaciones lineales. Recuérdese que allí, al estudiar un sistema de m ecuaciones, desechábamos todas las que eran combinaciones lineales de otras y, a la postre, terminábamos quedándonos, solamente, con aquellas que, en número mínimo, eran independientes unas de otras y tales que de ellas dependían todas las rechazadas. Este número mínimo de ecuaciones era el rango. Vamos ahora a precisar este concepto y a profundizar en él. Esta tarea la haremos desde los puntos de vista vectorial y matricial. Oí VECTORES DE nCOMPONENTES A poca Física que hayamos es­ tudiado, habremos visto que esta ciencia está «plagada» de vecto­ res: las fuerzas, las velocidades, los campos eléctricos, etc. La cosa no fue siempre así; los vec­ tores entraron en la Física con no poca resistencia por parte de muchos, incluso de gentes emi­ nentes. A este respecto, bueno es recordar que el gran físico Lord Kelvin llegó a decir que «los vectores nunca han tenido la me­ nor utilidad para nadie». Mas adelante, cuando sea preciso, hablaremos de los espacios vectoriales abstractos con toda la generalidad que nos sea necesaria. Por el momento no nos hace falta tanto; sólo hablaremos aquí de los «vectores de n componen­ tes», situados ya en el terreno de lo abstracto, pero no muy lejos de los vectores elementales que, de seguro, hemos venido utilizando en nuesü*os estudios anteriores. Hablar aquí de los «vectores de n componentes» nos ha de ayudar, en su momento, a llegar sosegadamente al concepto de espacio vectorial. Todos conocemos ya los vectores geométricos (segmentos orientados del espacio) y sabemos que, recurriendo a las coordenadas, se pueden identificar con las lemas de números reales, o sea, con los vectores de tres componentes reales. Los vectores de n componentes están ya haciéndonos falta, hay que hablar de ellos sin demora. Nótese, a este respecto, que en los apartados anteriores ya se ha recurrido tímidamente a ellos cuando se echó mano de objetos como el x = Xj, ..., jc„), que nos sirvió para representar a todos y cada uno de los elementos de la sucesión x^, jCj, ..., x„. Abundando en la conveniencia de estudiar aquí los vectores de n compo­ nentes y no otros más generales, que se aplazan para más adelante, hay que argüir otra razón de importancia: Las propiedades de los vectores de n compo­ nentes, que nos va a costar muy poco comprobar, se tomarán como punto de partida para definir vectores en general. Conocer dichas propiedades nos va a pemutir entender las razones por las que los vectores abstractos se definen dcl modo que se hace y no de otra manera. 22
  • 31. ORES Y DE MATRICES) 2 3 2.1. E l. E S P A C IO V E C T O R IA L A' L a s s i g u i e n t e s d e f i n i c i o n e s g e n e r a l i z a n , d e n u m e r a n a t u r a l y o b v i a , a la s n o ­ c i o n e s d e v e c t o r e s d e 2 y d e 3 c o m p o n e n t e s ( q u e n o s s o n c o n o c i d a s ) a s í c o m o líLs d e s u s u m a y d e p r o d u c t o p o r u n e s c a h u -. C o n t o d o e l l o s e o b t i e n e u n a e s t r u c t u r a a l g e b r a i c a q u e , s e g ú n s e v e r á m á s a d e l a n t e , n o e s o t r a q u e la d e e s p a c i o v e c tí> ria l d e d i m e n s i ó n n . ÍOIIJ D E F IN IC IO N D a d o s u n n ú m e r o n a t u r a l n ( l i j o ) y u n c u e r p o /w ( e n p a r t i c u l a r AT = IR o A' = C ) , a c u y o s e l e m e n t o s l l a m a r e m o s e s c a l a r e s , s e l l a m a n « v e c t o r e s d e n c o m p o n e n t e s » d e l c u e r p o K ( e n p a r t i c u l a r , r e a l e s o c o m p l e j a s ) a lo s e l e m e n t o s q u e s e e s p e c i f i c a n e n I e n t r e l a s q u e h a y e s t a b l e c i d a s l a s d o s o p e r a c i o n e s q u e s e d e t a l l a n e n II: II. L S e l l a m a n v e c t o r e s d e n c o m p o n e n t e s d e l c u e r p o K a l a s s u c e s i o n e s o s i s t e m a s o r d e n a d o s d e n e s c a l a r e s d e e s d e c ir * a l o s e l e m e n t o s d e I C , E s t o s v e c t o r e s s o n , p u e s , l o s o b j e t o s : d o n d e a « ( li„ «2, w ,, U j.......... u„ s o n e s c a l a r e s ( d e l c u e r p o K ) M, s e l l a m a c o m p o n e n t e / - é s i m a d e ii t i e t i c n i g u a l e s s u s r e s p e c t i v a s c o m p o n e n t e s ; e s t o e s , s i p a r a 1 = 1 , 2 , //. S e l l a m a s u m a ü + D, ú c d o s v e c t o r e s ü y 0 , y s e l l a m a p r o d u c t o Am, d o n d e Á e s u n e s c a l a r , a l o s s i g u i e n t e s v e c t o r e s : i7 = (li,, U2. . . . . . . . . . . . ¡O 0 = (v^, Ü2....... v j 14^(14^, u„) A e s u n e s c a l a r — ^ Aw = ( A w ,, A « 2 ..........Aw „) E J E M P L O A s í , p a r a l o s s i g u i e n t e s v e c t o r e s d e 5 c o m p o n e n t e s : i7 = ( 3 , - 2 , O, 2 , 4 ) ; Í T = ( 2 , 1, - I , 2 , 3 ) ; h > = (O , 7 . - 3 , 2 , 3 )
  • 32. 24 Alg eb r a lineal los vectores ü + O , ü — O , —2w y 2m—3<f+ tv son los: « + 0 = (5, - I , - I , 4, 7) ü - 0 = (l, - 3 . i, 0. I) - 2 w = (0, - 1 4 . 6. - 4 . - 6 ) 2m- 3 í + = (0. 0. 0. 0. 0) Supongamos que, en una empre- sa, las citas se comunican dando un vector (a, 6, c), donde a es la hora, b es el día y c es el mes. Así (12. 24, 04) es una cita para las 12 del día 24 de abril. Si alguien se equivoca en cl orden y comunica que lu cita cs (04, 24, 12), cl citado deberá acudir a las 4 de la madrugada dcl día dc nochebuena. OBSERVACIONES 1. Un vector de n componentes no es un conjunto de /i escalares, sino un elemento de A T *. Si las n componentes de un vector se colocan en distinto orden, ya no encaman al mismo vector; éste pasa a ser otro. 2. Es co.stumbre denotar a los vectores de distinto modo que a los e.scalares; para distinguir a aquéllos se suele poner una tilde o una flechita .sobre la letra que los simboliza o, también, escribir ésta con letra negrita. Ello, que suele resultar útil, sobre todo al principio, no es algo necesario; es más, cuando se tiene bastante hábito en el manejo de vectores y escalares, puede llegar a ser incómodo y tedioso verse en la obligación de escribir las referidas tildes. 3. Se suele decir que el vector Áü cs proporcional al vector ü y que Á es la constante de proporcionalidad. 4. Si a es un escalar no nulo, «dividir el vector ü por a» es multiplicar el vector ü por el escalar i/a, 5. Vectores fila y vectores columna. Para señalar que las componentes de un vector ü se escriben una detrás de otra, en el mismo renglón, se suele decir que ü aparece como vector fila. Si las componentes de ü se escriben en vertical, poniendo cada una debajo de su anterior, .se dice que ü se presenta en forma de vector columna: u = Con esta notación en forma de columna, las operaciones entre vectores se presentarán en la siguiente forma: « i ' O í7 = «2 : W l u, + y, U| Aw,“ "2 + = ^2 + t^2 : ; Á "2 = Awj J*n, U '· 1 Q PROPIEDADES DE LAS OPERACIONES CON VECTORES Para los vectores de n componentes y en relación con la suma y el producto por un escalar, se verifica:
  • 33. DRES Y DE MATRICES) 25 t012] Si ¿4, 0 y w son vectores de n componentes (n escalares de un cuerpo K; en particular, reales o complejos) y si A y /x son dos escalares, entonces: 1. 2. 3. 4. 5. 6. 7. 8. (w + ü) + vv= w+ (i; + vv) w+ iJ=t5-f-w ¿ 4+ ó = ü, donde ó = (O, O, 0) se llama vector nulo Para cada w. existe un vector —w tal que w+ (-« ) = ¿?; Si w= (Wp Uj, u„), entonces -w = (-w ,, ···» “ ^n) Al vector - ü se le llama opuesto del ü. A(zJ + íO = Aw + A íT (A + fx)ü = ü + fiü KijjLÜ) = (A/i)/7 lw = « а) O ü -o y A¿; = o б ) Áü = ó => [A = O o M= ó] c) (-A)w = A(-í7)=-(A«) Obsérvese que las últimas propiedades se han separado de las primeras con una raya horizontal; con ello se quiere indicar que, cuando se definan los espacios vectoriales abstractos, las ocho primeras propiedades serán las que caractericen a los vectores y las tres últimas van a ser consecuencias de aquéllas. COMPROBACION Las anteriores propiedades se comprueban trivialmente; hagámoslo, como ejer­ cicio, paradosde ellas (la 5 y la b) •Llamandow= (w,, W j» ···» y ^ = (*^p ···»* ^n )» propiedad 5 se tiene: Á(Ü^l·Ü) = A[(m,, M j, u„) + (ü,, ^2, v„)] = = A(w, + üp W j + ···. “« + O = = [A(w, + y,), A(w2+ ^2 )* -MA(w„ + y„)l = = (Aw, + APj, ÁU2 + Awj, ·..»Aw„ + Áv„) = = (Aw„ Awj, AwJ + (Ai;„ ÁVj, ...» AuJ = Áü + ÁC • La propiedad ¿>), en lugar de comprobarla directamente, que no sería difícil, vamos a obtenerla como consecuencia de las primeras propiedades. Nótese que esta propiedad se puede enunciar diciendo que: de ser Aw = ó y A ^ O, entonces se verifica que w= á Así ocurre, ya que por ser A O existe A’ * y, por tanto (multiplicando por " ‘): Áü = d A-*'(Aw) = A-*ó (A-'A)m= J lM= d ü = d
  • 34. Algebra lineai DEPENDENCIA E INDEPENDENCIA IJNEAL Vamos ahora a concretar una idea c|ue ya hemos manejado anteriormente y que, en lo que sigue, va a seguir siendo enormemente frúctifera; n concepto dé «vector que depende linealmente de oü-os» ^ COMBINACIONES LINEALES; DEPENDENCIA LINEAL [013J Se dice que un vector v es una combinación lineal de los vectores w,, Oj, ...» ü,, O que 0 depende linealmente de ellos si, paia algunos escalares x,, jCj, ..., JC ;,, se verifica: V= jc,5, + JC 2 W 2 + ·" + x^úf, La dependencia lineal es transitiva: si D depende linealmente de unos vectores y cada uno de éstos depende linealmente de otros, entonces í depende linealmente de los últimos. Se dice que un sistema (o conjunto) de vectores 5 = {i;,, ..., 0^] es un sistema ligado o linealmente dependiente si se verifíca una de las siguien­ tes condiciones (1) o (II), que son equivalentes entre sí: (I) Alguno de los vectores de S depende linealmente de los demás. (II) Para algunos escalares A,, A2, ..., A^ que no son todos nulos es: A,i;| +A202 + - +A y = J DEMOSTRACIÓN I. Comprobemos en primer lugar la transitividad de la dependencia lineal. Se supone que v depende linealmente de los w„ .......ü^, y que cada uno de estos a^ depende linealmente de los esto es, para ciertos escalares A, y se verifica que: De aquí se infiere que:
  • 35. donde se hu Humado h «, = X Resulta, pues, que ü depende linealmente de los Wj, según había que comprobar. 2. También debemos comprobar que las condiciones 1 y 1 1 son equivalentes; eslo es, que 1 => II y que 1 1 => 1. Así ocurre, en efecto: I => II La hipótesis es, ahora, que alguno de los v¡ depende linealmenle de los demás; vamos a suponer que dicho vector es el 0, (de no ser así, cambiamos la numeración para que lo sea), es decir, que para algunos escalares A2. ...» A ^, es: y, = A,Ü2 + A 3¿J3 + ... + A A Pasando íJ, al segundo miembro y llamando A, = - I , resulta que ó = A,ü,-f A2ÍJ2+ - +A,,0^ luego se verifica la condición II, como había que probar, ya que los A,. A2. .... Áf, no son todos nulos por ser A, = - 1 # 0. II => I La hipótesis es ahora que A,tJ, + ÁjVj + * * *+ = ó para algunos escalares Á¡ no todos nulos. Podemos, pues, suponer que es A, # O (de no ser así, cambiando la numeración se consigue que lo sea), lo que nos permite poner: ■RICES) 27 y .= A iJ,+ ■ {-'é es decir, uno de los vectores de S (el tJ,) depende linealmente de los demás, esto es, se verifica la condición I. EJEMPLOS 1. El vector nulo. ó. es combinación lineal de cualesquiera vectores w,, W j, ..., üf,, ya que ó = Ow, + 0Ü2 + ·· + O M ;, Por tanto si ó es uno de los vectores de un sistema 5, entonces S es linealmenle dependiente. 2. Sean m,, W j. üy y € los siguientes vectores de 4 componentes: «, = (2, - 1 , 5, 1) fÍ2= ( - L 3, - 2 , 0) í?= (l, - 8, I, - I ) W 3= (3, 1, 8, 2)
  • 36. Algebra lineal El vector ü depende linealmente de los vcctores üj y W j, ya que: I m , - 2 w2 - IÙ3 Nótese que» en este caso, € también puede expresarse de otros modos como combinación lineal de los 5,» «2 y ^3»y^ íJ= 3tt, - íÍ2~ y i; = -w, - 3^2 + O W 3 Señalemos» de paso» que la última igualdad nos permite afirmar que Oes una combinación lineal de los w, y (solamente). 3. Sea S = {íí» í» c) el sistema formado por los siguientes vectores d= (l, 4,-2) , í=(4, 1,7) y c = (2, -1, 5) Este sistema 5 es un sistema ligado ya que 2a - 3b + 5c = ó. Nótese que, para cualesquiera que sean los vectores ¿f y è (de tres componentes), el sistema 5' = ¡a» b, c, d, é] también es ligado» ya que 2 ó - 3 ^ + 5 c + 0 j+ 0 # = ó PROBLEMA Pruébese que, si á,» áj. ···» son p vectores de n componentes y si es /? > n, entonces S = {¿f„ ...» á^,] es un sistema ligado. RESOLUCIÓN Denotemos a los vectores dados, áy, del siguiente modo: ...... flny) para y = 1»2........p Hay que comprobar que existen unos ciertos escalares jc„ jCj, ...» x no todos nulos y tales que ^ xfiy + x^á^ + - + Xpá^ = ó es decir, de manera que: -^l(fl|I» ^21*— »^nl) ^22» —» ^*«2) ---- ^np) = (0. O, ...» 0) Esta igualdad vectorial equivale a las n ecuaciones (escalares) que resultan de ! i .’ i ■ I
  • 37. (DE VECTORES Y DE MATRICES) 29 igualar a cero cada una de las componentes de la suma dcl prinicr inicinhro, esto es, al sistema; 10141 + ··· + = O + ··· + |W| Como H es un sislema homogéneo que liene nuiyor número de incógnitas (p) que de ecuaciones (n), según ya sabemos (véase (OlOl) dicho sislema tiene alguna solución no nula, que es lo que había que comprtibiu^. □ INDEPENDENCIA LINEAL Si unos veciorcs no formiin un sislema ligado, diremos que son linealmenle independientes; más precisamente: Se dice que un sislema (o conjunto) dc vectores 5 = {íí,. í· » tin sistema Ubre o lineabnente independiente si se verifica una dc las siguien* tes condiciones (A) o {B que son equivalentes entre sí: (A) El sistema S no cs linealmenle dependiente, cs decir, ninguno de los vectores de 5 depende linealmente de los demás. (fi) La única combinación lineal dc vectores de S que es nula es la que tiene todos sus coeficientes nulos; esto es: A,íJ| + + - + = (A,. Aj, .... A^ escalares). A| —Aj —· A, = 0 COMPROBACIÓN Si comparamos las condiciones (A) y (fi) con las (I) y (II) de la dependencia lineal (véase [013]). nos encontramos con que (/) es la negación de (1) y (fi) cs la negación dc (II). Como (I) y (II) son equivalentes, según ya se demosü-ó. concluimos de ello que umibién son equivalentes sus negaciones (/) y (fi). EJEMPLO Los vectores a, b y c (de 5 componentes): ó = (3. 1. 7 ,- 5 . 4) . ^ = (0 . 2, 4, -3 , -2 ) y c = (O, 0. - 6, 5. l)
  • 38. ÁLGEBRA UNEAL forman un sistema libre, ya que la relación aü fib + ye = ó sólo se verifica para a —/3 = y = 0. Así ocurre, en efecto, ya que la citada relación equivale al sistema: 3 a = O a + 2/S = 0 7 a + 4)3 - 6 y = O - 5 a - 3 / í + 5 r = 0 4 a - 2)0 + y = O que sólo tiene (obviamente) la solución a = O, yS = O, y = 0. RANGO DE UN SISTEMA DE VECTORES Dado un conjunto de vectores no nulos, estamos interesados en estudiar si hay algunos de ellos lales que satisfagan a los dos requerimientos siguientes: 1) que formen un sistema independiente; y 2) que los dem ás vectores dados dependan linealmente de ellos. Vamos a probar que lales sistemas existen y que todos ellos tienen el mismo número de vectores, que se llama rango del conjunto de vectores dado. B RANGO. OPERACIONES ELEMENTALES TEOREMA (EXISTENCIA DEL RANGO) ÍÜ15J Para cualquiera que sea el sistema 5= lí5|, V j, ü p ] de p vectores, no todos nulos, se verifica que; (I) Hay algún sistema 5o de vectores de S tal que: 1) es linealmente independiente; y 2) todos los demás vectores de Sdependen lineal­ mente de los de (II) Todos los sistemas S ^ , de vectores de S , que satisfacen a los reque­ rimientos 1) y 2) tienen el mismo número de vectores. Para cada sistema 5= {t?,, C , , D„ de vectores no nulos, existe pues un número r tal que: a) hay algún sistema formado por r vectores de Sque es linealmente independiente; y b) todo sistema formado por más de r vectores de Ses linealmente dependiente. Este número r es. entonces, el mayor número de vectores linealmente independientes que hay en 5; a él se le llama rango de 5 y se pone: r = rang S
  • 39. 31 DEMOSTRACIÓN Hemos de comprobar la veracidad de las dos proposiciones (I) y (II). Las demás afirmaciones del enunciado son consecuencias obvias de (I) y (II). (I) Esla proposición la comprobaremos por inducción sobre p esto es, veri­ ficaremos que es cierta para p - y probaremos que, de ser cierta para p - m , entonces lambién lo es para = I. Esta proposición (I) es evidentemente cierta para /? = I ya que, como ahora es 5 = {O,) con tJi = 5 ¿ ó. la proposición se satisface obviamente para = 5. Suponiendo ahora que la proposición (I) es cierta para los sistemas S que tengan p = m vectores, debemos comprobar que también lo es si S tiene p = m + I vec­ tores. Consideremos, para ello, los dos ca.sos que pueden presentarse (los m f 1 vectores son independientes o son dependientes). Si los m + I vectores de S son independientes, entonces la propiedad se verifica para 5(, = 5. Si los m + I vectores de S son linealmente dependientes, entonces uno de ellos depende linealmente de los demás; llamemos a aquel con lo que los demás son iJ,, Dj, ..., En este ca.so, como el sistema S' = (yp ^2» · ·» vectores, para él existe el sistema que asegura la proposición (I); esta proposición (I) se verifica, entonces, (para S) si se toma 5o = ya que este es independiente y todos los vectores de S (incluyendo el ÍJ„+,) dependen, obviamente, de los de (II) Procederemos por reducción al absurdo; esto es, partiendo de que la proposición es falsa, encontraremos una contradicción. Supongamos, pues, que hubiera dos sistemas que llamaremos y Sq que cumplie­ ran lo exigido en (I) y tuvieran distinto número de vectores. Si denotamos So = (t?|. ^2. y So = (»V,, M > 2 . ..., vi>j lo que se ha admitido es que r y s son distintos; supongamos, por ejemplo, que es r< s. Pues bien, vamos a comprobar que por verificarse que es r < 5 y que para 5/, se cumple lo exigido en (I), el sistema S¡/ no puede ser linealmente independiente; esta contradicción conduce a la veracidad de (II). Vamos, pues, a comprobar que existen algunos escalares jc,, jCj. ···. Xs todos nulos y tales que s XyWy + 0 :2^2 + - + ^ » O sea E x¡w¡ = o [1] /-I Como todos los vectores de 5, y en particular los de Sq dependen linealmente de los vectores de resuha que para unos ciertos escalares U j¡ se verifica que r ajfij (para » = 1. 2, ..., s) Recurriendo a estas igualdades, la relación [I] puede expresarse del si­ guiente modo: 6 = ' L x¡w,= 'L x, i a¡,C, = I s xflO = Z I xfl C = i I í <-i V -' 7 < -u -i y-i V -i 7
  • 40. Algebra lineal esto es: s I O u X , / » ' / ' ? , + I Ü 2 ,X t í> 2+ - I « „ J C , v-l y v-l ^ V-l / 0 = 0 (21 Como {tJ„ 0 } , P,) es un sistema linealmente independiente, la relación [2] se verifica si y sólo si son nulos todos los escalares que figuran en ella; esto es, si: I i-l [3 J La relación [3] es un sistema lineal homogéneo de r ecuaciones con las s incógnitas x,, x,. Como se ha supuesto que es r < s , resulta que el sistema [3] tiene alguna solución no nula (según se probó en [010]). Como [31 cs equivalente a [1], nos encontramos con que [1] se verifica para algunos escalares x,, x^,.... x^ no todos nulos» como queríamos comprobar. OBSERVACIÓN Para hallar el rango de un sistema de vectores habrá que ir desechando aquellos vcctores que resulten ser combinación lineal de los que van quedando, hasta que éstos formen un sistema independiente; el número de vectores de éste es el rango buscado. Conviene proceder, para ello, de una manera metódica, como por ejemplo: Sea 5 un sistema, de p vcctores no todos nulos, del que se quiere hallar el rango. Tomemos un vector no nulo de 5; sea éste el iJi. Si todos los vectores de S dependen linealmente de (?,. entonces el rango es 1. Si en 5 hay algún vector que no dependa linealmente de O,, al que llamaremos y los demás vectores dependen de los tJ, y üj, entonces el rango de S cs 2. Si en S hay un vector, que llamaremos Vy que no dcf)ende linealmente de los y d jy todos los demás vectores dependen linealmente de 0,, D 2 y Vy entonces el rango de 5 es 3. Prosiguiendo de este modo, se liega a cnconü*ar (a lo más es p etapas) el rango de 5. EJERCICIO Sean S={iJ,, üp] y = í?2» ·*·* sistemas de vectores. Sabiendo que S cs un sistema independiente y que los vectores de 5' dependen linealmente de los de 5, comprobar que rang 5' ^ p. RESOLUCIÓN El sistema 5U 5' = {m,...... i?„ ..., (?„} tiene rango /?, ya que sus p primeros vcctores son linealmente independientes y todos los restantes dependen lineal- mcnte de ellos. El rango de S' no puede ser mayor que p, pues si lo fuese, habría más de p vectores de S y por tanto, de S U S que serían linealmente independientes, lo que cs falso ya que el rango de cs p.
  • 41. GO (DE VECTORES Y DE MATRICES) 33 EJEMPLO Sea 5 = {J, h, c, d] el sistema formado por los vectores: J = (l, 0. 0. O , 1) í=((), 2. 0. 2, 0) c = (3, 0. 3, O, 3) J = ( l . 2, 3. 2, I) Los vectores á, b y c forman un sistema independiente, ya que la relación a ü -^l^b + yc —d equivale a: a + 3y = 0 ; 2)3 = 0 ; 3^ = 0 cuya única solución es la a = yS= y = 0. Por otra parte, d es una combinación lineal de las J, y c, ya que d - - 2 J + f *f c. Por tanto, el rango de S es rang 5 = 3. ^ RANGO Y OPERACIONES ELEMENTALES Igual que ocurría con los sistemas de ecuaciones lineales, también aquí las operaciones elementales juegan un papel importante. Allí (véase [004]), al realizar operaciones elementales en un sistema de ecuaciones lineales, no va­ riaban las soluciones de éste. Aquí vamos a comprobar que, al realizar opera­ ciones elementales en un sistema de vectores, no varía su rango. [016] LAS OPERACIONES ELEMENTALES un sistema de vectores) j. intercambio, de los vec­ tores i y j ésimos. A/j: Multiplicar por A Oel vector í-ésimo. /+ Ay]: sumar, al vector i-ésimo, A por el vector 7-ésimo. Propiedad fundamental del rango: el rango de un sistema de vectores no se altera si se realizan en él cualesquiera operaciones elementales. Se llaman operaciones elementales a las siguientes manipulaciones: 1. Intercambiar el orden con el que figuran los vectores en el sistema. 2. Multiplicar uno de los vectores por cualquier escalar no nulo. 3. Sumarle, a uno de los vectores, otro cualquiera de ellos. 4. Aplicar, reiteradamente, cualesquiera de las operaciones anteriores (en particular, sumarle, a un vector, cualquier combinación lineal de los demás). NOTA: Hay quienes consideran tumbién como operación elemental (cosa que no hare­ mos no.solros) a la siguiente: suprimir un vector que sea combinación lineal de otros vectores del sistema. COMPROBACIÓN La conservación del rango a! realizar operaciones elementales del tipo 1 es evidente; para la operación 4, como es consecuencia de las tres anteriores, no hay nada que demostrar. Sólo habrá que comprobar la conservación del rango frente a las operaciones 2 y 3. Estas dos propiedades podemos englobarlas en
  • 42. Algebra uneal una sola quc diga: cl rungo de un sL*vienìa 5 —(m» u‘. cs igual al del sistema S* = t h·. ...), donde u = a« + para a ^ 0 (sì es ^ = 0, se obtiene la operación 2; si « = /?== K se obtiene la operación 3). P;u*a demostrar esto, recurnrcmos al rango r del sistema U w *. ...I y distinguiremos dos casos: a) El vector ù depende linealmente de En este supuesto, es nmg 5 * r. Como cs evidente que. ahi>ra. u = aü + fiC también depende linealnicme de 5,^ rcNulüi que rang 5' = r. Por tanto, S y 5' tienen igual ningo. b) El vector ü no depende linealmente de iV En este supuesto, es rang S = r + I. AhiKa. ü* tampivo depende linealmente de pues si m no fuese, como es w= (l a ) u - { f i a)C, resultaría que ít dependería li- nealnieme de cuando se ha supuesto lo contrario. Resulta de ello que S' tiene rango r ^ 1. luego S y 5' tienen, también en este caso, igual rango. C A I.CI1.«O K I.R A N ÍÍOl)Kl’NS IS 'IK M A l)KK í'IO R K S Para hallar el rango Je un sisiema .V . cs aconsejable pn>ceder sisteniáticamentc, aplicando adecuadas operaciones elenurntales. hasta obtener un sistema en el que halUr el rango sea algt> clenientaL El rango de 5. por ser igual al de este último, «erá ya contKido. J P R ()l‘()S IC I()N 10171 DfcJoS —(i). í . .... sistema formado por los vectores de n componentes: J = < 1,. .... tf.) r«. .... t>.) h, .·· ^ sea = = c,. O c, .. Rcali¿ar operaciones elementales en 5 equivale a hacer las operaciones en las filas de la matriz K Utilizando como pivotes (véase [()09J) a ciertos elementos de M, elegidos de modo idóneo para realizar adecuada.s ope· ncHHKs elementales en las filas de M. siempre cs posible transformar 5 en un sistema equivalente 5, que sea escalonado (véase [OOóJ). esto es. tal qiK cada vector (a partir del 2.® ) comience con una sucesión de ceros que liene algún cero más (uno como mínimo) que la fila anterior. El rango de que cs igual al de 5. cs el número de vectores no nulos que contiene.
  • 43. TRICES) 35 COMPROBACIÓN Respecto de cómo conseguir el sistema escalonado 5, del que se habla en el enunciado, no hay más que seguir el camino, ya conocido, para transformar M en una matriz escalonada aplicando operaciones elementales a sus filas (véase, en [0091, lo dicho al describir el método de Gauss). Sólo tenemos, pues, que compmbar que el rango de es igual al número r de vectores no nulos que contiene. Comencemos recordando que es de la forma S,= (m,, w,» — "r. Ò......ó donde la primera componente no nula dc cada m ,, a la que denotaremos por ocupa algún lugar más a la derecha que la dc Nótese que lo que debemos comprobar es que M j. ..., son lineaimente independientes. Así ocurre, en efecto, ya que la relación a,M, + + ♦ ·· + « À = ^ (donde los a¡ son esca­ lares) equivale al sistema a,«,i = 0 ar,» + « 2 *^2 1 “ ^ (con los ♦ .se denotan a las restantes componentes de los vectores m,) y este sistema sólo liene. obviamente, la solución nula a, = aj = ··· = a, = 0. EJEMPLO Siguiendo el j^rocedimiento antes descrito, calculemos el rango del sistema S = |J, c, dy è]y siendo: J = (l, 3, 2, -1 , I, 4) * = ( 1 . 4 , 1 , 1 ,2 . 3) c = (2, 5, 5. 1. 3. 7) J = ( 2 , 4. 6. - I . 2. 8) f = (3, 8, 7, 0 , 4 , 1 1 ) Realizando sucesivas operaciones elementales en las filas de la matriz cuyos vectores fila son los a, b, c, d, é, se obtiene; — l 3 2 -1 1 4 à 0 1 - l 2 l - 1 c* = c - 2 á — 0 “ l l 3 l - l d ' = d - 2 á — 0 - 2 2 1 0 0 è ' = è - 3 à — 0 -1 l 3 1 - l (♦) Los vectores ú, son del tipo ü¡« (O, ..., 0, ii„, ♦, ♦); los * son escalares cualesquiera.
  • 44. — 1 3 2 - l 1 4 b - ^ b · — 0 1 - 1 2 1 - l c" = c '+ b' 0 0 0 5 2 - 2 d*' = <?' + 2b' — 0 0 0 5 2 - 2 0 0 0 0 0 0 — l 3 2 -1 l 4 b '" = b " — 0 1 - l 2 l - l — 0 0 0 5 2 - 2 — 0 0 0 0 0 0 - 0 0 0 0 0 0 El rango de este último sistema es 3, pues b*" y c''' son independien­ te s y J '" = ò y é'"' = ó; por tanto, el rango del sistema dado, 5, es 3. Una matriz que tenga m filas y n columnas puede concebirse como un sistema (sucesión) de m vectores (vectores fila) de n componentes cada uno de ellos; la maü-iz también es un sistema (sucesión) de n vectores (vectores columna) de m componentes cada uno. Concretando, para la matriz « I I «12 - - « In «21 ^22 ··' ^2; - «2n > = | « / I « ,2 ^ « y - «in « « 2 · · ’ % l(w son escalares (de un cuerpo A T ; en particular e R o e C), para 1=1,2, m y j = l, 2, ...» n. Los vectores Illa y los vectores columna son: (vector fila i-ésima)— ^(a,,, a¡2 , «,„)
  • 45. )RES Y DE MATRICES) 37 (para cada uno de los valores / = 1, 2......m se obtiene un vector fila de A, que tiene n componentes) (vector columna y-ésima) — ♦ (para cada uno de los valores y = I, 2, n se obtiene un vector columna, de A, que tiene m componentes). Pues bien, los vectores fila, de A, tienen el mismo rango que los vectores columna; más exactamente: □ TEOREMA DEL RANGO 1018] Para cualquiera que sea la matriz A = la^], de m filas y n columnas (esto es, de tamaño m x /i), se verifica que el rango del sistema de sus m vectores fila (que se llama rango de filas de A) es igual al rango del sistema de sus n vectores columna (que se llama rango de columnas de A). A cualquiera de estos dos rangos, iguales entre sí, se le llama rango de la matriz A. DEMOSTRACION Llamamos r y r' a los rangos de filas y de columnas de la matriz A. Vamos a comprobar que es r' ^ r y r', de lo que se infiere que r y r son iguales. Solamente comprobaremos que es r ' ^ r , pues la relación r ^ r ' se pruebe de modo totalmente análogo. Si el rango de filas de A es r, entonces hay r filas de A que son linealmente independientes y las restantes filas dependen de ellas. Cambiando el orden de las filas, si fuera necesario, se puede suponer que las r primeras filas de A son independientes. Llamando / al_vector fila de lugar /, se sabe, pues, que para / = r + l, r + 2, ..., m, la fila f es combinación lineal de las esto es, para ciertos escalares se verifica que fi = « ,i/i ^aJi *'· ^irfr / = r + 1, r + 2, ..., m) Esto equivale a poner que las componentes del vector del primer miembro son, respectivamente, iguales a las de la suma del segundo miembro, es decir, a: r + - + «iAn = I »0,%
  • 46. Algebra lineal (para / = r + I, r + 2......m y ; = I, 2, .... n). Por tanto, la columna j-ésima de A, que llamiu^emos c^. se puede poner en la forma: c¡ —(fl|y. Oy, .... fl,y, Or+iy. ···. ^ r r ' = "l/. fljj......O rj, ^ ...... ^ «m/.“» ./ ^ /í" I 1 = rt,/l. O, .... O, ,, «„,,) + + 1.O, ar,+22..............."m2) + + «r/0, 0...... 1, «r+tr» ·*- 0 = ÍI,/, + + - + VV Resulta entonces que todos los vectores columnas de A dependen linealmente de los r vectores que intervienen en esta última suma (que los hemos llamado t?2»···» ^r) y» por rango r* de columnas de A no puede ser mayor que el número total r de vectores para 1, 2, r, (véase el ejercicio que sigue a [0151, en la página 32); esto es, se verifica que r' ^ r, como se quería comprobar. 1 CALCULO DEL RANGO DE UNA MATRIZ De lo dicho hasta ahora, primero al relacionar el rango de un sistema de vectores con las operaciones elementales (véase [016]), después cuando se sistematizó el cálculo del rango de un sistema de vectores (véase [017]) y, también, al defmir los rangos de filas y de columnas de una matriz, que resultaron ser iguales, de lodo ello, se desprenden las siguientes conclusiones: [019] Para cualquiera que sea la matriz A = [a^], de m filas y n columnas, se verifica que: 2 . " El rango de filas (o de columnas) de A no se altera si se realizan en las filas (o las columnas) de A cualesquiera operaciones elementales. Utilizando como pivote (véase [009]) a ciertos elementos de A, elegidos de modo idóneo para realizar adecuadas operaciones ele­ mentales en las filas (o las columnas) de A, siempre es posible transformar A en una matriz escalonada A^, El rango de filas (o de columnas) de la matriz E, que es igual al de /,,, es el número de filas (o de columnas) no nulas que contiene.
  • 47. ^CES) 39 EJEMPLO Como ejemplo, de aplicación inmediata del método descrito, calculemos los rangos de filas y de columnas de la siguiente matriz A, que deberán resultamos ¡guales: 1 2 “ 1 3 3 5 3 - 4 - 2 1 2 - I 1 - 3 - 3 2 2 5 - 3 9 Para el rango de filas, al realizar las operaciones elementales, en filas, que se indican a continuación, se llega a: i r = 1.“ — 1 3 --2 1 2 2.·' = 2.· - 2 · i.· — 0 --1 5 - 5 1 3r = 3.*-f 1.· 0 6 0 - 2 -1 4.·' = 4.· ~ 3 · 1.· — 0 - 13 5 - 1 3 i r ' = 1.·' — ’ l 3 - 2 1 2 2 ' = 2 — 0 -1 5 - 5 1 3.·" = 3.*'+ 6 · 2.*' — 0 0 30 - 3 2 5 4.·” = 4.* '- 13- I · ' — 0 0 - 6 0 64 --10 — 'l 3 - 2 1 2' ) Mtrt — 2 — 0 -1 5 - 5 1 — 0 0 30 - 3 2 5 ^r^' = 4r ' + 2 - 3r ‘ ' — 0 0 0 0 0 = >4' = A ' - = A ^ Como la matriz escalonada A^ tiene tres filas no nulas, resulta que el rango de filas de A, y, por tanto de A, es 3, Para el rango de columnas, al realizar las operaciones elementales, en columnas, que se indican a continuación, se obtiene: i r = L· 2 . · '= 2 . · - 3 · 1.· 3.*' =^3.· + 2 · 2.· 4 . · '= 4 . · - 1.· 5.*' = 5.· - 2 · 2.· 1 0 0 0 0 2 - 1 5 - 5 1 -1 6 0 - 2 - 1 3 - 1 3 5 - 1 3
  • 48. i r 9 ·'' : i r 3.*'' = 3.-' + 5 · l y r 4 . - = 4 r - 5 * 2 . · ' 3 *" = 5.“'+ 2.·' - l 0 0 0 0“ 2 - l 0 0 0 _ _l 6 30 - 3 2 5 3 - 1 3 - 60 - 6 4 - 1 0 _ 7 u/r/ _ I O M - a//# = 2 a t f - :30 “ 3 0 -4 . 5.“'" = : - 1 0 0 0 0' 2 --l 0 0 0 -l 6 1 0 0 3 - 13 --2 0 0 esia última matriz escalonada tiene tres columnas no nulas, luego su rango de columnas, que es igual al de A, vale 3. OBSERVACIÓN realizar operaciones elementales se conserva el rango debe mantenerse siempre que se otras que sean combinaciones lineales de no aumenta, pero puede disminuir. Así, por A formada por tres columnas independientes, ^1 » ^2 y 'o rang A = 3; sea A' la matriz cuyas columnas son = 2c, ~ C2~ Cy Las tres columnas de A' son + ci + C3= ó, luego rang A' < 3, con lo que Según lo que venimos diciendo, al el rango. Ello no significa que sustituyan filas o columnas por aquéllas; al hacer esto, el rango ejemplo, consideremos una matriz c¡ = - c , + c2,ci = - c , + c 3 y c i linealmente dependientes, pues c¡ rang A' < rang A. MATRICES EQUIVALENTES Más adelante, cuando se habla de las matrices de las aplicaciones lineales, se volverá sobre este concepto de equivalencia de matrices y, entonces, se le dará un enfoque nuevo y de mayor alcance. No obstante, la estrecha relación que existe entre el rango y la equivalencia de matrices, hace aconsejable que sea ahora, y no más adelante, cuando se introduzca este concepto.
  • 49. DRES Y DE MATRICES) 41 Í020J Dos matrices del mismo tamaño m x n (ambas con m lilas y ;i columnas) se dicc que son matrices equivalemes si tienen el mismo rango. Para el conjunto de las matrices m X la equivalencia es (etectivamentc) una relación de equivalencia; es decir, es rellexiva, simétrica y transitiva. Hay tantas Chuses de esta equivalencia como posibles valores del rango /·, los cuales son todos los números naturales comprendidos entre r* () y r = nu'n (m, «)» ambos inclusive. De entre tenias las matrices m x n que tienen rango r, interesa destacar la que hemos llamado C,. que tiene tínlos sus elementos nulos excepto los r primeros elementos de su diagonal que valen I. Esta matriz se llama representante canónico o matriz canónica de equivalencia de las matrices m x n que tienen rango r. Aplicando adecuadas o(Kracíones elementales, en tilas y en columnas, cualquier matriz m x n de rango r se puede translomiar en C (*) luí diagonal de una niatri/ está formada por los elementos que iK:upan los lugares (I. I). (2. 2). (33)» ... COMPROHACIONES • Es trivial comprobar que la equivalencia de matrices es reflexiva (toda matriz tiene el mismo rango que ella misma), es simétrica (si rang A = rang B, entonces rang B = rang A) y es transitiva (si rang A = rang B, y rang B = rang C, entonces rang A = rang C). • matriz tiene rango r pues sus r primeras filas (y columnas) son linealmente independientes y todas las restantes son nulas. • Según ya sabemos (ver ((K)9|), realizando las oportunas operaciones elemen­ tales. a una matriz m x n que tenga rango r, es posible obtener una matriz escalonada con r filas no nulas, las cuales tienen a 1 como elemento de cabecera, esto es. como primer elemento no nulo. Utilizando como pivotes a estas r cabeceras y aplicando operaciones elementales en columnas, se ob­ tiene una matriz cuyos únicos elementos no nulos son dichas r cabeceras, que valen 1. Sin más que permutar ahora, si ello fuera preciso, algunas columnas, se obtiene ya la matriz C,,
  • 50. CAPÍTULO 3 Operaciones con matrices; matriz inversa Es ahora momento de hablar sobre las matrices y hacerlo con algún dete­ nimiento. No se trata de contar aquí muchas cosas acerca de ellas, sino de traer a colación algunas cuestiones que nos permitan avanzar con cierta holgura en los próximos capítulos. Nos referimos en concreto a la suma de matrices, al producto por un escalar, a la multiplicación de matrices, a la matriz inversa, cuando exista, y a las principales propiedades relacionadas con todo ello. Poder recurrir a las matrices desde los primeros momentos, aunque ello sólo sea como apoyo, en ejemplos y en problemas, puede sernos de inestimable ayuda. Detrás de todo esto de las matrices hay una idea básica: la de familia o sistema de elementos que dependen de dos índices. Éste es el caso, por ejemplo, del horario de salidas de los trenes de una determinada línea férrea; aquí, las horas de salida de los trenes dependen de las siguientes «variables discretas» o índices: i = (número del tren) y y = (número de la estación). Si llamamos a la hora de salida del tren /-ésimo de la estación y-ésima, la tabla de los horarios de salida será la «matriz» cuyo elemento de lugar (/, j) es h¡j. En esle caso, como en otros muchos, los elementos h¡j (horas de salida) se representan recurriendo a una «tabla de doble entrada» y se pone: Número de la estación 1= 1 P / = 2 s T T •s i 1 : i = m 7=1 7 = 2 ... i 8,05 8,25 9,00 9,40 10,05 ! 10,35 9,15 9,30 9,55 10,25 10,45 11,00 — — — — — — — — — — — — — — — — — 19,00 19,30 20,20 21,20 21,55 22,30 (*) También, por ejemplo. ; = l puede ser «Robledal de las cabras»; y * 2 , puede ser «Vi- llachica del Páramo»; i = n podría ser «San Veremundo de la Vera». ( ·♦) Por ejemplo, i = 1 cs «tren expreso»; i = 2 cs un «tren rápido»; i « m cs un «tren corr«o*· 12
  • 51. OPERACIONES CON MATRICES; MATRIZ INVERSA 43 a MATRICES; ÁLGEBRA DE MATRICES Venimos recurriendo a las matrices desde las primeras páginas, pero de ellas sólo se ha dicho, por no haber necesitado más, que son tablas rectangulares de escalares. Es obligado, pues, dar ahora las definiciones pertinentes. 3.1, P R IM E R A S D E FIN IC IO N E S SOBRE U DEFINICIÓN DE MATRIZ ¿Qué se entiende por tabla rec­ tangular? ¿Qué son filas y qué son columnas? Para salvar estas objeciones, se puede dar la si­ guiente definición dc matriz: Dados m, r t e y si / y y son /={l,2....w} yy = {1,2.....n]y se llama matriz de tamaño m x n , de escalares de un cuerpo K, a toda aplicación A: I x J - * K; la imagen por A de un par (/, j ) se le llama elemento de lugar (iJ) de y le representaremos poniendo Se llama matriz de tamaño m x n, constituida por escalares de un cuerpo K (en particular, K = U o K - C ) , a cualquier tabla rectangular A formada por m ·n escalares, dispuestos en m filas y n columnas. Se llama elemento de lugar (/, j) o ij de A al escalar que está situado en la intersección de la fila /-ésima (para /= 1, 2, m) y la columna y-ésima (para7 = 1, 2, ..., n) si a este elemento se le llama la matriz se denota poniendo: «11 tí,2 - «12 ··’ « In ' A = «21 «22 - «2., 0 A = «21 «22 - «2n -"mi «„,2 - «m 2 - «mJ Abreviadamente, también se suele escribir A —la¡j]. Cuando se quiera señalar expresamente que la matriz A tiene tamaño m x /i, se la denotará poniendo A^^„, Dos matrices de igual tamaño, A = {a¡^ y B = [tf¡j]y se dicen matrices iguales si tienen respectivamente iguales los elementos que ocupan los mismos lugares, esto es. si a¡j = b¡j para / = 1, 2, ..., m y y = 1, 2, ..., m, Al conjunto de las matrices de tamaño m x /i se le denota por (K), donde K es el cuerpo de escalares, o simplemente Si m = /í, se simplifica la notación y. en lugar de se pone Si m = n, se dice que A es matriz cuadrada; si m ^ n, se dice que A es rectangular. Si para i > j es a¡j = O, se dice que A es triangular superior, si para i < j es a,y= O, se dice que A es triangular inferior; si para i ^ j es a¡j = O, se dice que A es matriz diagonal. Se llama diagonal de A a la sucesión a^^a^iQ^v^. Matriz escalar es una matriz diagonal que tiene iguales todos los elementos de su diagonal. Si w = 1, se dice que A es matriz fila: si n = l, se dice que A es matriz columna. Si A es cuadrada y, para cualesquiera i y 7, es a¡j = aj¡ o si cs a^¡ = —aj¡ se dice, respecti­ vamente, que A es matriz simétrica o que A es matriz antisimétrica. EJERCICIOS Si A = [a¡jl es la matriz que se da al final de este enunciado, analícese en qué
  • 52. Alg e b r a u n ea i casos es: 1) iriangular superior; 2) triangular inferior; 3) simétrica, esto es. tal que sus elementos y a¡¡ son iguales (para / = I, 2, 3 y y = I. 2, 3). X + > x - z x - y y y - ^ z L oc+ z - 2 z - y zj RESOLUCIÓN 1. Han de ser a,, = = « 3 2= O, esto e s a c - y = 0, j: + z - 2 = ü y z - > ' = 0. que se verifica parax = y = z= 1 solamente. La solución es, pues, la matriz A, que figura al final de este ejercicio. 2. Ha de ser a, 2= « , 3= 0 2 3= 0*®sto es + y = 0. jc - z = O e y + z = O, que se verifica para = — y = z, lo que conduce a las matrices /4j que figuran al final. Ha de ser « 1 2= 0 2 1 · «n = «3 i y <»a="3 2 · esto es, jc + > - = x -> '. jt~z = = jt + z ~ 2e y + z = z —y. que se verifica para y = O, z = 1 y x cualquiera; luego las soluciones son las matrices A,: 3. A ,= “l 2 0“ J C 0 oí ’jc X j c - f 0 1 2 ; ^2 — 2jc -JC 0 ; >^3- J C 0 1 _0 0 L 2 { x - ) 2x JC. . j c - l 1 1, □ SUMA (DE MATRICES) Y PRODUCTO POR UN ESCALAR Al dar ahora, tan pronto, las definiciones de suma de matrices y de producto de escalar por matriz, no disponemos aún de una justificación suficiente de las mismas. Por ello, nos ha parecido oportuno presentar aquí un ejemplo en el que se puede apreciar que las citadas definiciones van a ser provechosas: EJEMPLO PRELIMINAR Un ludopata adquiere 7 boletos de cada una de las loterías 1.*, 2.* y 3,*; por cada uno de ellos paga la cantidad c,, Cj y Cy respectivamente, y obtiene, en premios, las cantidades P{>Pi y Py· ocasión, adquiere 4 boletos y, ahora, las cantidades anteriores pasan a ser cJ, y p¡, p^ respectivamente. El jugador hace balance económico (para determinar, el muy iluso, cuál de las loterías le es más propicia); los gastos y los beneficios pnxiucidos con la loteria /-ésima son 7c/ + 4c,' y lp¡ + 4p¡, Nuestro hombre, que a pesar de tcxio C 5 metódico y ordenado, realiza sus cuentas de manera conjunta y agrupa tixlos sus cálculos poniendo: Pi c¡ P p 7c, + 4<·; lp^ + Ap' < ^ 2 Pl + 4 < ^í Pl = Ic^ + 4c2 Ipi + 4/>' Sy Py, Sy P , _7cj + 4r; 7/), + 4/>;_