2. ALGEBRA LINEAL
y
geometría cartesiana
Tercera edición
Juan de Burgos Román
Catedrático de Matemática Aplicada de la Escuela
Técnica Superior de Ingenieros Aeronáuticos
Universidad Politécnica de Madrid
MADRID · BOGOTÁ · BUENOS AIRES * CARACAS · GUATEMALA · LISBOA
MÉXICO · NUEVA YORK · PANAMÁ · SAN JUAN · SANTIAGO · SAO PAULO
AUCKLAND · HAMBURGO · LONDRES * MILÁN · MONTREAL · NUEVA DELHI · PARÍS
SAN FRANCISCO · SIDNEY · SINGAPUR · ST. LOUIS · TOKIO · TORONTO
3. Contenido
PRÓL0(;0 A LA PRIMERA EDICIÓN........................................................... xiü
PRÓLOGO A LA SEGUNDA EDICIÓN........................................................... xvn
PRÓLOGO A LA TERCERA EDICIÓN........................................................... ixx
INICIACIÓN: LINEALIDAD Y RANGO
P A R T E I
Introducción.............................................................................................................. 2
Capítulo L Sistemas de ecuaciones lineales; el método de Gauss................. 3
a Primeras definiciones. Equivalencia......................................................... 3
1.1. Sistemas de ecuaciones lineales....................................................... 3
1.2. Sistemas equivalentes....................................................................... 8
P El método de Gauss..................................................................................... 12
1.3. Matrices escalonadas y sistemas escalonados.................................. 12
1.4. El método de Gauss........................................................................... 16
1.5. Sistemas homogéneos con menos ecuaciones que incógnitas......... 21
Capítulo 2. Rango (de vectores y de matrices)................................................ 22
a Vectores de n componentes........................................................................ 22
2.1. El espacio vectorial K"..................................................................... 23
2.2. Dependencia e independencia lineal................................................. 26
p Rango de un sistema de vectores............................................................... 30
2.3. Rango. Operaciones elementales....................................................... 30
2.4. Cálculo del rango de un si.stema de vectores.................................. 34
y Rango de una matriz................................................................................... 36
2.5. Existencia y cálculo del rango......................................................... 36
2.6. Matrices equivalentes....................................................................... 40
Capítulo 3. Operaciones con matrices; matriz inversa................................... 42
a Matrices; álgebra de matrices.................................................................... 43
3. l. Primeras definiciones......................................................................... 43
3.2. Producto de matrices......................................................................... 46
3.3. Traspuesta de una matriz.................................................................. 54
3.4. Relación entre las operaciones elementales y el producto............. 55
3.5. Multiplicación de matrices por bloques............................................ 60
P Matrices invertibles.................................................................................... 62
3.6. Definición y primeras propiedades................................................... 62
3.7. Cálculo efectivo de la inversa.......................................................... 65
3.8. Caracterizaciones de las matrices invertibles................................... 67
vii
5. íx
f Factorízjación L U de una matríz (’·'). . . . . . . . . . . . . . . . 195
A. 13. Existencia de la factorízación L U ........................................................ 616
A. 14. Factorízación L D U ................................................................................... 623
A. 15. Resolución de un sistema de ecuaciones acudiendo a la factoríza*
ción L U ....................................................................................................... 623
A. 16. Factorízación L D U ..................................................................................... 623
Ejercicios y problemas a la parte 11. . . . . . . . . . . . . . . . . . . . 196
Enunciados................................................................................................................. 196
Soluciones.................................................................................................................. 202
P A R T E I I I
Capítulo 7. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . 208
a Formas cuadráticas. Conjugación. . . . . . . . . . . . . . . . . 208
7.1. Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . 208
7.2. Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . . 218
7.3. Conjugación respecto de una forma cuadrática. . . . . . . . . 224
p Diagonalización de una forma cuadrática. . . . . . . . . . . . . 231
7.4. Forma diagonal (congruencia). . . . . . . . . . . . . . . . . 231
7.5. Diagonalización efectiva de una forma cuadrática. . . . . . . 234
y Formas cuadráticas reales. . . . . . . . . . . . . . . . . . . . . 239
7.6. Formas definidas y ley de inercia. . . . . . . . . . . . . . . 240
7.7. Expresión canónica de una forma cuadrática. . . . . . . . . . 246
Capítulo 8. Espacios vectoriales euclídeos. . . . . . . . . . . . . . . . 253
a Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . 254
S.L Producto escalar de vectores. . . . . . . . . . . . . . . . . 254
8.2. Normas y ángulos. . . . . . . . . . . . . . . . . . . . . . 259
P Vectores ortogonales y ortonormales. . . . . . . . . . . . . . . . 266
8.3. Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . 267
8.4. Proyección ortogonal. . . . . . . . . . . . . . . . . . . . . 277
y Transformaciones ortogonales. . . . . . . . . . . . . . . . . . . . 284
8.5. Transformaciones ortogonales . . . . . . . . . . . . . . . . 285
8.6.Matrices ortogonales. . . . . . . . . . . . . . . . . . . . . . . 290
8.7. Transformaciones ortogonales en 2 y 3 dimensiones. . . . . . 297
8 Producto mixto y producto vectorial. . . . . . . . . . . . . . . . 304
8.8. Producto m ix to . . . . . . . . . . . . . . . . . . . . . . . . 305
8.9. Producto vectorial. . . . . . . . . . . . . . . . . . . . . . 308
6 Pseudoinversa. Soluciónsegún mínimos cuadrados (’*'*). . . . . . . 313
A. 16. Descomposición de una matriz en valoresprincipales. . . . . 625
A. 17. Aplicación y matriz pseudoinversas. . . . . . . . . . . . . 629
A. 18. Aproximación de soluciones por mínimos cuadrados. . . . . 313
Ejercicios y problemas a la parte III. . . . . . . . . . . . . . . . . . . 314
Enunciados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
(·) Véase el Apéndice 6.
( ·· ) Véase el Apéndice 7.
6. a Autovalores yautovectores............................................................................ 32(;
9.1. Autovalores y autovectores. Polinomio característico................... 3
2
5
9.2. Multiplicidades algebraica y geométrica de un autovalor.............. 3
3
5
9.3. Complejificación de un espacio vectorial real................................. 3
4
1
P Endomorfismosdiagonalizjobles.................................................................... 3
4
5
9.4. Diagonalización (por semejanza)..................................................... 345
9.5. Diagonalización ortogonal................................................................. 353
Ejercicios y problemas a la parte IV ...................................... ............................ 364
Enunciados....................................................................................................... 364
Soluciones........................................................................................................ 368
G E O M E T R ÍA C A R T E S IA N A
P A R T E V
Capítulo 10. Los espacios geométricos E iJ ........................................ 374
a Axiomas y definiciones............................................................................... 374
10.1. Los espacios geométricos bi y tridimensionales............................ 374
10.2. Las rectas y los planos..................................................................... 380
P Geometría plana (afin y euclídea).............................................................. 383
10.3. Problemas afínes (en el plano E^)................................................... 383
10.4. Problemas euclídeos (en el plano £ j) ............................................. 391
yGeometría tridimensional (afin y euclídea)................................................ 402
10.5. Ecuaciones de rectas y planos.......................................................... 402
10.6. Posiciones relativas de rectas y planos........................................... 409
10.7. Angulos y disuincias (en £ 3
) ............................................................ 420
Ejercicios y problemas a la parte V — .............................................................. 436
Enunciados...................................................................................................... 436
Soluciones....................................................................................................... 440
P A R T E V I
Capítulo 11· Cónicas: estudios particular ygeneral......................................... 446
a Estudio particular de las cónicas................................................................ 446
11.1. Las tres cónicas................................................................................. 447
11.2. Primeras propiedades de las cónicas............................................... 456
P Estudio general de las cónicas................................................................... 467
11.3. Las cónicas: ecuaciones y tangencia.............................................. 468
11.4. Ecuaciones reducidas y clasifícación de las cónicas................... 476
11.5. Elementos de las cónicas................................................................ 485
Capítulo 12. Cuádricas: estudios particular ygeneral.................................... 4%
a Estudio particular de las cúpricas............................................................ 4%
12.1. Las cinco cuádricas........................................................................ 497
12.2. Primeras propiedades de las cuádricas...........................................
P Estudio general de las cuádricas...............................................................
12.3. Las cuádricas: ecuaciones y tangencia........................................... 523
P A R T E I V
Capítulo 9. Diagonalización de endomorfismos y de m atrices........................ 3 2 ^
7. 12.4. Ecuaciones reducidas y clasificación de las cu ád ricas....................... 534
12.5. Elementos de las cu ád ricas........................................................................... 554
Ejercicios y problemas a la parte VI............................................................. 564
E nunciados............................................................................................................................ 564
Soluciones.............................................................................................................................. 569
APENDICES
1. Algebra básica.......................................................................................... 577
2. Diagonalización por bloques de una transformación ortogonal.................... 590
3. Forma canónica de Jordan......................................................................... 594
4. Espacio afín (de dimensión n e N).................................................................... 601
5. Espacio afín ampliado (puntos del infinito)................................................ 612
6. Factorización L U de una matriz................................................................. 616
7. Pseudoinversa. Solución en el sentido de los mínimoscuadrados................. 625
Alfabeto griego................................................................................................ 617
Referencias bibliográficas............................................................................... 619
índice.............................................................................................................. 621
8. INICIACIÓN:
LINEALIDAD T RANGO
íntTüííu£CÍón.
1. 5tst£míi5 de. ecuaciones íineaícs: eí método de Gauss.
2. Rango (de vectoresy de tnatríces).
3. Operaciones con matrices: matriz inversa.
4. Det£rminante5.
Ejercicios y proSíetnas.
RELUDIO introito o a^prdio, en eíque se
fuéía a^o, por ib aeneraípoco y no siempre
bastante, acerca ae Ib
pecuacionesfinales el iranio», (as
imatrices» y (os ideterminantes», queriendo así ofrecer
a((ector, tanto una fierramienta que (epermita
manejarse con so(tura y eficacia, en (o que (ueao vendrá,
como una referenciay un cobijo a (os quepoder acogerse
cuando, pronto, se estudien conceptos más abstractos y
generales.
9. Introducción
Este modo de iniciar un curso de «Álgebra Lineal», hablando de los «sistemas
de ecuaciones lineales» y del «rango», no es ninguna tontería. Hay importantes
motivos para ello: Bien es verdad que, desde un punto de vista lógico y formal,
quizá habría que pensar en emprender la tarea presentando en primer lugar a
los «espacios vectoriales», luego a los «hormomorfismos» o «aplicaciones li
neales» entre espacios vectoriales, más tarde a las «inatrices» y, con todo ello
y algo más, abordar debidamente el estudio de los «sistemas de ecuaciones
lineales» y de otras cuestiones. Creemos, no obstante, que la didáctica dice otra
cosa.
Los conceptos deberán presentarse de la manera que mejor puedan enten
derse, la cual no es, generalmente, la que demanda la lógica. Ello no debe
impedir que, al final del proceso de aprendizaje, los conocimientos adquiridos
terminen formando el entramado adecuado, de suerte que, a la postre, se
consiga que los saberes queden pertinentemente estructurados.
Con el correr de los años, han sido muchos los problemas que han desem
bocado en sistemas de ecuaciones lineales, de las que ha habido que hallar las
soluciones. Al abrigo de estos procesos de búsqueda de soluciones, y al de otros
desarrollos similares, se han ido perfilando los conceptos de vector, matriz,
rango, homomorfismo, etc.; no ha ocurrido al revés. Por ello, entendemos que,
al menos ahora, al comienzo, todos estos conceptos se deben dar a conocer
respetando su «antigüedad». Piénsese que aquello que primero se resolvió fue,
a no dudarlo, lo que era más fácil de resolver.
Es obvio que con el poco bagaje de conocimientos que, a estas alturas, se
nos supone, no nos va a ser posible llegar al fondo de las cuestiones que aquí
se abordan; tiempo tendremos para ello más adelante.
Este capítulo introductorio pretende cubrir varios objetivos, todos ellos
valiosos. Este capítulo es el escalón que permitirá acceder a una estancia que
está situada más alta de lo que es ordinario. Este capítulo es la base en la que
sustentar los conceptos abstractos que luego vendrán. Este capítulo será la
herramienta o instrumento que permitirá manejarse con soltura en lo que sigue.
Este capítulo es el germen de multitud de ideas y conceptos que pueblan el
«álgebra lineal».
10. Sistemas de ecuaciones
lineales; el método
de Gauss
CAPÍTULO
1
a PRIMERAS DEFINICIONES.
EQUIVALENCIA
¡CUIDADO CON LA
PALABRA «LINEAL»!
lay que avisar que. en el hablar
ndioarío de las gentes, hoy día
e está utilizando la palabra li-
leal para denotar a lo que es
ODStante. Así, cuando se dice
(ue se ha producido un «aumen-
o lineal del sueldo» de unos tra-
>ajadores y que dicho aumento
la sido de A euros, se nos quiere
ndicar que a todos y cada uno
je los trabajadores se le ha
iumentado el sueldo en una mis-
na cantidad, A euros, constante
jara todos. Si en esto de las su
bidas de sueldos, la linealidad
íignificase lo mismo que en Ma-
lemáticas, una subida lineal de
iin 10 por 100, pongamos por
;:aso. significaría que al que ga
na 100 se le aumenta en 10 y al
que gana 200 se le aumenta en
20; esta subida no es «constan
te» es «proporcional» a lo que se
gana.
Según ya reza en el título de este libro, los problemas que nos van a ocupar
son los «lineales», entendiendo por tales a aquellos en los que al duplicar,
triplicar, etc., la causa, acontece que se duplica, triplica, etc., el efecto;
también se requiere que, al sumar las causas, se sumen los efectos. Así, por
ejemplo, si las causas vienen representadas por jc e y. que denotan a dos
números cualesquiera, y el efecto es a = 3jc —ly^ este a depende linealmente
de los jc e y.
Los problemas directos son aquellos en los que los datos conducen direc
tamente, sin rodeos, a los resultados. Si lo que se conocen son los resultados
y se buscan los datos que se necesitarían para obtener dichos resultados, se está
considerando un problema inverso (o recíproco). Los sistemas de ecuaciones
lineales tienen esta condición de problema inverso; en ellos, hay que hallar los
datos (x e y, por ejemplo) que, en un problema de tipo lineal, conducirían a
unos resultados que nos son conocidos (a y (i, por ejemplo). Así, en un sistema
como él
hay que hallar los valores ác x c y (que se llaman incógnitas) que conducen a
los resultados a y p (que son dados).
1.1. SISTEMAS DE ECUACIONES LINEALES
Debemos empezar precisando el significado de los distintos términos que va
mos a utilizar en lo que sigue:
11. ÁLGEBRA LINEAL
[«01]
DEFINICIONES
Un sistema de m ecuaciones lineales en las n incógnitas x^^ x^ es
todo conjunto de relaciones del tipo:
Ecuación primera: + «12^:2 + "· + ciy„x„ =
=
Ecuación segunda: «22-^2 *
*
’ ~ ^2
Ecuación m-ésima: a„^^Xy + //l/I n ftl
fíl
Los a,y (coeficientes) y los />
,· (términos independientes) son escalares
dados; es decir, elementos de un cuerpo cualquiera**^ Se dice que los
escalares a,, a ^ , a „ constituyen una solución de S si al tomar j
c
, = a„
X2 = 0 Í2, x„ = a„, las m ecuaciones se convierten en igualdades; resot-
ver S es hallar todas sus soluciones. Se dice que un sistema es compatible
si tiene alguna solución y que es incom patible si carece de ellas; cuando
es compatible, se dice que es determ inado si tiene una sola solución e
indeterminado si tiene más de una.
(·) El cuerpo Kde los escalares puede ser cualquiera. Puede suponerse, si ello faciliu
la comprensión de estas cuestiones, que K es el cuerpo real (/C= R) o que es el cuerpo
complejo (K= C).
Discutir un sistema de ecuaciones es analizar si éste tiene soluciones y, caso
de tenerlas, cuántas tiene.
EJEMPLOS
L x + > + z = 6
a: + ) i - z = 0
X +z = 4
x + y =3
Este sistema (en las incógnitas x, y, z) tiene solución
única que es la (j:, y, z) = (1, 2, 3); se trata, pues, de un
sistema compatible y determinado.
2. x + y + z = 6
x + y - z= 0
x + y =3
J
C+ y + 2z = 3
Este sistema es compatible indeterminado, ya que tiene
infinitas soluciones; éstas son todas las (x, y, 2) = («>
3 —a, 3), donde a es un número real cualquiera.
3. ■*+ y + z = 6
x + y - z = 0
- 2 x - 2 y = 1
Este sistema es incompatible, carece de soluciones.
Nótese que al sumar las tres ecuaciones se llega
a0 = 7.
12. : ECUACIONES LINEALES; EL MÉTODO DE GAUSS
Q SIGNO SUMATORIO;
ÍNDICES MUDOS E INDICES LIBRES
1. Para escribir de manera abreviada una suma como la se
recurrirá a la leü-a griega S (sigma mayúscula), que recibe el nombre de
signo sumaíorioy y se pone:
P ,+ />, + ··· + />„= i P,
Aquí se ha recurrido a la letra y, que se llama índice mudo, que no tiene
un valor determinado; se supone que j varía recorriendo todos los valores
naturales 1, 2. n. La letra j se puede sustituir porotra letra cualquiera,
sin que por ello varíe el resultado; esto es:
n n n
lpj=lp,= I
ja, A-1 0-1
Así, por ejemplo, las m ecuaciones del sistema S (de [001]) pueden ponerse
en la forma:
n n n
2. Por otra parte, para denotar de manera conjunta a todas y cada una de las
m ecuaciones del sistema 5, se puede recurrir a otro índice, que llamaremos
i y representará a cualquiera de los números 1, 2, m, y poner:
a,.,,ti + a¡2 X2 + - + = b¡ para /= 1, 2....m [5]
Aquí / es un índice libre; para cada valor que se le dé a /, se va a obtener
una de las ecuaciones del sistema S,
3. Recurriendo ahora a un índice libre i (que varía de 1 a m) y a un índice
mudo (que varía de 1 a n), el sistema S se puede expresar como sigue:
n
Z a¡jXj = b, (i = 1, 2...... m) [5]
J EXPRESION MATRICIAL DE UN SISTEMA
Lo que distingue a los sistemas de ecuaciones lineales, diferenciando a unos
de otros, son sus coeficientes y sus términos independientes. Para caracterizar
a un sistema de ecuaciones, como el
^ ^ ^ /de m ecuaciones: / = 1, 2, m
L a yX j = b, (1= 1 ,2 .......m) · ^ ^
jm ^ ^ con n incógnitas: 7 = 1, 2, ..., n ]
13. ÁLGEBRA LINEAL
basta con saber los valores que toman los siguientes escalares;
a¡j (coeficiente que afecta a la incógnita y-ésima de la ecuación /-ésimas)
b¡ (término independiente de la ecuación /-ésimas)
Un sistema de ecuaciones queda, pues, determinado en cuanto se conozca
la tabla rectangular, o matriz, que forman sus coeficientes y sus términos
independientes, situados todos ellos en la misma posición relativa que ocupa
ban en el sistema. Nótese que esta tabla es lo que queda del sistema al
prescindir en él de las incógnitas y de los signos (+ e = ). Concretando:
[002] Sea dado un sistema de m ecuaciones lineales con n incógnitas, al que
llamaremos [5]:
a¡^x^+a,2Xi + - + a¡„x„ = b¡
02lJC| + fl22^2 + - + " 2 A , = ¿2
[S]
a„,Xi + a„2X2 + - + a ^ „ = b^
Se llaman matriz de los coeficientes, matriz de los términos independien
tes y matriz del sistema (o ampliada) a las siguientes tablas rectangula
res^*^ A, B y formadas por escalares:
’ «11
«21
«12
«22
- « l»
··· «2«
; B =
í»2 ♦ AD —
«11
« 2 .
«12
«22 ·" «2» ¿ 2
:
» /tts —
« « 2
A . «m i «m2 - « m .
De manera abreviada y, por el momento, también simbólicamente, el
sistema S se expresará poniendo:
se llama columna o vector
columna de las incógnitas
(*) Posteriormente, se precisará y se completará la defmición dc matríz. Dc momento
nos basta con saber que la matriz A. por ejemplo» cs una tabla rectangular de m-n escalares
dispuestos en m filas y n columnas. La fila i<ésíma de A cs la sucesión de escalares
columna y-ésima dc A cs la sucesión de escalares (que en A aparecen
dispuestos venicalmente). Se dice que el elemento a,j, que está situado en la fila i y en la
columna y, es el elemento que ocupa cl lugar (i,J) o ij.
14. CUACIONES LINEALES; EL MÉTODO DE GAUSS
J SISTEMAS HOMOGENEOS
Los sistemas de ecuaciones que tienen nulos sus términos independientes, se
llaman homogéneos. Esto es:
[003] Un sistema de ecuaciones lineales se dice homogéneo si es dcl tipo:
i m
Abreviadanienic, se pondrá
AX = O, donde O cs inairiz
(de una sola columna) cuyos
elementos son todos nulos
Todo sislcma de ecuaciones lineales homogéneo [//| tiene» al menos, la
solución JC, = = ··· = jc^ = O, llamada solución trivial o nula, por lo que
siempre cs compatible. Será compatible indeterminado si tiene alguna
solución no nula.
Las combinaciones lineales de las soluciones de un sistema homogéneo
son, también, soluciones de éste; es decir:
á y 0 son soluciones de H =>
=> Á á '^ fjL0 es solución de // (A y /t escalares)
(♦) Por razones de brevedad, se ha llajiiado A"(a,...... or^). y
AA+ + /i/3,......Ao, +
COMPROBACIÓN
Expresando el sistema homógeneo en la forma abreviada X UijXj = O, como á
y p son soluciones, se sabe que
H n
X a¡¡Xj = O y Z = O (para í = 1, 2..................m)
Por tanto, á + también es solución, ya que (para / = 1, 2.......m):
n n
X a„{ka,+ n P ) = X (Aa,j«^ + =
>-·
= A X a,.a, + A
t X a¡fi, = A- 0 + /i-0 = 0
>-i J-l
15. Alg e b r a lineal
I a la «cantidad» de
ut tienen los conjun-
s se les clasifica en
• INFINITOS. Si C es
0 finito, se dirá que
número finito de ele-
C cs un conjunlo in-
lirá que C tiene infí-
;ntos. No es correcto
iste último caso, que
1 número infinito de
infinito no es un nú-
EJERCICIO
Se desea comprobar que, si un sistema de ecuaciones lineales tiene más de una
solución, entonces el sistema tiene infinitas soluciones. Más exactamente, va
mos a probar que:
Dado un sistema de ecuaciones lineales
Σ a¡jXj = b¡ (con / = 1, 2, .... m)
SI
á = (a ,, a^. .... a J
0 = (l3,,/3„
son dos raíces distintas del sistema, entonces se verifica que
a) á - /3 = («I - )3,, Ü2 — - /3„) es raíz del sistema homogéneo
2 atjXj = 0.
b) á + A(á —p) es raíz del sistema dado X a¡jX¡ = b¡ para todo escalar A.
RESOLUCIÓN
a) Σ α,/α^ - β ) = Σ a¡¡a¡ - Σ Uyfij = b ¡ - b ¡ = 0
J J J
luego a - β es raíz del sistema homogéneo.
b) Σ a¡JÍ_a¡ + A (a,- βι)] = Σ a¡jO¡ + A Σ a¡j{aj- β^) = b¡+ - 0 = b¡
j J j
luego á + Λ(ά —β) es raíz del sistema dado para cualquier A.
1.2. SISTEMAS EQUIVALENTES
Para resolver un sistema de ecuaciones, se le irá «reduciendo» a otros sistemas
que sean más simples; eslo es, se buscarán sistemas que tengan las mismas
soluciones que el dado y que resulten cada vez más fáciles de resolver. A los
sistemas que tienen las mismas soluciones se les llama equivalentes; de ellos
nos ocupamos ahora:
16. "EMAS DE ECUACIONES LINEALES: EL MÉTODO DE GAUSS
^ EQUIVALENCIA DE SISTEMAS; OPERACIONES
ELEMENTALES
[004]
LAS OPERACIONES
ELEMENTALES
un sistema de ecuaciones)
►
;]: intercambio, de las ecua
ciones i y j ésimas.
►
Ai]: Multiplicar por A^ O la
ecuación /-ésima.
*i'+ Aj]: sumar, a la ecua
ción i-ésima, A por
la y-ésima.
Dos sistemas de ecuaciones (con las mismas incógnitas) se dicen equi
valentes si tienen las mismas soluciones, o sea, si toda solución de
cualquiera de ellos es también solución dcl otro.
Propiedad fundamental de la equivalencia.-Un sistema de ecuaciones
lineales es equivalente a cualquiera de los sistemas que resultan de rea
lizar, en aquél, cualesquiera de las singuientes manipulaciones, que se
llaman operaciones elementales:
I C a m b i a r el orden con el que figuran las ecuaciones en el sistema.
2.° Multiplicar una de las ecuaciones por cualquier escalar no nulo.
3.^ Sumarle, a una de las ecuaciones, otra cualquiera de ellas.
4.® Aplicar, reiteradamente, cualesquiera de las operaciones anteriores
(en particular, sumarle a una ecuación, cualquier combinación lineal
dc las demás)
NOTA: Hay quienes consideran también como operación elcmeniaJ (cosa que no hare
mos no.sotros) a la siguicnlc: suprimir una ecuación que sea combinación lineal de otras
ecuaciones del sistema.
(♦) Por definición, las combinaciones lineales de las ecuaciones + />,y + c,r = d^ y
a¿x + bjV + CjT=
»rfj son las ecuaciones
(afl, + + (ab, + J3b2)y + (aec, + /Sc2)z = or^, +
donde ar y p .son escalares cualesquiera.
Nótese que entre las operaciones elementales del apartado 4.°, cabe destacar la
siguiente: sustituir una cualquiera de las ecuaciones por una combinación lineal
de otras y de ella misma de manera que el coeficiente que multiplica a ésta
sea no nulo.
Vamos aquí a simplificar la notación llamando
E^(x) = a.yXf -h 0 , ^ 2 + *·· + (para / = 1, 2...... m)
con lo que el anterior sistema de ecuaciones S (véase [002]) se expresará en la
forma S*
E,(x) = 0
E2Íx) = 0
IS l
17. 10 Algebra uneal
Con este Upo de notación, la propiedad anterior asegura que. por ejemplo, son
equivalentes los siguientc.s sistemas:
£,(jf) = 0
£j(í) = 0 >
£,(-?) = oJ
2£,(;t) = 0
3 £ j(.f)-£ j(.f) = 0
£,(í) = 0.
£ ,(/) = Oí
2 £j(jf) + 3£,(jt) = 0
J£ 3(jE )-£ ,(í) + 5£j(x) = oJ
DEMOSTRACION
VECTORES
Aquí, para dcnouu· a las sucesio
nes (Xi,X2.....x„) y (a„aj.....
Jc n escalares, se ha recurrido a
íscribirJ
Cy o. A estos elementos
?e les llamará vectores. Un poco
rás adelante se estudiarán con
Jetenimiento estos objetos mate-
náticos; de momento, sólo he
lios necesitado de sus combina
ciones lineales: si
“ =(«|. ",)
(P........ P.)
« llama Ad-*f a
(Aíir, + /x/9,.......Aof, + /X/3J
A y son escalares).
Los casos 1.®
) y 2.®) son obvios; el caso 4 “) se reduce a aplicar reiteradamente
los resultados de los casos que le preceden. Por ello, sólo consideraremos el ¡
caso 3.®).
Para señalar que jc, = a,, jc, = ofj» ~ solución del sistema,
se dirá que la solución es la x = á, esto es, se ha llamado ;
I
.f=(A·,, A
·,...... X,) y á = (o·,, a,, ..., Qf„) ,
Para verificar que la propiedad es cierta en el caso 3.®), no hay más que '
darse cuenta de que las siguientes afirmaciones son equivalentes entre sí:
á es solución
del sistema
£,(Á) = 0‘
£ 2(jO = 0
EJX) = 0
se verifican se verifican á cs solución
las igualdades las igualdades del sistema
£,(«) = O £,(d) + £ j ( á ) = 0 £ ,( jc
) + £2(jc) = 0
£ 2
( 5) = 0 £ 2
( 5) = 0 E2(x) = 0
E j á ) = 0
OBSERVACIÓN
Sea S un sistema de m ecuaciones lineales y sea S' un sistema formado por m
combinaciones lineales de aquellas. Es evidente que toda solución de S es.
también, solución de S'. Sin embargo, en general puede haber soluciones de S'
que no lo sean de S. Así puede ocurrir en los dos ejemplos siguientes, en los
que se toma para 5' uno de los 5¡ o S^:
£,
(í
)= 0
E2(j0 = 0
£ ,( ^ = 0.
[ÍI
£,(x) = 0
£3(;0 = o
£,(í) + £j(jc) = 0.
£ ,(J)-£ j(jí) = 0
[5¡] ; £ ,(í) - £ ,( x ) = 0
£ ,(jt)-£ ,(J ) = 0
[Sí]
18. Tómese, en concreto
£,(jt) = x,+X2- 2, £,(x) = X2+-*3 ~ 2 y £j(i) = Xj + JC
| - 2
En este caso, S tiene una única solución que es la x, = 1, JC
2= 1, X3= 1. El
sistema S[ tiene infinitas soluciones, que son las jc, = A (cualquiera), jCj = 2 —A
y JC
3= 2 - A. El sistema 5^ tiene infinitas soluciones, que son las
Xi= X2 = Xy = Á (cualquiera).
EJEMPLO
IES; EL MÉTODO DE GAUSS 11
Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden
resolver los sistemas de ecuaciones. Así, por ejemplo, el siguiente sistema S es
equivalente a los 5' y 5" y la resolución de este último es elemental:
(1.“) — JC+ y'l·2z = 9
(2.®)—
► 3jcH-6y~5z = 0
(3.“)— 2x + 4 y - 3 z = l
IS]
( r ) = (l.“) - 2z = 9
(2') = (2.“) - 3(1.“) - 3>^- 1Iz = -2 7 V [S']
(30 = (3.“) - 2 ( 1 .“) - 2 y - 7 z = - 1 7 j
( r O = (l') JC+ 2z = 9
(2'') = (2') - 3 > ^ - l l z = - 2 7 y [5"]
(3") = 3 ( 3 ') - 2 ( 2 ') - z = 3
La solución de 5" es, evidentemente, la z = 3, y = 2, jc = 1, que es también
la solución del sistema dado.
□ ENFOQUE MATRICIAL
Si se conoce la matriz de un sistema, éste también se conoce y, por ello, se
podrá resolver. Al ser mucho más cómodo manejar solamente la matriz, en
lugar de todo el sistema, así se hará, con lo que simplificaremos el proceso de
resolución. En este sentido, es útil observar que la anterior propiedad [004],
sobre sistemas equivalentes, puede formularse en los siguientes términos:
19. Tómese, en concreto
£ ,(í)= .r,+ X 2 - 2 . £j(í)=jc2 + jc ,-2 y E,{x) = Xy + x ^ - 2
En este caso. S liene una única solución que es la jc, = I. J
C
2 = I, J
C
j = L El
sistema 5¡ tiene infinitas soluciones, queson las jc, = A (cualquiera), jC
j = 2 - A
y jC
j = 2 - A, El sislema S[ tiene infinitas soluciones, quesonlas
J
C
, = J
C
2 = J
C
, = A (cualquiera).
EJEMPLO
Recurriendo a la propiedad anterior y aplicándola atinadamente, se pueden
resolver los sistemas de ecuaciones. Así. por ejemplo, el siguiente sistema S es
equivalente a los 5' y 5" y la resolución de este último eselemental:
(1.“)— y + 2z = 9 ‘
( 2 . * ) - 3.c + 6 y - 5 z = 0 > [S]
(3.“)— 2x + 4 y ~ 3 z = 1.
(l') = (L“)^ jc+ y + 2z = 9 )
(20 = (2.·) - 3(1.“)-^ 3y - 1Iz = “ 27 > [S']
(30 = (3.-)-2(1.“) - 2 y - 7 z = - 1 7 j
(rO = (r> x+ y + 2z = 9
(2'0 = (20 - 3 y - l l z = - 2 7 ^ [S '']
(3'') = 3 ( 3 0 - 2 ( 2 0 - z = 3
4LES: EL MÉTODO DE GAUSS 11
La solución de S'* es. evidentemente, la z = 3. y = 2. jc = 1. que es lambién
la solución del sistema dado.
□ ENFOQUE MATRICIAL
Si se conoce la matriz de un sistema, éste también se conoce y. por ello, se
podrá resolver. Al ser mucho más cómodo manejar solamente la matríz. en
lugar de lodo el sistema, así se hará, con lo que simplificaremos el proceso de
resolución. En este sentido, es útil observiu· que la anterior pmpiedad [004].
sobre sistemas equivalentes, puede formularse en los siguientes términos:
21. ACIONES LINEALES; EL MÉTODO DE GAUSS 13
[006] Se llaman matrices escalonadas a aquellas matrices en las que:
1."
2.°
Cada una de las filas (a partir de la 2.“) comienza con una sucesión
de ceros que tiene algún cero más (uno como mínimo) que la fila
anterior. Nótese que si hubiera filas formadas sólo por ceros, éstas
serían las últimas filas de la matriz.
En las filas en las que algún elemento no es nulo, el primero de
éstos (que llamaremos cabecera de la fila) es un l^*
Se llaman matrices escalonadas reducidas a las matrices escalonadas
en las que. además, se verifica:
3.° En las columnas en las que están ubicadas las cabeceras de las
filas, todos los demás elementos son nulos.
A la matriz traspuesta^**^ de una matriz escalonada se la suele llamar
«matriz escalonada por columnas».
Un sistema de ecuaciones lineales se dice que es un sistema escalonado
(respectivamente, sistema escalonado reducido) si su matriz de coefi
cientes es escalonada (respectivamente, escalonada reducida).
(♦) Este requisito podría omitirse sin que, por ello, varíase, en esencia, el proceso y
los razonamientos que haremos a continuación.
(*♦) matriz traspuesta de A se obtiene al cambiar, en A, las filas por las columnas.
MATRIZ
ESCALONADA
0 = elementos nulos
1 = elementos unidad
♦ = elementos cualesquiera
(todos los que están sobre cada
uno de los elementos l pueden
hacerse nulos)
EJEMPLOS
En cada uno de los siguientes ejemplos, con los que se pretenden aclarar las
anteriores definiciones, se da un sistema de ecuaciones escalonadas, su matriz
ampliada y su solución, si la tiene:
22. Algebra lineal
SISTEMA;
MATRIZ:
j + 4)· + I + « = 1
_
v+ 2í ~ u — 4
I —4tt = 9
« = - 2
SOLUCION:
'
a
: = 2 - 3 z + i!
X +3j -i'= 2' '1 0 3 0 -1 2' y = 7 - 5 z
y + 5z = 7 0 1 5 0 0 7 z = cualquiera
u + 2t' = —I _0 0 0 1 2 - 1. M= - 1 - 2ü
V= cualquiera
= 2 —3z + »
^ +3z -i>= 2 ' "l 0 3 0 - I 2‘ y = 7 - 5 z
y + 5z = 7 0 l 5 0 0 7 z = cualquiera
« + 2r = -1 0 0 0 1 2 - l m= - 1- 2i)
0 = 0‘** 0 0 0 0 0 0_ V= cualquiera
X +3z - 1
’= 2 ' ‘l 0 3 l) -1 i 2'
> + 5z = 7 »
0 l 5 0 0 ;
1 . sistema incompatible
« + 2r = - 1 0 0 0 1 2 1- i
0 = 4'“> 0 0 0 ü 0 ; 4_
1 4 1 1 1
0 1 2 -1 4
0 0 1 -4 9
0 0 0 1 - 2
u = - 2
z= I
y = 0
2
J l DISCUSIÓN DE LOS SISTEMAS ESCALONADOS
HM)7| Sea 5, un sistema escalonado de tn ecuaciones lineales con n incógnitas;
sea M la matriz de los coeficientes de S,. De las m filas de M, llamaremos
r al número de ellas que tienen algún elemento no nulo; las m —r últimas
tilas de M sólo contienen ceros. Respecto de la compatibilidad del sistema
S,. se verifica:
1.® 5, es compatible si y sólo si sus últimos m - r términos indepen
dientes son todos nulos.
2."^ Suponiendo que los m - r últimos términos independientes son nu
los, el sistema 5, es compatible determinado si r = /i y es compatible
indeterminado si r< n (nótese que no es posible que r > n ) .
(··) Est(K tipos de ecuadoncs no son usuales y, ello, sobre lodo cuando, como aquí, son datos
de partid^ Sin embargo, pueden aparecer, y de hecho aparecen con frecuencia« cuando el sistemi
de ecuaciones es el resultado de aplicar operaciones elementales en un sistema dado.
23. MES: EL MÉTODO DE GAUSS 15
COMPROBACION
Esta verificación puede reducirse al caso de sistemas escalonados reducidos.
En efecto: si no es reducido, recurriendo a ciertas operaciones elementales,
que se localizan trivialmente, se obtiene un sistema 5^ equivalente a 5^ esca
lonado reducido, con el mismo valor de r y con los mismos m —r últimos
términos independientes. Si para S' las cosas son como se dice en el enunciado,
es obvio, entonces, que también lo son para y, por ello, bastará considerar
aquí a los sistemas escalonados reducidos.
XiX,..
t t t
Xl Jf2·
♦ ♦
.X,.
t ♦
l ^ O O ^ O O * « 1 ♦ ♦ ♦ ♦
1
_
1 0 ♦ 0 0 ♦ ♦ 1 0 0 ♦ ♦ ♦
r * 0 0 ♦ ♦ ¡ 1 0 ♦ ♦ ♦
0 l i o ♦ * r1 0 1 0 0 ♦ ♦
H i ♦ * 1 0 0 ♦ 4i
0 0
Términos independientes
Supongamos, pues, que es un sistema escalonado reducido. La discusión
de resultará más fácil de obtener si, previamente, alteramos el orden de las
incógnitas x,, Xj, ..., x„, que pasaremos a llamarlas x¡, Xj, ..., x', y ello del modo
que ahora se indica: si las cabeceras de las sucesivas filas de la matriz M son
los elementos de lugares (1, 1), (2, /i), (3, k), ..., (r, /), entonces tomamos
X-l Xl,
las restantes m - r incógnitas se tomarán en el mismo orden relativo que tienen.
Haciendo esto, el sistema queda de la forma siguiente (para ciertas constan
tes: coeficientes c¿j y términos independientes //,):
•^1 (^Ir+I -^r+I ^In Xn)
•^2“ ^2 ” Xf+Í ^ ^ ^2n K)
24. Alg ebra u n e a i
Aquí, los h¡ son los términos independientes de 5/, ios c son umjs ciertíA
escalares» que forman parte de ia matriz M. A la vista ae la forma 5* de
presentar el sistema 5,, resultan evidentes las afirmaciones 1/ y 2.· de! anterior
enunciado.
1.4. EL METODO DE GAUSS
Todo sistema de ecuaciones lineales 5 se va a poder reducir a uno escalona
do S/y es decir, realizando adecuadas operaciones elementales en 5, siempre
se conseguirá un sistema escalonado 5^. equivalente a S, Si el sistema 5 cs
compatible, como la resolución de S, es üivial» según acabamos de ver en el
apartado anterior, resulta que tenemos ya a nuestro alcance un procedimiento
práctico para resolver sistemas de ecuaciones lineales, que no es otro, en
esencia, que el método de eliminación de Gauss, que aquí se considera.
□ ELIMINACION SUCESIVA DE INCOGNITAS
[008] Dado un sistema S de m ecuaciones en las n incógnitas jc,, jcj, ..., x„,
eliminar la incógnita es obtener un sistema S' equivalente a 5, también
de m ecuaciones y con las mismas n incógnitas, tal que la incógnita jc,
no interviene en ~ 1 de las ecuaciones de S, es decir, del siguiente tipo:
JC
j...... Jt,) = o'
.
. = 0
[Si-, ............................
^2* *
*
*
’ O
£■
2(^1
. Xz.......Xn) = O
E„{x,, Xj, .... JT„) = O E„(X2.......X.) = O
[S'l
OBSERVACIONES
Supongamos que se ha eliminado jc, y llamemos S, al sistema de las m - 1
últimas ecuaciones de 5, (que tiene n - 1 incógnitas). Si en S, pudiéramos
eliminar ahora otra incógnita (la x^) y seguir así sucesivamente, llegaríamos, al
fínal del proceso, a un último sistema S“, equivalente a S, en el que cada
ecuación tendría una incógnita menos que la ecuación anterior; S* sería del tip<i:
.. Jt,) = O
.. x„) = 0
.. - 0 = 0 f í“l
25. LES; EL MÉTODO DE GAUSS 17
Con el signo de interrogación que se ha puesto en la última ecuación de
5“, se quiere señalar que este proceso puede concluir de manera distinta,
dependiendo de las ecuaciones que se consideren y, en particular, de si ni es
mayor, menor o igual que n. Este sistema 5“ es, previsiblemente, más fácil de
resolver que el 5. En el caso de compatibilidad, se comenzará resolviendo la
última ecuación de 5", que nos dará el valor de si 5“ sólo tiene esta incógnita
(la jc^), o una cierta jc^ en función de las ......Avanzando ahora de
abajo a arriba y llevando a cada ecuación el resultado obtenido en la siguiente,
se van despejando las sucesivas incógnitas, hasta llegar a la primera ecuación,
de la que se obtiene finalmente x^.
En los sistemas de ecuaciones lineales, el anterior proceso de eliminación
se puede realizar fácilmente recurriendo a las operaciones elementales; nótese
que, en esencia, se trata de conseguir un sistema equivalente al dado que sea
escalonado. Esto es lo que se hace en el siguiente ejemplo:
EJEM PLO
Consideremos el siguiente sistema de ecuaciones, cuya matriz ampliada es la
que se indica a su derecha (en este sistema, a denota a un parámetro):
x + 2y+ 2 = r "l 2 1 r ^ 1.“
I t + >’+ 3z = - 4 2 1 3 - 4 ^ 2."
X - >’-H(fl + 2)z = “ 3 f l-5
^ 15);
1 - 1 a-- 2 - 3 f l - 5 — 3.“
4x + 2y + (tí + 6)z = -3íT - 8 _4 2 a + 6 - 4 . “
Al intentar resolver el sistema e ir, piu*a ello, eliminando incógnitas me
diante operaciones elementales en las filas de la matriz, obtenemos sucesiva
mente las siguientes matrices, que conducen al sistema 15,] que es equivalente
al dado y escalonado:
r = 1.· — 'l 2 1 f
2' = 2. · - 2( 1.·) — 0 - 3 1 - 6
3' = 3 .·- 1.· — 0 - 3 1 + a -3 a - 6
4' = 4.·-4(1.·) — _
^0 - 6 2 *f a -3 a ^-- 12_
r ' = r ’ l 2 1 r
2' '= - 2' — 0 3 -1 6
3 ' ' = 3 ' - 2' — 0 0 a -3fl
4 - = 4 ' - 2(2' ) - 0 0 a - 3 <
r - = i - "l 2 1 l‘ JC+ 2>
^+ z = r
2- ' = 2'' - 0 3 - 1 6 3 > - z = 6
3'" = 3'' - 0 0 a -3fl ♦
az' -3 a
0 0 0 - 3a(a 0 =
= -3fl(a - 1)
26. Alg ebra lineal
La ultima ecuación de [5,J sólo se verifica si el paràmetro a toma uno de los
valoies a = 0 o ti = 1. Por elio, concluimos que:
• Para a # 0 y a ^ 1, [S) es incompatible.
» Para a = 0,15] es compatible indeterminado, pues es equivalente al sistema
x + 2y + z = i
3 y - z = 6
0 = 0
0 = 0
2 = A cualquiera
’ , que tiene las soluciones: ^y = 2 + A/3
5A/3
<y = ¿ + A
U = - 3 -
Para a = 1, [5] es compatible determinado, pues es equivalente al sistema:
x + 2y + z= I
3 y - z = 6
z = - 3
, que tiene sólo la solución:
- 3
^ 1
^ 2
□ MÉTODO DE ELIMINACIÓN DE GAUSS
[009J Sea S el sistema de ecuaciones lineales Y,a¡jXj = bt ( /= 1, 2, m y
J
7 = 1, 2, n) sea /ÍB su matriz ampliada.
Se dice que un elemento a¡j =
5
^ O se utiliza de pivote hacia abajo (o hacia
arriba o ambas cosas) si en las filas de se realizan aquellas operaciones
elemenuiles que transfonnan a a¡j en 1 y convierten en O a los demás
elementos, de la columna j, que están por debajo (o por arriba o ambas
cosas) del üij. Todo elemento no nulo a¡j de A puede utilizarse como
pivote.
Utilizando como pivotes a ciertos elementos de A, elegidos de modo
idóneo para realizar adecuadas operaciones elementales en las filas de A,
siempre es posible transformar S en un sistema equivalente que sea
escalonado e, incluso, que sea escalonado reducido.
Si S es compatible, para resolver este sistema se puede proceder de dos
maneras:
1.®
2.®
Hallando el citado sistema escalonado, pero no reducido, despe
jando la incógnita de cabecera de su última ecuación y, avanzando
de abajo a arriba, sustituir el valor hallado para cada incógnita en
la ecuación anterior, de 1
a que se despeja una nueva incógnita
(método de eliminación de Gauss).
Hallando el sistema escalonado reducido, de cada una de sus
ecuaciones se despeja (directamente) la incógnita que esté en su
cabecera (eliminación de Gauss-Jordan).
27. LES; EL MÉTODO DE GAUSS 19
COMHKOtíACJONl-S
—Cercioréiiionos primero de que cuiilquicr clemciilt) ^ Ose puede ulili/ar de
pivote. Para ello, realicemos las siguientes operaciones elenienlales en las Illas
de Primero dividamos la lila de lugar i por con lo que el elemento de
lugar (/■
, j) pasa a valer l; después, a la lila de lugar h ^ i le restamos la lila
de lugar i nuiltiplicada |X)r con lo que el elemento de lugar (//. j) se trans
forma en 0. Al repetir esta líltima operación para todos los fi > i (o h < i o am
bas cosas), todos los elenientos que están por debajo del (/, j) (o por arriba o
ambas cosas) pasan a ser O, con lo que í/,, ha podido ser utilizado como pivote.
— Veamos ahora cómo obtener un sistema escalonado que sea equiva
lente al .V
. lin la primera columna de A hay algini elemento no nulo^*'; inter
cambiando dos filas de si Cuera preciso, se obtendría en el lugar (1. 1) un
elemento no nulo; utilizándolo de pivote, se transfonnan en O todos los ele
mentos situados por debajo de él. Con esto, la 1.“ columna está ya en la forma
deseada. Si todos los elementos que quedan por debajo del (1. 2) son nulos, se
deja la 2.“ columna como está; si alguno de ellos es no nulo, intercambiando
dos lilas si fuera preciso, .se le lleva al lugar (2. 2) y. luego, se le utiliza de
pivote para íuuilar lodos los elenientos que están situados por debajo de él. Con
esto, las 1.“ y 2.“ columnas están ya en la forma deseada. Se pasa ahora a la 3.“
columna, con la que se procede de manera análoga y se reitera el proceso hasta
llegar a la última columna de la matriz de coeficientes, con lo que ésta queda,
después de aplicarle las o|)eraciones elementales, en forma escalonada.
—Comprobemos que .se puede conseguir que el susodicho sislema escalo
nado (equivalente a 5) .sea reducido. Para ello, partimos del sistema escalonado
5, (no reducido), obtenido como .se ha indicado en el párrafo anterior. Fijé
monos ahora en la cabecera de cada una de las ecuaciones no nulas de S^ a
los lugiu*es que ocupan estas cabeceras les llamaremos ( 1. 1). (2. /j), (3. Z,). ...»
(r. i^). Utilizando como pivote al elemento de lugíu* (r. /^). se convierten en
ceros lodos los elementos que están por encima de él; luego, utilizando como
pivote al elemento de lugar (r —1. /,._,). se convierten en ceros todos los
elementos situados por encima de él; .se reitera este proceso hasta, finalmente,
transformar en cero al elemento situado encima del de lugar (2. ij). De todo
ello, resulta que el sistema (equivalente a S) que así se ha obtenido es. obvia
mente. e.scalonado reducido,
—Respecto de cómo resolver los sistemas escalonados y los escalonados
reducidos, no hay nada importante que añadir a lo ya dicho en su de.scripción.
Q OBSERVACIONES (RANGO Y GRADOS
DE LIBERTAD)
Sea S un sistema compatible de m ecuaciones lineales con n incógnitas. Su
pongamos que hemos aplicado el método de Gauss-Jordan y que de él se ha
obtenido un sistema escalonado reducido S,, equivalente a S,
(*) Si no lo hubiere, en S no apureceríu lu incógniia jt,. pues iodos sus ct>cricicnics serían
nulos; eslo es, .r, seríu lu primera incógnita y no es así.
28. ÁLGEBRA LINEAL
El sistema sin más que alterar adecuadamente el orden de sus incógni-
tas^* esto es, de cambiar sus subíndices, se puede expresar en la siguiente
forma E^ (que ya fue analizada al finalizar [007]:
0 = 0
m — r
Si es r = fi, el sistema tiene solución única; si es r </i, el sistema tiene
infinitas soluciones. En este segundo caso, al tomar para las incógnitas jc^+,,
unos valores cualesquiera, nos encontramos con que hay unos únicos valores
para ,r,, Xj» —» junto con aquellos, forman una solución del sistema. Para
expresar que los valores de las n - r incógnitas ..., x^ (incógnitas secun
darias) se pueden elegir libremente, se acostumbra a decir, que las soluciones
del sistema forman una familia con n —r grados de libertad. El valor que toma
n - r es fijo, es decir, depende del sistema S pero no del camino que se haya
seguido para obtener E^. Esta afirmación, que quizá le parezca evidente al
lector, no se ha demostrado aún; lo haremos, más adelante, cuando volvamos
sobre este asunto de los sistemas de ecuaciones.
Al echar una ojeada al sistema 5*, se ve que en él hay r ecuaciones
«efectivas» (las r primeras) y que las m - r restantes son identidades, se
satisfacen para cualesquiera valores de las incógnitas. Esta situación viene a
reflejar lo que ocurre en S: de entre las m ecuaciones de 5, va a haber r que
son independientes, de manera que cada una añade una nueva exigencia, y
las m - r restantes resultarán ser consecuencia de las r primeras. Para expresar
esto, diremos que r es el rango del sistema 5 o de la matriz de sus coeficien
tes. Más adelante veremos que estas consideraciones intuitivas tienen total
justificación.
(*) Si no se altera el orden de sus incógnitas, es decir, manteniendo su numeración, el sistema
5, tendría la siguiente expresión:
- (cw,.A ,, + - + CuX,)
0 = 0
0 = 0
•+ C„X,J
/j, ..., /, son las r índices que
señalan los lugares en que están
situadas las cabeceras de las
ccuaciones del sistema S,
29. £ DE ECUACIONES LINEALES; EL MÉTODO DE GAUSS 21
SISTEMAS HOMOGÉNEpS CON MENOS
ECUACIONES QUE INCOGNITAS
[010]
Sabemos que los sistemas lineales homogéneos tienen siempre solución; estos
sistemas pueden ser o compatibles determinados, cuando sólo tienen la solución
nula, o compatibles indeterminados y, entonces, tienen infmitas soluciones,
pues si tienen una solución también son soluciones suyas todas las proporcio
nales a aquélla. Pues bien, vamos a considerar aquí una condición suficiente
para que los sistemas homogéneos tengan infmitas soluciones:
Sea 5;, un sistema homogéneo de m ecuaciones lineales con n incógnitas:
«,,A, + = O
a,,A·, + «jjx, + - + = O
«mi·*! + = O
(5„:
Si 5;, tiene menos ecuaciones que incógnitas, o sea, si es /w<«, entonces
Sf, tiene alguna solución no nula y, por tanto, tiene infmitas soluciones
(*) Se supone que los escalares son los elementos de un cuerpo infinito, como R o
como C: no se consideran aquí los cuerpos, K, finitos (esto es. de un número finito de
elementos).
DEMOSTRACION
Aplicando el método de Gauss al sistema 5;,, siempre es posible obtener un
sistema escalonado 5, equivalente al 5^; el sistema 5, ha de ser también
homogéneo, como resulta obvio. De acuerdo con la discusión de los sistemas
escalonados que se hizo en [007] nos encontramos con que, en nuestro caso, co
mo todos los términos independientes son nulos y es r ^ m < n (se llama r,
como siempre, al niímero de ecuaciones de 5, que tienen sus primeros miem
bros no nulos), resulta que (segtín se dijo en [(X)7]) S^ es compatible indeter
minado, luego también lo es 5^.
Como S^ ha resultado tener más de una solución, S^, tiene entonces alguna
solución no nula; sea ésta la (a,, ofj» ···» ^n)· Consecuentemente, también son
soluciones de S^ todas las infinitas (Acr,, Aaj, ..., Aor„) para cualquier escalar
A, como se comprueba trivialmente.
30. CAPÍTULO
2 Rango
(de vectores
y de matrices)
Ya hemos tenido, anteriormente, un encuenü*o con el rango, cuando hablábamos
del proceso de resolución de un sistema de ecuaciones lineales. Recuérdese que
allí, al estudiar un sistema de m ecuaciones, desechábamos todas las que eran
combinaciones lineales de otras y, a la postre, terminábamos quedándonos,
solamente, con aquellas que, en número mínimo, eran independientes unas de
otras y tales que de ellas dependían todas las rechazadas. Este número mínimo
de ecuaciones era el rango.
Vamos ahora a precisar este concepto y a profundizar en él. Esta tarea la
haremos desde los puntos de vista vectorial y matricial.
Oí VECTORES DE nCOMPONENTES
A poca Física que hayamos es
tudiado, habremos visto que esta
ciencia está «plagada» de vecto
res: las fuerzas, las velocidades,
los campos eléctricos, etc. La
cosa no fue siempre así; los vec
tores entraron en la Física con
no poca resistencia por parte de
muchos, incluso de gentes emi
nentes. A este respecto, bueno es
recordar que el gran físico Lord
Kelvin llegó a decir que «los
vectores nunca han tenido la me
nor utilidad para nadie».
Mas adelante, cuando sea preciso, hablaremos de los espacios vectoriales
abstractos con toda la generalidad que nos sea necesaria. Por el momento no
nos hace falta tanto; sólo hablaremos aquí de los «vectores de n componen
tes», situados ya en el terreno de lo abstracto, pero no muy lejos de los
vectores elementales que, de seguro, hemos venido utilizando en nuesü*os
estudios anteriores. Hablar aquí de los «vectores de n componentes» nos ha
de ayudar, en su momento, a llegar sosegadamente al concepto de espacio
vectorial.
Todos conocemos ya los vectores geométricos (segmentos orientados del
espacio) y sabemos que, recurriendo a las coordenadas, se pueden identificar
con las lemas de números reales, o sea, con los vectores de tres componentes
reales. Los vectores de n componentes están ya haciéndonos falta, hay que
hablar de ellos sin demora. Nótese, a este respecto, que en los apartados
anteriores ya se ha recurrido tímidamente a ellos cuando se echó mano de
objetos como el x = Xj, ..., jc„), que nos sirvió para representar a todos y
cada uno de los elementos de la sucesión x^, jCj, ..., x„.
Abundando en la conveniencia de estudiar aquí los vectores de n compo
nentes y no otros más generales, que se aplazan para más adelante, hay que
argüir otra razón de importancia: Las propiedades de los vectores de n compo
nentes, que nos va a costar muy poco comprobar, se tomarán como punto de
partida para definir vectores en general. Conocer dichas propiedades nos va a
pemutir entender las razones por las que los vectores abstractos se definen dcl
modo que se hace y no de otra manera.
22
31. ORES Y DE MATRICES) 2 3
2.1. E l. E S P A C IO V E C T O R IA L A'
L a s s i g u i e n t e s d e f i n i c i o n e s g e n e r a l i z a n , d e n u m e r a n a t u r a l y o b v i a , a la s n o
c i o n e s d e v e c t o r e s d e 2 y d e 3 c o m p o n e n t e s ( q u e n o s s o n c o n o c i d a s ) a s í c o m o
líLs d e s u s u m a y d e p r o d u c t o p o r u n e s c a h u -. C o n t o d o e l l o s e o b t i e n e u n a
e s t r u c t u r a a l g e b r a i c a q u e , s e g ú n s e v e r á m á s a d e l a n t e , n o e s o t r a q u e la d e
e s p a c i o v e c tí> ria l d e d i m e n s i ó n n .
ÍOIIJ
D E F IN IC IO N
D a d o s u n n ú m e r o n a t u r a l n ( l i j o ) y u n c u e r p o /w ( e n p a r t i c u l a r AT = IR o
A' = C ) , a c u y o s e l e m e n t o s l l a m a r e m o s e s c a l a r e s , s e l l a m a n « v e c t o r e s d e
n c o m p o n e n t e s » d e l c u e r p o K ( e n p a r t i c u l a r , r e a l e s o c o m p l e j a s ) a lo s
e l e m e n t o s q u e s e e s p e c i f i c a n e n I e n t r e l a s q u e h a y e s t a b l e c i d a s l a s d o s
o p e r a c i o n e s q u e s e d e t a l l a n e n II:
II.
L S e l l a m a n v e c t o r e s d e n c o m p o n e n t e s d e l c u e r p o K a l a s s u c e s i o n e s
o s i s t e m a s o r d e n a d o s d e n e s c a l a r e s d e e s d e c ir * a l o s e l e m e n t o s
d e I C , E s t o s v e c t o r e s s o n , p u e s , l o s o b j e t o s :
d o n d e
a « ( li„ «2,
w ,, U j.......... u„ s o n e s c a l a r e s ( d e l c u e r p o K )
M, s e l l a m a c o m p o n e n t e / - é s i m a d e ii
t i e t i c n i g u a l e s s u s r e s p e c t i v a s c o m p o n e n t e s ; e s t o e s , s i p a r a
1 = 1 , 2 , //.
S e l l a m a s u m a ü + D, ú c d o s v e c t o r e s ü y 0 , y s e l l a m a p r o d u c t o Am,
d o n d e Á e s u n e s c a l a r , a l o s s i g u i e n t e s v e c t o r e s :
i7 = (li,, U2.
.
.
.
.
.
.
.
.
.
.
. ¡O
0 = (v^, Ü2....... v j
14^(14^, u„)
A e s u n e s c a l a r
— ^ Aw = ( A w ,, A « 2 ..........Aw „)
E J E M P L O
A s í , p a r a l o s s i g u i e n t e s v e c t o r e s d e 5 c o m p o n e n t e s :
i7 = ( 3 , - 2 , O, 2 , 4 ) ; Í T = ( 2 , 1, - I , 2 , 3 ) ; h > = (O , 7 . - 3 , 2 , 3 )
32. 24 Alg eb r a lineal
los vectores ü + O
, ü — O
, —2w y 2m—3<f+ tv son los:
« + 0 = (5, - I , - I , 4, 7)
ü - 0 = (l, - 3 . i, 0. I)
- 2 w = (0, - 1 4 . 6. - 4 . - 6 )
2m- 3 í + = (0. 0. 0. 0. 0)
Supongamos que, en una empre-
sa, las citas se comunican dando
un vector (a, 6, c), donde a es la
hora, b es el día y c es el mes.
Así (12. 24, 04) es una cita para
las 12 del día 24 de abril. Si
alguien se equivoca en cl orden
y comunica que lu cita cs (04,
24, 12), cl citado deberá acudir
a las 4 de la madrugada dcl día
dc nochebuena.
OBSERVACIONES
1. Un vector de n componentes no es un conjunto de /i escalares, sino un
elemento de A
T
*. Si las n componentes de un vector se colocan en distinto
orden, ya no encaman al mismo vector; éste pasa a ser otro.
2. Es co.stumbre denotar a los vectores de distinto modo que a los e.scalares;
para distinguir a aquéllos se suele poner una tilde o una flechita .sobre la
letra que los simboliza o, también, escribir ésta con letra negrita. Ello, que
suele resultar útil, sobre todo al principio, no es algo necesario; es más,
cuando se tiene bastante hábito en el manejo de vectores y escalares, puede
llegar a ser incómodo y tedioso verse en la obligación de escribir las
referidas tildes.
3. Se suele decir que el vector Áü cs proporcional al vector ü y que Á es la
constante de proporcionalidad.
4. Si a es un escalar no nulo, «dividir el vector ü por a» es multiplicar el
vector ü por el escalar i/a,
5. Vectores fila y vectores columna. Para señalar que las componentes de un
vector ü se escriben una detrás de otra, en el mismo renglón, se suele decir
que ü aparece como vector fila. Si las componentes de ü se escriben en
vertical, poniendo cada una debajo de su anterior, .se dice que ü se presenta
en forma de vector columna:
u =
Con esta notación en forma de columna, las operaciones entre vectores se
presentarán en la siguiente forma:
« i '
O í7 =
«2
:
W
l u, + y, U| Aw,“
"2 + =
^2 + t^2
:
; Á
"2
=
Awj
J*n, U '· 1
Q PROPIEDADES DE LAS OPERACIONES
CON VECTORES
Para los vectores de n componentes y en relación con la suma y el producto
por un escalar, se verifica:
33. DRES Y DE MATRICES) 25
t012] Si ¿4, 0 y w son vectores de n componentes (n escalares de un cuerpo K;
en particular, reales o complejos) y si A y /x son dos escalares, entonces:
1.
2.
3.
4.
5.
6.
7.
8.
(w + ü) + vv= w+ (i; + vv)
w+ iJ=t5-f-w
¿
4+ ó = ü, donde ó = (O, O, 0) se llama vector nulo
Para cada w. existe un vector —w tal que w+ (-« ) = ¿?;
Si w= (Wp Uj, u„), entonces -w = (-w ,, ···» “ ^n)
Al vector - ü se le llama opuesto del ü.
A(zJ + íO = Aw + A
íT
(A + fx)ü = ü + fiü
KijjLÜ) = (A/i)/7
lw = «
а) O ü -o y A¿; = o
б ) Áü = ó => [A = O o M= ó]
c) (-A)w = A(-í7)=-(A«)
Obsérvese que las últimas propiedades se han separado de las primeras con
una raya horizontal; con ello se quiere indicar que, cuando se definan los
espacios vectoriales abstractos, las ocho primeras propiedades serán las que
caractericen a los vectores y las tres últimas van a ser consecuencias de
aquéllas.
COMPROBACION
Las anteriores propiedades se comprueban trivialmente; hagámoslo, como ejer
cicio, paradosde ellas (la 5 y la b)
•Llamandow= (w,, W
j» ···» y ^ = (*^p ···»*
^n
)» propiedad 5 se tiene:
Á(Ü^l·Ü) = A[(m,, M
j, u„) + (ü,, ^2, v„)] =
= A(w, + üp W
j + ···. “« + O =
= [A(w, + y,), A(w2+ ^2 )* -MA(w„ + y„)l =
= (Aw, + APj, ÁU2 + Awj, ·..»Aw„ + Áv„) =
= (Aw„ Awj, AwJ + (Ai;„ ÁVj, ...» AuJ = Áü + ÁC
• La propiedad ¿>), en lugar de comprobarla directamente, que no sería difícil,
vamos a obtenerla como consecuencia de las primeras propiedades. Nótese
que esta propiedad se puede enunciar diciendo que: de ser Aw = ó y A ^ O,
entonces se verifica que w= á Así ocurre, ya que por ser A O existe A’ *
y, por tanto (multiplicando por " ‘):
Áü = d A-*'(Aw) = A-*ó (A-'A)m= J lM= d ü = d
34. Algebra lineai
DEPENDENCIA E INDEPENDENCIA IJNEAL
Vamos ahora a concretar una idea c|ue ya hemos manejado anteriormente y
que, en lo que sigue, va a seguir siendo enormemente frúctifera; n concepto dé
«vector que depende linealmente de oü-os»
^ COMBINACIONES LINEALES;
DEPENDENCIA LINEAL
[013J Se dice que un vector v es una combinación lineal de los vectores w,, Oj,
...» ü,, O que 0 depende linealmente de ellos si, paia algunos escalares x,,
jCj, ..., JC
;,, se verifica:
V= jc,5, + JC
2 W
2 + ·" + x^úf,
La dependencia lineal es transitiva: si D depende linealmente de unos
vectores y cada uno de éstos depende linealmente de otros, entonces í
depende linealmente de los últimos.
Se dice que un sistema (o conjunto) de vectores 5 = {i;,, ..., 0^] es un
sistema ligado o linealmente dependiente si se verifíca una de las siguien
tes condiciones (1) o (II), que son equivalentes entre sí:
(I) Alguno de los vectores de S depende linealmente de los demás.
(II) Para algunos escalares A,, A2, ..., A^ que no son todos nulos es:
A,i;| +A202 + - +A y = J
DEMOSTRACIÓN
I. Comprobemos en primer lugar la transitividad de la dependencia lineal. Se
supone que v depende linealmente de los w„ .......ü^, y que cada uno de
estos a^ depende linealmente de los esto es, para ciertos
escalares A, y se verifica que:
De aquí se infiere que:
35. donde se hu Humado
h
«, = X
Resulta, pues, que ü depende linealmente de los Wj, según había que
comprobar.
2. También debemos comprobar que las condiciones 1 y 1
1 son equivalentes;
eslo es, que 1 => II y que 1
1 => 1. Así ocurre, en efecto:
I => II La hipótesis es, ahora, que alguno de los v¡ depende linealmenle
de los demás; vamos a suponer que dicho vector es el 0, (de no
ser así, cambiamos la numeración para que lo sea), es decir, que
para algunos escalares A2. ...» A
^, es:
y, = A,Ü2 + A
3¿J3 + ... + A A
Pasando íJ, al segundo miembro y llamando A, = - I , resulta que
ó = A,ü,-f A2ÍJ2+ - +A,,0^
luego se verifica la condición II, como había que probar, ya que
los A,. A2. .... Áf, no son todos nulos por ser A, = - 1 # 0.
II => I La hipótesis es ahora que A,tJ, + ÁjVj + *
*
*+ = ó para algunos
escalares Á¡ no todos nulos. Podemos, pues, suponer que es A, # O
(de no ser así, cambiando la numeración se consigue que lo sea),
lo que nos permite poner:
■RICES) 27
y .=
A
iJ,+ ■
{-'é
es decir, uno de los vectores de S (el tJ,) depende linealmente de
los demás, esto es, se verifica la condición I.
EJEMPLOS
1. El vector nulo. ó. es combinación lineal de cualesquiera vectores w,, W
j, ...,
üf,, ya que
ó = Ow, + 0Ü2 + ·· + O
M
;,
Por tanto si ó es uno de los vectores de un sistema 5, entonces S es
linealmenle dependiente.
2. Sean m,, W
j. üy y € los siguientes vectores de 4 componentes:
«, = (2, - 1 , 5, 1)
fÍ2= ( - L 3, - 2 , 0) í?= (l, - 8, I, - I )
W
3= (3, 1, 8, 2)
36. Algebra lineal
El vector ü depende linealmente de los vcctores üj y W
j, ya que:
I m , - 2 w2 - IÙ3
Nótese que» en este caso, € también puede expresarse de otros modos como
combinación lineal de los 5,» «2 y ^3»y^
íJ= 3tt, - íÍ2~ y i; = -w, - 3^2 + O
W
3
Señalemos» de paso» que la última igualdad nos permite afirmar que Oes
una combinación lineal de los w, y (solamente).
3. Sea S = {íí» í» c) el sistema formado por los siguientes vectores
d= (l, 4,-2) , í=(4, 1,7) y c = (2, -1, 5)
Este sistema 5 es un sistema ligado ya que 2a - 3b + 5c = ó. Nótese que,
para cualesquiera que sean los vectores ¿f y è (de tres componentes), el
sistema 5' = ¡a» b, c, d, é] también es ligado» ya que
2 ó - 3 ^ + 5 c + 0 j+ 0 # = ó
PROBLEMA
Pruébese que, si á,» áj. ···» son p vectores de n componentes y si es /? > n,
entonces S = {¿f„ ...» á^,] es un sistema ligado.
RESOLUCIÓN
Denotemos a los vectores dados, áy, del siguiente modo:
...... flny) para y = 1»2........p
Hay que comprobar que existen unos ciertos escalares jc„ jCj, ...» x no todos
nulos y tales que ^
xfiy + x^á^ + - + Xpá^ = ó
es decir, de manera que:
-^l(fl|I» ^21*—
»^nl) ^22» —» ^*«2) ----
^np) = (0. O, ...» 0)
Esta igualdad vectorial equivale a las n ecuaciones (escalares) que resultan de !
i
.’
i
■
I
37. (DE VECTORES Y DE MATRICES) 29
igualar a cero cada una de las componentes de la suma dcl prinicr inicinhro,
esto es, al sistema;
10141
+ ··· + = O
+ ··· +
|W|
Como H es un sislema homogéneo que liene nuiyor número de incógnitas (p)
que de ecuaciones (n), según ya sabemos (véase (OlOl) dicho sislema tiene
alguna solución no nula, que es lo que había que comprtibiu^.
□ INDEPENDENCIA LINEAL
Si unos veciorcs no formiin un sislema ligado, diremos que son linealmenle
independientes; más precisamente:
Se dice que un sislema (o conjunto) dc vectores 5 = {íí,. í· » tin
sistema Ubre o lineabnente independiente si se verifica una dc las siguien*
tes condiciones (A) o {B que son equivalentes entre sí:
(A) El sistema S no cs linealmenle dependiente, cs decir, ninguno de
los vectores de 5 depende linealmente de los demás.
(fi) La única combinación lineal dc vectores de S que es nula es la que
tiene todos sus coeficientes nulos; esto es:
A,íJ| + + - + =
(A,. Aj, .... A^ escalares).
A| —Aj —· A, = 0
COMPROBACIÓN
Si comparamos las condiciones (A) y (fi) con las (I) y (II) de la dependencia
lineal (véase [013]). nos encontramos con que (/) es la negación de (1) y (fi)
cs la negación dc (II). Como (I) y (II) son equivalentes, según ya se demosü-ó.
concluimos de ello que umibién son equivalentes sus negaciones (/) y (fi).
EJEMPLO
Los vectores a, b y c (de 5 componentes):
ó = (3. 1. 7 ,- 5 . 4) . ^ = (0 . 2, 4, -3 , -2 ) y c = (O, 0. - 6, 5. l)
38. ÁLGEBRA UNEAL
forman un sistema libre, ya que la relación aü fib + ye = ó sólo se verifica
para a —/3 = y = 0. Así ocurre, en efecto, ya que la citada relación equivale
al sistema:
3 a = O
a + 2/S = 0
7 a + 4)3 - 6 y = O
- 5 a - 3 / í + 5 r = 0
4 a - 2)0 + y = O
que sólo tiene (obviamente)
la solución a = O, yS = O, y = 0.
RANGO DE UN SISTEMA DE VECTORES
Dado un conjunto de vectores no nulos, estamos interesados en estudiar si hay
algunos de ellos lales que satisfagan a los dos requerimientos siguientes: 1) que
formen un sistema independiente; y 2) que los dem ás vectores dados dependan
linealmente de ellos. Vamos a probar que lales sistemas existen y que todos
ellos tienen el mismo número de vectores, que se llama rango del conjunto de
vectores dado.
B
RANGO. OPERACIONES ELEMENTALES
TEOREMA (EXISTENCIA DEL RANGO)
ÍÜ15J Para cualquiera que sea el sistema 5= lí5|, V
j, ü
p
] de p vectores, no
todos nulos, se verifica que;
(I) Hay algún sistema 5o de vectores de S tal que: 1) es linealmente
independiente; y 2) todos los demás vectores de Sdependen lineal
mente de los de
(II) Todos los sistemas S
^
, de vectores de S
, que satisfacen a los reque
rimientos 1) y 2) tienen el mismo número de vectores.
Para cada sistema 5= {t?,, C , , D„ de vectores no nulos, existe pues un
número r tal que: a) hay algún sistema formado por r vectores de Sque
es linealmente independiente; y b) todo sistema formado por más de r
vectores de Ses linealmente dependiente. Este número r es. entonces, el
mayor número de vectores linealmente independientes que hay en 5; a él
se le llama rango de 5 y se pone:
r = rang S
39. 31
DEMOSTRACIÓN
Hemos de comprobar la veracidad de las dos proposiciones (I) y (II). Las demás
afirmaciones del enunciado son consecuencias obvias de (I) y (II).
(I) Esla proposición la comprobaremos por inducción sobre p esto es, veri
ficaremos que es cierta para p - y probaremos que, de ser cierta para
p - m , entonces lambién lo es para = I. Esta proposición (I) es
evidentemente cierta para /? = I ya que, como ahora es 5 = {O,) con
tJi =
5
¿ ó. la proposición se satisface obviamente para = 5. Suponiendo
ahora que la proposición (I) es cierta para los sistemas S que tengan p = m
vectores, debemos comprobar que también lo es si S tiene p = m + I vec
tores. Consideremos, para ello, los dos ca.sos que pueden presentarse (los
m f 1 vectores son independientes o son dependientes). Si los m + I
vectores de S son independientes, entonces la propiedad se verifica para
5(, = 5. Si los m + I vectores de S son linealmente dependientes, entonces
uno de ellos depende linealmente de los demás; llamemos a aquel
con lo que los demás son iJ,, Dj, ..., En este ca.so, como el sistema
S' = (yp ^2» · ·» vectores, para él existe el sistema que
asegura la proposición (I); esta proposición (I) se verifica, entonces, (para
S) si se toma 5o = ya que este es independiente y todos los vectores
de S (incluyendo el ÍJ„+,) dependen, obviamente, de los de
(II) Procederemos por reducción al absurdo; esto es, partiendo de que la
proposición es falsa, encontraremos una contradicción. Supongamos,
pues, que hubiera dos sistemas que llamaremos y Sq que cumplie
ran lo exigido en (I) y tuvieran distinto número de vectores. Si denotamos
So = (t?|. ^2. y So = (»V,, M
>
2
. ..., vi>j
lo que se ha admitido es que r y s son distintos; supongamos, por
ejemplo, que es r< s. Pues bien, vamos a comprobar que por verificarse
que es r < 5 y que para 5/, se cumple lo exigido en (I), el sistema
S¡/ no puede ser linealmente independiente; esta contradicción conduce
a la veracidad de (II). Vamos, pues, a comprobar que existen algunos
escalares jc,, jCj. ···. Xs todos nulos y tales que
s
XyWy + 0
:2^2 + - + ^ » O sea E x¡w¡ = o [1]
/-I
Como todos los vectores de 5, y en particular los de Sq dependen
linealmente de los vectores de resuha que para unos ciertos escalares
U
j¡ se verifica que
r
ajfij (para » = 1. 2, ..., s)
Recurriendo a estas igualdades, la relación [I] puede expresarse del si
guiente modo:
6 = ' L x¡w,= 'L x, i a¡,C, = I s xflO = Z I xfl C = i I í
<-i V -' 7 < -u -i y-i V -i 7
40. Algebra lineal
esto es:
s
I O u X ,
/ » ' / '
?
, + I Ü 2 ,X t í>
2+ - I «
„
J
C
,
v-l y v-l ^ V-l /
0 = 0 (21
Como {tJ„ 0 } , P,) es un sistema linealmente independiente, la relación
[2] se verifica si y sólo si son nulos todos los escalares que figuran en
ella; esto es, si:
I
i-l
[3
J
La relación [3] es un sistema lineal homogéneo de r ecuaciones con las s
incógnitas x,, x,. Como se ha supuesto que es r < s , resulta que el
sistema [3] tiene alguna solución no nula (según se probó en [010]). Como
[31 cs equivalente a [1], nos encontramos con que [1] se verifica para
algunos escalares x,, x^,.... x^ no todos nulos» como queríamos comprobar.
OBSERVACIÓN
Para hallar el rango de un sistema de vectores habrá que ir desechando aquellos
vcctores que resulten ser combinación lineal de los que van quedando, hasta
que éstos formen un sistema independiente; el número de vectores de éste es
el rango buscado. Conviene proceder, para ello, de una manera metódica, como
por ejemplo:
Sea 5 un sistema, de p vcctores no todos nulos, del que se quiere hallar el
rango. Tomemos un vector no nulo de 5; sea éste el iJi. Si todos los vectores
de S dependen linealmente de (?,. entonces el rango es 1. Si en 5 hay algún
vector que no dependa linealmente de O,, al que llamaremos y los demás
vectores dependen de los tJ, y üj, entonces el rango de S cs 2. Si en S hay un
vector, que llamaremos Vy que no dcf)ende linealmente de los y d jy todos
los demás vectores dependen linealmente de 0,, D
2 y Vy entonces el rango de
5 es 3. Prosiguiendo de este modo, se liega a cnconü*ar (a lo más es p etapas)
el rango de 5.
EJERCICIO
Sean S={iJ,, üp] y = í?2» ·*·* sistemas de vectores.
Sabiendo que S cs un sistema independiente y que los vectores de 5' dependen
linealmente de los de 5, comprobar que rang 5' ^ p.
RESOLUCIÓN
El sistema 5U 5' = {m,...... i?„ ..., (?„} tiene rango /?, ya que sus p primeros
vcctores son linealmente independientes y todos los restantes dependen lineal-
mcnte de ellos. El rango de S' no puede ser mayor que p, pues si lo fuese,
habría más de p vectores de S y por tanto, de S U S que serían linealmente
independientes, lo que cs falso ya que el rango de cs p.
41. GO (DE VECTORES Y DE MATRICES) 33
EJEMPLO
Sea 5 = {J, h, c, d] el sistema formado por los vectores:
J = (l, 0. 0. O
, 1)
í=((), 2. 0. 2, 0)
c = (3, 0. 3, O, 3)
J = ( l . 2, 3. 2, I)
Los vectores á, b y c forman un sistema independiente, ya que la relación
a ü -^l^b + yc —d equivale a:
a + 3y = 0 ; 2)3 = 0 ; 3^ = 0
cuya única solución es la a = yS= y = 0. Por otra parte, d es una combinación
lineal de las J, y c, ya que d - - 2 J + f *f c. Por tanto, el rango de S es
rang 5 = 3.
^ RANGO Y OPERACIONES ELEMENTALES
Igual que ocurría con los sistemas de ecuaciones lineales, también aquí las
operaciones elementales juegan un papel importante. Allí (véase [004]), al
realizar operaciones elementales en un sistema de ecuaciones lineales, no va
riaban las soluciones de éste. Aquí vamos a comprobar que, al realizar opera
ciones elementales en un sistema de vectores, no varía su rango.
[016]
LAS OPERACIONES
ELEMENTALES
un sistema de vectores)
j. intercambio, de los vec
tores i y j ésimos.
A/j: Multiplicar por A Oel
vector í-ésimo.
/+ Ay]: sumar, al vector
i-ésimo, A por el
vector 7-ésimo.
Propiedad fundamental del rango: el rango de un sistema de vectores no
se altera si se realizan en él cualesquiera operaciones elementales. Se
llaman operaciones elementales a las siguientes manipulaciones:
1. Intercambiar el orden con el que figuran los vectores en el sistema.
2. Multiplicar uno de los vectores por cualquier escalar no nulo.
3. Sumarle, a uno de los vectores, otro cualquiera de ellos.
4. Aplicar, reiteradamente, cualesquiera de las operaciones anteriores
(en particular, sumarle, a un vector, cualquier combinación lineal de
los demás).
NOTA: Hay quienes consideran tumbién como operación elemental (cosa que no hare
mos no.solros) a la siguiente: suprimir un vector que sea combinación lineal de otros vectores
del sistema.
COMPROBACIÓN
La conservación del rango a! realizar operaciones elementales del tipo 1 es
evidente; para la operación 4, como es consecuencia de las tres anteriores, no
hay nada que demostrar. Sólo habrá que comprobar la conservación del rango
frente a las operaciones 2 y 3. Estas dos propiedades podemos englobarlas en
42. Algebra uneal
una sola quc diga: cl rungo de un sL*vienìa 5 —(m» u‘. cs igual al del
sistema S* = t h·. ...), donde u = a« + para a ^ 0 (sì es ^ = 0, se
obtiene la operación 2; si « = /?== K se obtiene la operación 3). P;u*a demostrar
esto, recurnrcmos al rango r del sistema U w
*. ...I y distinguiremos dos
casos:
a) El vector ù depende linealmente de En este supuesto, es nmg 5 * r.
Como cs evidente que. ahi>ra. u = aü + fiC también depende linealnicme
de 5,^ rcNulüi que rang 5' = r. Por tanto, S y 5' tienen igual ningo.
b) El vector ü no depende linealmente de iV En este supuesto, es
rang S = r + I. AhiKa. ü* tampivo depende linealmente de pues si m
no fuese, como es w= (l a ) u - { f i a)C, resultaría que ít dependería li-
nealnieme de cuando se ha supuesto lo contrario. Resulta de ello
que S' tiene rango r ^ 1. luego S y 5' tienen, también en este caso, igual
rango.
C
A
I.CI1.«O
K
I.R
A
N
ÍÍOl)Kl’NS
IS
'IK
M
A
l)KK
í'IO
R
K
S
Para hallar el rango Je un sisiema .V
. cs aconsejable pn>ceder sisteniáticamentc,
aplicando adecuadas operaciones elenurntales. hasta obtener un sistema en el
que halUr el rango sea algt> clenientaL El rango de 5. por ser igual al de este
último, «erá ya contKido.
J P
R
()l‘()S
IC
I()N
10171 DfcJoS —(i). í . .... sistema formado por los vectores de n componentes:
J = <
1,. .... tf.) r«.
.... t>.) h, .·· ^
sea =
= c,. O c, ..
Rcali¿ar operaciones elementales en 5 equivale a hacer las operaciones
en las filas de la matriz K Utilizando como pivotes (véase [()09J) a ciertos
elementos de M, elegidos de modo idóneo para realizar adecuada.s ope·
ncHHKs elementales en las filas de M. siempre cs posible transformar 5
en un sistema equivalente 5, que sea escalonado (véase [OOóJ). esto es.
tal qiK cada vector (a partir del 2.®
) comience con una sucesión de ceros
que liene algún cero más (uno como mínimo) que la fila anterior. El rango
de que cs igual al de 5. cs el número de vectores no nulos que contiene.
43. TRICES) 35
COMPROBACIÓN
Respecto de cómo conseguir el sistema escalonado 5, del que se habla en el
enunciado, no hay más que seguir el camino, ya conocido, para transformar M
en una matriz escalonada aplicando operaciones elementales a sus filas (véase,
en [0091, lo dicho al describir el método de Gauss).
Sólo tenemos, pues, que compmbar que el rango de es igual al número r
de vectores no nulos que contiene. Comencemos recordando que es de la forma
S,= (m,, w,» — "r. Ò......ó
donde la primera componente no nula dc cada m
,, a la que denotaremos por
ocupa algún lugar más a la derecha que la dc Nótese que lo que debemos
comprobar es que M
j. ..., son lineaimente independientes. Así ocurre, en
efecto, ya que la relación a,M, + + ♦
·· + « À = ^ (donde los a¡ son esca
lares) equivale al sistema
a,«,i = 0
ar,» + « 2
*^2
1 “ ^
(con los ♦ .se denotan a las restantes componentes de los vectores m,) y este
sistema sólo liene. obviamente, la solución nula a, = aj = ··· = a, = 0.
EJEMPLO
Siguiendo el j^rocedimiento antes descrito, calculemos el rango del sistema
S = |J, c, dy è]y siendo:
J = (l, 3, 2, -1 , I, 4)
* = ( 1 . 4 , 1 , 1 ,2 . 3)
c = (2, 5, 5. 1. 3. 7)
J = ( 2 , 4. 6. - I . 2. 8)
f = (3, 8, 7, 0 , 4 , 1 1 )
Realizando sucesivas operaciones elementales en las filas de la matriz cuyos
vectores fila son los a, b, c, d, é, se obtiene;
— l 3 2 -1 1 4
à 0 1 - l 2 l - 1
c* = c - 2 á — 0 “ l l 3 l - l
d ' = d - 2 á — 0 - 2 2 1 0 0
è ' = è - 3 à — 0 -1 l 3 1 - l
(♦) Los vectores ú, son del tipo ü¡« (O, ..., 0, ii„, ♦, ♦); los * son escalares cualesquiera.
44. — 1 3 2 - l 1 4
b - ^ b · — 0 1 - 1 2 1 - l
c" = c '+ b' 0 0 0 5 2 - 2
d*' = <?' + 2b' — 0 0 0 5 2 - 2
0 0 0 0 0 0
— l 3 2 -1 l 4
b '" = b " — 0 1 - l 2 l - l
— 0 0 0 5 2 - 2
— 0 0 0 0 0 0
- 0 0 0 0 0 0
El rango de este último sistema es 3, pues b*" y c''' son independien
te s y J '" = ò y é'"' = ó; por tanto, el rango del sistema dado, 5, es 3.
Una matriz que tenga m filas y n columnas puede concebirse como un sistema
(sucesión) de m vectores (vectores fila) de n componentes cada uno de ellos;
la maü-iz también es un sistema (sucesión) de n vectores (vectores columna)
de m componentes cada uno. Concretando, para la matriz
« I I «12 - - « In
«21 ^22 ··' ^2; - «2n
> =
| « / I « ,2 ^ « y - «in
« « 2 · · ’ %
l(w son escalares (de un cuerpo A
T
; en particular e R o e C), para
1=1,2, m y j = l, 2, ...» n. Los vectores Illa y los vectores columna son:
(vector fila i-ésima)—
^(a,,, a¡2 , «,„)
45. )RES Y DE MATRICES) 37
(para cada uno de los valores / = 1, 2......m se obtiene un vector fila de A, que
tiene n componentes)
(vector columna y-ésima) —
♦
(para cada uno de los valores y = I, 2, n se obtiene un vector columna, de
A, que tiene m componentes).
Pues bien, los vectores fila, de A, tienen el mismo rango que los vectores
columna; más exactamente:
□ TEOREMA DEL RANGO
1018] Para cualquiera que sea la matriz A = la^], de m filas y n columnas (esto
es, de tamaño m x /i), se verifica que el rango del sistema de sus m
vectores fila (que se llama rango de filas de A) es igual al rango del
sistema de sus n vectores columna (que se llama rango de columnas de
A). A cualquiera de estos dos rangos, iguales entre sí, se le llama rango
de la matriz A.
DEMOSTRACION
Llamamos r y r' a los rangos de filas y de columnas de la matriz A. Vamos a
comprobar que es r' ^ r y r', de lo que se infiere que r y r son iguales.
Solamente comprobaremos que es r ' ^ r , pues la relación r ^ r ' se pruebe de
modo totalmente análogo.
Si el rango de filas de A es r, entonces hay r filas de A que son linealmente
independientes y las restantes filas dependen de ellas. Cambiando el orden de
las filas, si fuera necesario, se puede suponer que las r primeras filas de A son
independientes. Llamando / al_vector fila de lugar /, se sabe, pues, que para
/ = r + l, r + 2, ..., m, la fila f es combinación lineal de las esto
es, para ciertos escalares se verifica que
fi = « ,i/i ^aJi *'· ^irfr / = r + 1, r + 2, ..., m)
Esto equivale a poner que las componentes del vector del primer miembro son,
respectivamente, iguales a las de la suma del segundo miembro, es decir, a:
r
+ - + «iAn = I »0,%
46. Algebra lineal
(para / = r + I, r + 2......m y ; = I, 2, .... n). Por tanto, la columna j-ésima de
A, que llamiu^emos c^. se puede poner en la forma:
c¡ —(fl|y. Oy, .... fl,y, Or+iy. ···.
^ r r '
= "l/. fljj......O
rj, ^ ...... ^ «m/.“»
./
^ /í" I 1
= rt,/l. O, .... O, ,, «„,,) +
+ 1.O, ar,+22..............."m2) +
+ «r/0, 0...... 1, «r+tr» ·*- 0 =
ÍI,/, + + - + VV
Resulta entonces que todos los vectores columnas de A dependen linealmente
de los r vectores que intervienen en esta última suma (que los hemos llamado
t?2»···» ^r) y» por rango r* de columnas de A no puede ser mayor que
el número total r de vectores para 1, 2, r, (véase el ejercicio que
sigue a [0151, en la página 32); esto es, se verifica que r' ^ r, como se quería
comprobar.
1 CALCULO DEL RANGO DE UNA MATRIZ
De lo dicho hasta ahora, primero al relacionar el rango de un sistema de
vectores con las operaciones elementales (véase [016]), después cuando se
sistematizó el cálculo del rango de un sistema de vectores (véase [017]) y,
también, al defmir los rangos de filas y de columnas de una matriz, que
resultaron ser iguales, de lodo ello, se desprenden las siguientes conclusiones:
[019] Para cualquiera que sea la matriz A = [a^], de m filas y n columnas, se
verifica que:
2
.
"
El rango de filas (o de columnas) de A no se altera si se realizan en
las filas (o las columnas) de A cualesquiera operaciones elementales.
Utilizando como pivote (véase [009]) a ciertos elementos de A,
elegidos de modo idóneo para realizar adecuadas operaciones ele
mentales en las filas (o las columnas) de A, siempre es posible
transformar A en una matriz escalonada A^, El rango de filas (o de
columnas) de la matriz E, que es igual al de /,,, es el número de
filas (o de columnas) no nulas que contiene.
47. ^CES) 39
EJEMPLO
Como ejemplo, de aplicación inmediata del método descrito, calculemos los
rangos de filas y de columnas de la siguiente matriz A, que deberán resultamos
¡guales:
1
2
“ 1
3
3
5
3
- 4
- 2
1
2
- I
1
- 3
- 3
2
2
5
- 3
9
Para el rango de filas, al realizar las operaciones elementales, en filas, que
se indican a continuación, se llega a:
i r = 1.“ — 1 3 --2 1 2
2.·' = 2.· - 2 · i.· — 0 --1 5 - 5 1
3r = 3.*-f 1.· 0 6 0 - 2 -1
4.·' = 4.· ~ 3 · 1.· — 0 - 13 5 - 1 3
i r ' = 1.·' — ’ l 3 - 2 1 2
2 ' = 2 — 0 -1 5 - 5 1
3.·" = 3.*'+ 6 · 2.*' — 0 0 30 - 3 2 5
4.·” = 4.* '- 13- I · ' — 0 0 - 6 0 64 --10
— 'l 3 - 2 1 2'
) Mtrt — 2 — 0 -1 5 - 5 1
— 0 0 30 - 3 2 5
^r^' = 4r ' + 2 - 3r ‘
' — 0 0 0 0 0
= >4'
= A ' - = A ^
Como la matriz escalonada A^ tiene tres filas no nulas, resulta que el rango
de filas de A, y, por tanto de A, es 3,
Para el rango de columnas, al realizar las operaciones elementales, en
columnas, que se indican a continuación, se obtiene:
i r = L·
2 . · '= 2 . · - 3 · 1.·
3.*' =^3.· + 2 · 2.·
4 . · '= 4 . · - 1.·
5.*' = 5.· - 2 · 2.·
1
0 0 0 0
2 - 1 5 - 5 1
-1 6 0 - 2 - 1
3 - 1 3 5 - 1 3
48. i r
9 ·'' : i r
3.*'' = 3.-' + 5 · l y
r 4 . - = 4 r - 5 * 2 . · '
3 *" = 5.“'+ 2.·'
-
l 0 0 0 0“
2 - l 0 0 0
_
_l 6 30 - 3 2 5
3 - 1 3 - 60 - 6 4 - 1 0 _
7 u/r/ _ I O
M
- a//# = 2
a t f
- :30
“ 3 0 -4 .
5.“'" = :
-
1 0 0 0 0'
2 --l 0 0 0
-l 6 1 0 0
3 - 13 --2 0 0
esia última matriz escalonada tiene tres columnas no nulas, luego su rango de
columnas, que es igual al de A, vale 3.
OBSERVACIÓN
realizar operaciones elementales se conserva
el rango debe mantenerse siempre que se
otras que sean combinaciones lineales de
no aumenta, pero puede disminuir. Así, por
A formada por tres columnas independientes,
^1
» ^2 y 'o rang A = 3; sea A' la matriz cuyas columnas son
= 2c, ~ C2~ Cy Las tres columnas de A' son
+ ci + C3= ó, luego rang A' < 3, con lo que
Según lo que venimos diciendo, al
el rango. Ello no significa que
sustituyan filas o columnas por
aquéllas; al hacer esto, el rango
ejemplo, consideremos una matriz
c¡ = - c , + c2,ci = - c , + c 3 y c i
linealmente dependientes, pues c¡
rang A' < rang A.
MATRICES EQUIVALENTES
Más adelante, cuando se habla de las matrices de las aplicaciones lineales, se
volverá sobre este concepto de equivalencia de matrices y, entonces, se le dará
un enfoque nuevo y de mayor alcance. No obstante, la estrecha relación que
existe entre el rango y la equivalencia de matrices, hace aconsejable que sea
ahora, y no más adelante, cuando se introduzca este concepto.
49. DRES Y DE MATRICES) 41
Í020J Dos matrices del mismo tamaño m x n (ambas con m lilas y ;i columnas)
se dicc que son matrices equivalemes si tienen el mismo rango. Para el
conjunto de las matrices m X la equivalencia es (etectivamentc) una
relación de equivalencia; es decir, es rellexiva, simétrica y transitiva. Hay
tantas Chuses de esta equivalencia como posibles valores del rango /·, los
cuales son todos los números naturales comprendidos entre r* () y
r = nu'n (m, «)» ambos inclusive.
De entre tenias las matrices m x n que tienen rango r, interesa destacar
la que hemos llamado C,. que tiene tínlos sus elementos nulos excepto
los r primeros elementos de su diagonal que valen I. Esta matriz
se llama representante canónico o matriz canónica de equivalencia de las
matrices m x n que tienen rango r.
Aplicando adecuadas o(Kracíones elementales, en tilas y en columnas,
cualquier matriz m x n de rango r se puede translomiar en
C
(*) luí diagonal de una niatri/ está formada por los elementos que iK:upan los lugares
(I. I). (2. 2). (33)» ...
COMPROHACIONES
• Es trivial comprobar que la equivalencia de matrices es reflexiva (toda matriz
tiene el mismo rango que ella misma), es simétrica (si rang A = rang B,
entonces rang B = rang A) y es transitiva (si rang A = rang B, y
rang B = rang C, entonces rang A = rang C).
• matriz tiene rango r pues sus r primeras filas (y columnas) son
linealmente independientes y todas las restantes son nulas.
• Según ya sabemos (ver ((K)9|), realizando las oportunas operaciones elemen
tales. a una matriz m x n que tenga rango r, es posible obtener una matriz
escalonada con r filas no nulas, las cuales tienen a 1 como elemento de
cabecera, esto es. como primer elemento no nulo. Utilizando como pivotes a
estas r cabeceras y aplicando operaciones elementales en columnas, se ob
tiene una matriz cuyos únicos elementos no nulos son dichas r cabeceras,
que valen 1. Sin más que permutar ahora, si ello fuera preciso, algunas
columnas, se obtiene ya la matriz C,,
50. CAPÍTULO
3 Operaciones con matrices;
matriz inversa
Es ahora momento de hablar sobre las matrices y hacerlo con algún dete
nimiento. No se trata de contar aquí muchas cosas acerca de ellas, sino de
traer a colación algunas cuestiones que nos permitan avanzar con cierta
holgura en los próximos capítulos. Nos referimos en concreto a la suma de
matrices, al producto por un escalar, a la multiplicación de matrices, a la
matriz inversa, cuando exista, y a las principales propiedades relacionadas con
todo ello.
Poder recurrir a las matrices desde los primeros momentos, aunque ello sólo
sea como apoyo, en ejemplos y en problemas, puede sernos de inestimable
ayuda.
Detrás de todo esto de las matrices hay una idea básica: la de familia o
sistema de elementos que dependen de dos índices. Éste es el caso, por ejemplo,
del horario de salidas de los trenes de una determinada línea férrea; aquí, las
horas de salida de los trenes dependen de las siguientes «variables discretas»
o índices: i = (número del tren) y y = (número de la estación). Si llamamos
a la hora de salida del tren /-ésimo de la estación y-ésima, la tabla de los
horarios de salida será la «matriz» cuyo elemento de lugar (/, j) es h¡j. En esle
caso, como en otros muchos, los elementos h¡j (horas de salida) se representan
recurriendo a una «tabla de doble entrada» y se pone:
Número de la estación
1= 1
P / = 2
s
T
T
•s
i
1
:
i = m
7=1 7 = 2 ... i
8,05 8,25 9,00 9,40 10,05 ! 10,35
9,15 9,30 9,55 10,25 10,45 11,00
— — — — — —
— — — — —
— — — — — —
19,00 19,30 20,20 21,20 21,55 22,30
(*) También, por ejemplo. ; = l puede ser «Robledal de las cabras»; y * 2 , puede ser «Vi-
llachica del Páramo»; i = n podría ser «San Veremundo de la Vera».
( ·♦) Por ejemplo, i = 1 cs «tren expreso»; i = 2 cs un «tren rápido»; i « m cs un «tren corr«o*·
12
51. OPERACIONES CON MATRICES; MATRIZ INVERSA 43
a MATRICES; ÁLGEBRA DE MATRICES
Venimos recurriendo a las matrices desde las primeras páginas, pero de ellas
sólo se ha dicho, por no haber necesitado más, que son tablas rectangulares de
escalares. Es obligado, pues, dar ahora las definiciones pertinentes.
3.1, P R IM E R A S D E FIN IC IO N E S
SOBRE U DEFINICIÓN
DE MATRIZ
¿Qué se entiende por tabla rec
tangular? ¿Qué son filas y qué
son columnas? Para salvar estas
objeciones, se puede dar la si
guiente definición dc matriz:
Dados m, r
t e y si / y y son
/={l,2....w} yy = {1,2.....n]y
se llama matriz de tamaño m x n ,
de escalares de un cuerpo K, a
toda aplicación A: I x J - * K;
la imagen por A de un par (/, j )
se le llama elemento de lugar
(iJ) de y le representaremos
poniendo
Se llama matriz de tamaño m x n, constituida por escalares de un cuerpo
K (en particular, K = U o K - C ) , a cualquier tabla rectangular A formada
por m ·n escalares, dispuestos en m filas y n columnas. Se llama
elemento de lugar (/, j) o ij de A al escalar que está situado en la
intersección de la fila /-ésima (para /= 1, 2, m) y la columna y-ésima
(para7 = 1, 2, ..., n) si a este elemento se le llama la matriz se denota
poniendo:
«11 tí,2 - «12 ··’ « In '
A =
«21 «22 - «2.,
0 A =
«21 «22 - «2n
-"mi «„,2 - «m
2 - «mJ
Abreviadamente, también se suele escribir A —la¡j]. Cuando se quiera
señalar expresamente que la matriz A tiene tamaño m x /i, se la denotará
poniendo A^^„, Dos matrices de igual tamaño, A = {a¡^ y B = [tf¡j]y se
dicen matrices iguales si tienen respectivamente iguales los elementos
que ocupan los mismos lugares, esto es. si a¡j = b¡j para / = 1, 2, ..., m y
y = 1, 2, ..., m,
Al conjunto de las matrices de tamaño m x /i se le denota por (K),
donde K es el cuerpo de escalares, o simplemente Si m = /í, se
simplifica la notación y. en lugar de se pone
Si m = n, se dice que A es matriz cuadrada; si m ^ n, se dice que A es
rectangular. Si para i > j es a¡j = O, se dice que A es triangular superior,
si para i < j es a,y= O, se dice que A es triangular inferior; si para i ^ j
es a¡j = O, se dice que A es matriz diagonal. Se llama diagonal de A a la
sucesión a^^a^iQ^v^. Matriz escalar es una matriz diagonal que tiene
iguales todos los elementos de su diagonal. Si w = 1, se dice que A es
matriz fila: si n = l, se dice que A es matriz columna. Si A es cuadrada
y, para cualesquiera i y 7, es a¡j = aj¡ o si cs a^¡ = —aj¡ se dice, respecti
vamente, que A es matriz simétrica o que A es matriz antisimétrica.
EJERCICIOS
Si A = [a¡jl es la matriz que se da al final de este enunciado, analícese en qué
52. Alg e b r a u n ea i
casos es: 1) iriangular superior; 2) triangular inferior; 3) simétrica, esto es. tal
que sus elementos y a¡¡ son iguales (para / = I, 2, 3 y y = I. 2, 3).
X + > x - z
x - y y y - ^ z
L
oc+ z - 2 z - y zj
RESOLUCIÓN
1. Han de ser a,, = = «
3
2= O, esto e s a c - y = 0, j: + z - 2 = ü y z - > ' = 0.
que se verifica parax = y = z= 1 solamente. La solución es, pues, la matriz
A, que figura al final de este ejercicio.
2. Ha de ser a,
2= «
,
3= 0
2
3= 0*®sto es + y = 0. jc - z = O e y + z = O, que
se verifica para = —
y = z, lo que conduce a las matrices /4j que figuran
al final.
Ha de ser «
1
2= 0
2
1
· «n = «3
i y <»a="3
2
· esto es, jc + >
- = x -> '. jt~z =
= jt + z ~ 2e y + z = z —y. que se verifica para y = O, z = 1 y x cualquiera;
luego las soluciones son las matrices A,:
3.
A ,=
“l 2 0“ J
C 0 oí ’jc X j c - f
0 1 2 ; ^2 — 2jc -JC 0 ; >^3- J
C 0 1
_0 0 L 2 { x - ) 2x JC. . j c - l 1 1,
□ SUMA (DE MATRICES)
Y PRODUCTO POR UN ESCALAR
Al dar ahora, tan pronto, las definiciones de suma de matrices y de producto
de escalar por matriz, no disponemos aún de una justificación suficiente de las
mismas. Por ello, nos ha parecido oportuno presentar aquí un ejemplo en el
que se puede apreciar que las citadas definiciones van a ser provechosas:
EJEMPLO PRELIMINAR
Un ludopata adquiere 7 boletos de cada una de las loterías 1.*, 2.* y 3,*; por
cada uno de ellos paga la cantidad c,, Cj y Cy respectivamente, y obtiene, en
premios, las cantidades P{>Pi y Py· ocasión, adquiere 4 boletos y, ahora,
las cantidades anteriores pasan a ser cJ, y p¡, p^ respectivamente. El
jugador hace balance económico (para determinar, el muy iluso, cuál de las
loterías le es más propicia); los gastos y los beneficios pnxiucidos con la loteria
/-ésima son 7c/ + 4c,' y lp¡ + 4p¡, Nuestro hombre, que a pesar de tcxio C
5
metódico y ordenado, realiza sus cuentas de manera conjunta y agrupa tixlos
sus cálculos poniendo:
Pi c¡ P p 7c, + 4<·; lp^ + Ap'
<
^
2 Pl + 4 <
^í Pl = Ic^ + 4c2 Ipi + 4/>'
Sy Py, Sy P , _7cj + 4r; 7/), + 4/>;_