Prévia do material em texto
ÁLGEBRA LINEAR
AULA 4
Prof. Guilherme Augusto Pianezzer
2
CONVERSA INICIAL
Começamos a discutir sobre os espaços vetoriais e como podemos
selecionar alguns vetores que permitem, com base no conceito de combinação
linear, gerar cada subespaço vetorial de 𝑉. Entretanto, precisamos nos
aprofundar na geração de espaços vetoriais considerando critérios que
permitirão a nós escrevê-los de forma resumida.
TEMA 1 – INDEPENDÊNCIA LINEAR
Para simplificar a geração de espaços vetoriais, precisamos definir um
conjunto de vetores que seja linearmente independente. Embora vetores
linearmente dependentes também possam gerar o mesmo espaço vetorial,
vejamos a importância de simplificar na escolha dos vetores. Iniciaremos com
um exemplo de espaço gerado.
1.1 Revendo espaços gerados
Lembre-se que a combinação linear dos vetores 𝑆 = {𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 é
dada pela existência de 𝑐!, 𝑐", … , 𝑐# ∈ ℝ tal que 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣# = 0.
Lembre-se também que considerando 𝑊 = 𝑠𝑝𝑎𝑛(𝑆) como todas as combinações
lineares possíveis dos vetores 𝑆 = {𝑣!, 𝑣", … , 𝑣#}, 𝑊 será um espaço vetorial
gerado por 𝑆. Vejamos o que ocorre quando selecionamos os vetores 𝑣! =
(1,−1,2), 𝑣" = (−2,3,1) e 𝑣$ = (−1,3,8), podemos definir 𝑊 = 𝑠𝑝𝑎𝑛(𝑣!, 𝑣", 𝑣$) =
[{𝑣!, 𝑣", 𝑣$}]. Entretanto, perceba que 𝑣$ possui uma relação de dependência
com os vetores 𝑣!, 𝑣". Isso porque, 𝑣$ pode ser escrito como combinação linear
de 𝑣! e 𝑣", dado que 𝑣$ = 3𝑣! + 2𝑣". Dessa forma, se 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ é
um dos resultados da combinação linear de 𝑣!, 𝑣", 𝑣$, então também poderia ser
escrito como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$(3𝑣! + 2𝑣") = (𝑐! + 3𝑐$)𝑣! + (𝑐" + 2𝑐$)𝑣" =
𝑘!𝑣! + 𝑘"𝑣", isto é, poderia ser escrito como combinação linear, exclusivamente,
dos vetores 𝑣! e 𝑣". Uma análise similar nos faria perceber que 𝑆 =
[{𝑣!, 𝑣", 𝑣$}] = [{𝑣!, 𝑣"}] = [{𝑣", 𝑣$}] = [{𝑣!, 𝑣$], isto é, basta dois vetores para
descrever o espaço vetorial 𝑆. Perceba, portanto, generalizando, que se
𝑣!, 𝑣", … , 𝑣# gera um espaço vetorial 𝑉, sendo que um desses vetores pode ser
escrito como combinação linear dos outros 𝑛 − 1 vetores, então basta esses 𝑛 −
1 vetores para gerar 𝑉. Note que dado 𝑛 vetores 𝑣!, 𝑣", … , 𝑣#, a combinação
3
lineares de um dos vetores em termo dos outros 𝑛 − 1 vetores existirá se, e
somente se, 𝑐!, 𝑐", … , 𝑐# ∈ ℝ nem todos nulos, tais que 𝑐!𝑣! + 𝑐", 𝑣" +⋯+ 𝑐#𝑣# =
0.
1.2 Independência linear
Esse exemplo nos permite definir formalmente quando um conjunto de
vetores é linearmente independente ou quando são linearmente dependentes.
Você já percebeu que é interessante utilizar um conjunto linearmente
independente para gerar um espaço vetorial, visto que teremos uma versão
simplificada da expressão geral do espaço.
Definição vetores linearmente independentes. Vamos considerar um
conjunto 𝑊 = {𝑣!, 𝑣", … , 𝑣#} de vetores de um espaço vetorial 𝑉. Diremos
que 𝑊forma um conjunto linearmente independente se, sendo a combinação
linear dos vetores 𝑣!, 𝑣", … , 𝑣# igual ao vetor nulo, ou seja, 𝑐!𝑣! + 𝑐"𝑣" +⋯+
𝑐#𝑣# = 0, então, necessariamente, 𝑐! = 𝑐" = ⋯ = 𝑐# = 0 (solução trivial). Como
discutimos previamente, esse conjunto de vetores será gerador de um
subespaço vetorial de 𝑉, digamos 𝑆. Perceba que a escolha dos vetores, dessa
forma, faz com que o espaço vetorial 𝑆 seja gerado com um conjunto gerador
mínimo. A esse conjunto damos o nome de base do espaço vetorial. Veja, como
exemplo, o caso dos vetores 𝑣! = (1,1) e 𝑣" = (1,2). Podemos concluir que 𝑣! e
𝑣" são linearmente independentes, dado que a equação 𝑐!𝑣! + 𝑐"𝑣" = 0 só tem
uma única solução 𝑐! = 𝑐" = 0. Isso porque, escrevemos 𝑐!(1,1, ) + 𝑐"(1,2) =
(0,0), ou seja, @ 𝑐! + 𝑐" = 0
𝑐! + 2𝑐" = 0. Perceba que {𝑣!, 𝑣"} forma uma das possíveis bases
do espaço vetorial gerado por eles: neste caso é uma das bases do ℝ".
Definição vetores linearmente dependentes. Vamos considerar,
novamente, um conjunto 𝑊 = {𝑣!, 𝑣", … , 𝑣#} formado por vetores de um espaço
vetorial 𝑉. Agora 𝑊 será um conjunto linearmente dependente se a combinação
linear dos vetores 𝑣!, 𝑣", … , 𝑣# for igual ao vetor nulo, isto é, 𝑐!𝑣! + 𝑐"𝑣" +⋯+
𝑐#𝑣# = 0 tiver outra solução além da solução trivial. Isso implica que pelo menos
um dos valores 𝑐!, 𝑐", … , 𝑐# é diferente de zero. Veja o caso dos vetores dados
por 𝑣! = (1,2,3), 𝑣" = (1,0,0), 𝑣$ = (0,1,0) e 𝑣% = (0,0,1). Esses são vetores
linearmente dependentes. Veja o que acontece com a equação da dependência
linear: 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ + 𝑐%𝑣% = 0. Para os vetores dados, temos: 𝑐!(1,2,3) +
4
𝑐"(1,0,0) + 𝑐$(0,1,0) + 𝑐%(0,0,1) = (0,0,0), cujo sistema é: A
𝑐! + 𝑐" = 0
2𝑐! + 𝑐$ = 0
3𝑐! + 𝑐% = 0
. Aqui,
embora (𝑐!, 𝑐", 𝑐$, 𝑐%) = (0,0,0,0) seja uma solução viável, (𝑐!, 𝑐", 𝑐$, 𝑐%) =
(1,2,3, −1) também é, indicando que os vetores são linearmente dependentes. A
rigor esses três vetores geram ℝ$, mas bastaria 𝑣", 𝑣$, 𝑣% = 𝑒!, 𝑒", 𝑒$, conhecida
com a base canônica, para gerar a forma mais simples de ℝ$.
Veja que a partir dessas definições possuímos várias formas de
compreender o que é a combinação linear e a dependência linear. Afinal, os
conceitos estão associados e são formas distintas de entender a mesma coisa.
Por relação, dado um conjunto 𝑆 = {𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 com pelo menos dois
vetores, 𝑆 será linearmente dependente, se e somente se, um desses vetores
pode ser escrito como uma combinação linear dos restantes. Embora esse
conceito pode ser generalizado para dimensões 𝑛 > 3, podemos aproveitar a
visualização do plano ℝ" e no espaço ℝ$ para compreender melhor do que trata
a independência linear.
TEMA 2 – INTERPRETAÇÃO GEOMÉTRICA DA INDEPENDÊNCIA LINEAR
Podemos entender melhor os conceitos de independência linear
compreendendo os elementos de um espaço vetorial 𝑉 como vetores e os
estudando em 1, 2 ou 3 dimensões.
2.1 Independência linear em uma dimensão
Iniciamos com o estudo dos vetores em uma única dimensão. Aqui faz
sentido falar de combinação linear de um único vetor. Por exemplo, o vetor 𝑢
será linearmente independente se fizermos a combinação linear 𝑐!𝑢 = 0 e
obtermos uma única solução: 𝑐! = 0. Perceba que isso é válido para qualquer 𝑢
que não seja o vetor nulo. Se 𝑢 é um vetor linearmente independente, podemos
independente dependente
U=0
U
0
5
escrever um espaço gerado por 𝑢. Esse será 𝑊 = 𝑠𝑝𝑎𝑛{𝑢} e acabará formado
por todas os vetores que podem ser escritos como combinação linear de 𝑢, isto
é, serão os vetores 𝑣 tais que 𝑣 = 𝑘𝑢. Do estudo de vetores, concluímos que
todo vetor que tem a mesma direção e sentido de 𝑢 é linearmente dependente a
ele. Dessa forma, 𝑊 = 𝑠𝑝𝑎𝑛{𝑢} é uma reta passando pela origem. Nesse caso,
imagine 𝑢 e 𝑣 dois vetores linearmente dependentes. Temos que: 𝑐!𝑢 + 𝑐"𝑣 = 0,
implica 𝑐! ≠ 0 ou 𝑐" ≠ 0. Supondo 𝑐! ≠ 0, temos que 𝑣 = − &!
&"
𝑢, indicando mais
uma vez que 𝑣 e 𝑢 são vetores paralelos. Perceba que, geometricamente, se
dois vetores forem paralelos, isto é, múltiplos escalares um do outro, serão
linearmente dependentes.
2.2 Independência linear em duas e três dimensões
Vejamos o que ocorre com duas dimensões. Antes, se temos dois vetores,
digamos, 𝑣!, 𝑣", a expressão de independência linear será dada por: 𝑐!𝑣! +
𝑐"𝑣" = 0.
Serão linearmente independentes se a única solução dessa equação é
(𝑐!, 𝑐") = (0,0), mas linearmente dependentes caso contrário. Aqui,
evidenciamos que não podemos ter vetores paralelos, visto que esses são
linearmente dependentes. Se escolhermos, em um espaço de duas dimensões,
dois vetores, digamos 𝑣!, 𝑣", o conjunto de todas as combinações lineares, 𝑆 =
𝑠𝑝𝑎𝑛{𝑣!, 𝑣"}, contém todos os vetores 𝑣= 𝑐!𝑣! + 𝑐"𝑣". Se consideramos um
vetor 𝑣! = (𝑥!, 𝑦!, 𝑧!) e 𝑣" = (𝑥", 𝑦", 𝑧"), isto é, vetores do espaço vetorial ℝ$,
V
W
V
W
independente dependente
6
lembre-se que podemos determinar o vetor normal determinado pelos vetores
𝑣!, 𝑣" dado por 𝑛 = 𝑣! × 𝑣". Nesse caso, 𝑣! × 𝑣" = (𝑥"𝑧! − 𝑥!𝑧", 𝑧". 𝑥! −
𝑥!𝑧", 𝑥!𝑦" − 𝑥"𝑦!). Se 𝑣$ = (𝑥$, 𝑦$, 𝑧$) é um vetor que pertence ao plano gerado
por 𝑣! e 𝑣", concluímos que esse plano é dado por: (𝑥"𝑧! − 𝑥!𝑧"). 𝑥$ +
(𝑥!𝑧" − 𝑥"𝑧"). 𝑦$ + (𝑥!𝑦" − 𝑥"𝑦!). 𝑧$ = 0. Perceba que essa equação é
equivalente a escrever a combinação linear de 𝑣$ em termos de 𝑣! e 𝑣". Conclua,
portanto, que dois vetores, quando linearmente independentes, geram um plano
que contém esses vetores. De forma similar, três vetores serão linearmente
dependentes se estes vetores estiverem no mesmo plano. A figura apresenta
essa conclusão.
TEMA 3 – PROPRIEDADES DA INDEPENDÊNCIA LINEAR
A independência linear possui determinadas propriedades que nos
permitem compreender ainda melhor seu conceito e, também, permite
desenvolver técnicas mais simples de validar sua independência linear.
3.1 Propriedades da independência linear
Vejamos algumas características de conjuntos linearmente
independentes. Para isso, vamos considerar um conjunto 𝑊 =
{𝑣!, 𝑣", … , 𝑣' , 𝑣'(!} que é linearmente independente. Se eliminarmos desse
conjunto um elemento qualquer desses, digamos, 𝑣'(!, o novo conjunto dado
por 𝑊# = {𝑣!, 𝑣", … , 𝑣'} também é linearmente independente. Embora os
espaços vetoriais 𝑆 = 𝑠𝑝𝑎𝑛{𝑊} e 𝑆# = 𝑠𝑝𝑎𝑛{𝑊#} sejam distintos, não existe
relação de dependência criada entre seus vetores de base. O interessante dessa
7
propriedade é que a sua recíproca indica que, sabendo que 𝑊 = {𝑣!, 𝑣", … , 𝑣'}
são linearmente independentes, e adicionando qualquer vetor, digamos, 𝑣'(!
que faça parte do espaço gerado 𝑆 = 𝑠𝑝𝑎𝑛{𝑊}, então {𝑣!, 𝑣", … , 𝑣' , 𝑣'(!} é
linearmente dependente. Perceba que essa propriedade reforça a geração do
espaço vetorial a partir de um conjunto de vetores mínimo, isto é, uma base.
3.2 Relação da independência linear com matrizes
Note, a partir do exemplo a seguir, que podemos escrever a equação de
independência linear com o uso de matrizes. Nesse caso, vamos considerar os
seguintes vetores: 𝑣! = (1,−1,0,1), 𝑣" = (3,−1,4,3), 𝑣$ = (2,−1,2,2), 𝑣% =
(0,1,4, −2), 𝑣) = (1,0,3,0). A equação de independência linear consiste em
encontrar a solução para 𝑐!, 𝑐", 𝑐$, 𝑐%, 𝑐) ∈ ℝ de 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ + 𝑐%𝑣% +
𝑐)𝑣) = 0. Isso nos leva a: 𝑐!(1, −1,0,1) + 𝑐"(3, −1,4,3) + 𝑐$(2, −1,2,2) +
𝑐%(0,1,4, −2) + 𝑐)(1,0,3,0) = 0, ou seja, K
𝑐! + 3𝑐" + 2𝑐$ + 𝑐) = 0
−𝑐! − 𝑐" − 𝑐$ + 𝑐% = 0
4𝑐" + 2𝑐$ + 4𝑐% + 3𝑐) = 0
𝑐! + 3𝑐" + 2𝑐$ − 2𝑐% = 0
. Note que
esse sistema pode ser escrito na forma 𝐴𝑥 = 𝐵, com 𝐴 =
N
1 3 2 0 1
−1 −1 −1 1 0
0 4 2 4 3
1 3 2 −2 0
O. Para encontrar a solução desse sistema, podemos nos
lembrar dos métodos discutidos em conteúdo anterior, investigando a
singularidade da matriz. Afinal, se a matriz é singular e tem det(𝐴) = 0, então o
sistema poderá ser impossível ou possível, mas indeterminado (com infinitas
soluções). Como sabemos que (𝑐!, 𝑐", 𝑐$, 𝑐%, 𝑐)) = (0,0,0,0,0) é a solução trivial,
sabemos que o sistema não é impossível, mas sendo possível possui infinitas
soluções. De forma geral, portanto, a análise da singularidade da matriz nos
permite concluir rapidamente se um conjunto de vetores é linearmente
independente. Nesse caso, vamos considerar 𝑣!, 𝑣", … , 𝑣# ∈ ℝ#. Se formarmos a
matriz 𝐴 = [𝑣!, 𝑣", … , 𝑣#], concluímos que 𝑣!, 𝑣", … , 𝑣# são linearmente
dependentes se, e somente, se 𝐴 for singular.
8
3.3 Exemplo
Como exemplo, vamos considerar os vetores (funções) dadas por 𝑣! =
1 + 𝑥, 𝑣" = 𝑥 + 𝑥" e 𝑣$ = 1 + 𝑥" para analisar se são linearmente independentes
para o conjunto 𝑃", isto é, o conjunto formado por todos os polinômios de ordem
2: 𝑎𝑥" + 𝑏𝑥 + 𝑐. Assim, montamos a expressão de combinação linear:
𝑐!(1 + 𝑥) + 𝑐"(𝑥 + 𝑥") + 𝑐$(1 + 𝑥") = 0 + 0𝑥 + 0𝑥", cujo sistema de equações é
dado por: A
𝑐! + 𝑐$ = 0
𝑐! + 𝑐" = 0
𝑐" + 𝑐$ = 0
e cuja matriz é dada por 𝐴 = U
1 0 1
1 1 0
0 1 1
V. Como det(𝐴) =
2, concluímos que 𝐴 é não singular e esse sistema é possível e determinado.
Sua única solução é a solução trivial dada por (𝑐!, 𝑐", 𝑐$) = (0,0,0), indicando que
os vetores são linearmente independentes.
TEMA 4 – BASES E DIMENSÕES
O conceito de independência linear nos auxilia a construir bases para o
espaço vetorial e escrever uma representação única para cada vetor.
4.1 Base de um espaço vetorial
Ao tratar o plano cartesiano em Geometria Analítica, você deve se lembrar
dos “versores de base” 𝑖 = (1,0) e 𝑗 = (0,1) que permitem escrever coordenadas
para qualquer vetor do ℝ". Em termos técnicos, 𝑆 = {𝑖, 𝑗}, a conhecida base
canônica, gera ℝ", indicando que qualquer vetor de ℝ" é obtido pela
combinação linear de 𝑖 e 𝑗. Lembre-se que 𝑣 = 𝑥𝑖 + 𝑦𝑗, em que (𝑥, 𝑦) são as
coordenadas de 𝑣 em relação a 𝑖 e 𝑗. Essa é a mesma equação da combinação
linear, 𝑐!𝑣! + 𝑐"𝑣" = 𝑣. Note, por exemplo, que o vetor (2,4) = 2(1,0) + 4(0,1) é
a única forma de escrever o vetor (2,4) como combinação linear de 𝑖 e 𝑗. Perceba
que outros conjuntos de vetores também podem gerar ℝ". É o caso dos vetores
𝑣! = (1,1) e 𝑣" = (1,−1). Esses vetores, sendo outra base para o ℝ", geram
qualquer elemento do plano cartesiano. Por exemplo, (2,4) = 3(1,1) − (1,−1) é
a única combinação linear desses vetores. Aqui, (3, −1) são as coordenadas do
vetor (2,4) em relação à base 𝑣!, 𝑣". Aqui pontuamos que as coordenadas
mudam em relação à base escolhida. Entretanto, veja o que ocorre quando
escolhemos o conjunto 𝑣! = (1,1), 𝑣" = (1,−1), 𝑣$ = (1,0). Como 𝑣$ pertence ao
espaço vetorial gerado por 𝑣! e 𝑣", isto é, ao plano cartesiano, sabemos que 𝑣$
9
é linearmente dependente a 𝑣! e 𝑣". Ainda, sim, 𝑆 = {𝑣!, 𝑣", 𝑣$} gera o plano
cartesiano, mas não é base desse espaço vetorial. Por causa disso, podemos
gerar qualquer vetor do plano cartesiano como combinação linear desses três
vetores, mas essa representação não é única. Por exemplo, (2,4) = 3(1,1) −
(1,−1) + 0(1,0), ou (2,4) = 0(1,1) − 4(1, −1) + 6(1,0), ou ainda, (2,4) = 4(1,1) +
0(1, −1) − 2(1,0), entre tantas outras possibilidades. Perceba, portanto, que para
se ter unicidade na escrita das coordenadas dos vetores, o conjunto que
escolhemos como gerador do espaço vetorial deve ser linearmente
independente. Esse conjunto é a base do espaço vetorial. Assim, os vetores
𝑣!, 𝑣", … , 𝑣# formam uma base para o espaço vetorial 𝑉 se, e somente se,
𝑣!, 𝑣", . . , 𝑣# são linearmente independentes e ainda geram 𝑉. Quando isso
acontece, isto é, quando 𝑆 = {𝑣!, 𝑣", … , 𝑣#} forma um base para o espaço vetorial
𝑉, todo vetor 𝑣 ∈ 𝑉 é escrito como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣#, em que
(𝑐!, 𝑐", … , 𝑐#) são as coordenadas de 𝑣 em relação à base 𝑆.
4.2 Teoremas
Como consequência desses resultados discutidos anteriormente,
podemos mostrar que qualquer espaço vetorial finito que seja gerado por vetores
não nulos possuirá uma base. Além disso, se escolhermos uma base 𝑆 =
{𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 que seja uma base desse espaço vetorial, não podemos
adicionar vetores à base, visto que a existência de 𝑣#(! ∈ 𝑉 adicionado à 𝑆 fará
desse conjunto linearmente dependente e, portanto, embora gere 𝑉 não será
uma base. De forma similar, se retirarmos de 𝑆 um vetor qualquer, digamos 𝑣#,
o novo conjunto não será suficiente para gerar 𝑉 e, mesmo sendo linearmente
independente, não será uma base para 𝑉.
4.3 Dimensão de 𝑽
O teorema anterior nos permite concluir que não podemos aumentar ou
diminuir a quantidade de vetores em uma base de umespaço vetorial 𝑉 sob a
pena do novo conjunto de vetores não configurar uma base. A isso, acabamos
concluindo que todo espaço vetorial terá suas bases com a mesma quantidade
de vetores. É por isso que, se uma base 𝑆 tem 𝑛 vetores, diremos que dim(𝑉) =
𝑛, isto é, que a dimensão do espaço vetorial 𝑉 é 𝑛. Outra forma de afirmar isso
é dizer que 𝑉 é um espaço vetorial 𝑛 − dimensional e, sendo 𝑛 finito, o espaço
10
vetorial terá dimensão finita. Disso tudo, vamos reunir todas as informações em
suas considerações semelhantes: se sabemos que dim(𝑉) = 𝑛, sendo 𝑆 =
{𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉, 𝑆 formará uma base para 𝑉, se e somente se, 𝑆 é linearmente
independente e, se e somente se, por sua vez, 𝑆 gera 𝑉.
TEMA 5 – MUDANÇA DE BASE
Você deve se lembrar dos problemas de Física envolvendo plano
inclinado. Para facilitar a resolução das equações, uma das estratégias era
realizar uma mudança de referencial reescrevendo todos os vetores envolvidos
em termos daquele novo sistema. Do ponto de vista da álgebra, o que estávamos
realizando era uma mudança de base.
5.1 Mudança de Base no ℝ𝟐
Nosso objetivo é generalizar a mudança de base para espaços vetoriais
de dimensão 𝑛 qualquer. Entretanto, vamos iniciar a análise do ponto de vista de
um espaço vetorial de dimensão 2, o ℝ". A base mais simples é a base canônica,
{𝑖 = (1,0), 𝑗 = (0,1)}. A partir dela, qualquer 𝑣 ∈ ℝ" é dado como 𝑣 = 𝑥𝑖 + 𝑦𝑗. Se
escolhermos outra base, digamos 𝑣!, 𝑣", o vetor 𝑣 será dado como 𝑣 = 𝑥!𝑣! +
𝑥"𝑣", isto é, terá novas coordenadas. Para fazer a conversão das coordenadas
(𝑥, 𝑦)(+,-) para (𝑥!, 𝑥")(/",/!) vamos iniciar escrevendo o vetor 𝑣 = 𝑥!𝑣! + 𝑥"𝑣" em
termos da base canônica. Como a base canônica permite escrever qualquer
vetor do plano cartesiano como combinação linear de seus vetores de base,
podemos escrever 𝑣! e 𝑣" como resultado dessa combinação linear. Nesse caso,
𝑣! = 𝑎!𝑖 + 𝑎"𝑗, enquanto 𝑣" = 𝑏!𝑖 + 𝑏"𝑗. Dessa forma, reescrevemos 𝑣 como:
𝑣 = 𝑥!𝑣! + 𝑥"𝑣" = 𝑥!(𝑎!𝑖 + 𝑎"𝑗) + 𝑥"(𝑏!𝑖 + 𝑏"𝑗) = (𝑥!𝑎! + 𝑥"𝑏!)𝑖 + (𝑥!𝑎" +
𝑥"𝑏")𝑗. Logo, as coordenadas do vetor 𝑣 = 𝑥!𝑣! + 𝑥"𝑣" em relação à base
canônica será 𝑥 = 𝑥!𝑎! + 𝑥"𝑏! e 𝑦 = 𝑥!𝑎" + 𝑥"𝑏". Esse resultado pode ser escrito
na forma matricial: 𝑥 = \𝑥!𝑎! + 𝑥"𝑏!𝑥!𝑎" + 𝑥"𝑏"
] = \𝑎! 𝑏!
𝑎" 𝑏"
] ^
𝑥!
𝑥"_. Essa matriz é conhecida
como matriz de mudança de base e faz a conversão dos vetores escritos em
uma base qualquer para a base canônica. Por exemplo, a base 𝑣! = (3,2) e 𝑣" =
(1,1). Podemos escrever 𝑥 = ^3 1
2 1_^
𝑥!
𝑥"_, em que 𝑈 = ^3 1
2 1_ é a matriz de
mudança de base. Se um vetor tem coordenadas (0,1) nessa base, terá na base
canônica coordenadas (1,1). Claro que poderíamos realizar um movimento
11
similar para desfazer a mudança de base, ou, sair da base canônica para
qualquer outra base que desejar. Entretanto, ao invertermos a matriz
encontraremos a mudança de base na outra direção.
5.2 Mudança de base para um espaço vetorial de dimensão 𝒏
Veja a definição de vetor de coordenadas para nos permitir generalizar a
mudança de base para um espaço vetorial de dimensão 𝑛.
Definição de vetor de coordenadas. Suponha a existência de um
espaço vetorial 𝑉 que possua uma de suas bases dadas por 𝑆 = [𝑣!, 𝑣", … , 𝑣#].
Por ser uma base, qualquer elemento de 𝑣 ∈ 𝑉 é dado como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" +
⋯+ 𝑐#𝑣# com 𝑐!, 𝑐", … , 𝑐# ∈ ℝ. Dessa forma, o vetor (𝑐!, 𝑐", … , 𝑐#) é o vetor de
coordenadas de 𝑣 em relação à base 𝑆 e sua notação é [𝑣]0. Perceba que
precisamos indicar na notação em relação à qual base se referem essas
coordenadas 𝑐+. Nesse caso são coordenadas em relação à base 𝑆.
Considere, portanto, um vetor 𝑣 escrito para uma base 𝑆 = {𝑣!, 𝑣", … , 𝑣#}.
Dessa forma, [𝑣]0 = 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣#. Se 𝑣 pode ser escrito em termos da
base canônica, 𝐸 = {𝑒!, 𝑒", … , 𝑒#}, então deverá haver (𝑥!, 𝑥", … , 𝑥#) de forma que
[𝑣]1 = 𝑥!𝑒! + 𝑥"𝑒" +⋯+ 𝑥#𝑒#. Como 𝑣! = 𝑣!!𝑒! + 𝑣"!𝑒" +⋯+ 𝑣#!𝑒#, 𝑣" =
𝑣!"𝑒! + 𝑣""𝑒" +⋯+ 𝑣#"𝑒#, … , 𝑣# = 𝑣!#𝑒! + 𝑣"#𝑒" +⋯+ 𝑣##𝑒# visto que cada um
deles pode ser escrito como combinação linear dos vetores da base canônica,
podemos escrever, de forma similar à realizada no ℝ", 𝐴 =
N
𝑣!! 𝑣!" ⋯ 𝑣!#
𝑣"! 𝑣"" ⋯ 𝑣"#
⋮ ⋮ ⋱ ⋮
𝑣#! 𝑣#" ⋯ 𝑣##
O. Essa é a matriz de mudança de coordenadas da base 𝑆
para a base canônica 𝐸. Ao encontrar a matriz inversa, encontramos a matriz de
mudança de coordenadas, agora da base canônica 𝐸 para a base 𝑆.
NA PRÁTICA
Considerando a base 𝑆 = {(1,1), (−1,1)} e a base canônica 𝐸 =
{(1,0), (0,1)}, encontre a matriz de mudança de coordenadas de 𝑆 para 𝐸 e de 𝐸
para 𝑆. Sabendo que [𝑣]0 = (0,2), encontre [𝑣]1 .
12
FINALIZANDO
Nesta etapa, fomos capazes de expandir alguns dos principais conceitos
que são consequência da existência de espaços vetoriais. Vimos as implicações
da combinação linear, da independência linear e a formação de bases para
esses espaços vetoriais. O domínio desses aprendizados demanda a resolução
de exercícios e o estudo cuidadoso de cada conceito com vistas a fixar e se
familiarizar com tais objetos.
13
REFERÊNCIAS
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre:
Bookman, 2012.
FRANCO, N. B. Álgebra linear. 10. ed. São Paulo: Pearson, 2016.
HOLT, J. Álgebra linear com aplicações. São Paulo: LTC, 2016.
KOLMAN, B. Introdução à álgebra linear com aplicações. São Paulo: LTC,
2013.
LAY, D. C. Álgebra linear e suas aplicações. Rio de Janeiro: LTC, 2013.