Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

ÁLGEBRA LINEAR 
AULA 4 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Prof. Guilherme Augusto Pianezzer 
 
 
 
2 
CONVERSA INICIAL 
Começamos a discutir sobre os espaços vetoriais e como podemos 
selecionar alguns vetores que permitem, com base no conceito de combinação 
linear, gerar cada subespaço vetorial de 𝑉. Entretanto, precisamos nos 
aprofundar na geração de espaços vetoriais considerando critérios que 
permitirão a nós escrevê-los de forma resumida. 
TEMA 1 – INDEPENDÊNCIA LINEAR 
Para simplificar a geração de espaços vetoriais, precisamos definir um 
conjunto de vetores que seja linearmente independente. Embora vetores 
linearmente dependentes também possam gerar o mesmo espaço vetorial, 
vejamos a importância de simplificar na escolha dos vetores. Iniciaremos com 
um exemplo de espaço gerado. 
1.1 Revendo espaços gerados 
Lembre-se que a combinação linear dos vetores 𝑆 = {𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 é 
dada pela existência de 𝑐!, 𝑐", … , 𝑐# ∈ ℝ tal que 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣# = 0. 
Lembre-se também que considerando 𝑊 = 𝑠𝑝𝑎𝑛(𝑆) como todas as combinações 
lineares possíveis dos vetores 𝑆 = {𝑣!, 𝑣", … , 𝑣#}, 𝑊 será um espaço vetorial 
gerado por 𝑆. Vejamos o que ocorre quando selecionamos os vetores 𝑣! =
(1,−1,2), 𝑣" = (−2,3,1) e 𝑣$ = (−1,3,8), podemos definir 𝑊 = 𝑠𝑝𝑎𝑛(𝑣!, 𝑣", 𝑣$) =
[{𝑣!, 𝑣", 𝑣$}]. Entretanto, perceba que 𝑣$ possui uma relação de dependência 
com os vetores 𝑣!, 𝑣". Isso porque, 𝑣$ pode ser escrito como combinação linear 
de 𝑣! e 𝑣", dado que 𝑣$ = 3𝑣! + 2𝑣". Dessa forma, se 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ é 
um dos resultados da combinação linear de 𝑣!, 𝑣", 𝑣$, então também poderia ser 
escrito como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$(3𝑣! + 2𝑣") = (𝑐! + 3𝑐$)𝑣! + (𝑐" + 2𝑐$)𝑣" =
𝑘!𝑣! + 𝑘"𝑣", isto é, poderia ser escrito como combinação linear, exclusivamente, 
dos vetores 𝑣! e 𝑣". Uma análise similar nos faria perceber que 𝑆 =
[{𝑣!, 𝑣", 𝑣$}] = [{𝑣!, 𝑣"}] = [{𝑣", 𝑣$}] = [{𝑣!, 𝑣$], isto é, basta dois vetores para 
descrever o espaço vetorial 𝑆. Perceba, portanto, generalizando, que se 
𝑣!, 𝑣", … , 𝑣# gera um espaço vetorial 𝑉, sendo que um desses vetores pode ser 
escrito como combinação linear dos outros 𝑛 − 1	vetores, então basta esses 𝑛 −
1 vetores para gerar 𝑉. Note que dado 𝑛 vetores 𝑣!, 𝑣", … , 𝑣#, a combinação 
 
 
3 
lineares de um dos vetores em termo dos outros 𝑛 − 1 vetores existirá se, e 
somente se, 𝑐!, 𝑐", … , 𝑐# ∈ ℝ nem todos nulos, tais que 𝑐!𝑣! + 𝑐", 𝑣" +⋯+ 𝑐#𝑣# =
0. 
1.2 Independência linear 
Esse exemplo nos permite definir formalmente quando um conjunto de 
vetores é linearmente independente ou quando são linearmente dependentes. 
Você já percebeu que é interessante utilizar um conjunto linearmente 
independente para gerar um espaço vetorial, visto que teremos uma versão 
simplificada da expressão geral do espaço. 
Definição vetores linearmente independentes. Vamos considerar um 
conjunto 𝑊 = {𝑣!, 𝑣", … , 𝑣#} de vetores de um espaço vetorial 𝑉. Diremos 
que	𝑊forma um conjunto linearmente independente se, sendo a combinação 
linear dos vetores 𝑣!, 𝑣", … , 𝑣# igual ao vetor nulo, ou seja, 𝑐!𝑣! + 𝑐"𝑣" +⋯+
𝑐#𝑣# = 0, então, necessariamente, 𝑐! = 𝑐" = ⋯ = 𝑐# = 0 (solução trivial). Como 
discutimos previamente, esse conjunto de vetores será gerador de um 
subespaço vetorial de 𝑉, digamos 𝑆. Perceba que a escolha dos vetores, dessa 
forma, faz com que o espaço vetorial 𝑆 seja gerado com um conjunto gerador 
mínimo. A esse conjunto damos o nome de base do espaço vetorial. Veja, como 
exemplo, o caso dos vetores 𝑣! = (1,1) e 𝑣" = (1,2). Podemos concluir que 𝑣! e 
𝑣" são linearmente independentes, dado que a equação 𝑐!𝑣! + 𝑐"𝑣" = 0 só tem 
uma única solução 𝑐! = 𝑐" = 0. Isso porque, escrevemos 𝑐!(1,1, ) + 𝑐"(1,2) =
(0,0), ou seja, @ 𝑐! + 𝑐" = 0
𝑐! + 2𝑐" = 0. Perceba que {𝑣!, 𝑣"} forma uma das possíveis bases 
do espaço vetorial gerado por eles: neste caso é uma das bases do ℝ". 
Definição vetores linearmente dependentes. Vamos considerar, 
novamente, um conjunto 𝑊 = {𝑣!, 𝑣", … , 𝑣#} formado por vetores de um espaço 
vetorial 𝑉. Agora 𝑊 será um conjunto linearmente dependente se a combinação 
linear dos vetores 𝑣!, 𝑣", … , 𝑣# for igual ao vetor nulo, isto é, 𝑐!𝑣! + 𝑐"𝑣" +⋯+
𝑐#𝑣# = 0 tiver outra solução além da solução trivial. Isso implica que pelo menos 
um dos valores 𝑐!, 𝑐", … , 𝑐# é diferente de zero. Veja o caso dos vetores dados 
por 𝑣! = (1,2,3), 𝑣" = (1,0,0), 𝑣$ = (0,1,0) e 𝑣% = (0,0,1). Esses são vetores 
linearmente dependentes. Veja o que acontece com a equação da dependência 
linear: 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ + 𝑐%𝑣% = 0. Para os vetores dados, temos: 𝑐!(1,2,3) +
 
 
4 
𝑐"(1,0,0) + 𝑐$(0,1,0) + 𝑐%(0,0,1) = (0,0,0), cujo sistema é: A
𝑐! + 𝑐" = 0
2𝑐! + 𝑐$ = 0
3𝑐! + 𝑐% = 0
. Aqui, 
embora (𝑐!, 𝑐", 𝑐$, 𝑐%) = (0,0,0,0) seja uma solução viável, (𝑐!, 𝑐", 𝑐$, 𝑐%) =
(1,2,3, −1) também é, indicando que os vetores são linearmente dependentes. A 
rigor esses três vetores geram ℝ$, mas bastaria 𝑣", 𝑣$, 𝑣% = 𝑒!, 𝑒", 𝑒$, conhecida 
com a base canônica, para gerar a forma mais simples de ℝ$. 
Veja que a partir dessas definições possuímos várias formas de 
compreender o que é a combinação linear e a dependência linear. Afinal, os 
conceitos estão associados e são formas distintas de entender a mesma coisa. 
Por relação, dado um conjunto 𝑆 = {𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 com pelo menos dois 
vetores, 𝑆 será linearmente dependente, se e somente se, um desses vetores 
pode ser escrito como uma combinação linear dos restantes. Embora esse 
conceito pode ser generalizado para dimensões 𝑛 > 3, podemos aproveitar a 
visualização do plano ℝ" e no espaço ℝ$ para compreender melhor do que trata 
a independência linear. 
TEMA 2 – INTERPRETAÇÃO GEOMÉTRICA DA INDEPENDÊNCIA LINEAR 
Podemos entender melhor os conceitos de independência linear 
compreendendo os elementos de um espaço vetorial 𝑉 como vetores e os 
estudando em 1, 2 ou 3 dimensões. 
2.1 Independência linear em uma dimensão 
 
 
 
 
 
 
 
Iniciamos com o estudo dos vetores em uma única dimensão. Aqui faz 
sentido falar de combinação linear de um único vetor. Por exemplo, o vetor 𝑢 
será linearmente independente se fizermos a combinação linear 𝑐!𝑢 = 0 e 
obtermos uma única solução: 𝑐! = 0. Perceba que isso é válido para qualquer 𝑢 
que não seja o vetor nulo. Se 𝑢 é um vetor linearmente independente, podemos 
independente dependente 
U=0 
U 
0 
 
 
5 
escrever um espaço gerado por 𝑢. Esse será 𝑊 = 𝑠𝑝𝑎𝑛{𝑢} e acabará formado 
por todas os vetores que podem ser escritos como combinação linear de 𝑢, isto 
é, serão os vetores 𝑣 tais que 𝑣 = 𝑘𝑢. Do estudo de vetores, concluímos que 
todo vetor que tem a mesma direção e sentido de 𝑢 é linearmente dependente a 
ele. Dessa forma, 𝑊 = 𝑠𝑝𝑎𝑛{𝑢} é uma reta passando pela origem. Nesse caso, 
imagine 𝑢 e 𝑣 dois vetores linearmente dependentes. Temos que: 𝑐!𝑢 + 𝑐"𝑣 = 0, 
implica 𝑐! ≠ 0 ou 𝑐" ≠ 0. Supondo 𝑐! ≠ 0, temos que 𝑣 = − &!
&"
𝑢, indicando mais 
uma vez que 𝑣 e 𝑢 são vetores paralelos. Perceba que, geometricamente, se 
dois vetores forem paralelos, isto é, múltiplos escalares um do outro, serão 
linearmente dependentes. 
2.2 Independência linear em duas e três dimensões 
Vejamos o que ocorre com duas dimensões. Antes, se temos dois vetores, 
digamos, 𝑣!, 𝑣", a expressão de independência linear será dada por: 𝑐!𝑣! +
𝑐"𝑣" = 0. 
 
 
 
 
 
 
 
 
 
 
Serão linearmente independentes se a única solução dessa equação é 
(𝑐!, 𝑐") = (0,0), mas linearmente dependentes caso contrário. Aqui, 
evidenciamos que não podemos ter vetores paralelos, visto que esses são 
linearmente dependentes. Se escolhermos, em um espaço de duas dimensões, 
dois vetores, digamos 𝑣!, 𝑣", o conjunto de todas as combinações lineares, 𝑆 =
𝑠𝑝𝑎𝑛{𝑣!, 𝑣"}, contém todos os vetores 𝑣= 𝑐!𝑣! + 𝑐"𝑣". Se consideramos um 
vetor 𝑣! = (𝑥!, 𝑦!, 𝑧!) e 𝑣" = (𝑥", 𝑦", 𝑧"), isto é, vetores do espaço vetorial ℝ$, 
 
V 
W 
V 
W 
independente dependente 
 
 
6 
 
 
lembre-se que podemos determinar o vetor normal determinado pelos vetores 
𝑣!, 𝑣" dado por 𝑛 = 𝑣! × 𝑣". Nesse caso, 𝑣! × 𝑣" = (𝑥"𝑧! − 𝑥!𝑧", 𝑧". 𝑥! −
𝑥!𝑧", 𝑥!𝑦" − 𝑥"𝑦!). Se 𝑣$ = (𝑥$, 𝑦$, 𝑧$) é um vetor que pertence ao plano gerado 
por 𝑣! e 𝑣", concluímos que esse plano é dado por: (𝑥"𝑧! − 𝑥!𝑧"). 𝑥$ +
(𝑥!𝑧" − 𝑥"𝑧"). 𝑦$ + (𝑥!𝑦" − 𝑥"𝑦!). 𝑧$ = 0.	Perceba que essa equação é 
equivalente a escrever a combinação linear de 𝑣$ em termos de 𝑣! e 𝑣". Conclua, 
portanto, que dois vetores, quando linearmente independentes, geram um plano 
que contém esses vetores. De forma similar, três vetores serão linearmente 
dependentes se estes vetores estiverem no mesmo plano. A figura apresenta 
essa conclusão. 
TEMA 3 – PROPRIEDADES DA INDEPENDÊNCIA LINEAR 
A independência linear possui determinadas propriedades que nos 
permitem compreender ainda melhor seu conceito e, também, permite 
desenvolver técnicas mais simples de validar sua independência linear. 
3.1 Propriedades da independência linear 
Vejamos algumas características de conjuntos linearmente 
independentes. Para isso, vamos considerar um conjunto 𝑊 =
{𝑣!, 𝑣", … , 𝑣' , 𝑣'(!} que é linearmente independente. Se eliminarmos desse 
conjunto um elemento qualquer desses, digamos, 𝑣'(!, o novo conjunto dado 
por 𝑊# = {𝑣!, 𝑣", … , 𝑣'} também é linearmente independente. Embora os 
espaços vetoriais 𝑆 = 𝑠𝑝𝑎𝑛{𝑊} e 𝑆# = 𝑠𝑝𝑎𝑛{𝑊#} sejam distintos, não existe 
relação de dependência criada entre seus vetores de base. O interessante dessa 
 
 
7 
propriedade é que a sua recíproca indica que, sabendo que 𝑊 = {𝑣!, 𝑣", … , 𝑣'} 
são linearmente independentes, e adicionando qualquer vetor, digamos, 𝑣'(! 
que faça parte do espaço gerado 𝑆 = 𝑠𝑝𝑎𝑛{𝑊}, então {𝑣!, 𝑣", … , 𝑣' , 𝑣'(!} é 
linearmente dependente. Perceba que essa propriedade reforça a geração do 
espaço vetorial a partir de um conjunto de vetores mínimo, isto é, uma base. 
3.2 Relação da independência linear com matrizes 
Note, a partir do exemplo a seguir, que podemos escrever a equação de 
independência linear com o uso de matrizes. Nesse caso, vamos considerar os 
seguintes vetores: 𝑣! = (1,−1,0,1), 𝑣" = (3,−1,4,3), 𝑣$ = (2,−1,2,2), 𝑣% =
(0,1,4, −2), 𝑣) = (1,0,3,0). A equação de independência linear consiste em 
encontrar a solução para 𝑐!, 𝑐", 𝑐$, 𝑐%, 𝑐) ∈ ℝ de 𝑐!𝑣! + 𝑐"𝑣" + 𝑐$𝑣$ + 𝑐%𝑣% +
𝑐)𝑣) = 0. Isso nos leva a: 𝑐!(1, −1,0,1) + 𝑐"(3, −1,4,3) + 𝑐$(2, −1,2,2) +
𝑐%(0,1,4, −2) + 𝑐)(1,0,3,0) = 0, ou seja, K
𝑐! + 3𝑐" + 2𝑐$ + 𝑐) = 0
−𝑐! − 𝑐" − 𝑐$ + 𝑐% = 0
4𝑐" + 2𝑐$ + 4𝑐% + 3𝑐) = 0
𝑐! + 3𝑐" + 2𝑐$ − 2𝑐% = 0
. Note que 
esse sistema pode ser escrito na forma 𝐴𝑥 = 𝐵, com 𝐴 =
N
1 3 2 0 1
−1 −1 −1 1 0
0 4 2 4 3
1 3 2 −2 0
O. Para encontrar a solução desse sistema, podemos nos 
lembrar dos métodos discutidos em conteúdo anterior, investigando a 
singularidade da matriz. Afinal, se a matriz é singular e tem det(𝐴) = 0, então o 
sistema poderá ser impossível ou possível, mas indeterminado (com infinitas 
soluções). Como sabemos que (𝑐!, 𝑐", 𝑐$, 𝑐%, 𝑐)) = (0,0,0,0,0) é a solução trivial, 
sabemos que o sistema não é impossível, mas sendo possível possui infinitas 
soluções. De forma geral, portanto, a análise da singularidade da matriz nos 
permite concluir rapidamente se um conjunto de vetores é linearmente 
independente. Nesse caso, vamos considerar 𝑣!, 𝑣", … , 𝑣# ∈ ℝ#. Se formarmos a 
matriz 𝐴 = [𝑣!, 𝑣", … , 𝑣#], concluímos que 𝑣!, 𝑣", … , 𝑣# são linearmente 
dependentes se, e somente, se 𝐴 for singular. 
 
 
 
 
 
 
8 
3.3 Exemplo 
Como exemplo, vamos considerar os vetores (funções) dadas por 𝑣! =
1 + 𝑥, 𝑣" = 𝑥 + 𝑥" e 𝑣$ = 1 + 𝑥" para analisar se são linearmente independentes 
para o conjunto 𝑃", isto é, o conjunto formado por todos os polinômios de ordem 
2: 𝑎𝑥" + 𝑏𝑥 + 𝑐. Assim, montamos a expressão de combinação linear: 
𝑐!(1 + 𝑥) + 𝑐"(𝑥 + 𝑥") + 𝑐$(1 + 𝑥") = 0 + 0𝑥 + 0𝑥", cujo sistema de equações é 
dado por: A
𝑐! + 𝑐$ = 0
𝑐! + 𝑐" = 0
𝑐" + 𝑐$ = 0
 e cuja matriz é dada por 𝐴 = U
1 0 1
1 1 0
0 1 1
V. Como det(𝐴) =
2, concluímos que 𝐴 é não singular e esse sistema é possível e determinado. 
Sua única solução é a solução trivial dada por (𝑐!, 𝑐", 𝑐$) = (0,0,0), indicando que 
os vetores são linearmente independentes. 
TEMA 4 – BASES E DIMENSÕES 
O conceito de independência linear nos auxilia a construir bases para o 
espaço vetorial e escrever uma representação única para cada vetor. 
4.1 Base de um espaço vetorial 
Ao tratar o plano cartesiano em Geometria Analítica, você deve se lembrar 
dos “versores de base” 𝑖 = (1,0) e 𝑗 = (0,1) que permitem escrever coordenadas 
para qualquer vetor do ℝ". Em termos técnicos, 𝑆 = {𝑖, 𝑗}, a conhecida base 
canônica, gera ℝ", indicando que qualquer vetor de ℝ" é obtido pela 
combinação linear de 𝑖 e 𝑗. Lembre-se que 𝑣 = 𝑥𝑖 + 𝑦𝑗, em que (𝑥, 𝑦) são as 
coordenadas de 𝑣 em relação a 𝑖 e	𝑗. Essa é a mesma equação da combinação 
linear, 𝑐!𝑣! + 𝑐"𝑣" = 𝑣. Note, por exemplo, que o vetor (2,4) = 2(1,0) + 4(0,1)	é 
a única forma de escrever o vetor (2,4) como combinação linear de 𝑖 e 𝑗. Perceba 
que outros conjuntos de vetores também podem gerar ℝ". É o caso dos vetores 
𝑣! = (1,1) e 𝑣" = (1,−1). Esses vetores, sendo outra base para o ℝ", geram 
qualquer elemento do plano cartesiano. Por exemplo, (2,4) = 3(1,1) − (1,−1) é 
a única combinação linear desses vetores. Aqui, (3, −1) são as coordenadas do 
vetor (2,4) em relação à base 𝑣!, 𝑣". Aqui pontuamos que as coordenadas 
mudam em relação à base escolhida. Entretanto, veja o que ocorre quando 
escolhemos o conjunto 𝑣! = (1,1), 𝑣" = (1,−1), 𝑣$ = (1,0). Como 𝑣$ pertence ao 
espaço vetorial gerado por 𝑣! e 𝑣", isto é, ao plano cartesiano, sabemos que 𝑣$ 
 
 
9 
é linearmente dependente a 𝑣! e 𝑣". Ainda, sim, 𝑆 = {𝑣!, 𝑣", 𝑣$} gera o plano 
cartesiano, mas não é base desse espaço vetorial. Por causa disso, podemos 
gerar qualquer vetor do plano cartesiano como combinação linear desses três 
vetores, mas essa representação não é única. Por exemplo, (2,4) = 3(1,1) −
(1,−1) + 0(1,0), ou (2,4) = 0(1,1) − 4(1, −1) + 6(1,0), ou ainda, (2,4) = 4(1,1) +
0(1, −1) − 2(1,0), entre tantas outras possibilidades. Perceba, portanto, que para 
se ter unicidade na escrita das coordenadas dos vetores, o conjunto que 
escolhemos como gerador do espaço vetorial deve ser linearmente 
independente. Esse conjunto é a base do espaço vetorial. Assim, os vetores 
𝑣!, 𝑣", … , 𝑣# formam uma base para o espaço vetorial 𝑉 se, e somente se, 
𝑣!, 𝑣", . . , 𝑣#	são linearmente independentes e ainda geram 𝑉. Quando isso 
acontece, isto é, quando 𝑆 = {𝑣!, 𝑣", … , 𝑣#} forma um base para o espaço vetorial 
𝑉, todo vetor 𝑣 ∈ 𝑉 é escrito como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣#, em que 
(𝑐!, 𝑐", … , 𝑐#) são as coordenadas de 𝑣 em relação à base 𝑆. 
4.2 Teoremas 
Como consequência desses resultados discutidos anteriormente, 
podemos mostrar que qualquer espaço vetorial finito que seja gerado por vetores 
não nulos possuirá uma base. Além disso, se escolhermos uma base 𝑆 =
{𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉 que seja uma base desse espaço vetorial, não podemos 
adicionar vetores à base, visto que a existência de 𝑣#(! ∈ 𝑉 adicionado à 𝑆 fará 
desse conjunto linearmente dependente e, portanto, embora gere 𝑉 não será 
uma base. De forma similar, se retirarmos de 𝑆 um vetor qualquer, digamos 𝑣#, 
o novo conjunto não será suficiente para gerar 𝑉 e, mesmo sendo linearmente 
independente, não será uma base para 𝑉. 
4.3 Dimensão de 𝑽 
O teorema anterior nos permite concluir que não podemos aumentar ou 
diminuir a quantidade de vetores em uma base de umespaço vetorial 𝑉 sob a 
pena do novo conjunto de vetores não configurar uma base. A isso, acabamos 
concluindo que todo espaço vetorial terá suas bases com a mesma quantidade 
de vetores. É por isso que, se uma base 𝑆 tem 𝑛 vetores, diremos que dim(𝑉) =
𝑛, isto é, que a dimensão do espaço vetorial 𝑉 é 𝑛. Outra forma de afirmar isso 
é dizer que 𝑉 é um espaço vetorial 𝑛 − dimensional e, sendo 𝑛 finito, o espaço 
 
 
10 
vetorial terá dimensão finita. Disso tudo, vamos reunir todas as informações em 
suas considerações semelhantes: se sabemos que dim(𝑉) = 𝑛, sendo 𝑆 =
{𝑣!, 𝑣", … , 𝑣#} ∈ 𝑉, 𝑆 formará uma base para 𝑉, se e somente se, 𝑆 é linearmente 
independente e, se e somente se, por sua vez, 𝑆 gera 𝑉. 
TEMA 5 – MUDANÇA DE BASE 
Você deve se lembrar dos problemas de Física envolvendo plano 
inclinado. Para facilitar a resolução das equações, uma das estratégias era 
realizar uma mudança de referencial reescrevendo todos os vetores envolvidos 
em termos daquele novo sistema. Do ponto de vista da álgebra, o que estávamos 
realizando era uma mudança de base. 
5.1 Mudança de Base no ℝ𝟐 
Nosso objetivo é generalizar a mudança de base para espaços vetoriais 
de dimensão 𝑛 qualquer. Entretanto, vamos iniciar a análise do ponto de vista de 
um espaço vetorial de dimensão 2, o ℝ". A base mais simples é a base canônica, 
{𝑖 = (1,0), 𝑗 = (0,1)}. A partir dela, qualquer 𝑣 ∈ ℝ" é dado como 𝑣 = 𝑥𝑖 + 𝑦𝑗. Se 
escolhermos outra base, digamos 𝑣!, 𝑣", o vetor 𝑣 será dado como 𝑣 = 𝑥!𝑣! +
𝑥"𝑣", isto é, terá novas coordenadas. Para fazer a conversão das coordenadas 
(𝑥, 𝑦)(+,-) para (𝑥!, 𝑥")(/",/!) vamos iniciar escrevendo o vetor 𝑣 = 𝑥!𝑣! + 𝑥"𝑣" em 
termos da base canônica. Como a base canônica permite escrever qualquer 
vetor do plano cartesiano como combinação linear de seus vetores de base, 
podemos escrever 𝑣! e 𝑣" como resultado dessa combinação linear. Nesse caso, 
𝑣! = 𝑎!𝑖 + 𝑎"𝑗, enquanto 𝑣" = 𝑏!𝑖 + 𝑏"𝑗. Dessa forma, reescrevemos 𝑣 como: 
𝑣 = 𝑥!𝑣! + 𝑥"𝑣" = 𝑥!(𝑎!𝑖 + 𝑎"𝑗) + 𝑥"(𝑏!𝑖 + 𝑏"𝑗) = (𝑥!𝑎! + 𝑥"𝑏!)𝑖 + (𝑥!𝑎" +
𝑥"𝑏")𝑗. Logo, as coordenadas do vetor 𝑣 = 𝑥!𝑣! + 𝑥"𝑣" em relação à base 
canônica será 𝑥 = 𝑥!𝑎! + 𝑥"𝑏! e 𝑦 = 𝑥!𝑎" + 𝑥"𝑏". Esse resultado pode ser escrito 
na forma matricial: 𝑥 = \𝑥!𝑎! + 𝑥"𝑏!𝑥!𝑎" + 𝑥"𝑏"
] = \𝑎! 𝑏!
𝑎" 𝑏"
] ^
𝑥!
𝑥"_. Essa matriz é conhecida 
como matriz de mudança de base e faz a conversão dos vetores escritos em 
uma base qualquer para a base canônica. Por exemplo, a base 𝑣! = (3,2) e 𝑣" =
(1,1). Podemos escrever 𝑥 = ^3 1
2 1_^
𝑥!
𝑥"_, em que 𝑈 = ^3 1
2 1_ é a matriz de 
mudança de base. Se um vetor tem coordenadas (0,1) nessa base, terá na base 
canônica coordenadas (1,1). Claro que poderíamos realizar um movimento 
 
 
11 
similar para desfazer a mudança de base, ou, sair da base canônica para 
qualquer outra base que desejar. Entretanto, ao invertermos a matriz 
encontraremos a mudança de base na outra direção. 
5.2 Mudança de base para um espaço vetorial de dimensão 𝒏 
Veja a definição de vetor de coordenadas para nos permitir generalizar a 
mudança de base para um espaço vetorial de dimensão 𝑛. 
Definição de vetor de coordenadas. Suponha a existência de um 
espaço vetorial 𝑉 que possua uma de suas bases dadas por 𝑆 = [𝑣!, 𝑣", … , 𝑣#]. 
Por ser uma base, qualquer elemento de 𝑣 ∈ 𝑉 é dado como 𝑣 = 𝑐!𝑣! + 𝑐"𝑣" +
⋯+ 𝑐#𝑣# com 𝑐!, 𝑐", … , 𝑐# ∈ ℝ.	Dessa forma, o vetor (𝑐!, 𝑐", … , 𝑐#) é o vetor de 
coordenadas de 𝑣 em relação à base 𝑆 e sua notação é [𝑣]0. Perceba que 
precisamos indicar na notação em relação à qual base se referem essas 
coordenadas 𝑐+. Nesse caso são coordenadas em relação à base 𝑆. 
Considere, portanto, um vetor 𝑣 escrito para uma base 𝑆 = {𝑣!, 𝑣", … , 𝑣#}. 
Dessa forma, [𝑣]0 = 𝑐!𝑣! + 𝑐"𝑣" +⋯+ 𝑐#𝑣#. Se 𝑣 pode ser escrito em termos da 
base canônica, 𝐸 = {𝑒!, 𝑒", … , 𝑒#}, então deverá haver (𝑥!, 𝑥", … , 𝑥#) de forma que 
[𝑣]1 = 𝑥!𝑒! + 𝑥"𝑒" +⋯+ 𝑥#𝑒#. Como 𝑣! = 𝑣!!𝑒! + 𝑣"!𝑒" +⋯+ 𝑣#!𝑒#, 𝑣" =
𝑣!"𝑒! + 𝑣""𝑒" +⋯+ 𝑣#"𝑒#, … , 𝑣# = 𝑣!#𝑒! + 𝑣"#𝑒" +⋯+ 𝑣##𝑒# visto que cada um 
deles pode ser escrito como combinação linear dos vetores da base canônica, 
podemos escrever, de forma similar à realizada no ℝ", 𝐴 =
N
𝑣!! 𝑣!" ⋯ 𝑣!#
𝑣"! 𝑣"" ⋯ 𝑣"#
⋮ ⋮ ⋱ ⋮
𝑣#! 𝑣#" ⋯ 𝑣##
O.	Essa é a matriz de mudança de coordenadas da base 𝑆 
para a base canônica 𝐸. Ao encontrar a matriz inversa, encontramos a matriz de 
mudança de coordenadas, agora da base canônica 𝐸 para a base 𝑆.	 
NA PRÁTICA 
Considerando a base 𝑆 = {(1,1), (−1,1)} e a base canônica 𝐸 =
{(1,0), (0,1)}, encontre a matriz de mudança de coordenadas de 𝑆 para 𝐸 e de 𝐸 
para 𝑆. Sabendo que [𝑣]0 = (0,2), encontre [𝑣]1 . 
 
 
12 
FINALIZANDO 
Nesta etapa, fomos capazes de expandir alguns dos principais conceitos 
que são consequência da existência de espaços vetoriais. Vimos as implicações 
da combinação linear, da independência linear e a formação de bases para 
esses espaços vetoriais. O domínio desses aprendizados demanda a resolução 
de exercícios e o estudo cuidadoso de cada conceito com vistas a fixar e se 
familiarizar com tais objetos. 
	
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13 
REFERÊNCIAS 
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: 
Bookman, 2012. 
FRANCO, N. B. Álgebra linear. 10. ed. São Paulo: Pearson, 2016. 
HOLT, J. Álgebra linear com aplicações. São Paulo: LTC, 2016. 
KOLMAN, B. Introdução à álgebra linear com aplicações. São Paulo: LTC, 
2013. 
LAY, D. C. Álgebra linear e suas aplicações. Rio de Janeiro: LTC, 2013.

Mais conteúdos dessa disciplina