Teorema
Dado um espaço vetorial de dimensão finita $$V$$ sobre um corpo $$\mathcal{K}$$ com duas bases fixadas, $$\mathcal{S}=\{v_{1},..,v_{n}\}$$ e $$\mathcal{S}’=\{u_{1},..,u_{n}\}$$. Seja $$w\in V$$ tal que $$w=\sum_{r=1}\alpha_{r}u_{r}$$, cujo vetor de coordenadas é representado por $$[w]_{\mathcal{S}’}=[\alpha_{1},..,\alpha_{n}]^{T}$$.
Representam-se as coordenadas da base $$\mathcal{S}’$$ pela base $$\mathcal{S}$$ do seguinte modo:
\[[u_{j}]_{\mathcal{S}}=[\beta_{j1},..,\beta_{jn}]^{T}\]
Então a matriz $$P = [[u_{1}]_{\mathcal{S}},..,[u_{n}]_{\mathcal{S}}]$$, cujas colunas são os vetores $$[u_{j}]_{\mathcal{S}}$$, tem a propriedade de que $$P[w]_{\mathcal{S}’}=[w]_{\mathcal{S}}$$.
Demonstração:
Como $$u_{j}=\beta_{1j}v_{1}+…+\beta_{1n}v_{n}=\sum_{i=1}\beta_{ij}v_{i}$$, pode-se escrever
\[w = \alpha_{1}(\beta_{11}v_{1}+…+\beta_{n1}v_{n})+…+\alpha_{n}(\beta_{1n}v_{1}+…+\beta_{nn}v_{n})=(\alpha_{1}\beta_{11}+…+\alpha_{n}\beta_{1n})v_{1}+…+(\alpha_{1}\beta_{n1}+…+\alpha_{n}\beta_{nn})v_{n}\].
Porque $$\mathcal{S}$$ e $$\mathcal{S}’$$ são bases, as coordenadas de cada vetor são únicas, portanto $$[w]_{\mathcal{S}}=[\alpha_{1}\beta_{11}+…+\alpha_{n}\beta_{1n},…,\alpha_{1}\beta_{n1}+…+\alpha_{n}\beta_{nn}]$$
Este vetor pode ser escrito como um produto matriz-vetor, como se segue:
\[[w]_{\mathcal{S}}=\left[\begin{array}{ccc}\beta_{11}&…&\beta_{1n}\\…&…&…\\\beta_{n1}&….&\beta_{nn} \end{array}\right]\cdot \left[\begin{array}{c}\alpha_{1}\\…\\ \alpha_{n}\end{array}\right]=[[u_{1}]_{\mathcal{S}},..,[u_{n}]_{\mathcal{S}}]\cdot [w]_{\mathcal{S}’}=P\cdot[w]_{\mathcal{S}’}\]
A matriz $$P$$ é, evidentemente, inversível, dado que suas colunas são linearmente independentes. Se houvesse duas colunas (l.d), digamos $$[u_{1}]$$ e $$[u_{2}]$$, os vetores $$u_{1}$$ e $$u_{2}$$ seriam linearmente dependentes, em contradição com a definição de base de um espaço vetorial. Dito isso, é fato que
\[[w]_{\mathcal{S’}}=P^{-1}\cdot [w]_{\mathcal{S}}\]
0 comentários