next up previous
Next: Descomposición espectral de un Up: El Modelo Matemático Previous: Espacios de Hilbert y

Relevancia física de los operadores y matrices

Nuestro interés con operadores se referirá al caso de operadores lineales en un espacio vectorial. Específicamente rotaciones en el espacio. Es claro que una rotación en un espacio vectoral es un operador lineal que cumple con que:

$\displaystyle A(\alpha x + \beta y) = \alpha A (x) + \beta A (y)
$

Matemáticamente, las matrices son la representación natural de un operador lineal en un espacio vectorial de dimension finita.

Sea $ e_1, \ldots, e_n$ una base de un espacio vectorial de dimension $ n$. Sea $ f$ un operador lineal. Para todo elemento de la base tenemos que

$\displaystyle f(e_i) = \sum_{k=1}^{n}f_{ki}e_i
$

Ahora bien, sea $ u = f(v)$. Dado de que $ u$ y $ v$ son vectores en el espacio, ambos se puede expresar como

$\displaystyle u = \sum_{k=1}^{n} u_ke_k
$

$\displaystyle v = \sum_{i=1}^{n} v_ie_i
$

Pero por linealidad también sabemos que

$\displaystyle u = f(v) = f\left(\sum_{i=1}^{n} v_ie_i\right) = \sum_{i=1}^{n} v_i f(e_i) =
$

$\displaystyle \sum_{i=1}^{n} v_i \sum_{k=1}^{n}f_{ki}e_k = \sum_{i=1}^{n} \sum_{k=1}^{n}v_i f_{ki}e_k =
$

$\displaystyle \sum_{k=1}^{n} \sum_{i=1}^{n}v_i f_{ki}e_k = \sum_{k=1}^{n} e_k \sum_{i=1}^{n}v_i f_{ki}
$

$\displaystyle \Rightarrow u_k = \sum_{i=1}^{n}v_i f_{ki} = \sum_{i=1}^{n} f_{ki}v_i
$

Esta relación que acabamos de deducir es válida para cualquier operador lineal en un espacio vectorial de dimensión finita. Si expresamos nuestros vectores como combinaciones lineales de los elementos de la base y ordenamos los escalares de forma adecuada, tenemos entonces la expresión natural de operadores lineales mediante matrices donde:

$\displaystyle \left(
\begin{array}{cccc}
f_{11} & f_{12} & \cdots & f_{1n} \\
...
...t) =
\left(
\begin{array}{c}
u_1 \\
u_2 \\
\vdots \\
u_n
\end{array}\right)
$

Esto nos indica que cualquier operador lineal sobre un espacio vectorial finito tiene una expresión matricial relativa a una base. Pero que si cambiamos la base la matriz que representa al operador también ha de cambiar. Dicho de otro modo, una matriz siempre corresponderá a un operador lineal, pero un operador lineal se representará en muchas matrices distintas dependiendo de la base que utilicemos.

Existen, sin embargo, propiedades que se obtienen de la matriz que son independientes de la base en que se expresa el operador. Estas son:

  1. Los valores y vectores propios de la matriz.
  2. El determinante de la matriz.
  3. La traza de la matriz.

Debido a que estos valores son independientes de la matriz, se suele hablar de los valores propies del operador, lo mismo es válido para las otras características. Los valores y vectores propios son útiles para encontrar una base en la cual el operador tiene una matriz diagonal. En particular, si el operador tiene valores y vectores propios $ \lambda_i, v_i$, entonces la expresión del operador en la base $ v_1, \ldots, v_n$ es

$\displaystyle \left(
\begin{array}{cccc}
\lambda_1 \\
& \lambda_2 \\
& & \ddots \\
& & & \lambda_n
\end{array}\right)
$

y el determinante del operador sera $ \prod_{i=1}^n \lambda_i$

Por su parte, el determinante tiene la interpretación física como el grado de extensión o contracción que sufre un area del espacio al ser transformada por el operador. Esto es: sea $ A$ un conjunto de puntos arbitrario en el espacio vectorial. Entonces, para un operador $ f$ lineal, el determinante es igual a

$\displaystyle det(f) = \frac{\int_{f(A)}dx}{\int_{A}dx}
$


next up previous
Next: Descomposición espectral de un Up: El Modelo Matemático Previous: Espacios de Hilbert y
Jose Castro 2004-10-06