Página tipo blog en el que voy a publicar mis notas de aprendizaje, en especial de temas como matemáticas, física y quizá algo de programación
Álgebra lineal
La matriz
Una matriz es una disposición rectangular de números, símbolos o expresiones dispuestos en filas y columnas. Se representa típicamente de la siguiente manera:
El determinante es un concepto matemático asociado a matrices cuadradas. Dada una matriz cuadrada A, el determinante, denotado comúnmente como det(A) o ∣A∣, es un número escalar que se calcula a partir de los elementos de la matriz de una manera específica.
-Si el conjunto de vectores son linealmente dependientes entonces el determinante es 0
-Si intercambias dos filas (o columnas) de una matriz, el determinante cambia de signo.
Un espacio vectorial es una estructura matemática que consiste en un conjunto de elementos llamados vectores, junto con dos operaciones, la suma de vectores y la multiplicación por escalares. Para que un conjunto sea un espacio vectorial, debe cumplir con ciertos axiomas o propiedades, como la cerradura bajo la suma y la multiplicación por escalares, la existencia de un vector cero, la existencia de opuestos aditivos, y la distributividad.
Subespacio vectorial
Un subespacio vectorial es un conjunto de vectores que, por sí mismo, también forma un espacio vectorial. En otras palabras, un subespacio vectorial es un subconjunto de un espacio vectorial que hereda las operaciones de suma y multiplicación por escalares del espacio vectorial original. Para que un conjunto sea un subespacio vectorial, debe cumplir con las mismas propiedades que definen un espacio vectorial, pero solo considerando las operaciones restringidas al conjunto en cuestión.
Para demostrar:
Para demostrar si W es un subespacio vectorial de V
El nulo del espacio vectorial de V debe pertenecer a W
0V∈W
Ley de composición interna{v1,v2}⊂W⇒(v1+v2)∈W
Ley de composición externav1∈W,k∈R⇒v1k∈W
Representaciones:
Un subespacio vectorial puede representarse de varias formas en álgebra lineal. Aquí hay algunas de las maneras comunes de representar un subespacio vectorial:
Un subespacio vectorial W puede ser definido como el conjunto de todos los vectores que cumplen con ciertas propiedades.
W={v∈V∣ alguna condicion sobre v}
Definición por Generadores
Un subespacio vectorial puede ser generado por un conjunto de vectores
W=span(v1,v2,…,vn)
Donde span es el conjunto de todas las combinaciones lineales de los vectores v1,v2,…,vn
Se puede usar span(),gen(),<>, etc
Definición por Ecuaciones Lineales
Un subespacio vectorial puede ser definido por un sistema de ecuaciones lineales.
W={v∈V∣Av=0,A∈Rm×n}
Base
Una base es un conjunto de vectores que cumplen dos propiedades fundamentales:
Generan todo el espacio vectorial de un espacio vectorial
Son linealmente independientes.
De manera más formal, si tienes un espacio vectorial V y una base B={v1,v2,⋯,vn} para ese espacio, entonces para cualquier vector v en V, existe una combinación única de los vectores en la base B que produce v como resultado.
Dimensión (rango)
El número de vectores en una base de un espacio vectorial es igual a la dimensión de ese espacio vectorial, a pesar que los vectores por sí solos puden ser de una mayor dimensión , lo que importa es el número vectores, ya que eso genera la forma de la transformación
Transformaciones lineales
Una transformación lineal T entre dos espacios vectoriales V y W es una función que preserva la estructura lineal, es decir, satisface dos propiedades ∀u∈U,v∈V
Aditividad:T(u+v)=T(u)+T(v)
Homogeneidad:T(kv)=kT(v),k∈R
Matriz asociada
Toda transformación lineal puede representarse mediante una matriz. La matriz asociada a una transformación lineal depende de la elección de bases para los espacios vectoriales de partida y llegada.
T=M3×2T:R2→R3
T tiene 2 vectores y son de dimensión 3, pero a lo mucho genera un plano, por lo que la dimensión de T es ≤2
Núcleo o Kernel
El núcleo (o kernel) de una transformación lineal es el conjunto de vectores que al aplicarle la transformacion lineal, dan como resultado al vector cero en el espacio de llegada.
ker(T)={v∈ker(T)∣T(v)=0}
Nulidad
Dimensión del núcleo de la transformación: dim(ker(T))
Imagen
El recorrido o imagen de una transformación lineal es el conjunto de todos los vectores en el espacio de llegada que son imágenes de algún vector en el espacio de partida.
Im(T)=T(v)={v∈V∣T(v)=w}
Rango
Dimensión de la imagen de la transformación: dim(Im(T))
El rango es menor o igual a la dimensión del dominio, (recordar que es el número de vectores de la base de la matriz de la transformacion)
Teorema rango-nulidad
La dimensión del dominio de una transformación lineal dim(V) es la suma de su rango dim(Im(T)) y su nulidad dim(ker(T))
T:V→Wdim(ker(T))+dim(Im(T))=dim(V)
Clasificación de transformaciones lineales
T:DominioV→CodominioWv∈V,w∈W
Inyectiva (Monomorfismo:μονομορφισμός)
Una transformación lineal se dice que es inyectiva si y solo si dos vectores diferentes del dominio no pueden tener la misma imagen
Basta que los vectores columna de la matriz asociada sean l.i. para que T sea inyectiva
La dimensión de los vectores de entrada deben ser de la misma dimensión de la forma de T
T(v1)=T(v2)→v1=v2Nulidad=0dim(Im(T))=dim(V)
Sobreyectiva (Epimorfismo:Επιμορφισμός)
La dimensión de los vectores generados deben ser de la misma dimensión de la forma de T
dim(Im(T))=dim(W)∀w∈W,∃v∣T(v)=w
Biyectiva (Isomorfismo: Iσομορφισμός)
Inyectiva y sobreyectiva a la vez
Eigenvalues y Eigenvectors
Si
T(v)=λv∣λ∈R∧v=0
λ es eigenvalue del eigenvector v
Tv=λvTv=IλvTv−Iλv=0(T−Iλ)v=0
Debido a que v no debe ser 0, la matriz (T−Iλ) debe tener a sus vectores l.d. Para que sea posible que la combinación lineal entre ellos de como resultado el 0, osea para que sea posible que al multiplicar por un vector distinto de 0 me de como resultado 0.
Así que si deben ser l.d., el determinante debe ser 0
det(T−Iλ)=0
Polinomio característico
Las raíces de ese polinomio, serán los eigenvalues
PT(λ)=det(T−Iλ)
Espectro
Conjunto de los eigenvalues de T
σ(T)={λ∈K∣λ es eigenvalue de T}
Espacio propio
Al conjunto de todos los eigenvectors asociados a λ se le llama espacio propio asociado a λ o autoespacio
E(T,λ)={v∈V∣T(v)=λv}
Matrices semejantes
La matriz M_1 será semejante a la matriz M_2, si a un vector v llevado a base B se le aplica la transformación M_2 será igual al vector v en base canónica aplicado a la transformación M_1
Proceso mediante el cual se transforma una matriz en una forma diagonal mediante una matriz de cambio de base
Una matriz A∈Mn(R) es diagonalizable si es semejante a una matriz diagonal
A=PDP−1
P es la matriz de cambio de base compuesta por los eigenvectors de A
D es la matriz de cambio de base compuesta por los eigenvalues de A
Av=PDP−1vAv=PD[v]P
An=PDnP−1
Una matriz A∈Mn(R) es diagonalizable si y solo si tiene n autovectores linealmente independientes
Forma bilineal
La aplicación f:V×V→R es una forma bilineal si y solamente si ∀a,b∈R;∀u,u1,u2,v,v1,v2∈V se cumplen las siguientes condicionesf(au1+bu2,v)=af(u1,v)+bf(u2,v)f(u,av1+bv2)=af(u,v1)+bf(u,v2)
Matriz asociada
Sea M∈GL(n,R) Podemos asocialo a una forma bilineal B:Rn×Rn→R
{v,u}⊂RnB(v,u)=vTMu
Forma cuadrática
Sea f:V×V→K una forma bilineal. Se llama forma cuadrática asociada a f a la aplicación