leeern by Yuri

Notas de YuriRod


Página tipo blog en el que voy a publicar mis notas de aprendizaje, en especial de temas como matemáticas, física y quizá algo de programación

Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales

Álgebra lineal

La matriz

Una matriz es una disposición rectangular de números, símbolos o expresiones dispuestos en filas y columnas. Se representa típicamente de la siguiente manera:

A=[a11a12a1na21a22a2nam1am2amn] \Large A = \begin{bmatrix} a_{11} & a_{12} & \ldots & a_{1n} \\ a_{21} & a_{22} & \ldots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \ldots & a_{mn} \end{bmatrix} \\

Donde AA es la matriz, aija_{ij} representa el elemento en la fila ii, columna jj, y m×nm \times n indica las dimensiones de la matriz con mm filas y nn columnas.


Operaciones Básicas


La suma (o resta) de dos matrices se realiza sumando (o restando) los elementos correspondientes:

A+B=[Aij+Bij]A+B=[A_{ij}+B_{ij}]3A=A+A+A=[Aij+Aij+Aij]=[3×Aij]3A=A+A+A=[A_{ij}+A_{ij}+A_{ij}]=[3\times A_{ij}]B×A=[Bi×Aj]B \times A=[B_{i} \times A_{j}]AT=[Aji]A^{T}=[A_{ji}](AT)T=A(A^{T})^{T}=A(A+B)T=AT+BT(A+B)^{T}=A^{T}+B^{T}(AB)T=ATBTBTAT(AB)^{T}=A^{T}B^{T} \neq B^{T}A^{T}Sym Matrix: AT=A\text{Sym Matrix: } A^{T}=AIdentity Matrix: AI=IA=AI=[Iii=1,Iij=0]\text{Identity Matrix: } AI=IA=A \wedge I=[I_{ii}=1,I_{ij=0}]

Eliminación de Gauss online

0x+0y+0z=00x+0y+0z=00x+0y+0z=0 0x+0y+0z=0\\0x+0y+0z=0\\0x+0y+0z=0 =
R1R1
R2R2
R3R3
[000000000][xyzabcdef]=[000000000] \Large \begin{bmatrix} 0&0&0\\0&0&0\\0&0&0 \end{bmatrix} \begin{bmatrix} x&y&z\\a&b&c\\d&e&f \end{bmatrix} = \begin{bmatrix} 0&0&0\\0&0&0\\0&0&0 \end{bmatrix}
R1
R2
R3
0x+0y+0z=00x+0y+0z=00x+0y+0z=0 0x+0y+0z=0\\0x+0y+0z=0\\0x+0y+0z=0 =
R1+R1+
R2+R2+
R3+R3+
[000000000][xyzabcdef]=[000000000] \Large \begin{bmatrix} 0&0&0\\0&0&0\\0&0&0 \end{bmatrix} \begin{bmatrix} x&y&z\\a&b&c\\d&e&f \end{bmatrix} = \begin{bmatrix} 0&0&0\\0&0&0\\0&0&0 \end{bmatrix}
R1
R2
R3

El determinante

El determinante es un concepto matemático asociado a matrices cuadradas. Dada una matriz cuadrada AA, el determinante, denotado comúnmente como det(A)\det(A) o A|A|, es un número escalar que se calcula a partir de los elementos de la matriz de una manera específica.


  • -Si el conjunto de vectores son linealmente dependientes entonces el determinante es 0
  • -Si intercambias dos filas (o columnas) de una matriz, el determinante cambia de signo.
det(M)R \det(M) \in \Rdet(A×B)=det(A)×det(B) \det(A\times B) =\det(A)\times \det(B)det(A1)=det(A)1 \det(A^{-1}) =\det(A)^{-1}det(At)=det(A) \det(A^{t}) = \det(A)det(A)I=adj(A)A \det(A)I = adj(A)Adet(a1,,λai,,an)=λdet(a1,,ai,,an)\det(\overrightarrow{a_1}, \dots, \lambda \overrightarrow{a_i},\dots,\overrightarrow{a_n})=\lambda \det(\overrightarrow{a_1}, \dots, \overrightarrow{a_i},\dots,\overrightarrow{a_n})M={v1,v2vn/vivj;ij;i=1,,n;j=1,2n}det(M)0M = \left\{ v_1,v_2 \dots v_n /v_i \nparallel v_j; i\neq j; i=1,\dots,n ; j=1,2\dots n \right\} \Leftrightarrow \det(M)\neq0

Espacio vectorial

Un espacio vectorial es una estructura matemática que consiste en un conjunto de elementos llamados vectores, junto con dos operaciones, la suma de vectores y la multiplicación por escalares. Para que un conjunto sea un espacio vectorial, debe cumplir con ciertos axiomas o propiedades, como la cerradura bajo la suma y la multiplicación por escalares, la existencia de un vector cero, la existencia de opuestos aditivos, y la distributividad.




Subespacio vectorial

Un subespacio vectorial es un conjunto de vectores que, por sí mismo, también forma un espacio vectorial. En otras palabras, un subespacio vectorial es un subconjunto de un espacio vectorial que hereda las operaciones de suma y multiplicación por escalares del espacio vectorial original. Para que un conjunto sea un subespacio vectorial, debe cumplir con las mismas propiedades que definen un espacio vectorial, pero solo considerando las operaciones restringidas al conjunto en cuestión.


Para demostrar:

Para demostrar si W es un subespacio vectorial de V

  1. El nulo del espacio vectorial de V debe pertenecer a W
  2. 0VW\overline{0}_{V} \in W
  3. Ley de composición interna{v1,v2}W(v1+v2)W \left\{ \overrightarrow{v_1},\overrightarrow{v_2} \right\} \subset W \Rightarrow (\overrightarrow{v_1}+\overrightarrow{v_2}) \in W
  4. Ley de composición externav1W,kRv1kW \overrightarrow{v_1} \in W, k \in \R \Rightarrow \overrightarrow{v_1}k \in W

Representaciones:

Un subespacio vectorial puede representarse de varias formas en álgebra lineal. Aquí hay algunas de las maneras comunes de representar un subespacio vectorial:

  • W={[a0a1a2]:[130011214]×[a0a1a2]=0} W= \left\{ \begin{bmatrix} a_0 \\ a_1 \\ a_2 \end{bmatrix} : \begin{bmatrix} 1 & -3 & 0 \\ 0 & 1 & -1 \\ 2 & 1 & -4 \end{bmatrix} \times \begin{bmatrix} a_0 \\ a_1 \\ a_2 \end{bmatrix}=0 \right\} W={(a0,a1,a2):a03a1=0,a0a1=0,2a0+a14a1=0}W=\left\{ (a_0,a_1,a_2) : a_0-3 a_1=0, a_0 - a_1 =0,2 a_0 + a_1 - 4 a_1 =0\right\}W={a0(1+2x2)+a1(3+x+x2)+a2(x4x2)}W=\left\{a_0(1+2x^{2}) + a_1(-3+x+x^{2}) + a_2( -x -4x^{2}) \right\}W=span((1,0,2),(3,1,1),(0,1,4))W=span((1,0,2), (-3,1,1),(0,-1,-4) )
  • Definición por Conjunto de Vectores

    Un subespacio vectorial WW puede ser definido como el conjunto de todos los vectores que cumplen con ciertas propiedades.

    W={vV alguna condicion sobre v}W= \left\{ v \in V \mid \text{ alguna condicion sobre v} \right\}
  • Definición por Generadores

    Un subespacio vectorial puede ser generado por un conjunto de vectores

    W=span(v1,v2,,vn)W= span(v_1,v_2,\dots, v_n)

    Donde span es el conjunto de todas las combinaciones lineales de los vectores v1,v2,,vnv_1,v_2,\dots, v_n

    Se puede usar span(),gen(),<>span(), gen(), <>, etc

  • Definición por Ecuaciones Lineales

    Un subespacio vectorial puede ser definido por un sistema de ecuaciones lineales.

    W={vVAv=0,ARm×n}W= \left\{ v \in V \mid Av = 0, A \in \R^{m \times n} \right\}


Base

Una base es un conjunto de vectores que cumplen dos propiedades fundamentales:

  • Generan todo el espacio vectorial de un espacio vectorial
  • Son linealmente independientes.

De manera más formal, si tienes un espacio vectorial VV y una base B={v1,v2,,vn}B=\left\{v_1,v_2,\cdots ,v_n\right\} para ese espacio, entonces para cualquier vector vv en VV, existe una combinación única de los vectores en la base BB que produce vv como resultado.


Dimensión (rango)

El número de vectores en una base de un espacio vectorial es igual a la dimensión de ese espacio vectorial, a pesar que los vectores por sí solos puden ser de una mayor dimensión , lo que importa es el número vectores, ya que eso genera la forma de la transformación




Transformaciones lineales

Una transformación lineal TT entre dos espacios vectoriales VV y WW es una función que preserva la estructura lineal, es decir, satisface dos propiedades uU,vV\forall u \in U, v \in V

  • Aditividad:T(u+v)=T(u)+T(v)T(u+v)=T(u)+T(v)
  • Homogeneidad:T(kv)=kT(v),kRT(kv)=kT(v) , k \in \R
Matriz asociada

Toda transformación lineal puede representarse mediante una matriz. La matriz asociada a una transformación lineal depende de la elección de bases para los espacios vectoriales de partida y llegada.

T=M3×2T=M_{3\times 2}T:R2R3T: \R ^{2} \to \R^{3}

TT tiene 2 vectores y son de dimensión 3, pero a lo mucho genera un plano, por lo que la dimensión de TT es 2\leq 2


Núcleo o Kernel

El núcleo (o kernel) de una transformación lineal es el conjunto de vectores que al aplicarle la transformacion lineal, dan como resultado al vector cero en el espacio de llegada.

ker(T)={vker(T)T(v)=0}\ker(T) =\left\{ v \in \ker(T) \mid T(v)=0 \right\}
kerneltransformation.svg
Nulidad

Dimensión del núcleo de la transformación: dim(ker(T))\dim(ker(T))


Imagen

El recorrido o imagen de una transformación lineal es el conjunto de todos los vectores en el espacio de llegada que son imágenes de algún vector en el espacio de partida.

Im(T)=T(v)={vVT(v)=w}Im(T) = T(v) = \left\{ v \in V \mid T(v)=w \right\}
Rango

Dimensión de la imagen de la transformación: dim(Im(T))\dim(Im(T))

El rango es menor o igual a la dimensión del dominio, (recordar que es el número de vectores de la base de la matriz de la transformacion)


Teorema rango-nulidad

La dimensión del dominio de una transformación lineal dim(V)\dim(V) es la suma de su rango dim(Im(T))\dim(Im(T)) y su nulidad dim(ker(T))\dim(ker(T))

T:VWT: V \to Wdim(ker(T))+dim(Im(T))=dim(V)\dim(\ker(T)) + \dim(Im(T)) = \dim(V)
Clasificación de transformaciones lineales
T:VDominioWCodominio\Large T: \underset{Dominio}{\underbrace{V}} \to \underset{Codominio}{\underbrace{W}}vV,wW\large v \in V, w\in W
  • Inyectiva (Monomorfismo:μονομορφισμός)

    Una transformación lineal se dice que es inyectiva si y solo si dos vectores diferentes del dominio no pueden tener la misma imagen

    Basta que los vectores columna de la matriz asociada sean l.i. para que TT sea inyectiva

    La dimensión de los vectores de entrada deben ser de la misma dimensión de la forma de TT

    T(v1)=T(v2)v1=v2T(v_1) = T(v_2) \to v_1 = v_2Nulidad=0Nulidad = 0dim(Im(T))=dim(V) \dim(Im(T)) = \dim(V)
  • Sobreyectiva (Epimorfismo:Επιμορφισμός)

    La dimensión de los vectores generados deben ser de la misma dimensión de la forma de TT

    dim(Im(T))=dim(W) \dim(Im(T)) = \dim(W)wW,vT(v)=w\forall w \in W, \exist v \mid T(v) = w
  • Biyectiva (Isomorfismo: Iσομορφισμός)

    Inyectiva y sobreyectiva a la vez




Eigenvalues y Eigenvectors

Si

T(v)=λvλRv0T(v) = \lambda v \mid \lambda \in \R \wedge v \neq 0

λ\lambda es eigenvalue del eigenvector vv

Tv=λvTv=IλvTvIλv=0(TIλ)v=0Tv = \lambda v \\ Tv = I\lambda v \\ Tv -I\lambda v = 0 \\ (T -I\lambda) v = 0

Debido a que vv no debe ser 0, la matriz (TIλ)(T -I\lambda) debe tener a sus vectores l.d. Para que sea posible que la combinación lineal entre ellos de como resultado el 0, osea para que sea posible que al multiplicar por un vector distinto de 0 me de como resultado 0.

Así que si deben ser l.d., el determinante debe ser 0

det(TIλ)=0\det(T-I\lambda)=0
Polinomio característico

Las raíces de ese polinomio, serán los eigenvalues

PT(λ)=det(TIλ)P_{T}(\lambda)= \det(T-I\lambda)
Espectro

Conjunto de los eigenvalues de TT

σ(T)={λKλ es eigenvalue de T}\sigma(T)=\left\{ \lambda \in \mathbb{K} \mid \lambda \text{ es eigenvalue de }T \right\}
Espacio propio

Al conjunto de todos los eigenvectors asociados a λ\lambda se le llama espacio propio asociado a λ\lambda o autoespacio

E(T,λ)={vVT(v)=λv}E(T, \lambda)=\left\{ v \in V \mid T(v) = \lambda v \right\}
Matrices semejantes

La matriz M_1 será semejante a la matriz M_2, si a un vector v llevado a base B se le aplica la transformación M_2 será igual al vector v en base canónica aplicado a la transformación M_1

[M1v]B=M2[v]B[M_1 v]_B = M_2 [v]_BB1M1v=M2[v]BB^{-1}M_1 v = M_2 [v]_BB[M1v]B=BM2[v]BB[M_1 v]_B = B M_2 [v]_BM1v=BM2[v]BM_1 v = B M_2 [v]_BM1v=BM2B1vM_1 v = B M_2 B^{-1} vM1=BM2B1M_1 = B M_2 B^{-1}
Cambio de base

Sea B={b1,b2,,bn}B=\left\{b_1,b_2,\cdots ,b_n \right\} una base y MB=[b1,b2,,bn]M_B=[b_1,b_2,\cdots ,b_n] una matriz, el vector v en base B se denota como

[v]B=MB1v[v]_B = M_B^{-1}v

Además sea U1=[u1,u2,,un]U:RnRmU_1=[u_1,u_2, \cdots, u_n] \mid U:\R^{n} \to \R^{m} una matriz, entonces U1U_1 en base BB se denota como:

[U1]B=[[u1]B,[u2]B,,[un]B][U_1]_B = [[u_1]_B,[u_2]_B, \cdots, [u_n]_B] [U1]B=MB1U1[U_1]_B = M_B^{-1} U_1
Transformación lineal en 2 bases dadas

Además sea M=[v1,v2,,vn]M:RnRmM=[v_1,v_2, \cdots, v_n] \mid M:\R^{n} \to \R^{m} una matriz, entonces MM en base B,BB, B' se denota como:

MBB=B1MBM_{BB'}=B'^{-1}MBMBB=[MB]BM_{BB'}=[MB]_{B'}BMBB=MBB'M_{BB'}=MB

Esto significa hacer una transformación desde la perspectiva de la primera base BB y luego ponerla en base a la segunda base (B)(B')

MBB=B1MBM_{BB'}=B'^{-1}MBMBB[v]B=B1MB[v]BM_{BB'}[v]_B=B'^{-1}MB[v]_BMBB[v]B=B1MvM_{BB'}[v]_B=B'^{-1}MvMBB[v]B=[Mv]BM_{BB'}[v]_B=[Mv]_{B'}

Diagonalización

Proceso mediante el cual se transforma una matriz en una forma diagonal mediante una matriz de cambio de base

Una matriz AMn(R)A \in M_n(R) es diagonalizable si es semejante a una matriz diagonal

A=PDP1A=PDP^{-1}

PP es la matriz de cambio de base compuesta por los eigenvectors de AA

DD es la matriz de cambio de base compuesta por los eigenvalues de AA

Av=PDP1vAv=PDP^{-1}vAv=PD[v]PAv=PD[v]_P
An=PDnP1A^{n}=PD^{n}P^{-1}

Una matriz AMn(R)A \in M_n(R) es diagonalizable si y solo si tiene n autovectores linealmente independientes




Forma bilineal

La aplicación f:V×VRf:V \times V \to \R es una forma bilineal si y solamente si a,bR;u,u1,u2,v,v1,v2V\forall a,b \in \R ; \forall u,u_1,u_2,v,v_1,v_2 \in V se cumplen las siguientes condicionesf(au1+bu2,v)=af(u1,v)+bf(u2,v)f(au_1+bu_2,v)=af(u_1,v)+bf(u_2,v)f(u,av1+bv2)=af(u,v1)+bf(u,v2)f(u,av_1+bv_2)=af(u,v_1)+bf(u,v_2)
Matriz asociada

Sea MGL(n,R)M \in GL(n,\R) Podemos asocialo a una forma bilineal B:Rn×RnRB:\R ^{n} \times \R ^{n} \to \R

{v,u}Rn\left\{ \overrightarrow{v}, \overrightarrow{u} \right\} \subset \R^{n}B(v,u)=vTMuB(v,u)=v^{T}Mu
Forma cuadrática

Sea f:V×VKf:V \times V \to \mathbb{K} una forma bilineal. Se llama forma cuadrática asociada a ff a la aplicación

Φ:VK\Phi : V \to \mathbb{K}

Definida por:

Φ(x):f(x,x)\Phi (x) :f(x,x)


Playground

M=[100010001] \small M= \begin{bmatrix} 1&0&0\\0&1&0\\0&0&1 \end{bmatrix} det(M)=1 \small \det(M)=1 M1=[100010001] \small M^{-1}= \begin{bmatrix} 1&0&0\\0&1&0\\0&0&1 \end{bmatrix}

1

1

1

1

0

0

0

0

1

0

0

0

0

1

0

Metalness:0.7

Roughness: 0.5