Bevezetés a vektorterekbe


Fejlesztés alatt

Ez a fejezet még nem készült el teljesen. A tartalom hiányos lehet, vagy változhat.

Note. What I write here is mostly what I’ve learned from my amazing teacher, Attila Andai at BME. If something is incorrect here its my fault, not he’s.

Vektorterek

👨‍🏫: Elerkeztunk egy ujabb fontos reszhez. Mit tanultatok a kozepiskolaban a vektorokrol?

🙋‍♂️: Hat a vektor az ilyen nyilacska a sikon vagy a terben. De kicsit formalisabban olyasmit mondtunk hogy egy iranyitott szakasz, vagy tombbe rendezett szamok.

👨‍🏫: Igen, igen valoban lehet igy reprezentalni az R2\mathbb{R}^{2}-ben vagy R3\mathbb{R}^{3}-ban lako vektorokat. Emellett matematikusok megalkottak egy szabalyrendszert ami kiszelesiti a vektorok fogalmat. Gondolhatsz ugy is a dologra hogy megfigyeljuk hogy a terben lako nyilacskakra milyen szabalyok igazak, osszegyujtjuk ezeket a szabalyokat, es azok a dolgoka mikre ezek a szabalyok igazak azokat vektornak fogjuk hivni. Vagyis pontosabban azt a halmazt amire igazak ezek a szabalyok azt vektorternek, a halmaz egy elemet pedig vektornak. Van otleted hogy milyen szabalyokbol alkotjak a vektorter axiomait?

🙋‍♂️: Gondolom ossze kell tudjunk adni a vektorokat. Az is jo lenne ha tudnank oket megnyujtani, tehat skalarral szorozni. Meg amugy tudtunk szorozni is vektorokat a “rendes” terben.

👨‍🏫: Ezek igen jo gondolatok. Kettot kapasbol bele is rakunk a vektorter axiomaiba. Egyet viszont ki fogunk hagyni.

?

Szerinted melyik szabalyt hagyjuk ki a vektorterek axiomai kozul?

Vektortér Axiómák

Legyen egy KK test (általában R\mathbb{R} vagy C\mathbb{C}). Azt mondhatjuk, hogy VV egy vektortér KK felett, ha: (az alábbiakban u,v,wVu,v,w\in V és λ,μK\lambda,\mu\in K)

Összeadás

Legyen

+:V×VV,(u,v)u+v.+ : V\times V \to V,\qquad (u,v)\mapsto u+v.

A következő tulajdonságok teljesülnek:

1.u+(v+w)=(u+v)+w(asszociatıˊv)2.u+v=v+u(kommutatıˊv)3.0V olyan, hogy 0+v=vvV eseteˊn(nullvektor)4.vV eseteˊvV uˊgy, hogy v+(v)=0(ellentett)\begin{aligned} 1. \quad & u+(v+w)=(u+v)+w && (\text{asszociatív}) \\ 2. \quad & u+v=v+u && (\text{kommutatív}) \\ 3. \quad & \exists\,0\in V \text{ olyan, hogy } 0+v=v \quad \forall v\in V \text{ esetén} && (\text{nullvektor}) \\ 4. \quad & \forall v\in V \text{ esetén } \exists -v\in V \text{ úgy, hogy } v+(-v)=0 && (\text{ellentett}) \end{aligned}

Skalárral való szorzás

Legyen

:K×VV,(λ,v)λv.\cdot : K\times V \to V,\qquad (\lambda,v)\mapsto \lambda v.

A következő axiómák teljesülnek:

1.λ(μv)=(λμ)v(skalaˊrasszociativitaˊs (legalaˊbbis olyasmi))2.1K uˊgy, hogy 1v=vvV eseteˊn3.(λ+μ)v=λv+μv(disztributivitaˊs a skalaˊrok o¨sszeadaˊsaˊra)4.λ(v+u)=λv+λu(disztributivitaˊs a vektorok o¨sszeadaˊsaˊra)\begin{aligned} 1. \quad & \lambda(\mu v)=(\lambda\mu)v && (\text{skalárasszociativitás (legalábbis olyasmi)}) \\ 2. \quad & \exists\,1\in K \text{ úgy, hogy } 1\cdot v = v \quad \forall v\in V \text{ esetén} && \\ 3. \quad & (\lambda+\mu)v=\lambda v + \mu v && (\text{disztributivitás a skalárok összeadására}) \\ 4. \quad & \lambda(v+u)=\lambda v + \lambda u && (\text{disztributivitás a vektorok összeadására}) \end{aligned}

Példák vektorterekre

👨‍🏫: Probald meg belatni hogy az alabbi halmazok vektorteret alkotnak.

  • Rn\mathbb{R}^n, Cn\mathbb{C}^n
  • C(R,R)C(\mathbb{R},\mathbb{R}) (folytonos függvények tere)
  • Sorozatok tere (mindenütt definiált összeadás és skalárszorzás)
  • {0}\{0\} (triviális vektortér)

Lineáris kombináció

👨‍🏫: Mivel a vektorter zart az osszeadasra, igy az II indexhalmazon

  1. iI:  uiV\forall i\in I:\; u_i\in V,
  2. iI:  λiK\forall i\in I:\; \lambda_i\in K,

akkor

v=iIλiuiV.v=\sum_{i \in I}\lambda_i u_i \in V.

Ekkor azt mondjuk, hogy iIλiui\sum_{i\in I}\lambda_i u_i az (ui)iI(u_i)_{i\in I} vektorok valamely lineáris kombinációja.

Lineáris függetlenség

Az (ui)iI(u_i)_{i\in I} vektorrendszer elemei lineárisan függetlenek, ha

iIλiui=0iI:  λi=0.\sum_{i\in I}\lambda_i u_i = 0 \quad\Longleftrightarrow\quad \forall i\in I:\; \lambda_i = 0.

Szóban: az (ui)iI(u_i)_{i\in I} vektorrendszer elemei akkor és csak akkor lineárisan függetlenek, ha a nullvektort előállító lineáris kombinációban szereplő összes együttható nulla.

Feladatok

  1. Vizsgáljuk, hogy egyetlen vektor vVv\in V lineárisan független-e.
  2. Tegyük fel, hogy V=R2V=\mathbb{R}^2. Vizsgáljuk, hogy a következő két vektor lineárisan független-e: a=(0,1),b=(1,1).a=(0,1),\qquad b=(1,1).

Bázis, dimenzio

Egy VV vektortérben az (ui)iI(u_i)_{i\in I} vektorrendszer bázis, ha

  1. (ui)iI(u_i)_{i\in I} lineárisan független,
  2. minden xVx\in V előállítható az (ui)iI(u_i)_{i\in I} lineáris kombinációjaként, azaz span{ui:iI}=V\operatorname{span}\{u_i:i\in I\}=V.

Állítás: Minden vektortérben van bázis.

👨‍🏫: Egy vektorter dimenzioja a vektorterben levo bazisok szamossaga. Tehat peldaul.: dim(R3)=3dim(\mathbb{R}^{3}) = 3

Linearis alter, linearis burok

👨‍🏫: Vegyuk az (R3\mathbb{R}^3) teret. Errol mar belattuk, hogy vektorteret alkot. Vegyuk ehhez a szokasos, standard x,y,zx, y, z koordinatazast. Most vegyunk azonak a vektoroknak a halmazat amelyek [a,b,0][a, b, 0] alakba irhatoak. Mi tortenik ha ket ilyen vektort osszeadunk?

🙋‍♂️: Hat tovabbra is az xyxy sikban maradnak.

👨‍🏫: Pontosan. Es ha egy ilyen vektort megszorzunk egy skalarral?

🙋‍♂️: Szinten az xyxy sikban marad a modositott vektor.

👨‍🏫: Ezek a vektorok mar eredetileg is egy vektorter elemei voltak. Igy mit mondhatunk el ezeknek az [a,b,0][a, b, 0] alaku vektorok halmazarol?

🙋‍♂️: Hat igazak rajuk a vektorter axiomai. Es valahogy igy nem tudnak “kimenni” az xyxy sikrol. Szoval azt gondolom hogy ok is egyfajta kisebb vektorteret alkotnak.

👨‍🏫: Nagyon jooo. Ezt linearis alternek nevezzuk. LVL \subseteq V linearis altere a VV vektorterunknek, ha:

1.a,bL    a+bL2.aL,λK    λaL\begin{aligned} 1. \quad & a, b \in L \implies a + b \in L \\ 2. \quad & a \in L, \lambda \in K \implies \lambda a \in L \end{aligned}

🙋‍♂️: Szoval a null vektor mindig bennevan a linaris alberben, es az egesz vektorter mindig egy linaris alter is egyben, ha jol ertem

👨‍🏫: Igen, igen, nagyon jó észrevételek. Haladjunk tovább a lineáris burok fogalmára. Ha van egy VV vektorterünk és abban egy A={v1,v2,,vn}A = \{v_1, v_2, \dots, v_n\} vektorrendszerünk, akkor AA lineáris burka (A\langle A \rangle):

A={i=1nλivi:λiK,nN}\langle A \rangle = \left\{ \sum_{i=1}^{n} \lambda_i v_i : \lambda_i \in \mathbb{K}, n \in \mathbb{N} \right\}

🙋‍♂️: Ez a burok linaris burok dolog igazabol linearis alteret konstrual, nem?

👨‍🏫: Igen. Ha osszeadod ket linearis kombinaciojat a vektorrendeszernek akkor az meg mindig a vektrorrendszered linearis kombinacioja lesz. Ugyanez igaz a szorzasra is. Tehat valoban, a linaris burok elkeszitese egy olyan “gepezet” ami a vektorrendszerunkre illeszt egy linaris alteret. De meg az is igaz hogy a leheto legkisebb linaris alteret illeszti az eredeti vektorainkra. Ezt ertheted ugy, hogy ha van a 3D-s terben ket vektorod akkor azoknak a linaris burka egy sikot fog meghatarozni nem pedig az egesz 3D-s teret.

Skalárszorzatos vektorterek

🙋‍♂️: Várjunk csak, a 3 dimenziós térben tudtunk vektorokat szorozni pl.: skalárisan vagy vektoriálisan. Ezt a tulajdonságot nem általánosítottuk?

👨‍🏫: Ez egy nagyon ügyes észrevétel! (jár érte egy csoki) A vektorterekre adott általános definíciónk valóban nem foglalja magába a vektorok szorzását. Azonban egyes vektorterekben létezik skaláris szorzás ezeket a vektortereket — nagyon meglepő módon — skalárszorzatos vektortereknek nevezzük. Például ahogy láttuk a sík (R2\mathbb{R}^2) vektorteret alkot (a valós számtest fölött), és a síkon 2 vektornak létezik skaláris szorzata.

🙋‍♂️: Hmm… Es mi a helyzet a folytonos függvényekkel azok is vektorteret alkotnak, nem? Ott nem tudom csak úgy összeszorozni a vektorok komponenseit mint egy (Rn\mathbb{R}^n)-es vektortérben. Akkor itt nincs skaláris szorzás?

👨‍🏫: Igen igen, ez egy nehézség. Ha emlékszel a középiskolában tanult vektorról alkotott kép valami olyasmi volt, hogy egy síkon vagy egy térben lakó nyilacska vagy egymás alá pakolt számok. Amikor bevezettük a vektortereket valahogy megvizsgáltuk, hogy milyen belső tulajdonságokkal bírnak a ezek a vektorok. Ezeket a tulajdonságokat megtartottuk és ezekből megalkottuk a vektortér axiómáit. Most valami hasonlót fogunk csinálni a skalárszorzással is. Vajon milyen tulajdonságai vannak a síkon vett standard skalárszorzásnak?

🙋‍♂️: Gondolkozzunk… Vegyünk két vektort, mondjuk aa-t és bb-t. 1. Ha aa hosszát 2-szeresére növelem akkor a skalárszorzat is kétszer akkora lesz. Ezt geometriailag láthatjuk. 2. Ha veszünk egy harmadik vektort, mondjuk cc-t, akkor ha a+ba + b-t skalárisan szorozzuk cc-vel az igazából ugyan olyan mintha először aa-t szoroztuk volna cc-vel és aztán ehhez hozzáadtuk volna bb és cc saklárszorzatát. Ezt pedig onnét tudhatjuk, hogy ha kibontjuk a skalárszorzatot komponensekre akkor ott már a szorzás disztributív a valós számokon és utána átrendezzük az összeget. 3. Hogyha aa-t önmagával skalárszorozzuk akkor biztos, hogy egy pozitív számot kapunk, feltéve persze, hogy aa nem nullvektor. Hmmm… nem tudom mi van még. Ja igen talán még egy. 4. Felcserélhetjük a szorzás sorrendjét és ugyan azt az eredményt kapjuk. Tehát aa szor bb = bb szer aa

👨‍🏫: Wooow, nagyon jo ügyesen megfigyelted ezeket a tulajdonságokat! Persze egy kis kiegészítésre azért szükség lesz, ha a vektorterünket esetleg komplex számtest felett akarjuk definiálni, de alapvetően elég hasonló marad a szitu ahhoz amit mondtál. (Használjuk a ,\langle \cdot, \cdot \rangle jelölést.)

Skalárszorzat feltétele egy vektortérben:

  1. a,b=b,a\langle a, b \rangle = \overline{\langle b, a \rangle}
  2. λa,b=λˉa,b\langle \lambda a, b \rangle = \bar{\lambda} \langle a, b \rangle
  3. a+b,c=a,c+b,c\langle a + b, c \rangle = \langle a, c \rangle + \langle b, c \rangle
  4. a,a>0\langle a, a \rangle > 0 ha a nem a nullvektor
  5. a,a=0\langle a, a \rangle = 0 ha a a nullvektor

🙋‍♂️: Oké, hogy segít ez nekünk a folytonos függvényeken értelmezni a skalárszorzást? Nézhetnénk erre egy példát?

👨‍🏫: Azt már korábban beláttuk, hogy a folytonos függvények a [0,1][0, 1] intervallumon vektorteret alkotnak. tekintsük a következő skaláris szorzást:

f,g=01f(x)g(x)dx\langle f, g \rangle = \int_{0}^{1}f(x)g(x) \, dx

ha lecsekkolod a fent említett kritériumokat rájössz, hogy ez egy valid skaláris szorzás ezen a vektortéren.

Caucy-Schwarz-Bunyakowskij egyenlotlenseg es vektorok altal bezart szog

👨‍🏫: Vegyunk a megszokott sikon ket vektort. Itt mindenki szamara egyertelmu hogy mi a ket vektor altal bezart szog. Akar foghatunk egy szogmerot is es leolvashatjuk a szoget. Na de vegyuk most a folytonos fuggvenyek vektorteret. Itt mi a helyzet, hogy hatarozzuk meg ebben a vektorterben lako ket vektor altal bezart szoget?

🙋‍♂️: Ha jol emlekszem a szog valahogy kapcsolatban allt a skalarszorzassal. Ki tudnank esetleg azt hasznalni?

👨‍🏫: Nem is rossz otlet! Kicsit tavolabbrol fogok elindulni de vegul ide fogunk kilyukadni. Ha van egy skalarszorzatos vektorterunk akkor abban mindig fennall egy nagyon fontos egyenlotlenseg.:

x,yxy| \langle x, y \rangle | \leq \|x\| \|y\|

(Itt x:=x,x\|x\| := \sqrt{\langle x, x \rangle} kesobb be fogjuk latni, hogy x\|x\| a skalarszorzat altal indukalt normaja xx-nek. Most egyelore viszont csak egy jelolesbeli egyszerusites.) Ez egy tok hasznos egyenlotlenseg. Ezt fogjuk hasznalni a vektorok altal bezart szog definialasara is mellesleg. Lenyegileg annyit mont ki, hogy ha van ket vektorunk akkor azoknak a skalarszorzata biztos, hogy kisebb vagy egyenlo, mint ha a ket vektort onmagukkal skalarszorozzuk, es aztan a skalarszorzatokat osszeszorozzuk.

xλy0(ahol x,yV,λK,y0)A skalarszorzatot visszairva:xλy,xλy0Kibontva:x,xx,λyλy,x+λy,λy0x2λx,yλˉy,x+λ2y20Mivel minden λ-ra igaz az egyenlo˝tlenseˊg,ıˊgy legyen: λ=y,xy2Behelyettesıˊtve:x2y,xx,yy2y,xy,xy2+y,x2y2y40Kihasznaˊljuk a komplex szaˊeˊs konjugaˊltjaˊravonatkozoˊ o¨sszefu¨ggeˊst: (zzˉ=z2)x2y,x2y2y,x2y2+y,x2y20O¨sszevonaˊs utaˊn:x2y,x2y20x2y,x2y2x2y2x,y2Gyo¨kvonaˊs utaˊn:x,yxy\begin{aligned} & \|x - \lambda y\| \ge 0 \\ & (\text{ahol } \forall x, y \in V, \forall \lambda \in K, y \neq 0) \\ \\ & \text{A skalarszorzatot visszairva:} \\ & \langle x - \lambda y, x - \lambda y \rangle \ge 0 \\ \\ & \text{Kibontva:} \\ & \langle x, x \rangle - \langle x, \lambda y \rangle - \langle \lambda y, x \rangle + \langle \lambda y, \lambda y \rangle \ge 0 \\ & \|x\|^2 - \lambda \langle x, y \rangle - \bar{\lambda} \langle y, x \rangle + |\lambda|^2 \|y\|^2 \ge 0 \\ \\ & \text{Mivel minden } \lambda\text{-ra igaz az egyenlőtlenség,} \\ & \text{így legyen: } \lambda = \frac{\langle y, x \rangle}{\|y\|^2} \\ \\ & \text{Behelyettesítve:} \\ & \|x\|^2 - \frac{\langle y, x \rangle \langle x, y \rangle}{\|y\|^2} - \frac{\overline{\langle y, x \rangle}\langle y, x \rangle}{\|y\|^2} + \frac{|\langle y, x \rangle|^2 \|y\|^2}{\|y\|^4} \ge 0 \\ \\ & \text{Kihasználjuk a komplex szám és konjugáltjára} \\ & \text{vonatkozó összefüggést: } (z \bar{z} = |z|^2) \\ & \|x\|^2 - \frac{|\langle y, x \rangle|^2}{\|y\|^2} - \frac{|\langle y, x \rangle|^2}{\|y\|^2} + \frac{|\langle y, x \rangle|^2}{\|y\|^2} \ge 0 \\ \\ & \text{Összevonás után:} \\ & \|x\|^2 - \frac{|\langle y, x \rangle|^2}{\|y\|^2} \ge 0 \\ & \|x\|^2 \ge \frac{|\langle y, x \rangle|^2}{\|y\|^2} \\ & \|x\|^2 \|y\|^2 \ge |\langle x, y \rangle|^2 \\ \\ & \text{Gyökvonás után:} \\ & |\langle x, y \rangle| \le \|x\| \|y\| \end{aligned}

Normak

👨‍🏫: Ahogy a skalarszorzast is altalanositanunk kellett ha kicsit elborultabb vektorterekkel dolgoztunk, igy a vektorok hosszat sem olyan konnyu mar lemerjuk. Hasonloan itt is be fogunk vezetni egyes axiomakat. Es inkabb a norma szot fogjuk hasznalni a hossz helyett. Ha visszagondolsz a skalarszorzat axiomaira, milyen felteteleket kene szabjunk, hogy altalanosithassuk a vektor hosszat?

🙋‍♂️: Szerintem itt is hasznos lenne ha nem engednenk meg hogy egy vektor negativ hosszu legyen. Meg hogyha a vektort megszorozzuk 5-tel akkor a normaja is lehetne 5-szor akkora.

👨‍🏫: Jo otlet! Meg egy kicsit kiegeszitem es mar meg is van a norma definicioja.

:VR1.x02.x=0    x=03.λx=λx4.x+yx+y\begin{aligned} \|\cdot\| : V \to \mathbb{R} \\ 1. \quad & \|x\| \ge 0 \\ 2. \quad & \|x\| = 0 \iff x = 0 \\ 3. \quad & \|\lambda x\| = |\lambda| \|x\| \\ 4. \quad & \|x + y\| \le \|x\| + \|y\| \end{aligned}

Szoval a norma egy olyan fuggveny ami a vektorterbol kepez a valos szamokba. Es valoban, a norma mindig nagyobb mint 0 kiveve ha magat a 0 vektort normaljuk. Abban is igazad volt, hogy ki kell tudjuk hozni a skalar szorzot. Itt annyi pontositast tettem hogy a skalar abszoluterteket kell tudjuk kiemelni. Ez azert kell mert lehet, hogy a komplex kest folott van definialva a vektorterunk. Amit viszont elfelejtettel emliteni az a haromszogegyenlotlenseg. Ha van kedved leellenorizheted, hogy a sikon hasznalt standard norma kielegiti a normara adott felteteleinket. ( x=x12+x22\|x\| = \sqrt{x_1^{2} + x_2^{2}} )

🙋‍♂️: Hmmm… A normaban es a skalarszorzasban latszolag eleg sok kozos tulajdonsag van. Nem tudjuk valahogy oket osszekotni?

👨‍🏫: Jo meglatas. Pont ezzel fogjuk folytatni. Ha van egy skalarszorzatos vektorterunk akkor abban a skalarszorzas normat indukal.:

x=x,x\|x\| = \sqrt{\langle x, x \rangle}

Es itt mar x\|x\|-el a normat jeloljuk. Nezzuk meg a bizonyitast!

Az hogy nem negativ kapasbol kovetkezik a skalarszorzas axiomaibol (1. 2.) pont. A λ | \lambda | -val valo kiemeles is egesz gyorsan belathato. A haromszogegyenlotlenseg viszont egy kicsit trukkosebb.

Tegyu¨k fel, hogy igaz a haˊromszo¨g-egyenlo˝tlenseˊg:x+yx+yA skalaˊrszorzaˊs tulajdonsaˊgai miatt neˊgyzetreemelhetu¨nk:x+y,x+yx,x+y,y+2x,xy,yA bal oldalt kibontva:x,x+x,y+y,x+y,yx,x+y,y+2x,xy,yEgyszeru˝sıˊtve x,x eˊy,y tagokkal:x,y+y,x2x,xy,yKihasznaˊlva a skalaˊrszorzaˊs tulajdonsaˊgait (y,x=x,y)eˊs a komplex szaˊmokeˊ(z+zˉ=2Re(z)):2Re(x,y)2x,xy,yMivel Re(z)z, ezeˊrt:x,yx,xy,yEz viszont a C.S.B. egyenlo˝tlenseˊg miatt igaz,ıˊgy az aˊllıˊtaˊst belaˊttuk.\begin{aligned} & \text{Tegyük fel, hogy igaz a háromszög-egyenlőtlenség:} \\ & \|x+y\| \le \|x\| + \|y\| \\ \\ & \text{A skalárszorzás tulajdonságai miatt négyzetreemelhetünk:} \\ & \langle x+y, x+y \rangle \le \\ & \le \langle x,x \rangle + \langle y,y \rangle + 2\sqrt{\langle x,x \rangle}\sqrt{\langle y,y \rangle} \\ \\ & \text{A bal oldalt kibontva:} \\ & \langle x,x \rangle + \langle x,y \rangle + \langle y,x \rangle + \langle y,y \rangle \le \\ & \le \langle x,x \rangle + \langle y,y \rangle + 2\sqrt{\langle x,x \rangle}\sqrt{\langle y,y \rangle} \\ \\ & \text{Egyszerűsítve } \langle x,x \rangle \text{ és } \langle y,y \rangle \text{ tagokkal:} \\ & \langle x,y \rangle + \langle y,x \rangle \le 2\sqrt{\langle x,x \rangle}\sqrt{\langle y,y \rangle} \\ \\ & \text{Kihasználva a skalárszorzás tulajdonságait } (\langle y,x \rangle = \overline{\langle x,y \rangle}) \\ & \text{és a komplex számokét } (z + \bar{z} = 2\text{Re}(z)): \\ & 2\text{Re}(\langle x,y \rangle) \le 2\sqrt{\langle x,x \rangle}\sqrt{\langle y,y \rangle} \\ \\ & \text{Mivel } \text{Re}(z) \le |z|, \text{ ezért:} \\ & |\langle x,y \rangle| \le \sqrt{\langle x,x \rangle}\sqrt{\langle y,y \rangle} \\ \\ & \text{Ez viszont a C.S.B. egyenlőtlenség miatt igaz,} \\ & \text{így az állítást beláttuk.} \end{aligned}

P-normak

👨‍🏫: A Kn\mathbb{K}^n vektortereken van a normaknak egy kulonleges csaladja. Ezeket p-normaknak hivjuk (eleg beszedes elnevezes).:

xp=(i=1nxip)1p\|x\|_{p} = \left(\sum_{i=1}^{n} |x_{i}|^{p} \right)^{\frac{1}{p}}

Fontos megemliteni, hogy az allitas csak p1p \geq 1 -re ad valid normat. Nezd meg hogy mire egyszerusodik ha p=2,n=2 p=2, n=2 visszakapjuk a rendes sikon a tavolsag meresehez szokasosan hasznalt formulat. Mint ahogy sok mas dolog is amit idaig csinaltunk egyfajta kiterjesztese a megszokott fogalmainkrol. Az alabbi animacioban megnezheted, hogy hogy nez ki egy egysegkor ha a sikon a tavolsagot nem p=2 p = 2-es norma szerint mernenk.

🙋‍♂️: Na de hogyan bizonyitjuk, hogy ezek a p-normak valoban kielegitik a normak axiomait?

👨‍🏫: Az hogy a p-norma nem mehet nulla ala azt maga a p-norma definicioja biztositja. A skalar kiemelese is konnyeden belathato. Megint a haromszogegyenlotlenseg a nehezseg. Ehhez felhasznaljuk az un. Minkowski egyenlotlenseget ami azt mondja ki, hogy:

(i=1nxi+yip)1p(i=1nxip)1p+(i=1nyip)1p\left(\sum_{i=1}^{n} |x_{i} + y_{i}|^{p} \right)^{\frac{1}{p}} \leq \left(\sum_{i=1}^{n} |x_{i}|^{p} \right)^{\frac{1}{p}} + \left(\sum_{i=1}^{n} |y_{i}|^{p} \right)^{\frac{1}{p}}

amennyiben p1p \geq 1. Ebbol pedig kovetkezik, hogy a p-normak valodi normak.

🙋‍♂️: Mi tortenik ha p-vel tartunk a vegtelenbe?

👨‍🏫: Igen jo kerdes. Ha a pp tart vegtelen esetet vizsgaljuk akkor belathato hogy a kovetkezo formulat kapjuk:

x=max{x1,,xn}\|x\|_{\infty} = \max \{ |x_1|, \dots, |x_n| \}

Vektorok altal bezart szog

👨‍🏫: Ha emlekszel meg a C.S.B. egyenlotlensegnel belattuk, hogy x,y2x2y2|\langle x, y \rangle|^{2} \leq \|x\|^{2} \|y\|^{2} Rendezzuk at egy kicsit a dolgokat!

x,y2x2y211x,yxy1\begin{aligned} & \frac{ |\langle x, y \rangle|^{2} }{\|x\|^{2} \|y\|^{2}} \leq 1 \\ \\ & -1 \leq \frac{ |\langle x, y \rangle| }{\|x\| \|y\|} \leq 1 \end{aligned}

👨‍🏫: Emlekszel meg, hogy a kozepsuliban hogy definialtak a skalarszorzatot?

🙋‍♂️: Igen. Ket vektor skalarszorzata a vektorok hosszanak szorzata, es ezt meg megszorozzuk a ket vektor altal bezart szok koszinuszaval. Szoval valami ilyesmi kepletet kaptunk:

xy=xycos(α)x \cdot y = |x||y|cos(\alpha)

Varjunk csak ez tok hasonlo a fenti formulahoz. ha kicsit rendezgetunk.:

xyxy=cos(α)\frac{x \cdot y}{|x||y|} = cos(\alpha)

👨‍🏫: Oooo igen. Ha egy altalanos skalarszorzatos vektorteret nezunk akkor abban igy tudjuk definialni ket vektor altal bezart szoget. Egy fontos megjegyzest azert tennek. A kozepiskolabol ismert skalarszorzasos keplet definialasahoz hasznaltatok a ket vektor altal bezart szoget. most viszont pont forditva csinaljuk. egy skalarszorzatos vektorterben a szoget definialjuk a skalarszorzas felhasznalasaval.

Vektorrendszerek

👨‍🏫: Most egy kicsit egyes vektorrendszerekkel fogunk fouglalkozni es egy ket dologgal amit neha erdemes veluk csinalni. Legyen E=e1,e2enE = e_1, e_2 \dots e_n bazis a VV vektorterben, es fogjunk meg egy xVx \in V vektort. Mivel E vektorrendszer bazis volt igy a bazis definicioja miatt:

λ0,λ1,λn:λ0x+λ1e1++λnen=0,λi0,i0,1n\exists \lambda_0, \lambda_1, \dots \lambda_n : \lambda_0 x + \lambda_1 e_1 + \dots + \lambda_n e_n = 0 , \exists \lambda_i \neq 0, i \in {0, 1 \dots n}

Namarmost azt feltehetjuk, hogy x egyutthatoja nem nulla. Ebbol pedig az alabbi kovetkezik:

x=λ1λ0e1λ2λ0e2λnλ0enx = - \frac{\lambda_1}{\lambda_0} e_1 - \frac{\lambda_2}{\lambda_0} e_2 \dots - \frac{\lambda_n}{\lambda_0} e_n

Na de mit is jelent ez?

🙋‍♂️: xx -et fel tudjuk irni a bazisvektorok linearis kombinaciojakent?

👨‍🏫: Pontosan. Readasul az is igaz, hogy egyertelmuen tudjuk mindezt megtenni. Tehat nem lehet olyan, hogy egy vektort ugyanazokkal a bazisokkal kulonboz egyutthatokkal tudunk felirni. Az egyutthatok mindig egzertelmuek. Ennek a bizonyitasat rad hagyom.

Most pedig raterunk a vektorrendszereket erinto fogalmak bevezetesere. Ezek definiciok. Nagyjabol logikusak, de meg kell tanulni oket. Def. (vi)iI(v_i)_{i \in I} vektorrendszer …

  1. Ortogonális, ha:
i,jI-revi,vj=0haij\forall i, j \in I \text{-re} \quad \langle v_i, v_j \rangle = 0 \quad \text{ha} \quad i \neq j \quad
  1. Normalizált, ha:
iI-revi=1\forall i \in I \text{-re} \quad \|v_i\| = 1
  1. Ortonormált, ha:
i,jI-revi,vj=δij\forall i, j \in I \text{-re} \quad \langle v_i, v_j \rangle = \delta_{ij}
  1. Teljes, ha:
xV,iI-rex,vi=0x=0\forall x \in V, \forall i \in I \text{-re} \quad \quad \langle x, v_i \rangle = 0 \Rightarrow x = 0

Gram-Schmidt-ortogonalizacio

👨‍🏫: Jooooo. Na most, hogy megvoltak ezek a fogalmaink nemelyekkel kezdunk is valamit. Azt tudjuk, hogy ugyanazt a vektorteret neha tobbfele bazissal is leirhatjuk. Es azt is tudjuk, hogy ezek kozott a bazisrendszerek kozott bijekcio all fenn. Szoval peldaul a sikon sem csak az altalunk megszokott, jol ismert kis bazisainkkal tudunk dolgozni. Lehet peldaul olyan bazisunk ahol a ket bazisvektor nem meroleges egymasra, vagy nem egyseg hosszuak. De persze ettol meg ok is jo bazisok… Bar azert mi sokszor jobban szeretunk a megszokott kis egyseghosszu meroleges bazisvektorkainkkal dolgozgatni. Szoval ha nem ilyen bazist talalunk akkor azt neha kenyelmes attranszformalni. Erre ad nagyszeru eszkozt a Gram-Schmidt-ortogonalizacio. Nezzuk is meg, hogy mukodik!

G-S-O:Vegyunk egy vektorrendszert (v1,v2,,vn)Az elso˝ vektort egeˊszen beˊkeˊn hagyjuk.Csak levaˊgjuk egyseˊgvektorra.e1=v1v1e2=v2v2,e1e1v2v2,e1e1ek=vki=1k1vk,eieivki=1k1vk,eiei\begin{aligned} & \underline{\underline{\text{G-S-O}:}} \\ & \text{Vegyunk egy vektorrendszert } (v_1, v_2, \dots, v_n) \\ & \text{Az első vektort egészen békén hagyjuk.} \\ & \text{Csak levágjuk egységvektorra.} \\ & e_1 = \frac{v_1}{\|v_1\|} \\ & e_2 = \frac{v_2 - \langle v_2, e_1 \rangle e_1}{\| v_2 - \langle v_2, e_1 \rangle e_1 \|} \\ & e_k = \frac{v_k - \sum_{i=1}^{k-1} \langle v_k, e_i \rangle e_i}{\left\| v_k - \sum_{i=1}^{k-1} \langle v_k, e_i \rangle e_i \right\|} \end{aligned}

Es ezzel a folyamattal szepen vegigmegyunk az osszes vektoron a bazisban.

🙋‍♂️: Ha jol ertem nem csak ortogonalizalunk hanem normaljuk is a vektorainkat.

👨‍🏫: Igen, a nev nem emliti a normalast, de valoban. Igy kapunk az eredeti vektorrendszerbol egy olyat ami mar szep ortogonalis es normalt.

Vektorok kifelytese

👨‍🏫: Na hasznaljuk is ki, hogy tudunk szep kis ortonormalt bazist kesziteni. Legyen (ei)i=1,,n(e_i)_{i = 1, \dots, n} ONB (ortonormalt bazis). Nezzuk meg, hogy az ek e_k-hoz tartozo egyutthatot hogy tudjuk kifelyezni.

ek,x=ek,i=1nλieiMivel: x=i=1nλiei=i=1nλiek,eiδki=λkx=i=1nei,xei\begin{aligned} \langle e_k, x \rangle &= \left\langle e_k, \sum_{i=1}^n \lambda_i e_i \right\rangle \quad \text{Mivel: } x = \sum_{i=1}^n \lambda_i e_i \\ &= \sum_{i=1}^n \lambda_i \underbrace{\langle e_k, e_i \rangle}_{\delta_{ki}} = \lambda_k \\ \therefore \quad x &= \sum_{i=1}^n \langle e_i, x \rangle e_i \\[2em] \end{aligned}

Tehat xx-et igy is kifelyezhetjuk. Ha mar ezt tudjuk nezzunk meg ezzel egy erdekes altalanositast. Nem mast altalanositunk itt mint a pithagorasz tetelt. Kicsit matekozzunk es aztan ertelmezzuk, hogy mit kapunk!

x2=i=1nei,xei,  j=1nej,xej=i=1nei,xj=1nej,xei,ej=i,j=1nei,xej,xei,ejδij=i=1nei,x2\begin{aligned} \|x\|^2 &= \left\langle \sum_{i=1}^n \langle e_i, x \rangle e_i, \; \sum_{j=1}^n \langle e_j, x \rangle e_j \right\rangle \\ &= \sum_{i=1}^n \overline{\langle e_i, x \rangle} \sum_{j=1}^n \langle e_j, x \rangle \langle e_i, e_j \rangle \\ &= \sum_{i,j=1}^n \overline{\langle e_i, x \rangle} \langle e_j, x \rangle \underbrace{\langle e_i, e_j \rangle}_{\delta_{ij}} \\ &= \sum_{i=1}^n \left| \langle e_i, x \rangle \right|^2 \end{aligned}

👨‍🏫: Erted, hogy ez miert a pitagorasz tetel altalanositasa?

🙋‍♂️:Szerintem igen. Vegyuk a sikot a szokasos bazissal es skalarszorzassal. Ha ott elkepzelunk egy nyilacskat akkor annak a hossznegyzetet a kovetkezo keppen tudjuk kiszamolni.: Vegyuk a nyilacskanak az egyik bazisvektorra vett vetuletet, emeljuk negyzetre, jegyezzuk meg ezt a szamot. Most ugyanigy nezzuk meg a masik bazisvektorra vett vetuletet, ezt is emeljuk negyzetre es ezt a szamot is jegyezzuk meg. Most pedig ezt a ket szamot adjuk ossze. Ez igazabol a pitagorasz tetel. Es ugyan ezt csinaljuk most is csak tobb dimenzioban.

👨‍🏫: Nagyszeruuuu.

Linearis lekepezesek

👨‍🏫: Elerkeztunk a tananyag egyik legfontosabb temajahoz. A linearis lekepezesekhez. U,VU, V vektorterek. A:UVA: U \rightarrow V lekepezes linearis ha megfelel a kovetkezo ket kriteriumnak.:

1.x,yUA(x+y)=A(x)+A(y)2.xU,λKA(λx)=λA(x)1. \forall x, y \in U \quad A(x+y) = A(x) + A(y) \\ 2. \forall x \in U, \quad \forall \lambda \in \mathbb{K} \quad A(\lambda x) = \lambda A(x)

Jo igazabol meg az is kell, hogy Dom(A)=UDom(A) = U. Tehat ha egy transzformalo masinanak kepzeljuk el akkor ez pluszban annyit tesz, hogy “legyszi minden vektort hadd tudjak benyomni a masinaba”. Tudsz esetleg olyan lekepezest ami megfelelhet ezeknek a szabalyoknak?

🙋‍♂️: Talan az origo koruli forgatas α\alpha szoggel.

👨‍🏫: Igen ez megfelelo. Peldaul a plinomok teren mondjuk jo meg a derivalas is vagy az indegralas korlatos zart intervallumon. Emellett ha mondjuk a szoki 3D-s terbol levetitesz az xyxy sikra az is egy linearis lekepezes. De akar meg az is linearis lekepezes hogy nem csinalok semmit. Tehat A:VV,A(x)=xA: V \rightarrow V, A(x) = x Ezt amugy identitasnak hivjuk.

🙋‍♂️: Meno.

👨‍🏫: Na jo. Folytassuk. Mi lenne ha megneznenk a linearis lekepezesek halmazat. Ezt valahogy formalisan igy irhatnank le.: L(U,V)={A:UV:Alinearis}L(U, V) = \{A: U \rightarrow V : A \quad \text{linearis} \} Definialjuk ket A,BL(U,V)A, B \in L(U, V) linearis lekepezes osszeadasat es sakalrral valo szorzasaat λK\lambda \in \mathbb{K} kovetkezo modon. (uU)(u \in U):

1.(A+B)(u)=A(u)+B(u)2.(λA)(u)=λA(u)1. (A + B)(u) = A(u) + B(u) \\ 2. (\lambda A)(u) = \lambda A(u)

Most, hogy mar tudhunk ket linearis lekepezest osszeadni, es linearis lekepezest skalarral szorozni, belathatjuk, hogy L(U,V)L(U, V) vektorteret alkot. Mi most csak csak az osszeadas es a skalarral valo szorzas zartsagat fogjuk belatni. E vektorter tobbi axiomaja abbol kovetkezik, hogy VV maga is egy vekorter es igy a benne lako vekorokra igazak a vektorter axiomai (itt kihasznaljuk, hogy A(x)VA(x) \in V). Na gyerunk!

(A+B)(λx+y)=A(λx+y)+B(λx+y)=λA(x)+A(y)+λB(x)+B(y)=λ[A(x)+B(x)]+A(y)+B(y)=λ(A+B)(x)+(A+B)(y)(ηA)(λx+y)=η(A(λx+y))=ηλA(x)+ηA(y)=λ(ηA)(x)+(ηA)(y)najo lassuk be a tobbit is: 1. Kommutativitaˊs(A+B)(x)=A(x)+B(x)B(x)+A(x)=(B+A)(x)2. Asszociativitaˊs(A+(B+C))(x)=A(x)+(B+C)(x)=A(x)+(B(x)+C(x))(A+B)(x)+C(x)=((A+B)+C)(x)3. 0 elemO(x)=0V(A+O)(x)=A(x)+O(x)=A(x)+0V=A(x)4. Inverzlegyen (A)(x)=(A(x))(A+(A))(x)=A(x)+(A)(x)A(x)A(x)=05. (1A)(x)=1A(x)=A(x)6. (λ(A+B))(x)=λ(A+B)(x)=λA(x)+λB(x)=(λA+λB)(x)7. ((λ+μ)A)(x)=(λ+μ)A(x)=λA(x)+μA(x)(λA)(x)+(μA)(x)=(λA+μA)(x)8. ((λμ)A)(x)=(λμ)A(x)=λ(μA(x))=λ(μA)(x) \begin{aligned} (A+B)(\lambda x + y) &= A(\lambda x + y) + B(\lambda x + y) \\ &= \lambda A(x) + A(y) + \lambda B(x) + B(y) \\ &= \lambda \big[ A(x) + B(x) \big] + A(y) + B(y) \\ &= \lambda (A+B)(x) + (A+B)(y) \\[3em] (\eta \cdot A)(\lambda x + y) &= \eta \big( A(\lambda x + y) \big) \\ &= \eta \cdot \lambda A(x) + \eta \cdot A(y) \\ &= \lambda \cdot (\eta A)(x) + (\eta A)(y) \\ \text{najo lassuk be a tobbit is: }\\ \\ & \text{1. Kommutativitás} \\ (A+B)(x) &= A(x) + B(x) \\ B(x) + A(x) &= (B+A)(x) \\[1em] & \text{2. Asszociativitás} \\ (A+(B+C))(x) &= A(x) + (B+C)(x) = A(x) + (B(x) + C(x)) \\ (A+B)(x) + C(x) &= ((A+B)+C)(x) \\[1em] & \text{3. } 0 \text{ elem} \quad O(x) = 0_V \\ (A+O)(x) &= A(x) + O(x) \\ &= A(x) + 0_V = A(x) \\[1em] & \text{4. Inverz} \\ \text{legyen } (-A)(x) &= -(A(x)) \\ (A+(-A))(x) &= A(x) + (-A)(x) \\ A(x) - A(x) &= 0 \\[1em] & \text{5. } (1 \cdot A)(x) = 1 \cdot A(x) = A(x) \\[1em] & \text{6. } (\lambda(A+B))(x) = \\ \lambda \cdot (A+B)(x) &= \lambda A(x) + \lambda B(x) \\ &= (\lambda A + \lambda B)(x) \\[1em] & \text{7. } ((\lambda + \mu)A)(x) = \\ (\lambda + \mu) \cdot A(x) &= \lambda A(x) + \mu A(x) \\ (\lambda A)(x) + (\mu A)(x) &= (\lambda A + \mu A)(x) \\[1em] & \text{8. } ((\lambda \mu)A)(x) = (\lambda \mu) A(x) \\ &= \lambda (\mu \cdot A(x)) = \lambda (\mu A)(x) \end{aligned}

🙋‍♂️: Hmm… Hat ez mar megint eleg absztrakt. Ez a linearis lekepezes valmi fuggvany szeruseg ami megeszik egy UU-ban lako vektort es kikop egy VV -ben lako vektort, es annyit tudunk, hogy igaz ra 2 szabaly, hogy linearis legyen?

👨‍🏫: Kb. igen.

🙋‍♂️: Es ezzel hogy szamolunk? A rendes fuggvenyeknel meg volt legalbb adva valami fomula amibol ki tudtuk kovetkeztetni, hogy ha egy tetszoleges bemenetet etetunk meg a fuggvennyel akkor mit fog kikopni. Itt most nincs ilyen?

👨‍🏫: Szerencsenk van. Lehet ilyen formula szeruseget konstrualni a linearis lekepezesekbol. (Most kivetelesen az absztraktabb fogalombol csinalunk foldhozragadtabbat.) Ha emlekszel az nn dimenzios UU vektorterben, ahol (ei)i{1,n} (e_i)_{i \in \{1, \dots n\}} bazis egy xUx \in U vektort fel tudtunk irni a kovetkezo keppen.:

x=α1e1+α2e2++αnenx = \alpha_1 e_1 + \alpha_2 e_2 + \dots + \alpha_n e_n

Na akkor most hattassuk a linearis lekepezest xx-en.:

A(x)=(α1e1+α2e2++αnen)A(x)=α1A(e1)+α2A(e2)++αnA(en)A(x) = (\alpha_1 e_1 + \alpha_2 e_2 + \dots + \alpha_n e_n) \\ \\ \quad \\ A(x) = \alpha_1 A (e_1) + \alpha_2 A (e_2) + \dots + \alpha_n A (e_n) \\

Tehat ahhoz, hogy megtudjuk, hogy a linearis lekepezes mit csinal xx-el, eleg tudjuk, hogy mit csinal a bazisvektorokkal, mivel az αi\alpha_i egyutthatok nem valtoznak a trafo soran. Gyors kerdes. Melyik vektorterben van Az A(ei)A(e_i) vektor, ha AL(U,V) A \in L(U, V)?

?

Melyik vektorterben van Az A(e_i) vektor?

👨‍🏫: Azt mondtuk, hogy az UU vektorter nn dimenzios. Legyen VV vektorter mm dimenzios. Most, hogy mar tudjuk, hogy igazabol A(ei)A(e_i) egy VV beli vektor, mit mondhatunk el A(ei)A(e_i)-rol?

🙋‍♂️: Hat akkor A(ei)A(e_i)-t is fel lehet bontani VV beli bazisok linearkombinaciojara. Ha VV-ben (fj)j{1,m} (f_j)_{j \in \{1, \dots m\}} bazis akkor:

A(ei)=γ1,if1+γ2,if2++γm,ifmA(e_i) = \gamma_{1,i} f_1 + \gamma_{2,i} f_2 + \dots +\gamma_{m,i} f_m

👨‍🏫: Kiraly. Most lazan fogalmazva fogok csinalni egy tablazatot. Fogom minden ii-re az altalad felirt kepletet A(ei)A(e_i)-nek. Es a γ\gamma-s egyutthatokat berendezem egymas ala egy oszlopba. Most nem torodok az osszeadassal, es azzal sem hogy ott vannak az fjf_j vektorok. Szimplan csinalok a γ\gamma egyutthatokbol egy oszlopvektort, es ezt megcsinalom minden ii-re, aztan az oszlopvektoraimat egymas melle teszem. Igy valami ilyesmit kapok.:

[A]=[A(e1)A(e2)A(en)][A]=[γ1,1γ1,2γ1,nγ2,1γ2,2γ2,nγm,1γm,2γm,n]\begin{aligned} [A] &= \left[ \begin{array}{cccc} \mid & \mid & & \mid \\ A(e_1) & A(e_2) & \dots & A(e_n) \\ \mid & \mid & & \mid \end{array} \right] \\[2em] \\ [A] &= \begin{bmatrix} \gamma_{1,1} & \gamma_{1,2} & \dots & \gamma_{1,n} \\ \gamma_{2,1} & \gamma_{2,2} & \dots & \gamma_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ \gamma_{m,1} & \gamma_{m,2} & \dots & \gamma_{m,n} \end{bmatrix} \end{aligned}

A γ\gamma-k helyett Aj,iA_{j,i} betuket fogok hasznalni (Vigyazat ha indexelve van akkor az a egy skalar, index enlkul pedig magat a linearis lekepzest ertem).

[A]=[A1,1A1,2A1,nA2,1A2,2A2,nAm,1Am,2Am,n]\begin{aligned} [A] &= \begin{bmatrix} A_{1,1} & A_{1,2} & \dots & A_{1,n} \\ A_{2,1} & A_{2,2} & \dots & A_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ A_{m,1} & A_{m,2} & \dots & A_{m,n} \end{bmatrix} \end{aligned}

Igy megalkottuk Az AA linearis lekepezes matrixat. A [ ][\space] jeloli, hogy ez mar egy matrix.

🙋‍♂️: Szoval most onkenyesen csinaltunk egy tablazatot abbol, hogy az UU-ban levo bazisokkal mit csinal a linearis lekpezes. Miert jo ez nekunk, es miert pont igy rendeztuk el a tablazatunkat.

👨‍🏫: Igen ez igy elsore talan nem egyertelmu. A rovid valasz az, hogy ha majd vlamilyen manipulaciokat vegzunk az AA linearis lekepezessel (pl.: meg akarjuk nezni hogy mi tortenik ha ket lin. lekepezest hattatunk kompoziciokent) akkor ez a megfeleltetes lesz kenyelmes, igy fognak szepen kijonni a dolgok. Azt is szoktak mondani, hogy a

👨‍🏫: Meg annyit erdemes megemliteni, hogy igazabol amit csinaltunk az annyi volt, hogy felhasznaltuk, hogy UU izomorf Kn\mathbb{K}^n -el es VV izomorf Km\mathbb{K}^m -el. Tehat Valasztunk UU -ban es VV -ben is egy-egy bazist. Igy mukodik az izomorfizmus tehat vehetjuk ugy is, hogy

Muveletek matrixokkal

3D Transzformáció (Bónusz)

Próbáld ki a transzformációkat 3D-ben is Spongyabobon! Kattints ide a 3D szimuláció megtekintéséhez

Osszeadas, skalarral szorzas

👨‍🏫: Menjunk tovabb, es nezegessuk meg, hogy milyen muveleteket tudunk vegrehajtani linearis lekepzesek matrixaval. Eloszor nezzuk meg ket matrix osszeadasat es skalarral valo szorzasat. Van otleted hogy, hogyan adunk ossze ket matrixot?

🙋‍♂️: Szamomra az lenne az intuitiv, ha elemenkent osszeadnank. Szorzasnal pedik minden elemet megszoroznank a kivant sakalarral.

👨‍🏫: Jo otlet. Valoban igy definialjuk matrixok osszeadasat es skalarral valo szorzasat. Egy dologra azert megis figyelnunk kell az osszeadasnal. Mi lehet ez?

?

Mire kell figyeljunk matrixok osszeadasanal?

🙋‍♂️: Miert nem eleg, hogy ha ugyanolyan a ket matrix alakja. Ekkor ossze tudom oket adni, nem?

👨‍🏫: Igen, formalisan ossze lehet oket adni, de ha arra gondolsz hogy hogyan definialtuk a linearis lekepezesek osszeadasat akkor vilagossa valik a dolog. (A+B)(v)=A(v)+B(v)(A + B)(v) = A(v) + B(v) Ha az AA es a BB lin. lekepezes mas vektorterbe kepez akkor A(v)+B(v)A(v) + B(v) nem definialt. Na meg persze ha a lin. lekepezesek ertekkeszletekent szolgalo vektorterek is masak akkor meg nehezen tudjak a lin. lekepezesek “megenni” ugyanazt a VV vektort. Kicsit olyan ez mintha az 5 m/s-ot szeretned lehuteni. Vagy ossze akarnal adni 6kg-ot 4 oraval. Nincs igazan ertleme a dolognak.

👨‍🏫: Tehat ha van A,B:UVA, B : U \rightarrow V lin. lekepezesunk es λK\lambda \in \mathbb{K} skalarunk akkor a kovetkezok igazak, AA es BB matrixaira:

([A]+[B])ij=[A]ij+[B]ij(λ[A])ij=λ[A]ij([A] + [B])_{ij} = [A]_{ij} + [B]_{ij}\\ \quad\\ (\lambda [A])_{ij} = \lambda [A]_{ij}

Tehat valoban komponensenkent vegezzuk el a matrixok osszeadasat es skalarral valo szorzasat.

Matrixok szorzasa

👨‍🏫: Szerinted, hogy kell ket matrixot osszeszorozni?

🙋‍♂️: Hat gondolom az elso matrix (i,j)(i,j)-ik elemet osszeszorzom a masodik matrix (i,j)(i,j) elemevel es ez lesz az uj matrix erteke az (i,j)(i,j)-ik helyen.

👨‍🏫: Igen ez nem egy rossz gondolat, de nem igy definialjuk a matrixszorzast. Ket matrix szorzatat a hozzajuk tartozo linearis lekepezesek kompoziciojanak matrixakent definialunk. Ez igy eslore bonyolultnak tunhet, de nezzuk meg a bizonyitast!

Legyenek adottak a következő terek és bázisok: U:u1,,unU: u_1, \dots, u_n V:v1,,vmV: v_1, \dots, v_m W:w1,,wlW: w_1, \dots, w_l

És a leképezések: B:UVB: U \to V A:VWA: V \to W

A célunk meghatározni az (AB)(A \circ B) kompozíció mátrixát. Induljunk ki egy tetszőleges xUx \in U vektorból:

x=i=1nxiuix = \sum_{i=1}^n x_i u_i

Hassunk rá a kompozícióval:

(AB)(x)=A(B(x))=A(B(i=1nxiui))\begin{aligned} (A \circ B)(x) &= A(B(x)) \\ &= A\left( B\left( \sum_{i=1}^n x_i u_i \right) \right) \end{aligned}

Használjuk ki a BB linearitását:

A(i=1nxiB(ui))A\left( \sum_{i=1}^n x_i B(u_i) \right)

Tudjuk, hogy B(ui)B(u_i) kifejezhető a VV bázisvektoraival (ez a BB mátrixának definíciója): B(ui)=j=1mBjivjB(u_i) = \sum_{j=1}^m B_{ji} v_j

Helyettesítsük be:

A(i=1nxi[j=1mBjivj])A\left( \sum_{i=1}^n x_i \left[ \sum_{j=1}^m B_{ji} v_j \right] \right)

Most használjuk ki az AA linearitását:

i=1nxij=1mBjiA(vj)\sum_{i=1}^n x_i \sum_{j=1}^m B_{ji} A(v_j)

Végül fejtsük ki A(vj)A(v_j)-t a WW bázisvektoraival: A(vj)=k=1lAkjwkA(v_j) = \sum_{k=1}^l A_{kj} w_k

i=1nxij=1mBji(k=1lAkjwk)\sum_{i=1}^n x_i \sum_{j=1}^m B_{ji} \left( \sum_{k=1}^l A_{kj} w_k \right)

Rendezzük át az összegeket, hogy lássuk az új, kompozícióhoz tartozó mátrixot (ami xix_i-ből csinál együtthatót wkw_k-hoz):

i=1nxik=1l(j=1mAkjBji)(AB)kiwk\sum_{i=1}^n x_i \sum_{k=1}^l \underbrace{\left( \sum_{j=1}^m A_{kj} B_{ji} \right)}_{ (AB)_{ki} } w_k

👨‍🏫: Látod a zárójeles részt? j=1mAkjBji\sum_{j=1}^m A_{kj} B_{ji}. Ez pontosan azt jelenti, hogy az eredmény (ABAB) mátrix kk-adik sorának és ii-edik oszlopának metszéspontjában lévő elemét úgy kapjuk, hogy az AA kk-adik sorát skalárisan szorozzuk a BB ii-edik oszlopával. Innen jön a “sor-szor-oszlop” szabály!

👨‍🏫: Na nezzunk meg erre egy kezzel foghato peldat!

[1234][0110]=?\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \cdot \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} = ?

Számold ki a fenti mátrixszorzás eredményét!

Na nezzunk meg meg egy matrixot!

[157931][3402]\begin{bmatrix} 1 & 5 \\ 7 & 9 \\ 3 & 1 \end{bmatrix} \cdot \begin{bmatrix} -3 & 4 \\ 0 & -2 \end{bmatrix}

Számold ki a fenti mátrixszorzás eredményét!

👨‍🏫: Most hogy rajottunk, hogy ket matrixot nem elemenkent szorzunk ossze hanem a fent megkapott szabaly szerint, mit gondolsz kommutativ-e a matrixszorzas?

🙋‍♂️: Hmm nemtudom. Nezzunk meg egy peldat.

[1234][5678]=[19224350]ugyanez forditva:[5678][1234]=[23343146]\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \cdot \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} = \begin{bmatrix} 19 & 22 \\ 43 & 50 \end{bmatrix} \\ \quad \\ \text{ugyanez forditva:} \\ \quad \\ \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} \cdot \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} = \begin{bmatrix} 23 & 34 \\ 31 & 46 \end{bmatrix}

🙋‍♂️: Ugy tunik, hogy nem ugyan azt az eredmenyt kaptuk, erdekes. Szoval a matrix szorzas nem kommutativ.

👨‍🏫: Nagyon joo. A matrix szorzas valoban nem feltetlen kommutativ. Ugyes modszer volt amit csinaltal. Sokszor amikor valaminek a tulajdonsagait vizsgaljuk erdemes kiprobalni azt a tulajdonsagot egy peldan. És ha mar csak egy példán nem müködik, már akkor általánosan nem igaz az adott tulajdonság. Adok viszont egy trukkosebb feladatot. Korabban mar belattuk, hogy R^2ben egy 2×2es matrix a sik transzformaciojanak felel meg. Igy be tudnad-e latni geometriai ervelessel, hogy a matrixszorzas nem feltetlen kommutativ?

🙋‍♂️: Vegyunk a sikon a (3,0) pontot es mondjuk szinezzuk pirosra. Vegyuk a (0,2) pontot es szinezzuk sargara. Most vegyunk ket linearis lekepzest. Az egyik (B) forgasson pozitiv iranyba 90 fokkal a pozitiv iranyba, a masik (A) pedig vetitsen az x tengelyre. Ha eloszor hattatjuk A-t aztan B-t akkor a sarga pont az origoba kerul a piros pedig fel, ha viszont forditva hattatjuk eloszor B-t aztan A-t akkor a piros pont lesz az origoban a sarga pont pedig bal oldalon.

👨‍🏫: Eleg ugyes. Annyit kell meg belatni hogy ezek a transzformaciok linearisak. De ez a definiciobol konnyen kikovetkeztetheto. Meg annyit hozzateszek, hogy ha a matrixaink nem n×n-esek akkor még nyilvánvalóbban látszik, hogy nem ugyan az lesz az eredménye a mátrixszorzásnak. Gondold ezt végig!

👨‍🏫: Nézd meg a spongebobos szimulacion a kep kozepet. Allitgass a transzformalo matrixokon es nezd meg hogy hova kerul a kep kozepe.

🙋‍♂️: Ugy tunik egy helyben marad. De ez világos is mivel ha a nullvektort kifejtjuk egy bázisban akkor minden egyuttható nulla lesz. Így ha beszorozzuk egy mátrixal akkor az eredmény is nulla lesz.

👨‍🏫: Nagyon jo. Vagy ugy is ervelhetsz hogy ha A egy linearis lekepezes akkor A(0) = A(0+0) = A(0) + A(0) → 0 = A(0) Thát minden lin. Lekepezes a 0-t a 0-ba viszi. Na de mi van ha nem csak a null vektort viszi a nullaba a lekepezes. Erre bevezetunk egy fogalmat amit a kesobbiekben sokat fogunk hasznalni. Ezt a fogalmat magternek vagy kernelnek hivjuk. (A:UV,lin.)(A: U \rightarrow V, \text{lin.}):

Ker(A)={uUA(u)=0} Ker(A) = \{u \in U \quad | \quad A(u) = 0 \}

👨‍🏫: Szoval igazabol azoknak az U beli vektoroknak a halmaza amiket a lekepezes nullaba visz.

🙋‍♂️: Ahaaa… és mi van akkor ha egy lin. lekepzessel akarhogy probalkozunk nem tudjuk elérni mindegyik pontjat annak a vektorternek ahova kepezunk.? Ilyen van?

👨‍🏫: Oo igen. Van ilyen. Kepzelj el egy kicsit szokatlan lekepezest ami a sikrol kepez a terre.

[100110]\begin{bmatrix} 1 & 0 \\ 0 & 1 \\ 1 & 0 \end{bmatrix}

Es a lin lekepezes matrixa megadhato ebben a formaban. Ha megprobalunk minden vektort az U vektorterbol a V vektorterbe kepezni, milyen alakzatot kapunk V-ben? Nyugodtan gondolkozz rajta egy kicsit!

🙋‍♂️: Szerintem egy síkot ami atmegy az origon es ha az xz sikbol nezzuk akkor egy 1 meredeksegu egyenest kapunk.

👨‍🏫: Cool. Tehat valoban nem mindig “telitjuk be” a lin lekepezes “erkezo” vektorteret. Ezert bevezetunk egy uj fogalmat, a lin. lekepezes kepteret. A magter definiciojat mar ismered, tudnal erre mondani egy jo definiciot?

🙋‍♂️:Szerintem valami ilyesmi lehet:

Ran(A)={vVuUA(u)=v} Ran(A) = \{ v \in V \quad | \quad \exists u \in U A(u) = v \}

👨‍🏫: Szuper ez helyes. Azt mondtuk, hogy kepTER, magTER. Most lassuk be, hogy valoban lin. alterek a Ker(A) es Ran(A) halmazok!

Asszociatív algebra

👨‍🏫: Emlékszel még arra amikor definiáltuk a skalárszorzást egy vektortéren? Eredetileg a vektortér elemeit csak összeadni tudtuk, meg skalárral szorozni (jo persze volt inverz meg ilyesmik). Zavart, hogy nem tudtunk összeszorozni két vektort. Így bevezettünk egy olyan függvényt ami megeszik két vektort és kiköp egy skalárt. Ez már egész jó! Bár azért még mindig zavar, hogy nem tudunk két vektort összeszorozni úgy, hogy egy harmadik vektort kapjunk.

🙋‍♂️: De várjunk az n×nn \times n -es mátrixok vektorteret alkotnak, és mátrixokat tudunk összeszorozni. Akkor ha jól értem akkor vannak vektorterek ahol már autómatikusan működik a vektorok szorzása.

👨‍🏫: Pontosan. Nagyon jó meglátás! Ha megfigyeljük az nxn-es mátrixok szorzására vonatkozó jellemzőket a következőket kapjuk: A, B, C mátrixok λμ\lambda \mu skalárok

  1. A(BC)=(AB)CA(BC) = (AB)C
  2. A(B+C)=AB+ACA(B + C) = AB + AC
  3. (A+B)C=AC+BC(A + B)C = AC + BC
  4. (λA)(μB)=(λμ)(AB)(\lambda A) (\mu B) = (\lambda \mu) (AB)

Namármost nem csak a mátrixokra lehetnek igazak ezek a szabályok. Ha egy vektortér elemeire igazak a fönti szabályok akkor azt mondhatjuk, hogy a vektortér elemei egy asszociatív algebrát alkotnak. Általában kis betűvel írjuk a vektorokat, így a szabályok egy asszociatív algebra létezéséhez:

  1. a(bc)=(ab)ca(bc) = (ab)c
  2. a(b+c)=ab+aca(b + c) = ab + ac
  3. (a+b)c=ac+bc(a + b)c = ac + bc
  4. (λa)(μb)=(λμ)(ab)(\lambda a) (\mu b) = (\lambda \mu) (ab) (ha a,b,cV\forall a, b, c \in V és λ,μK \forall \lambda, \mu \in \mathbb{K} skalárra igazak a szabályok)
?

Az alábbi három közül mi nem alkot asszociatív algebrát?

👨‍🏫: Ha visszatekintünk a mátrixok szorzására egyes n×nn \times n mátrixoknak volt egy elég fontos tulajdonsága. Emlékszel mi volt ez?

🙋‍♂️:Hmmm… Ha egy mátrixnak nem zérus volt a determinánsa akkor invertálható volt, ha jól emlékszem.

👨‍🏫:Nagyon jóó. Ha visszaemlékezünk A1A^{-1} az AA mátrix inverze volt ha A1A=AA1=IA^{-1}A = AA^{-1} = I Ahol II az n×nn \times n -es identitásmátrix volt.

Viszont ahhoz, hogy invertáljunk kell az algebránkba egységelem. Azokat az asszociatív algebrákat amiben ilyen van azt egységelemes asszociatív algebrának hívjuk (nagyon meglepő). Általában az egységelemet ee-vel jelöljük. Az AA egységelemes algebrára teljesülnie kell, hogy: ae=ea=a:aAae = ea = a : \forall a \in A Na mostmár definiálhatjuk az inverzet! aAa \in A invertálható, ha: a1A:a1a=aa1=e\exists a^{-1} \in A : a^{-1}a = aa^{-1} = e

Vigyázat az, hogy létezik egységelem az algebránkban nem jelenti azt, hogy feltétlen minden eleme az algebránknak invertálható! Nézd például a következő mátrixot: B=[2222]B = \begin{bmatrix} 2 & 2\\ 2 & 2 \end{bmatrix}

Asszociatív algebra spektruma

Egy egységelemes asszociatív algebrának létezik spektruma is. Az algebra egy aa elemének a spktruma azoknak a skalároknak a halmaza amikre nem létezik inverze aλea - \lambda e-nak:

sp(a)={λK:(aλe)1}sp(a) = \{ \lambda \in \mathbb{K} : \nexists (a - \lambda e)^{-1} \}

Valahol már láttunk hasonlót. Ismerős ez valahonnét?

🙋‍♂️:Sajnos nem.

👨‍🏫:Ha visszaemlékszünk a sajátérték számításra, ott valami ilyesmi képletünk volt: λ\lambda sajátértéke AA-nak, ha det(AλI)=0det(A - \lambda I) = 0

🙋‍♂️:Aaa, mostmár értem. Ha nem létezik (aλe)(a - \lambda e)-nek inverze az a mátrixok nyelvén azzal egyenértékű, hogy det(AλI)=0det(A - \lambda I) = 0 Mivel ha egy mátrixnak a determinánsa 00 az azt jelenti, hogy a mátrix nem invertálható (és vica verza).

👨‍🏫:Igen, a mátrixoknál valóban a spektrum egyenértékű a sajátértékek halmazával (végtelen dimenzióban már nem csak a sajátértékekből áll a spektrum, de ez most nem fontos).

Jacobson-lemma:

👨‍🏫:Oooookes, most megnézünk mengint egy kicsit absztraktabb állítást. Igérem lesz kicsit földhöz ragadtabb következménye ami hasznunkra válhat.

Így nagy vonalakban az állítás arról szól, hogy ha van egy egységelemes algebránk akkor aminek két eleme a és b, akkor ab spektruma nem nagyon különbözik ba spektrumától. Ez kicsit preciízebben.:

Van egy AA egységelemes (ee) algebránk. Ahol a,bAa, b \in A. Ekkor:

sp(ab){0}=sp(ba){0}sp(ab) \cup \{0\} = sp(ba) \cup \{0\}

Najó próbáljuk meg belátni ezt az állítást.

Legyen λσ(ab),λK,λ0Legyen c:=(abλe)1TFH. (baλe)1=αe+βbca(where α,βK)Ahhoz hogy a felteˊtel teljesu¨ljo¨n: (baλe)(αe+βbca)=eKibontva:αba+βbabcaλαeλβbca=eVaˊlasszuk meg α eˊrteˊkeˊt:λα=1    α=1λe-vel egyszeru˝sıˊtve:αba+βbabcaλβbca=0b(αe+βabcβλc)a=0b(αe+β(abλe)c)a=0Mivel (abλe)c=e:b(αe+βe)a=0legyen:β=1λb(0)a=00=0Ezzel az aˊllıˊtaˊst belaˊttuk az egyik iraˊnyba.Maˊsik iraˊny felteˊtele: (αe+βbca)(baλe)=eKibontva:αbaλαe+βbcabaβλbca=ea eˊrteˊkeˊt megvaˊlasztva:λα=1    α=1λEgyszeru˝sıˊtve:αba+βbcabaβλbca=0b(αe+βcabβλc)a=0b(αe+βc(abλe))a=0Mivel:c=(abλe)1, we have c(abλe)=e:b(αe+βe)a=0legyen:β=1λb(0)a=0Ezzel az aˊllıˊtaˊst belaˊttuk a maˊsik iraˊnyba is.\begin{aligned} & \text{Legyen } \lambda \notin \sigma(ab), \quad \lambda \in \mathbb{K}, \lambda \neq 0 \\ & \text{Legyen } c := (ab - \lambda e)^{-1} \\ & \text{TFH. } (ba - \lambda e)^{-1} = \alpha e + \beta bca \quad (\text{where } \alpha, \beta \in \mathbb{K}) \\ \\ & \text{Ahhoz hogy a feltétel teljesüljön: } (ba - \lambda e)(\alpha e + \beta bca) = e \\ \\ & \text{Kibontva:} \\ & \alpha ba + \beta babca - \lambda \alpha e - \lambda \beta bca = e \\ \\ & \text{Válasszuk meg } \alpha \text{ értékét:} \\ & -\lambda \alpha = 1 \implies \alpha = -\frac{1}{\lambda} \\ \\ & e\text{-vel egyszerűsítve:} \\ & \alpha ba + \beta babca - \lambda \beta bca = 0 \\ & b (\alpha e + \beta abc - \beta \lambda c) a = 0 \\ & b \left( \alpha e + \beta (ab - \lambda e)c \right) a = 0 \\ \\ & \text{Mivel } (ab - \lambda e)c = e: \\ & b (\alpha e + \beta e) a = 0 \\ \\ & \text{legyen:} \beta = \frac{1}{\lambda} \\ & b (0) a = 0 \\ & 0 = 0 \\ & \text{Ezzel az állítást beláttuk az egyik irányba.}\\ \\ & \text{Másik irány feltétele: } (\alpha e + \beta bca)(ba - \lambda e) = e \\ \\ & \text{Kibontva:} \\ & \alpha ba - \lambda \alpha e + \beta bcaba - \beta \lambda bca = e \\ \\ & a\text{ értékét megválasztva:} \\ & -\lambda \alpha = 1 \implies \alpha = -\frac{1}{\lambda} \\ \\ & \text{Egyszerűsítve:} \\ & \alpha ba + \beta bcaba - \beta \lambda bca = 0 \\ & b (\alpha e + \beta cab - \beta \lambda c) a = 0 \\ & b \left( \alpha e + \beta c(ab - \lambda e) \right) a = 0 \\ \\ & \text{Mivel:} \\ & c = (ab - \lambda e)^{-1}, \text{ we have } c(ab - \lambda e) = e: \\ & b (\alpha e + \beta e) a = 0 \\ \\ & \text{legyen:}\beta = \frac{1}{\lambda}\\ & b (0) a = 0 \\ & \text{Ezzel az állítást beláttuk a másik irányba is.}\\ \end{aligned}

👨‍🏫: Ez a tétel és a hozzá tartozó levezetés talán kicsit absztraktnak tűnhet, de van ennek a tételnek egy hasznos következménye. Igaz-e az hogy ha van két n×nn \times n-es mátrixunk: A,BA, B akkor: AB=BAAB = BA ?

?

Mi a válasz a fönti kérdésre?

👨‍🏫: Pontosan. A mátrixszorzás nem feltétlen kommutatív. A Jacobson-lemma miatt viszont beláthatjuk, hogy sp(AB)=sp(BA)sp(AB) = sp(BA) ha A,Bn×nA, B \in n \times n-es mátrix. Ez elég menőőő. Habár A és B szorzata nem feltétlen kommutatív, a spektrumuk azonos. Tehát a sajátértékeik megegyeznek. Lássuk ezt be gyorsan:

Legyen A,BRn×n maˊtrix.Legyen λsp(AB).1. Ha λ0:A Jacobson-lemma miatt: λsp(BA).2. Ha λ=0:Azt koraˊbbroˊl tudjuk, hogy: det(AB)=i=1nλiTehaˊt ha leˊtezik egy λ ami nulla, akkor: det(AB)=0.De azt is tudjuk, hogy: det(AB)=det(A)det(B)=det(BA).Tehaˊt: det(BA)=0    λsp(BA).\begin{aligned} & \text{Legyen } A, B \in \mathbb{R}^{n \times n} \text{ mátrix.} \\ & \text{Legyen } \lambda \in sp(AB). \\ \\ & 1. \text{ Ha } \lambda \neq 0: \\ & \quad \text{A Jacobson-lemma miatt: } \lambda \in sp(BA). \\ \\ & 2. \text{ Ha } \lambda = 0: \\ & \quad \text{Azt korábbról tudjuk, hogy: } \det(AB) = \prod_{i=1}^n \lambda_i \\ & \quad \text{Tehát ha létezik egy } \lambda \text{ ami nulla, akkor: } \det(AB) = 0. \\ & \quad \text{De azt is tudjuk, hogy: } \det(AB) = \det(A)\det(B) = \det(BA). \\ & \quad \text{Tehát: } \det(BA) = 0 \implies \lambda \in sp(BA). \end{aligned}

Spektralfelbontas