Artikel

5.1: Lineare Transformationen - Mathematik

5.1: Lineare Transformationen - Mathematik



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Lernziele

  1. Verstehen Sie die Definition einer linearen Transformation und dass alle linearen Transformationen durch Matrixmultiplikation bestimmt werden.

Denken Sie daran, dass, wenn wir eine (m imes n)-Matrix mit einem (n imes 1)-Spaltenvektor multiplizieren, das Ergebnis ein (m imes 1)-Spaltenvektor ist. In diesem Abschnitt werden wir diskutieren, wie durch Matrixmultiplikation eine (m imes n)-Matrix verwandelt sich einen (n imes 1) Spaltenvektor in einen (m imes 1) Spaltenvektor.

Denken Sie daran, dass der (n imes 1)-Vektor gegeben ist durch [vec{x} = left [ egin{array}{r} x_1 x_2 vdots x_n end{array} right ] onumber] gehört zu (mathbb{R}^n), das ist die Menge aller (n imes 1) Vektoren. In diesem Abschnitt besprechen wir Transformationen von Vektoren in (mathbb{R}^n.)

Betrachten Sie das folgende Beispiel.

Beispiel (PageIndex{1}): Eine Funktion, die Vektoren transformiert

Betrachten Sie die Matrix (A = left [ egin{array}{ccc} 1 & 2 & 0 2 & 1 & 0 end{array} ight ] .) Zeigen Sie, dass durch Matrixmultiplikation (A ) wandelt Vektoren in (mathbb{R}^3) in Vektoren in (mathbb{R}^2) um.

Lösung

Denken Sie zunächst daran, dass Vektoren in (mathbb{R}^3) Vektoren der Größe (3 imes 1) sind, während Vektoren in (mathbb{R}^{2}) die Größe (2 mal 1). Wenn wir (A), was eine (2 imes 3)-Matrix ist, mit einem (3 imes 1)-Vektor multiplizieren, ist das Ergebnis ein (2 imes 1)-Vektor. Das meinen wir, wenn wir sagen, dass (A) verwandelt sich Vektoren.

Nun, für (left [ egin{array}{c} x y z end{array} ight ]) in (mathbb{R}^3) , multipliziere links durch die gegebene Matrix, um den neuen Vektor zu erhalten. Dieses Produkt sieht aus wie [left [ egin{array}{rrr} 1 & 2 & 0 2 & 1 & 0 end{array} ight ] left [ egin{array}{r} x y z end{array} ight ] = left [ egin{array}{c} x+2y 2x+y end{array} ight ] onumber ] Das resultierende Produkt ist a (2 imes 1) Vektor, der durch die Wahl von (x) und (y) bestimmt wird. Hier sind einige Zahlenbeispiele. [left [ egin{array}{ccc} 1 & 2 & 0 2 & 1 & 0 end{array} ight ] left [ egin{array}{c} 1 2 3 end{array} ight ] = left [ egin{array}{c} 5 4 end{array} ight ] onumber ] Hier ist der Vektor (left [ egin{ array}{c} 1 2 3 end{array} ight ]) in (mathbb{R}^3) wurde durch die Matrix in den Vektor (left [ egin{ array}{c} 5 4 end{array} ight ]) in (mathbb{R}^2).

Hier ist ein weiteres Beispiel: [left [ egin{array}{rrr} 1 & 2 & 0 2 & 1 & 0 end{array} ight ] left [ egin{array}{r} 10 5 -3 end{array} ight ] = left [ egin{array}{r} 20 25 end{array} ight ] onumber ]

Die Idee ist, eine Funktion zu definieren, die Vektoren in (mathbb{R}^{3}) nimmt und neue Vektoren in (mathbb{R}^{2}) liefert. In diesem Fall ist diese Funktion Multiplikation mit der Matrix (A).

Sei (T) eine solche Funktion. Die Notation (T:mathbb{R}^{n}mapsto mathbb{R}^{m}) bedeutet, dass die Funktion (T) Vektoren in (mathbb{R}^{n }) in Vektoren in (mathbb{R}^{m}). Die Notation (T(vec{x})) bedeutet die auf den Vektor (vec{x}) angewendete Transformation (T). Das obige Beispiel demonstrierte eine Transformation, die durch Matrixmultiplikation erreicht wurde. In diesem Fall schreiben wir oft [T_{A}left(vec{x} ight) =A vec{x} onumber] Daher ist (T_{A}) die Transformation bestimmt durch die Matrix (A). In diesem Fall sagen wir, dass (T) eine Matrixtransformation ist.

Erinnern Sie sich an die Eigenschaft der Matrixmultiplikation, die besagt, dass für (k)- und (p)-Skalare [Aleft( kB+pC ight) =kAB+pAC onumber] Insbesondere für (A ) eine (m imes n)-Matrix und (B) und (C,)(n imes 1) Vektoren in (mathbb{R}^{n}), this Formel gilt.

Mit anderen Worten bedeutet dies, dass die Matrixmultiplikation ein Beispiel für eine lineare Transformation liefert, die wir nun definieren.

Definition (PageIndex{1}): Lineare Transformation

Sei (T:mathbb{R}^{n}mapstomathbb{R}^{m}) eine Funktion, wobei für jedes (vec{x}inmathbb{R}^{ n},Tleft(vec{x} ight)inmathbb{R}^{m}.) Dann ist (T) a lineare Transformation wenn immer (k,p) Skalare und (vec{x}_1) und (vec{x}_2) Vektoren in (mathbb{R}^{n}) sind (( n imes 1) Vektoren(),) [Tleft( kvec{x}_1 + pvec{x}_2 ight) = kTleft(vec{x}_1 ight)+ pTleft(vec{x}_{2} ight) onumber]

Betrachten Sie das folgende Beispiel.

Beispiel (PageIndex{2}): Lineare Transformation

Sei (T) eine Transformation definiert durch (T:mathbb{R}^3 omathbb{R}^2) ist definiert durch [Tleft [egin{array}{c} x y z end{array} ight ] = left [egin{array}{c} x+y xz end{array} ight ] mbox{ für alle } left [ egin{array}{c} x y z end{array} ight ] inmathbb{R}^3 onumber] Zeigen Sie, dass (T) eine lineare Transformation ist.

Lösung

Nach Definition (PageIndex{1}) müssen wir zeigen, dass (Tleft( k vec{x}_1 + p vec{x}_2 ight) = kTleft(vec{x} _1 ight)+ pTleft(vec{x}_{2} ight)) für alle Skalare (k,p) und Vektoren (vec{x}_1, vec{x}_2 ). Sei [vec{x}_1 = left [egin{array}{c} x_1 y_1 z_1 end{array} ight ], vec{x}_2 = left [egin{ array}{c} x_2 y_2 z_2 end{array} ight ] onumber ] Dann [egin{aligned} Tleft( k vec{x}_1 + p vec{x} _2 ight) &=& T left( k left [egin{array}{c} x_1 y_1 z_1 end{array} ight ] + p left [egin{array}{c } x_2 y_2 z_2 end{array} ight ] ight) &=& T left( left [egin{array}{c} kx_1 ky_1 kz_1 end{array } ight ] + left [egin{array}{c} px_2 py_2 pz_2 end{array} ight ] ight) &=& T left( left [egin{array }{c} kx_1 + px_2 ky_1 + py_2 kz_1 + pz_2 end{array} ight ] ight) &=& left [egin{array}{c} (kx_1 + px_2) + (ky_1 + py_2) (kx_1 + px_2)- (kz_1 + pz_2) end{array} ight ] &=& left [egin{array}{c} (kx_1 + ky_1) + (px_2 + py_2) (kx_1 - kz_1) + (px_2 - pz_2) end{array} ight ] &=& left [egin{array}{c} kx_1 + ky_1 kx_1 - kz_1 end {array} ight] + left [ egin{array}{c} px_2 + py_2 px_2 - pz_2 end{array} ight ] &=& k left [egin{array}{c} x_1 + y_1 x_1 - z_1 end{array} ight ] + p left [ egin {array}{c} x_2 + y_2 x_2 - z_2 end{array} ight ] &=& k T(vec{x}_1) + p T(vec{x}_2) end {ausgerichtet} onumber] Daher ist (T) eine lineare Transformation.

Zwei wichtige Beispiele für lineare Transformationen sind die Nulltransformation und die Identitätstransformation. Die Nulltransformation definiert durch (Tleft(vec{x} ight) = vec(0)) für alle (vec{x}) ist ein Beispiel für eine lineare Transformation. In ähnlicher Weise ist auch die durch (Tleft(vec{x} ight) = vec(x)) definierte Identitätstransformation linear. Nehmen Sie sich die Zeit, diese mit der in Beispiel (PageIndex{2}) demonstrierten Methode zu beweisen.

Wir begannen diesen Abschnitt mit der Diskussion von Matrixtransformationen, bei denen die Multiplikation mit einer Matrix Vektoren transformiert. Diese Matrixtransformationen sind tatsächlich lineare Transformationen.

Satz (PageIndex{1}): Matrixtransformationen sind lineare Transformationen

Sei (T:mathbb{R}^{n}mapstomathbb{R}^{m}) eine Transformation definiert durch (T(vec{x}) = Avec{x} ). Dann ist (T) eine lineare Transformation.

Es stellt sich heraus, dass jede lineare Transformation als Matrixtransformation ausgedrückt werden kann, und somit sind lineare Transformationen genau dasselbe wie Matrixtransformationen.


5.1: Lineare Transformationen - Mathematik

Angenommen, $M$ ist eine lineare Transformation, die mit zweidimensionalen Vektoren arbeitet.

Unter Berufung auf die Linearität von $M$ sehen wir, dass

Wir können denselben Prozess anwenden, um die Ausgabe jeder linearen Transformation zu finden, die mit zweidimensionalen Vektoren arbeitet, vorausgesetzt, wir wissen, was die lineare Transformation mit $egin . macht1Ende$ und $egin01Ende$.

Daher können wir den obigen Prozess abkürzen, indem wir $M$ als Matrix schreiben und $Megin . auswerten-68ende$ wie folgt:

Wir wissen, dass wir die Matrixform für eine lineare Transformation $T$ auf zweidimensionalen Vektoren finden können, wenn wir die Ausgabe von $Tegin . kennen1Ende$ und $Tegin01Ende$. Was ist, wenn wir die Ausgabe von $T$ kennen, wenn sie auf andere Vektoren angewendet wird? Können wir noch die Matrixform von $T$ finden? Finden Sie die Matrixform für $T$, wenn die folgenden Fakten bekannt sind:

Zeigen Sie, dass, wenn $F$ und $G$ lineare Transformationen sind, die mit zweidimensionalen Vektoren arbeiten, die Matrixdarstellung von $F-G$ wie folgt gegeben ist:

Angenommen, $F$ ist eine lineare Transformation, die mit dreidimensionalen Vektoren arbeitet. Nehmen wir die Konvention an, solche Transformationen $F$ als Matrizen in der folgenden Form zu schreiben

Verwenden Sie die Linearität von $F$, um $Fegin . zu bestimmenxyzend$.

Wenn $F$ und $G$ die folgenden linearen Transformationen sind, die mit dreidimensionalen Vektoren arbeiten, finden Sie die Matrixdarstellung ihrer Summe und Zusammensetzung.

Verwenden Sie die oben gefundenen Matrixdarstellungen, um die Matrixdarstellung der folgenden beiden linearen Transformationen zu finden.

Angenommen, $F$ dreht zweidimensionale Vektoren um $ heta$ Grad gegen den Uhrzeigersinn um den Ursprung. Überzeugen Sie sich davon, dass $F$ eine lineare Transformation ist, und finden Sie dann ihre Matrixdarstellung. Verwenden Sie schließlich diese Matrix, um zwei Vektoren Ihrer Wahl um $25^$ zu drehen.

Wir sollten uns davon überzeugen, dass eine Drehung um $ heta$ Grad tatsächlich eine lineare Transformation ist, bevor wir fortfahren. Treffen beide Eigenschaften einer linearen Transformation zu? Denken Sie daran, dass $F$ genau dann eine lineare Transformation (operiert mit Vektoren) ist, wenn für alle Skalare $c$ und Vektoren $ar$ und $ar$ wir haben:

Wir sollten uns also fragen:

Wenn wir einen Vektor $ar . strecken$ zuerst um den Faktor $c$ und dann im Uhrzeigersinn um $ heta^$ gedreht, ist das Ergebnis das gleiche wie das Drehen des Vektors $ar$ zuerst und dann um den Faktor $c$ gedehnt?

Wenn wir zwei Vektoren $ar . addieren$ und $ar$ (normalerweise "head-to-tail") und drehen dann den Vektor, der ihre Summe darstellt, ist das gleiche Ergebnis wie beim ersten Rotieren der einzelnen Vektoren $ar$ und $ar$ und dann zusammenzählen?

Geometrisch sollten wir beide Fragen schnell mit „Ja“ beantworten können. Daher können wir uns nun darauf konzentrieren, eine Matrixform für eine solche lineare Transformation zu finden. Angenommen, wir möchten, dass unsere Matrix Vektoren um $25^$ gegen den Uhrzeigersinn dreht. Denken Sie daran, dass die erste und zweite Spalte der Matrixform für eine lineare Transformation (auf 2-dimensionalen Vektoren) angeben, was diese Transformation mit den Vektoren $egin . macht1Ende$ und $egin01Ende$ bzw.

Wenn unsere Transformation eine Drehung um 25 Grad gegen den Uhrzeigersinn ist, beachten Sie, dass

$egin1Ende ightarrow egin cos 25^circ sin 25^circend quad extrm quad egin01Ende ightarrow egin-sin 25^circ cos 25^circ end$

Als solche ist die gesuchte Matrixform:

$egin cos 25^circ & -sin 25^circ sin 25^circ& cos 25^circend$

Nach einer ähnlichen Logik ist die Matrixform für eine Drehung gegen den Uhrzeigersinn um einen beliebigen Winkel $ heta$ gegeben durch

$egin cos heta & -sin heta sin heta & cos heta end$

Mit der gefundenen Rotationsmatrix ist das Drehen eines bestimmten Vektors einfach.

Angenommen, wir wollen den Vektor $egin . drehen34Ende$ um $25^circ$. Wir finden einfach

$egin cos 25^circ & -sin 25^circ sin 25^circ& cos 25^circend Start34Ende = egin3cos 25^circ - 4 sin 25^circ 3 sin 25^circ + 4 cos 25^circ end ungefähr egin1.0284.893Ende$


5.1: Lineare Transformationen - Mathematik

Dies ist die studiengangsweite Webseite. Bitte konsultieren Sie die Webseite Ihres Abschnitts für weitere Informationen.

Studierende, die eine Überschreibung benötigen, um sich in den Kurs einzuschreiben, wenden sich bitte an den Kursleiter Weimin Chen [email protected] mit folgenden Informationen: (1) Kursabschnitte, die mit anderen Kursen aus Ihrem Studienplan kollidieren, und (2 ) bevorzugter Studienabschnitt. (Um die Ausgewogenheit der Abschnitte zu gewährleisten, können wir Ihnen leider nicht garantieren, dass Sie Ihrem bevorzugten Abschnitt zugeordnet werden.)


Lehrbuch und Online-Hausaufgaben

Der Kurstext ist Lineare Algebra und ihre Anwendungen (5. Auflage) von David Lay, Steven Lay und Judi McDonald.

Für diesen Kurs ist MyMathLab erforderlich. Eine elektronische Kopie des Lehrbuchs ist in Ihrem Kauf von MyMathLab enthalten. Gehen Sie zu www.mymathlab.com (Link) und verwenden Sie die Kurs-ID für Ihren eigenen Abschnitt (von Ihrem Kursleiter bereitgestellt).

Online-Hausaufgaben und Quiz werden von Ihrem Lehrer über MyMathLab zugewiesen.


Lehrplan und Wochenplan

Dies ist ein Einführungskurs in die lineare Algebra, der lineare Gleichungssysteme, Matrizen, lineare Transformationen, Determinanten, Vektorräume, Eigenwerte und Eigenvektoren sowie Orthogonalität behandelt.

Der folgende Stundenplan enthält die Themen aus dem Kurstext, die jede Woche behandelt werden sollen. (Dies ist nur eine Richtlinie und kann von Ihrem Lehrer bei Bedarf geändert werden.)


1/20--1/24: 1.1 Lineare Gleichungssysteme 1.2 Reihenreduktion und Stufenformen 1.3 Vektorgleichungen.

1/27--1/31: 1.3 (Fortsetzung) 1.4 Die Matrixgleichung Ax=b 1.5 Lösungsmengen linearer Systeme.

2/3--2/7: 1.7 Lineare Unabhängigkeit 1.8 Einführung in lineare Transformationen.

2/10--2/14: 1.9 Die Matrix einer linearen Transformation 2.1 Matrixoperationen.

2/17--2/21: 2.2 Die Inverse einer Matrix 2.3 Charakterisierungen invertierbarer Matrizen.

24.02.-28.02.: 3.1 Einführung in die Determinanten 3.2 Eigenschaften von Determinanten.

3/2--3/6: 3.2 (Fortsetzung) 3.3 Cramersche Regel, Volumen und lineare Transformationen 4.1 Vektorräume und Unterräume.

3/9--3/13: 4.2 Nullräume, Spaltenräume und lineare Transformationen 4.3 Linear unabhängige Mengen und Basen.

23.03.-3/27: 4.4 Koordinatensysteme 4.5 Die Dimension eines Vektorraums.

3/30--4/3: 4.6 Rang 5.1 Eigenvektoren und Eigenwerte.

4/6--4/10: 5.1 (Fortsetzung) 5.2 Die charakteristische Gleichung.

4/13--4/17: 5.3 Diagonalisierung 5.5 Komplexe Eigenwerte.

4/20--4/24: 6.1 Inneres Produkt, Länge und Orthogonalität 6.2 Orthogonale Sets, 6.3 Orthogonale Projektionen.

27.04.–4.29.: 6,3 (Fortsetzung), 6,4 Der Gram-Schmidt-Prozess.

Es gibt zwei Zwischenprüfungen und eine Abschlussprüfung. Hier finden Sie vergangene Prüfungen.

Sie dürfen ein Blatt mit 8,5 x 11 Zoll Notizen (beide Seiten) verwenden. Taschenrechner und das Lehrbuch sind nicht an den Prüfungen erlaubt. Sie sollten zu jeder Prüfung Ihren Studierendenausweis (UCard) mitbringen.

Wenn Sie einen dokumentierten Konflikt für eine der Prüfungen haben, müssen Sie zur Ablegung der Nachholprüfung der Lehrveranstaltungsleiterin Weimin Chen [email protected] mindestens eine Woche schriftlich für eine Zwischenprüfung und mindestens zwei Wochen schriftlich zur Abschlussprüfung. Andere Nachholprüfungen (zB wegen medizinischer Notfälle) werden von Ihrem Sektionsleiter durchgeführt. Nachholprüfungen werden nicht gegeben werden, um Reiseplänen Rechnung zu tragen.

Das erste Midterm findet am Donnerstag, den 27.02.20 von 19:00 bis 21:00 Uhr an folgenden Orten statt:

Abschnitte 1,3,9 (Montezuma, Colmenarejo, Simonetti). HASA0020
Abschnitte 2,4,5 (Montezuma, Oblomkov, Simone). MAH0108
Abschnitte 6,7,8 (Chen, Mirkovic, Li) ISB0135

Der Lehrplan für das erste Halbjahr besteht aus den folgenden Abschnitten des Lehrbuchs: 1.1, 1.2, 1.3, 1.4, 1.5, 1.7, 1.8, 1.9, 2.1.

Bitte bearbeiten Sie die Übungsprüfung hier. Die Lösungen der Übungsprüfung finden Sie hier.

Das zweite Midterm findet am Donnerstag, den 09.04.20, 19:00-21:00 Uhr, an den Standorten TBA . statt

Der Lehrplan für das zweite Halbjahr besteht aus den folgenden Abschnitten des Lehrbuchs: 2.2, 2.3, 3.1, 3.2, 3.3, 4.1, 4.2, 4.3, 4.4, 4.5.

Datum, Uhrzeit und Ort der Abschlussprüfung sind TBA der Hochschule.

Ihre Kursnote wird wie folgt berechnet: Erste Zwischenprüfung 25 % Zweite Zwischenprüfung 25 % Abschlussprüfung 25 % Hausaufgaben, Quiz und Teilnahme am Unterricht 25 % (wird von Ihrem Sektionsleiter festgelegt).

Die Noten werden den Kursprozentsätzen nach folgender Skala zugeordnet:

A: 90--100
A-: 87--89
B+: 84--86
B: 80--83
B-: 77--79
C+: 74--76
C: 70--73
C-: 67 - 69
D+ : 64 -- 66
D : 57 -- 63
F : 0 -- 56


Erklärung zur Unterkunftspolitik

UMass Amherst setzt sich dafür ein, allen Schülern gleiche Bildungschancen zu bieten. Ein Student mit einer dokumentierten körperlichen, psychischen oder Lernbehinderung, die beim Behindertenservice hinterlegt ist, kann Anspruch auf eine akademische Unterbringung haben, um ihm beim Erfolg in diesem Kurs zu helfen. Wenn Sie eine nachgewiesene Behinderung haben, die eine Unterkunft erfordert, informieren Sie bitte Ihren Dozenten in den ersten zwei Wochen des Semesters, damit wir entsprechende Vorkehrungen treffen können.


Akademische Ehrlichkeitserklärung

Da die Integrität des akademischen Unternehmens jeder Hochschule Ehrlichkeit in Wissenschaft und Forschung erfordert, wird akademische Ehrlichkeit von allen Studenten an der University of Massachusetts Amherst verlangt. Wissenschaftliche Unehrlichkeit ist in allen Studiengängen der Universität verboten. Akademische Unehrlichkeit umfasst, ist aber nicht beschränkt auf: Betrug, Erfindung, Plagiate und die Förderung von Unehrlichkeit. Angemessene Sanktionen können gegen jeden Studenten verhängt werden, der eine wissenschaftliche Unehrlichkeit begangen hat. Lehrende sollten angemessene Schritte unternehmen, um wissenschaftliches Fehlverhalten zu bekämpfen. Jede Person, die Grund zu der Annahme hat, dass ein Student eine akademische Unehrlichkeit begangen hat, sollte die entsprechenden Informationen so schnell wie möglich dem zuständigen Kursleiter zur Kenntnis bringen. Fälle von wissenschaftlicher Unehrlichkeit, die sich nicht auf einen bestimmten Studiengang beziehen, sollten dem zuständigen Abteilungsleiter oder Lehrstuhl zur Kenntnis gebracht werden. Da von den Studierenden erwartet wird, dass sie mit dieser Richtlinie und den allgemein anerkannten Standards der akademischen Integrität vertraut sind, ist die Unkenntnis dieser Standards normalerweise kein ausreichender Beweis für mangelnde Absicht (http://www.umass.edu/dean_students/codeofconduct/acadhonesty/) .


Gen. Ed. Anweisung für Math 235

MATH 235 ist ein Allgemeinbildungskurs mit drei Kreditpunkten, der die allgemeinen Bildungsanforderungen R1 (Mathematische Grundkenntnisse) und R2 (Analytisches Denken) für den Abschluss erfüllt.

Das General Education Program an der University of Massachusetts Amherst bietet Studenten eine einzigartige Gelegenheit, kritisches Denken, Kommunikations- und Lernfähigkeiten zu entwickeln, von denen sie ein Leben lang profitieren. Weitere Informationen zum General Education Program finden Sie auf der GenEd-Webseite.

Lernergebnisse für alle allgemeinbildenden Kurse:

Math 235 erfüllt die folgenden allgemeinen Bildungsziele:

Inhalt: Grundlegende Fragen, Ideen und Untersuchungsmethoden der Mathematik kennen: Die Studierenden lernen, lineare Systeme, Transformationen und Räume mit Hilfe von Matrizen zu analysieren. Beim Erlernen der Linearen Algebra entwickeln die Schüler abstrakte Denkfähigkeiten, um höherdimensionale Systeme und Räume zu verstehen, die wir nicht direkt visualisieren können.

Kritisches Denken: Die Schüler demonstrieren kreatives, analytisches, quantitatives und kritisches Denken durch Untersuchung, Problemlösung und Synthese: Die Schüler werden Fähigkeiten des kritischen Denkens einsetzen, um die Theorie der Matrizen und der linearen Systeme, Transformationen und Räume, die sie repräsentieren, zu entwickeln und zu verstehen. sowie Computerkenntnisse, um diese Matrizen effizient zu analysieren.

Kommunikation: Informations- und Technologiekompetenz entwickeln: Die Studierenden entwickeln ihre Schreibfähigkeiten, indem sie ihre Argumentation der durchgeführten Berechnungen artikulieren und während des Kurses formale Beweise schreiben.

Demonstrieren Sie die Fähigkeit, disziplinäre Perspektiven und Analysemethoden auf Probleme der realen Welt (die größere Gesellschaft) oder andere Kontexte anzuwenden: Reale und theoretische Anwendungen in allen Bereichen können in der Linearen Algebra durch Matrizen dargestellt oder geschätzt werden. Die Studierenden lernen logische und rechnerische Methoden zur Analyse dieser Matrizen kennen.

Lernergebnisse für die Bezeichnungen R1 und R2:

Da Math 235 grundlegende mathematische Fähigkeiten voraussetzt, trägt es die Bezeichnung für die Anforderung „Basic Math Skills“ (R1). Darüber hinaus erfüllt der Kurs die folgenden Ziele der Anforderung Analytisches Denken (R2):

Verbessern Sie die formalen oder mathematischen Denkfähigkeiten eines Schülers über das Niveau der Grundkompetenz hinaus: Beim Erlernen der Linearen Algebra in Mathematik 235 werden die Schüler kritisch denken und ihre mathematischen Denkfähigkeiten verbessern, indem sie Matrizen und die linearen Systeme, Transformationen und Räume analysieren, die sie darstellen.

Steigern Sie die Fähigkeiten des Schülers als Verbraucher numerischer Informationen: Lineare Algebra bietet eine effiziente und dennoch abstrakte Möglichkeit, numerische Informationen aus Konzepten der Mathematik zu analysieren. Anwendungen in allen Bereichen können durch Matrizen dargestellt oder geschätzt werden. Die Studierenden werden diese Verbindungen zwischen mathematischen Theorien und linearer Algebra herstellen sowie Methoden innerhalb der linearen Algebra erlernen, um verwandte formale Berechnungen durchzuführen.


Vorlesungsnotizen für Math 3410, mit Rechenbeispielen

Erinnern wir uns an Beispiel 2.1.3 in Kapitel 2, dass wir für jede (m imes n) Matrix (A ext<,>) die Matrixtransformation (T_A:R^n o R^ m) durch (T_A(xx)=Axx ext<,>) wobei wir (xxinR^n) als (nmal 1) Spaltenvektor betrachten.

Umgekehrt sei eine beliebige lineare Abbildung (T:R^n o R^m ext<,>) gegeben, wenn (asis) bezeichne die Standardbasis von (R^n ext<,>) dann die Matrix

Wir haben bereits diskutiert, dass diese Idee verallgemeinert: Bei einer linearen Transformation (T:V o W ext<,>) wobei (V) und (W) endlichdimensionale Vektorräume sind, ist es ist es möglich, (T) als Matrixtransformation darzustellen.

Die Darstellung hängt von der Wahl der Basen sowohl für (V) als auch für (W ext<.>) ab. Erinnern Sie sich an die Definition des Koeffizientenisomorphismus aus Definition 2.3.4 in Abschnitt 2.3. Wenn (dim V=n) und (dim W=m ext<,>) sind, erhalten wir Isomorphismen (C_B:V o R^n) und (C_D:W o R^m) je nach Wahl einer Basis (B) für (V) und einer Basis (D) für (W ext<.>) Diese Isomorphismen definieren eine Matrixtransformation (T_A:R^n o R^m) gemäß dem Diagramm, das wir in Abbildung 2.3.5 gegeben haben.

Wir sollten jedoch einen wichtigen Punkt bezüglich des Koeffizientenisomorphismus hervorheben. Es kommt auf die Wahl der Basis an, aber auch auf die Auftrag der Basiselemente. Daher arbeiten wir in der Regel mit einem bestellte Basis in diesem Kapitel. Das heißt, wir betrachten unsere Basis nicht einfach als Menge, sondern als geordnete Liste. Ordnung ist wichtig, da gegeben eine Basis (B=asis ext<,>) verlassen wir uns darauf, dass wir jeden Vektor (vv) eindeutig schreiben können als

um die Zuweisung (C_B(vv) = bm c_1vdots c_nebm ext<.>) zu machen

Aufgabe 5.1.1.

Zeigen Sie, dass der Koeffizienten-Isomorphismus tatsächlich ein linearer Isomorphismus von (V) nach (R^n ext<.>) ist.

Es ist klar, dass (C_B(mathbf<0>)=mathbf<0> ext<,>) die einzige Möglichkeit ist, den Nullvektor in (V) in Bezug auf (B) ( oder tatsächlich jede unabhängige Menge) besteht darin, alle Skalare gleich Null zu setzen.

Haben wir zwei Vektoren (vv,ww) gegeben durch

Schließlich gilt für jeden Skalar (c ext<,>)

Dies zeigt, dass (C_B) linear ist. Um zu sehen, dass (C_B) ein Isomorphismus ist, können wir einfach beachten, dass (C_B) die Basis (B) zur Standardbasis von (R^n ext<.>) bringt. wir können die Umkehrung angeben: (C_B^<-1>:R^n o V) ist gegeben durch

Gegeben (T:V o W) und Koeffizientenisomorphismen (C_B:V o R^n, C_D:W o R^m ext<,>) ist die Abbildung (C_DTC_B^<- 1>:R^n o R^m) ist eine lineare Transformation, und die Matrix dieser Transformation gibt eine Darstellung von (T ext<.>) Explizit sei (B = asis) sei eine geordnete Basis für (V ext<,>) und sei (D=asis) sei eine geordnete Basis für (W ext<.>) Da (T(vv_i)in W) für jedes (vv_iin B ext<,>) eindeutige Skalare gibt (ein_ ext<,>) mit (1leq ileq m) und (1leq jleq n) so dass

für (j=1,ldots, n ext<.>) Damit erhalten wir die (m imes n)-Matrix (A = [a_] ext<.>) Beachten Sie, dass die erste Spalte von (A) (C_D(T(vv_1)) ext<,>) ist, die zweite Spalte (C_D(T(vv_2) ) ext<,>) und so weiter.

Gegeben (xxin V ext<,>) schreibe (xx = c_1vv_1+cdots + c_nvv_n ext<,>) so dass (C_B(xx) = bm c_1 vdots c_nebm ext<.>) Dann

Somit sehen wir (C_DT = T_AC_B ext<,>) oder (T_A = C_DTC_B^<-1> ext<,>) wie erwartet.

Definition 5.1.2 . Die Matrix (M_(T)) einer linearen Abbildung.

Seien (V) und (W) endlichdimensionale Vektorräume und (T:V o W) eine lineare Abbildung. Sei (B=asis) und (D=asis) geordnete Basen für (V) bzw. (W ext<,>). Dann die_(T)) von (T) bezüglich der Basen (B) und (D) ist definiert durch

Mit anderen Worten, (A=M_(T)) ist die eindeutige (m imes n)-Matrix mit (C_DT = T_AC_B ext<.>) Daraus ergibt sich die definierende Eigenschaft

wie oben gezeigt wurde.

Aufgabe 5.1.3.

Angenommen (T:P_2(R) o R^2) ist gegeben durch

Berechnen Sie die Matrix von (T) bezüglich der Basen (B = <1,1-x,(1-x)^2>) von (P_2(R)) und ( D = <(1,0),(1,-1)>) von (R^2 ext<.>)

Wenn wir die Matrix einer Transformation in Bezug auf eine nicht standardmäßige Basis berechnen, müssen wir uns keine Gedanken darüber machen, wie Vektoren in Bezug auf diese Basis in die Domäne geschrieben werden. Stattdessen fügen wir einfach die Basisvektoren in die Transformation ein und bestimmen dann, wie die Ausgabe in Bezug auf die Basis der Kodomäne geschrieben wird. Aber wenn wir wollen benutzen diese Matrix, um Werte von (T:V o W ext<,>) zu berechnen, dann brauchen wir eine systematische Methode, um Elemente von (V) in Bezug auf die gegebene Basis zu schreiben.

Beispiel 5.1.4 . Arbeiten mit der Matrix einer Transformation.

Sei (T:P_2(R) o R^2) eine lineare Transformation, deren Matrix gegeben ist durch

bezüglich der geordneten Basen (B = <1+x, 2-x, 2x+x^2>) von (P_2(R)) und (D = <(0,1 ),(-1,1)>) von (R^2 ext<.>) Bestimme den Wert von (T(2+3x-4x^2) ext<.>)

Wir müssen die Eingabe (2+3x-4x^2) in Bezug auf die Basis (B ext<.>) schreiben. Dies führt zur Lösung des Gleichungssystems gegeben durch

Natürlich können wir dieses System leicht einrichten und lösen, aber versuchen wir, systematisch vorzugehen und ein nützlicheres Ergebnis für zukünftige Probleme zu erhalten. Da wir leicht bestimmen können, wie man jedes Polynom in Bezug auf die Standardbasis (<1,x,x^2> ext<,>) schreibt, genügt es zu wissen, wie man diese drei Polynome in Bezug auf unsere . schreibt Basis.

Das scheint zunächst mehr Arbeit zu sein. Immerhin haben wir jetzt drei Systeme zu lösen:

Alle drei Systeme haben jedoch dieselbe Koeffizientenmatrix, sodass wir sie gleichzeitig lösen können, indem wir unserer erweiterten Matrix drei „Konstanten“-Spalten hinzufügen.

Aber dies ist genau die erweiterte Matrix, die wir finden würden, wenn wir versuchen würden, die Inverse der Matrix zu finden

deren Spalten die Koeffizientendarstellungen unserer gegebenen Basisvektoren in Bezug auf die Standardbasis sind.

Wir berechnen (unter Verwendung der Sage-Zelle unten), dass

Diese Matrix konvertiert zuerst den Koeffizientenvektor für ein Polynom (p(x)) bezüglich der Standardbasis in den Koeffizientenvektor für unsere gegebene Basis (B ext<,>) und multipliziert dann mit der Matrix, die unsere . darstellt Transformation. Das Ergebnis ist der Koeffizientenvektor für (T(p(x))) bezogen auf die Basis (D ext<.>)

Das Polynom (p(x) = 2+3x-4x^2) hat den Koeffizientenvektor (bm 23-4ebm) bezüglich der Standardbasis. Wir finden, dass (M(T)P^<-1>bm 23-4ebm = bm 12-10ebm ext<.>) Die Koeffizienten (12 ) und (-10) sind die Koeffizienten von (T(p(x))) bezüglich der Basis (D ext<.>)

Beachten Sie, dass wir im letzten Schritt die „vereinfachte“ Antwort ((10,2) ext<,>) gegeben haben, die hauptsächlich dadurch vereinfacht wird, dass sie in Bezug auf die Standardbasis ausgedrückt wird.

Beachten Sie, dass wir auch die Matrix (Q = bm 0amp -11amp 1ebm) einführen können, deren Spalten die Koeffizientenvektoren der Vektoren in der Basis (D) bezüglich der Standardbasis. Die Multiplikation mit (Q) bewirkt eine Umwandlung von Koeffizienten bezüglich (D) in einen Koeffizientenvektor bezüglich der Standardbasis. Wir können dann eine neue Matrix (hat(T) = QM(T)P^<-1> ext<>) diese neue Matrix ist nun die Matrixdarstellung von (T) bezüglich der Standard Basen von (P_2(R)) und (R^2 ext<.>) Wir prüfen, dass

Wir finden, dass ( ilde(T) = bm 1amp 0amp -2amp 2amp 1ebm ext<.>) Damit können wir bestimmen, dass für ein allgemeines Polynom (p(x) = a+ bx+cx^2 ext<,>)

und deshalb muss unsere ursprüngliche Transformation gewesen sein

Das vorherige Beispiel veranschaulichte einige wichtige Beobachtungen, die im Allgemeinen zutreffen. Den allgemeinen Beweis geben wir nicht, aber wir fassen die Ergebnisse in einem Satz zusammen.

Satz 5.1.5 .

Angenommen (T:V o W) ist eine lineare Transformation und (M_0 = M_(T)) ist die Matrix von (T) mit Bezug auf die Basen (B_0) von (V) und (D_0) von (W ext<.>) Sei (B_1 =Basis) und (D_1asis) sei eine beliebige andere Basis für (V) bzw. (W ext<,>). Lassen

Matrizen sein, deren Spalten die Koeffizientenvektoren der Vektoren in (B_1,D_1) bezüglich (B_0,D_0 ext<.>) sind. Dann ist die Matrix von (T) bezüglich der Basen ( B_1) und (D_1) ist

Die Beziehung zwischen den verschiedenen Karten ist in Abbildung 5.1.6 unten dargestellt. In dieser Figur sind die Abbildungen (V o V) und (W o W) die Identitätsabbildungen, die der Darstellung desselben Vektors in Bezug auf zwei verschiedene Basen entsprechen. Die vertikalen Pfeile sind die Koeffizientenisomorphismen (C_,C_,C_,C_ ext<.>)

Abbildung 5.1.6. Diagrammmatrix einer Transformation in Bezug auf zwei verschiedene Basisoptionen

Allgemein wenden wir Satz 5.1.5 für den Fall an, dass (B_0,D_0) die Standard Basen für (V,W ext<,>), da in diesem Fall die Matrizen (M_0, P, Q) leicht zu bestimmen sind und wir mit einem Computer (P^<-1 >) und das Produkt (QM_0P^<-1> ext<.>)

Aufgabe 5.1.7.

Angenommen (T:M_<22>(R) o P_2(R)) hat die Matrix

in Bezug auf die Basen

von (M_<22>(R)) und (D=<1,x,x^2>) von (P_2(R) ext<.>) Bestimmen Sie eine Formel für (T) im Sinne einer allgemeinen Eingabe (X=bm aamp bcamp debm ext<.>)

Wir müssen zunächst unseren allgemeinen Input in Bezug auf die gegebene Basis schreiben. In Bezug auf die Standardbasis

wir haben die Matrix (P = bm 1amp 0amp 0amp 1amp 1amp 1amp 0amp 0amp 1amp 0amp 1 amp 0amp 1ebm ext<,>) repräsentiert die Änderung von der Basis (B) die Basis (B_0 ext<.>) Die Basis (D) von (P_2( R)) ist bereits die Standardbasis. Für eine Matrix (X = bm aamp bcamp debm) finden wir

Aber das ist gleich (C_D(T(X)) ext<,>) also

In Lehrbüchern wie Sheldon Axlers Lineare Algebra richtig gemacht die sich hauptsächlich auf lineare Transformationen konzentrieren, kann die obige Konstruktion der Matrix einer Transformation in Bezug auf die Wahl von Basen als primäre Motivation für die Einführung von Matrizen und die Bestimmung ihrer algebraischen Eigenschaften verwendet werden. Insbesondere die auf den ersten Blick eigentümliche Regel für die Matrixmultiplikation ist als Folge der Zusammensetzung linearer Abbildungen zu sehen.

Satz 5.1.8 .

Seien (U,V,W) endlichdimensionale Vektorräume mit geordneten Basen (B_1,B_2,B_3 ext<,>). Seien (T:U o V) und (S:V o W) lineare Abbildungen. Dann

Beweis.

Sei (xxin U ext<.>) Dann (C_(ST(xx)) = M_(ST)C_(xx) ext<.>) Andererseits

Da (C_) invertierbar ist, folgt das Ergebnis.

Eine allgemeine lineare Transformation durch eine Matrix ausdrücken zu können ist nützlich, da Fragen zu linearen Transformationen in Fragen zu Matrizen umgewandelt werden können, deren Lösung wir bereits kennen. Bestimmtes,

(T:V o W) ist genau dann ein Isomorphismus, wenn (M_(T)) ist invertierbar für einige (und damit alle) Wahlen der Basen (B) von (V) und (D) von (W ext<.>)

Der Rang von (T) ist gleich dem Rang von (M_(T)) (und das hängt nicht von der Wahl der Basis ab).

Der Kern von (T) ist isomorph zum Nullraum von (M_(T) ext<.>)

Next, we will want to look at two topics in particular. First, if (T:V o V) is a linear operator, then it makes sense to consider the matrix (M_B(T)=M_(T)) obtained by using the same basis for both domain and codomain. Second, we will want to know how this matrix changes if we change the choice of basis.


Classes of linear transformations

Linear transformations are divided into the following types.

Ein. Rigid transformations (distance preserving)

Rigid transformations leave the shape, lengths and area of the original object unchanged. Rigid transformations are:

B. Similarity transformations (angle preserving)

Similarity transformations preserve the angles of the original object, but not necessarily the size. Similarity transformations are:

  • Translation
  • Rotation
  • Uniform scale (the same amount of scale in the x- und j-directions)

C. Affine transformations (parallel preserving)

Affine transformations preserve any parallel lines, but may change the shape and size. Affine transformations are:

Notice Rigid transformations are a subset of Similarity transformations, which are in turn a subset of Affine transformations.


Math Insight

Let $A$ be a $2 imes 3$ matrix, say egin A = left[ egin 1 & 0 & -1 3 & 1 & 2 end ight]. Ende What do you get if you multiply $A$ by the vector $vc=(x,y,z)$? Remembering matrix multiplication, we see that egin Avc = left[ egin 1 & 0 & -1 3 & 1 & 2 end ight] left[ egin x y z end ight] = left[ egin x - z 3x + y +2z end ight] =(x-z,3x+y+2z). Ende

If we define a function $vc(vc) = Avc$, we have created a function of three variables $(x,y,z)$ whose output is a two-dimensional vector $(x-z,3x+y+2z)$. Using function notation, we can write $vc : R^3 o R^2$. We have created a vector-valued function of three variables. So, for example, $vc(1,2,3) = (1-3,3cdot 1 + 2 + 2 cdot 3) = (-2, 11)$.

Given any $m imes n$ matrix $B$, we can define a function $vc: R^n o R^m$ (note the order of $m$ and $n$ switched) by $vc(vc) = B vc$, where $vc$ is an $n$-dimensional vector. As another example, if egin C = left[ egin 5 & -3 1 & 0 -7 & 4 0 & -2 end ight], end then the function $vc(vc) = C vc$, where $y=(y_1, y_2)$, is $vc(vc) = (5y_1-3y_2,y_1,-7y_1+4y_2,-2y_2)$.

In this way, we can associate with every matrix a function. What about going the other way around? Given some function, say $vc: R^n o R^m$, can we associate with $vc(vc)$ some matrix? We can only if $vc(vc)$ is a special kind of function called a linear transformation. The function $vc(vc)$ is a linear transformation if each term of each component of $vc(vc)$ is a number times one of the variables. So, for example, the functions $vc(x,y)=(2x+y,y/2)$ and $vc(x,y,z)=(z,0,1.2 x)$ are linear transformation, but none of the following functions are: $vc(x,y)=(x^2,y,x)$, $,vc(x,y,z)=(y,xyz)$, or $vc(x,y,z)=(x+1,y,z)$. Note that both functions we obtained from matrices above were linear transformations.

Let's take the function $vc(x,y)=(2x+y,y,x-3y)$, which is a linear transformation from $R^2$ to $R^3$. The matrix $A$ associated with $vc$ will be a $3 imes 2$ matrix, which we'll write as egin A = left[ egin a_ <11>& a_<12> a_ <21>& a_<22> a_ <31>& a_ <32>end ight]. Ende We need $A$ to satisfy $vc(vc)=Avc$, where $vc=(x,y)$.

The easiest way to find $A$ is the following. If we let $vc=(1,0)$, then $f(vc)= Avc$ is the first column of $A$. (Can you see that?) So we know the first column of $A$ is simply egin f(1,0)=(2,0,1) = left[ egin 21 end ight]. Ende

Similarly, if $vc=(0,1)$, then $f(vc)=Avc$ is the second column of $A$, which is egin f(0,1) = (1,1,-3) = left[ egin 11-3 end ight]. Ende

Putting these together, we see that the linear transformation $vc(vc)$ is associated with the matrix egin A= left[ egin 2 & 1 0 & 1 1 & -3 end ight]. Ende

The important conclusion is that every linear transformation is associated with a matrix and vice versa.


The idea of a mapping

In mathematics, sometimes we use the word mapping to describe the same idea of a transformation. You are already familiar with mappings. For example, we could make up a rule that maps the real number to the real numbers. One such rule could be “multiply by 10”. Then 8 would be mapped to 80, and 3 would be mapped to 30, and so on.

Transformations in linear algebra are mappings as well, but they map vectors to vectors. This can be done with a rule described using a formula, or in the case of mappings between (R^n) and (R^m), maybe a matrix.

Remember that not all transformations are linear, but many that you study in linear algebra will be, and that yields a lot of useful theorems and problem solving techniques.

In this lesson, we will only consider transformations between the vector spaces(R^n) and (R^m) (for some m and n). See: Euclidean space.


Table of Contents for Introduction to Linear Algebra (5th edition 2016)

  • 1 Introduction to Vectors
    • 1.1 Vectors and Linear Combinations
    • 1.2 Lengths and Dot Products
    • 2.1 Vectors and Linear Equations
    • 2.2 The Idea of Elimination
    • 2.3 Elimination Using Matrices
    • 2.4 Rules for Matrix Operations
    • 2.6 Elimination = Factorization: EIN = LU
    • 2.7 Transposes and Permutations
    • 3.1 Spaces of Vectors
    • 3.2 The Nullspace of EIN: Solving Ax = 0 and Rx = 0
    • 3.3 The Complete Solution to Ax = b
    • 3.4 Independence, Basis and Dimension
    • 4.1 Orthogonality of the Four Subspaces
    • 4.2 Projections
    • 4.3 Least Squares Approximations
    • 4.4 Orthonormal Bases and Gram-Schmidt
    • 5.1 The Properties of Determinants
    • 5.2 Permutations and Cofactors
    • 5.3 Cramer’s Rule, Inverses, and Volumes
    • 8.1 The Idea of a Linear Transformation
    • 8.2 The Matrix of a Linear Transformation
    • 8.3 The Search for a Good Basis
    • 9.1 Complex Numbers
    • 9.2 Hermitian and Unitary Matrices
    • 9.3 The Fast Fourier Transform
    • 10.1 Graphs and Networks
    • 10.2 Matrices in Engineering
    • 10.3 Markov Matrices, Population, and Economics
    • 10.4 Linear Programming
    • 10.5 Fourier Series: Linear Algebra for Functions
    • 10.6 Computer Graphics
    • 10.7 Linear Algebra for Cryptography
    • 11.1 Gaussian Elimination in Practice
    • 11.2 Norms and Condition Numbers
    • 11.3 Iterative Methods and Preconditioners

    Each section of the book has a Problem Set.


    New Features:

    Modern View of Matrix Multiplication – The definitions and proofs focus on the columns of a matrix rather than on the matrix entries.

    Early Introduction of Key Concepts – Many fundamental ideas of linear algebra are introduced within the first seven lectures, in the concrete setting of Rn, and then gradually examined from different points of view.

    Linear Transformations – Linear transformations form a “thread” that is woven into the fabric of the text. Their use enhances the geometric flavor of the text.

    Eigenvalues and Dynamical Systems – Eigenvalues appear fairly early in the text, in Chapters 5 and 7. Because this material is spread over several weeks, students have more time than usual to absorb and review these critical concepts.

    Orthogonality and Least-Squares Problems – These topics receive a more comprehensive treatment than is commonly found in beginning texts.


    Math Insight

    A linear transformation (or a linear map) is a function $vc: R^n o R^m$ that satisfies the following properties:

    for any vectors $vc, vc in R^n$ and any scalar $a in R$.

    It is simple enough to identify whether or not a given function $vc(vc)$ is a linear transformation. Just look at each term of each component of $vc(vc)$. If each of these terms is a number times one of the components of $vc$, then $vc$ is a linear transformation.

    Therefore, the function $vc(x,y,z) = (3x-y, 3z, 0, z-2x)$ is a linear transformation, while neither $vc(x,y,z) = (3x-y, 3z+2, 0,z-2x)$ nor $vc(x,y,z) = (3x-y, 3xz, 0,z-2x)$ are linear transformations. The function $vc$ has a nonlinear component $3xz$ that disqualifies it. What about the function $vc$? It's the second component $3z+2$ that's the problem because the term 2 is a constant that doesn't contain any components of our input vector $(x,y,z)$.

    It's easy to see that the function $vc$ violates the second condition above. In particular, if you set $a=0$ in that second condition, you see that each linear transformation must satisfy $vc(vc<0>) = vc<0>$ but $vc(0,0,0) = (0,2,0,0)$. The condition for a linear transformation is stronger than the condition one learns in grade school for a function whose graph is a line. A single variable function $f(x)=ax+b$ is not a linear transformation unless its y-intercept $b$ is zero.

    A useful feature of a feature of a linear transformation is that there is a one-to-one correspondence between matrices and linear transformations, based on matrix vector multiplication. So, we can talk without ambiguity of das matrix associated with a linear transformation $vc(vc)$.