ala: Anwendung der Linearen Algebra

Roger Burkhardt, Fachhochschule Nordwestschweiz

28 February, 13 videos, 357 views, Open Channel

Sammlung von Lernvideos zur Fachkompetenz / Modul "Anwendung der Linearen Algebra (ala)"

Die Fachkompetenz umfasst die folgenden Lernergebnisse (LE) / Inhalte:

  • LE 1: Eigenvektoren, Eigenwerte und Eigenräume (Hier lernst du das Eigenwertproblem kennen und verstehen. Du kannst reelle Eigenvektoren und Eigenwerte von beliebigen reellen Matrizen berechnen und die dazugehörigen Eigenräume und algebraischen und geometrischen Vielfachheiten bestimmen. Falls möglich, kannst du eine Matrix in eine Basis aus ihren Eigenvektoren transformieren und damit diagonalisieren. Du kennst dich speziell mit den Eigenschaften symmetrischer Matrizen punkto Eigenwerten, Eigenvektoren und Diagonalisierbarkeit aus und hast die Bedeutung des Spektralsatzes für symmetrische Matrizen verstanden.)
  • LE 2: Vertiefung lineare Abbildungen und Matrizenalgebra (Einige Eigenschaften von Matrizen und linearen Abbildungen sind in den Grundlagen noch nicht zur Sprache gekommen und sollen hier mit dem bereits bestehenden Vorwissen erarbeitet werden. Konkret wirst du Bild und Kern einer linearen Abbildung bestimmen und ihre Bedeutung verstehen lernen, mit orthogonalen Matrizen und ihren Eigenschaften Bekanntschaft machen, die Exponentialfunktion einer Matrix berechnen können und die dazugehörigen Rechenregeln kennenlernen und mit quadratischen Formen und dem Begriff positive Definitheit umgehen lernen. Die quadratischen Formen finden insbesondere Anwendung in der Geometrie und in der multivariaten Analysis.)
  • LE 3: Basistransformationen (In Grundlagen der linearen Algebra haben wir nur Vektoren und Matrizen in der Standardbasis betrachtet. Hier lernst du verstehen, dass Matrizen und Vektoren auch in beliebigen anderen Basen geschrieben werden können und wie die Transformation von einer Basis zur anderen funktioniert. Einige Machine Learning – Algorithmen (zum Beispiel neuronale Netze) oder Datentransformationen (zum Beispiel Hauptkomponentenanalyse (englisch PCA)) machen Probleme wesentlich zugänglicher, indem sie eine Basis aus Vektoren benutzen, die für das spezifische Problem besser geeignet ist als die Standardbasis.)
  • LE 4: Normen und Ähnlichkeitsmasse (Vektor- und Matrixnormen werden oft als Mittel zur Regularisierung von sonst overfittenden Machine Learning Modellen benutzt und finden mit Lasso- und Ridge-Regression bereits in einfachen linearen Modellen ihre Anwendung (siehe Grundkompetenz Machine Learning). Hier lernst du diese Normen kennen. Damit verbunden lernst du Distanz- und Ähnlichkeitsmasse zwischen Vektoren kennen. Wir verallgemeinern die gebräuchliche euklidische Distanz (Pythagoras) auf einige generische Bedingungen, die eine Metrik (=Distanzmass) erfüllen muss und führen die gebräuchlichsten Varianten auf. Ähnlichkeitsmasse dienen hauptsächlich zum Vergleich verschiedener Datensätze (als Vektoren gespeichert) und müssen noch weniger Auflagen als eine Metrik erfüllen. Ähnlichkeitsmasse finden überall ihre Anwendung, wo Dinge verglichen werden sollen, wie zum Beispiel in Recommender Systems oder Word Embeddings im Natural Language Processing.)
  • LE 5: Transfer auf Machine Learning – Algorithmen (Nun bist du in der Lage, mit Deinem Wissen die Herleitung einer beispielhaften Auswahl von lineare Algebra–lastigen Methoden des Machine Learning zu durchdringen und diese selbst zu implementieren, konkret für Lineare Regression (Herleitung der Normalengleichung in Matrizenform auf verschiedene Arten, Anwendung auf einfache Datensätze), Page Rank (Repräsentation von Graphen mit Matrizen, Berechnung von Zentralitätsmassen mit Mitteln der linearen Algebra), Recommander Systeme (Empfehlen von ähnlichen Objekten mittels Collaborative Filtering) und Singulärwertzerlegung (Zerlegung von Matrizen, geometrisches Verständnis, Anwendung als Datenkomprimierung).

Viewable by everyone.

14:06

ala_LE1_v3, Ähnlichkeit und Diagonalisierung

6 March, 31 views

26:22

ala_LE2_v5, Anwendung Matrizenräume (Normalengleichung / Lineare Regression)

10 April, 27 views

16:38

ala_LE2_v3, Bild und Kern von linearen Abbildungen

1 April, 37 views

11:51

ala_LE1_v2, Eigenräume / alg. und geom. Vielfachheit von Eigenwerten

6 March, 27 views

18:59

ala_LE1_v4, Eigenwerte / Eigenvektoren mit Python berechnen

8 March, 50 views

12:36

ala_LE1_v1, Eigenwerte und Eigenvektoren / Einführung

28 February, 33 views

21:54

ala_LE2_v4, Matrizenräume

10 April, 24 views

17:47

ala_LE1_v6, Orthogonale Matrizen

10 March, 12 views

14:28

ala_LE1_v5, Potenzen von Matrizen

9 March, 16 views

17:46

ala_LE1_v8, Projektionsmatrix / Spektralsatz

14 March, 33 views

18:36

ala_LE2_v2, (Repetition) Lineare Abbildungen

24 March, 24 views

18:09

ala_LE2_v1, (Repetition) Vektorraum

17 March, 30 views

16:34

ala_LE1_v7, Symmetrische Matrizen

13 March, 13 views