BrainPi
BrainPi
  • 71
  • 97 573
Ein paar Übungsaufgaben zur Isomorphie von Vektorräumen
Sind zwei Vektorräume isomorph zueinander? Und wie prüft man das nach?
In diesem Video widmen wir uns drei Aufgaben aus dem Buch "Linear Algebra and its applications" von Peter D. Lax.
-----------------------------------------------------------------------------------
Website ►► brainpi.de/​​​​​​​
Facebook ►► brainpi.de
​​-----------------------------------------------------------------------------------
0:00 - Intro
0:52 - 1. Aufgabe (Exercise 3 aus dem Buch)
9:22 - 2. Aufgabe (Exercise 4 aus dem Buch)
16:30 - 3. Aufgabe (Exercise 5 aus dem Buch)
20:22 - Outro
มุมมอง: 156

วีดีโอ

Rumgerechne mit Äquivalenzrelationen
มุมมอง 31611 หลายเดือนก่อน
Sein wir doch mal ehrlich: Die Relationen und speziell die Äquivalenzrelationen waren für die meisten von uns eines der ersten Abstrakten Themen in der Uni-Mathematik. Es ist also nicht verwunderlich, dass wir uns an der ein oder anderen Übungsaufgabe durchaus auch mal die Zähne ausgebissen haben. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:28 - Was wolle...
Adjungierte Matrix / Adjungierter Operator in Banach- und Hilberträumen
มุมมอง 527ปีที่แล้ว
Wir starten zunächst damit dass wir uns die adjungierte Matrix herleiten und berechnen. Im Anschluss werden wir dann das Konzept für Matrizen in allgemeinere Hilberträume übertragen und dort den adjustierten Operator bestimmen. Wenn dies dann auch geschafft ist, geht da aber immer noch was: Das Konzept der Adjungierten lässt sich auch noch weiter für Banachräume aufziehen. Auch das schauen wir ...
Der Eigenwert 0 - Über Singuläre Matrizen und ihre Visualisierung
มุมมอง 590ปีที่แล้ว
Wenn der Eigenwert 0 bei einer Matrix auftaucht, dann kann man bereits Einiges über eine solche Matrix aussagen. Speziell die nicht-Invertierbarkeit und verwandte Eigenschaften können direkt daraus abgeleitet werden. Das im Video Jupyter Notebook könnt ihr hier downloaden: brainpi.de/downloads/linear_mapping_animation.ipynb Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:...
Produktansatz zur Lösung der Wärmeleitungsgleichung in 1D
มุมมอง 272ปีที่แล้ว
Eine Methode um die Wärmeleitungsgleichung zu Lösen ist der Produktansatz. Man nimmt einfach an dass sich die Lösungsfunktion als Produkt zweier anderer Funktionen schreiben lässt und separiert damit die Variablen. Wie genau man mit diesem Verfahren ans Ziel gelangt schauen wir uns in diesem Video an einem konkreten Beispiel an. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ...
Herleitung des Characteristischen Polynoms
มุมมอง 297ปีที่แล้ว
Wenn man die Eigenwerte einer Matrix berechnet dann tut man dies in der Regel mit Hilfe des Charakteristischen Polynoms. Aber wie hat man das nochmal aus der Eigenwertgleichung hergeleitet??? Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:17 - Was ist ein Eigenwert? 3:20 - Eigentliche Herleitung des Charakteristischen Polynoms 7:45 - Erstes Beispiel 10:00 - ...
Einführung Differentialgleichungen: Gewöhnliche vs Partielle Differentialgleichungen
มุมมอง 441ปีที่แล้ว
Lasst uns zusammen einmal über die Grundlagen von Differentialgleichungen sprechen und ein bisschen Ordnung in die Begriffe "gewöhnliche Differentialgleichungen" und "partielle Differentialgleichungen" bringen. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:16 - Abkürzungen und Übersicht 1:56 - Gewöhnliche Differentialgleichungen 11:34 - Partielle Differenti...
Inverse Matrix bestimmen - Theorie und Beispiele
มุมมอง 190ปีที่แล้ว
Wie lässt sich eine Matrix invertieren? Eigentlich ist das ganz einfach. Aber man muss es eben einmal irgendwann gemacht haben. Hier erfahrt ihr wie das geht! Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:34 - Was war überhaupt die Inverse einer Matrix? 1:57 - Erste Lösungsideen 3:44 - Erste Ideen am konkreten Beispiel 5:25 - Beispiel 1 (2x2, mit Probe) 8:1...
Zwei Jahre auf YouTube - Da geht noch mehr!
มุมมอง 159ปีที่แล้ว
Am 18.01.2021 habe ich diesen Kanal hier gegründet. Jetzt sind bereits zwei Jahre vergangen und es wird einmal wieder Zeit für einen kleinen Rückblick, ein wenig Selbstkritik und meine Vorstellungen für die Zukunft. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de​​
Symmetrische Differenz - der Beweis
มุมมอง 1.6K2 ปีที่แล้ว
Nachdem man sich die Symmetrische Differenz in der Vorlesung zum ersten Mal definiert hat, folgt in der Regel das Beweisen von einer ganz bestimmten Gleichheit in der nächstbesten Übungsaufgabe. Aber wie hat man nochmal die Gleichheit zwischen Mengen bewiesen? - Lasst uns das nochmal zusammen anschauen. Mehr Videos zu diesem Thema: th-cam.com/play/PLS4jOLj2btspHHIrPw3i9lfHheiIuL3jX.html oder im...
Distributibgesetze der Mengenlehre
มุมมอง 1.2K2 ปีที่แล้ว
Irgendwann musste doch jeder Mal im Rahmen einer Erstsemester-Mathematikveranstaltung da durch und sich die Frage stellen: Wie zeigt man die Gleichheit von zwei Mengen? Hier erkläre das Vorgehen am Beispiel der Distributivgesetze der Mengenlehre. Beweis der Distributivgesetze der Aussagenlogik: th-cam.com/video/tKcydcZzA1Q/w-d-xo.html Website ►► brainpi.de/​​​​​​​ Facebook ►► brain...
Integration von exp(-x^2) - Das Integral welches man mal gesehen haben muss
มุมมอง 3442 ปีที่แล้ว
Dieses Integral muss man irgendwann einmal berechnet haben. Man benötigt dieses Integral nicht nur in verschiedensten Anwendungen, auch bei der Berechnung kann man wunderschöne mathematische Methoden anwenden. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:55 - Das Integral in einer Raumdimension 14:10 - Verallgemeinerung auf beliebig viele Dimensionen 17:31...
Givens-Rotationen - Die Grundlagen
มุมมอง 2K2 ปีที่แล้ว
Givens Rotationen kann man nicht nur dazu verwenden um QR-Zerlegungen von Matrizen zu bestimmen, man kann sie sich auch bildlich sehr gut veranschaulichen! Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:22 - Wir starten mit Drehungen in 2D 3:30 - Eine Stufe komplizierter: Einmal in 3D 8:26 - Verallgemeinerung auf beliebige Anzahl an Dimensionen 11:02 - Von D...
Householdertransformationen - Idee und Beispiele
มุมมอง 3482 ปีที่แล้ว
Householdertransformationen bracht man immer wieder mal. Zum Beispiel kann man mit ihnen relativ problemlos eine QR-Zerlegung bestimmen. Aber was steckt eigentlich hinter diesen Transformationen und wie kann man sie sich bildlich vorstellen? Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:22 - Die Grundidee: Spiegelung an einer Ebene 1:25 - Herleitung der For...
Gram-Schmidt'sches Orthogonaliserungs-/Orthonormalisierungs-Verfahren
มุมมอง 5292 ปีที่แล้ว
Das Gram-Schmidt Verfahren ist nicht nur eine Methode um arme Studierende im erste oder zweiten Semester zu quälen, es wird tatsächlich auch in der Praxis eingesetzt um in komplizierteren Algorithmen die Orthogonalität von Vektoren sicherzustellen. Website ►► brainpi.de/​​​​​​​ Facebook ►► brainpi.de ​​ 0:00 - Intro 0:37 - Orthogonalisieren oder Orthonormalisieren? 4:15 - Algorithm...
Hadamard-Matrizen - Eine unbewiesene Vermutung
มุมมอง 1.3K2 ปีที่แล้ว
Hadamard-Matrizen - Eine unbewiesene Vermutung
Komplexe Zahlen - Über die Polardarstellung
มุมมอง 2052 ปีที่แล้ว
Komplexe Zahlen - Über die Polardarstellung
Mehrdimensionale Extremwerte - Minima, Maxima und Sattelpunkte im R^n
มุมมอง 1.7K2 ปีที่แล้ว
Mehrdimensionale Extremwerte - Minima, Maxima und Sattelpunkte im R^n
Methode der Charakteristiken für skalare Erhaltungsgleichungen
มุมมอง 6532 ปีที่แล้ว
Methode der Charakteristiken für skalare Erhaltungsgleichungen
Charakteristiken der linearen Transportgleichung
มุมมอง 5972 ปีที่แล้ว
Charakteristiken der linearen Transportgleichung
Was ist ein Hilbertraum?
มุมมอง 8K2 ปีที่แล้ว
Was ist ein Hilbertraum?
Planare Kurven und Funktionsgraphen
มุมมอง 1492 ปีที่แล้ว
Planare Kurven und Funktionsgraphen
Ableitung einer Kurve, Tangentialvektoren und Regularität
มุมมอง 2.4K2 ปีที่แล้ว
Ableitung einer Kurve, Tangentialvektoren und Regularität
Raumfüllende Kurven
มุมมอง 2852 ปีที่แล้ว
Raumfüllende Kurven
Kurven - Grundbegriffe und Parametrisierungen
มุมมอง 3.4K2 ปีที่แล้ว
Kurven - Grundbegriffe und Parametrisierungen
Lineare Gleichungssystemen - Trick beim Ablesen von Lösungen
มุมมอง 3742 ปีที่แล้ว
Lineare Gleichungssystemen - Trick beim Ablesen von Lösungen
Gradient der (euklidischen) Norm - Berechnung und Anschauung
มุมมอง 6852 ปีที่แล้ว
Gradient der (euklidischen) Norm - Berechnung und Anschauung
Untervektorräume - Was ist das und wie kann man die Unterraumkriterien nachprüfen?
มุมมอง 1K2 ปีที่แล้ว
Untervektorräume - Was ist das und wie kann man die Unterraumkriterien nachprüfen?
Ein Jahr auf YouTube - Abrechnung und Ausblick
มุมมอง 1892 ปีที่แล้ว
Ein Jahr auf TH-cam - Abrechnung und Ausblick
Partielle Integration: Herleitung und Beispielaufgaben
มุมมอง 2973 ปีที่แล้ว
Partielle Integration: Herleitung und Beispielaufgaben

ความคิดเห็น

  • @pau1845
    @pau1845 10 วันที่ผ่านมา

    D.h. also, dass der Kern einer Matrix angibt, ob die Spaltenvektoren der Matrix linear unabhängig sind, was der Fall bei genau einer Lösung ist (Nullvektor)?

    • @brainpi
      @brainpi วันที่ผ่านมา

      Hey, tut mir leid dass ich erst so spät antworte. Ja, genau so ist es 👍🏻

  • @zetopr8058
    @zetopr8058 28 วันที่ผ่านมา

    ein so hart underratedtes video (ehe denslitsch) gibts also, ne ernsthaft das video ist super-welt-klasse, gute beispielte, progressiv "schwieriger" und ausfühlrich und klar erklärt, ohne komische schluck und spuck geräuschte oder sonstiges, einfach eine klare schöne angenehme stimme mit guten beispielen Dankeeeee

  • @emmanoname1758
    @emmanoname1758 หลายเดือนก่อน

    Hammer, danke!!!

  • @robertmauersberger953
    @robertmauersberger953 หลายเดือนก่อน

    A=Summe aus sigma_i * <u_i,v_i>? wie soll das gehen, A ist eine Matrix und der rechte ausdruck eine reelle Zahl!

    • @brainpi
      @brainpi หลายเดือนก่อน

      An welcher Stelle genau habe ich das geschrieben? 🤔 Ich meine da dürfte überall A = \sum_{i=1}^r \sigma_i u_i v_i^T und nicht A = \sum_{i=1}^r \sigma_i u_i^T v_i stehen. Der erste Ausdruck ist nämlich eine Summe von Matrizen.

  • @pyuc
    @pyuc 2 หลายเดือนก่อน

    8:29 Ich verstehe schon das zwei ein Teiler von a-a ist, weil a-a ja null ist. Aber wir haben ja oben gesagt (a,b) element von R also was ist mit dem b? Wir können das doch nicht einfach weglassen bei der Überprüfung der Reflexivität. Und bei der Reflexivität müssen wir ja sicherstellen das alle elemente zu sich selbst in Beziehung stehen. Haben wir das wirklich nur durch eine Berechnung komplett abgedeckt?

  • @HannahDanzer
    @HannahDanzer 2 หลายเดือนก่อน

    As Video mit mir echt geholfen. Danke

  • @laelowmusic
    @laelowmusic 2 หลายเดือนก่อน

    Sehr gute Erklärung!

  • @melisaturmus8579
    @melisaturmus8579 2 หลายเดือนก่อน

    Vielen, vielen Dank für das tolle Video...besser hätte man es nicht erklären können

  • @luigir3drr
    @luigir3drr 3 หลายเดือนก่อน

    Wenn du nicht Prof wirst weiß ich auch nicht weiter.... Danke für das gute Video!

    • @brainpi
      @brainpi 3 หลายเดือนก่อน

      Mal schauen… 😂 Vielen Dank! 😊

  • @Lezerald
    @Lezerald 3 หลายเดือนก่อน

    Könntest du ein Video über Spline Interpolation machen?

  • @SSuchti4
    @SSuchti4 3 หลายเดือนก่อน

    Hey, auf welcher Grundlage schummelst du die Faktoren bei 9:00 ein? Informatik-Student, bin out of depth hier ^^

    • @brainpi
      @brainpi 3 หลายเดือนก่อน

      Hey, tut mr leid, dass ich erst jetzt so spät antworte 🙈 ich hoffe die Begründung dass ich das tun darf ist klar (ansonsten einfach die beiden unterstrichenden Terme auf der rechten Seite zusammen addieren und mit dem unterstrichenden Term auf der linken Seite vergleichen ). Der Grund / die Intuition warum ich das mache ist, weil ich weiß was am Ende bei rauskommen muss. Während ich dire Rechnungen mache, habe ich bereits im Hinterkopf wie die beiden Funktionen aussehen müssen, falls Konvexität gilt. In der ersten kommt nunmal der Term \lambda x_0 vor und daher muss ich den auf der einen oder anderen Art mit rein bringen wenn ich auch nur die Chance haben will, dass da später der Term für die Konvexität raus kommt.

  • @arianeyeong
    @arianeyeong 3 หลายเดือนก่อน

    Wenn bei der Berechnung der Eigenvektoren ein für die Matrix unvollständiges System entsteht, muss per Gram und Schmidt das System zu einer Orthogonalbasis des aufzuspannenden Raumes bestimmt werden. Dazu braucht man i. d. R. einen weiteren Vektor, welcher nicht linear abhängig vom System sein darf. D.h., er muss außerhalb dessen linearen Hülle liegen. Was ist ein effizientes Verfahren, um auf einen solchen unabhängigen Vektor zu kommen? Ein Ansatz wäre, das System in eine transponierte Matrix zu überführen und eine Basis für ihren Kern zu bestimmen (da ker A^T ⊥ im A). Dann kann man sich aus dieser Basis einen linear unabhängigen Vektor konstruieren. Gibt es einen effizienteren Weg?

    • @brainpi
      @brainpi 3 หลายเดือนก่อน

      Spontan fällt mir gerade nichts besseres ein. Ich würde nur das Bestimmen einer Basis weglassen und direkt einen Vektor aus dem Kern bestimmen (also das System A^T = 0 lösen). Orthogonal ist er auf jeden Fall und mit Gram Schmidt bekommt er dann noch die richtige Länge.

  • @Lavistus
    @Lavistus 5 หลายเดือนก่อน

    danke bro, gutes video

  • @nikolaus1691
    @nikolaus1691 5 หลายเดือนก่อน

    Hallo BrainPi, die Beispielkarte ist eigentlich mit 5 Farben gefärbt, da das Außengebiet (hier weiß) mitzählt. Links rot mit grün tauschen und die Außenfläche grün färben, dann stimmt ´s. Und dann kommt die Sache mit dem Beweis. Der Vierfarbensatz wurde 1976 von den Mathematiker Appel und Haken per Computer bewiesen, aber der Beweis ist so irrsinnig lang (trotz späterer Reduktionen) dass er nur von einem Computer verifiziert werden kann. Deswegen ist er kein klassischer Beweis und immer noch umstritten. Gesucht wird nach wie vor ein eleganter Beweis, der möglichst auf eine Seite passt. Mfg.

  • @beleggo4532
    @beleggo4532 5 หลายเดือนก่อน

    Deine Videos sind der Hammer :) Gut erklärt und kurz und bündig

  • @1votdopeningfan138
    @1votdopeningfan138 6 หลายเดือนก่อน

    unvernünftig hohe qualität, sehr gut erklärt. absolute rettung, falls das bei mir in mafia dran kommt

  • @romanbrummer5125
    @romanbrummer5125 6 หลายเดือนก่อน

    Sehr gut erklärt!

  • @Stefan-bt8oc
    @Stefan-bt8oc 6 หลายเดือนก่อน

    Erhellend. Hat mir sehr zum Verständnis der Parametrisierung geholfen.

  • @drachenlord8082
    @drachenlord8082 6 หลายเดือนก่อน

    ich küss dein herz <3<3<3<3<3<3<3

  • @joachimschultz1557
    @joachimschultz1557 6 หลายเดือนก่อน

    Schönes Video. 👍

  • @FlintPet
    @FlintPet 7 หลายเดือนก่อน

    Ist z.B. -L^3+12L^2+5L das gleiche Charakteristische Polynom wie L^3-12L^2-5L? Wenn man eines der beiden =0 setzt und es dann auf die andere Seite Zieht geht das. Aber darf man das? Ich bekomm für eine Matrix nämlich immer das erste Polynom raus, während der Rechner das Zweite rausbekommt. lG

    • @brainpi
      @brainpi 7 หลายเดือนก่อน

      Nein, dabei handelt es sich um ein anderes charakteristisches Polynom. Es ist aber durchaus legitim das andere Polynom zu verwenden um die Eigenwerte einer Matrix zu berechnen. Beide Polynome besitzen ja die gleichen Nullstellen. Dieser Unterschied kommt wahrscheinlich zustande, da der Rechner andere Lösungsverfahren zur Bestimmung der Koeffizienten verwendet, als wir das per Hand tun. Sowas wie der Entwicklungssatz von Laplace ist aus numerischer Sicht ziemlich schlecht und wird daher vermieden. So zumindest meine Vermutung. Um mal genauer schauen zu können, müsste ich aber wissen wie genau du was womit löst. Das Polynom ist also nicht das selbe, kann aber anstelle des charakteristischen Polynoms verwendet werden, weil es genau die gleichen Eigenschaften besitzt.

    • @FlintPet
      @FlintPet 7 หลายเดือนก่อน

      @@brainpi Danke! Ich habe das erste mit Sarrus berrechnet und das zweite mit zwei verschiedenen Online Rechnern raus bekommen. Geg. war eine 3x3 mit 5 -6 -1 1 -2 -1 7 -7 -3 Ist aber auf jeden Fall gut zu wissen, dass es nicht das gleich ist, man es aber trotzdem verwenden kann :)

  • @FlintPet
    @FlintPet 7 หลายเดือนก่อน

    Kann man den Kern auch so ablesen, wenn man z.B. eine 3x4 Matrix hat? Dort hätte man dann ja min 2 Spalten bei denen eine 0 drin ist. Für mindestens 1 liegt die 0 dann ja nicht auf der hauptdiagonalen. Bzw wie bestimmt man den Kern dann?

    • @brainpi
      @brainpi 7 หลายเดือนก่อน

      Wenn du weniger Zeilen als Spalten hast, dann kannst du einfach gleich zu Beginn (oder am Ende vor dem Ablesen der Lösungsmenge) entsprechend viele Nullzeilen hinzufügen (so viele, dass die Matrix dann wieder quadratisch ist). Danach kannst du das genau so mit Gauß machen. In dem Fall einer 3x4 Matrix also einfach eine Nullzeile anhängen, sodass es eine 4x4 Matrix wird und diese dann während des Gaus Algorithmus an die richtige Stelle sortieren, sodass die restlichen nicht-null Zahlen trotzdem die Dreiecksgestalt bilden

    • @FlintPet
      @FlintPet 7 หลายเดือนก่อน

      @@brainpi Danke für die schnelle Antwort, das ergibt Sinn :)

  • @Sarah-pu8un
    @Sarah-pu8un 7 หลายเดือนก่อน

    Extrem hilfreich, danke!

  • @music-man6352
    @music-man6352 7 หลายเดือนก่อน

    top

  • @brainpi
    @brainpi 8 หลายเดือนก่อน

    Ja, mich gibt es noch! :-) Auch wenn meine letzten Videos schon ganz schön alt sind, soll es jetzt wieder regelmäßiger Neues aus der Mathematik geben. Wie immer freue ich mich natürlich über eure Themenvorschläge und was euch gerade so in der Mathematik beschäftigt. Lasst es mich in den Kommentaren wissen! ▼▼▼

  • @dnlkrt
    @dnlkrt 8 หลายเดือนก่อน

    danke. habe es endlich verstanden! Weiter so!

  • @Sarisa-o1b
    @Sarisa-o1b 8 หลายเดือนก่อน

    In 8:45, wie kommt man in den Lösungsmengen zum zweiten Vektor bzw wie wurde dieser abgelesen?

    • @brainpi
      @brainpi 8 หลายเดือนก่อน

      Hey, ich nutze beim Ablesen immer einen kleinen Trick mit dem das relativ unkompliziert funktioniert. Wie der funktioniert hab ich hier erklärt: th-cam.com/video/bowJtP2Ra-I/w-d-xo.html

  • @alexanderkipp2475
    @alexanderkipp2475 9 หลายเดือนก่อน

    Ich habe nächstes Semester Vertiefungsvorlesung Graphentheorie; vielen Dank für das tolle Video. Icdh bin gespannt,

  • @krishnaks4622
    @krishnaks4622 10 หลายเดือนก่อน

    It's my first time listening to a video in an unknown language and undetstanding the topic.May be, becoz it's mathematics.

  • @FlintPet
    @FlintPet 10 หลายเดือนก่อน

    Wirklich sehr gut Videos bitte mach weiter :)

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      Keine Sorge, ich höre nicht auf. Auch wenn es etwas unregelmäßig ist, neue Videos kommen 😉

    • @FlintPet
      @FlintPet 10 หลายเดือนก่อน

      Super! Hab übrigens ein Videovorschlag: Darstellungsmatrizen. Wir haben in den Übungsklausuren viele Aufgaben bei denen z.B. eine Basis B, eine Matrix und eine Abbildungsmatrix einer Funktion bezüglich der Basen B und C gegeben ist. In diesem Fall würde man Basis C bestimmen müssen. Es variiert immer stark, was gegeben und was zu bestimmen ist. Die Rechnungen die wir da machen versteh ich schon, aber ich finde es sehr schwer einen Überblick zu bekommen, was sich woraus wie errechnen lässt. Kann man dir irgendwie aufgaben zukommen lassen? Ist vllt einfacher als das zu beschreiben. @@brainpi

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      @user-xk8uu4gk9l ich bin immer gerne unter jannis@brainpi.de erreichbar. Die Liste mit Videoideen die ich vorher noch umsetzen soll/will ist schon so immens lang, da möchte ich dir keine Hoffnung machen, dass das in nächster Zeit fertig wird. 😅

    • @FlintPet
      @FlintPet 10 หลายเดือนก่อน

      super! Ne haha hab schon nen Freiversuch angemeldet haha@@brainpi

  • @khalilmohammed2297
    @khalilmohammed2297 10 หลายเดือนก่อน

    Vielen Dank für Deine Mühe. Ich bin dein Student in Tu bs. Bitte könntest du mir deine Email geben .

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      Hey, klar: Wenn es was mit der TU BS zu tun hat einfach an j.marquardt@tu-braunschweig.de

    • @khalilmohammed2297
      @khalilmohammed2297 10 หลายเดือนก่อน

      @@brainpi ja ich meine wenn ihch eine frage hätte, ich ziehe um nach andrer Stadt aber wenn es möglich ist im Kontakt zu bleiben. Also nur Email von TUBS kann man nicht immer benutzen

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      Kannst du theoretisch auch dafür nehmen. Ansonsten geht auch jannis@brainpi.de Ich höre eigentlich auf alles 😉

    • @khalilmohammed2297
      @khalilmohammed2297 10 หลายเดือนก่อน

      @@brainpi vielen Dank

  • @denkling
    @denkling 10 หลายเดือนก่อน

    S-p-e-k-t-a-k-u-l-äääää-res Video!

  • @Bananas-Burgees
    @Bananas-Burgees 10 หลายเดือนก่อน

    Wieso mussten man die 2 in der 2.Spalte auf 0 kriegen?

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      Meinst du die 2 über der -3? Die müsste man theoretisch gar nicht auf 0 kriegen, zumindest nicht während des Gauß Algorithmus. Allerdings musst du irgendwie ja die Lösungsmenge des Systems ablesen und wenn du die Einträge über den Diagonalelementen nicht eliminieren würdest, müsstest du beim Ablesen der Lösungsmenge erst noch Rückwärtssubstituieren. (Im Grunde mach ich hier nichts anderes, ich schreibe die Rückwärtssubstitution nur wie den Gauß Algorithmus selber noch auf)

    • @Bananas-Burgees
      @Bananas-Burgees 10 หลายเดือนก่อน

      Ja genau diese 2. Danke! Achso alles klar ist einfach schneller?

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      @Bananas-Burgees ja, genau. Wenn dir am Ende eine andere Methode zum bestimmen/ablesen der Lösungsmenge besser gefällt, dann nimm die auch 😉

  • @Spectre-qy8bv
    @Spectre-qy8bv 10 หลายเดือนก่อน

    naja die Probe machen ist so eine Sache, selbst wenn man dann durch die Probe merkt, das Ergebnis ist falsch, lässt man es einfach so und nimmt die Teilpunkte für die Folgefehler mit, denn die Zeit um das alles nochmal durchzurechnen hat man in der Regel nicht und man würde viel mehr Punkte verlieren, wenn man dann die ganzen weiteren Aufgaben nicht mehr schafft.

    • @brainpi
      @brainpi 10 หลายเดือนก่อน

      Wir informieren uns doch nicht über die SVD für die Klausur, sondern für‘s Leben! 😜🤣

  • @Sarah-pu8un
    @Sarah-pu8un 10 หลายเดือนก่อน

    Super erklärt! Sehr hilfreich. Danke!

  • @supersaff11
    @supersaff11 11 หลายเดือนก่อน

    Eine Frage habe ich denoch: Betrachten wir T*_Hilbert = I_x^-1 * T*_Banach * I_y (Min 35:56), wobei T*_Banach auf X* abbildet. Hierbei ist X* der Dualraum eines Banachraumes, der jedoch nicht notwendigerweise der Dualraum eines Hilbertraumes sein muss. In diesem Fall könnte ich den Operator I_x^-1 nicht auf ein Element des Dualraums eines Banachraumes anwenden, da der Isomorphismus ausschließlich zwischen Hilberträumen besteht. Oder etwa doch, dann bräuchte ich eine extra Begrüdnung, weil zum Beispiel T*_Banach "strukturerhaltend" ist oder so.

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      Ich muss zugeben, dass ich da etwas unsauber im Video formuliert habe was ich gemacht habe. Ich arbeite hier nur mit Hilberträumen. Als Ziel war gedacht einfach einmal die Abbildung für Banachräume in den Hilberträumen zu verordnen. Da jeder Hilbertraum ein Banachraum ist, muss die Abbildung für Banachräume ja trotzdem noch irgendwo im Hilbertraum existieren. Also wie gesagt, alles Hilberträume, womit X* auf den T*_Banach abbildet, auch ein Hilbertraum ist. Ansonsten hättest du aber natürlich recht. An genau der Stelle würde ich Probleme bekommen und könnte das nicht so machen, da der Isomorphismus I_x^-1 ohne weiteres gar nicht existieren müsste.

    • @supersaff11
      @supersaff11 11 หลายเดือนก่อน

      Heute nochmal nachgeschaut, [Werner, 8te Auflage, S. 258], er hat die Existenz von I_x^-1 als Voraussetzung für den adjungierten Operator (im Hilbertraumsinn) gemacht... ok so geht das natürlich auch @@brainpi

  • @supersaff11
    @supersaff11 11 หลายเดือนก่อน

    Sehr gut erklärt!

  • @lumpi_schlumpi4389
    @lumpi_schlumpi4389 11 หลายเดือนก่อน

    Mega Video! Sehr detailliert und verständlich erklärt! Ich suche schon seit Tagen nach einem Video, welches mir die Singulärwertzerlegung erklärt, leider bin ich auf dein Video erst sehr spät gestoßen, was mir bis dahin Kopfzerbrechende Stunden gegeben hat 🤯.

  • @userxyz-e9n
    @userxyz-e9n 11 หลายเดือนก่อน

    Du sagst bei 26:15 dass die Eigenvektoren v Schlage schon orthogonal sind. Warum? Ist das immer so? Was mache ich wenn die nicht orthogonal sind?

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      Hi, ja das ist tatsächlich immer so. Es handelt sich ja um die Eigenvektoren der Matrix A^TA. Diese Matrix ist symmetrisch und Eigenvektoren (zu unterschiedlichen Eigenwerten) von symmetrische Matrizen stehen immer orthogonal aufeinander. Formal sauber aufgeschrieben und begründet ist das zum Beispiel hier: resources.mpi-inf.mpg.de/departments/d1/teaching/ss10/MFI2/kap46.pdf

  • @khalilmohammed2297
    @khalilmohammed2297 11 หลายเดือนก่อน

    Du hast mich unterrichtet in Tu Braunschweig 😊

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      Cool, in welcher Veranstaltung hatten wir uns damals gesehen?

    • @khalilmohammed2297
      @khalilmohammed2297 11 หลายเดือนก่อน

      @@brainpi mit Numerische gewöhnliche Differential Gleichungen mit Frau

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      @khalilmohammed2297 ja, stimmt. Ich erinnere mich. 👍🏻

  • @ryoasuka5528
    @ryoasuka5528 11 หลายเดือนก่อน

    Vielen Dank! Habe ich sehr gebraucht!!!!

  • @humbatgasimov6452
    @humbatgasimov6452 11 หลายเดือนก่อน

    Schön.

  • @humbatgasimov6452
    @humbatgasimov6452 11 หลายเดือนก่อน

    Vielen Dank.

  • @joanli4697
    @joanli4697 11 หลายเดือนก่อน

    Retter meiner LA-Klausur

    • @nicebird332
      @nicebird332 11 หลายเดือนก่อน

      Auch Heidelberg?^^

    • @joanli4697
      @joanli4697 10 หลายเดือนก่อน

      verdammt ja@@nicebird332

  • @Scotti.Q
    @Scotti.Q 11 หลายเดือนก่อน

    Danke für das Video - sehr einfach und kompetent erklärt! Insbesondere auch die Einbindung von Python finde ich wertvoll. Da Du fragst, zu welchem Thema Du ein Video machen könntest - vielleicht zeigst Du mal konkret die Anwendung auf Ausgleichsprobleme. Darauf weist Du ja am Anfang des Videos hin. Auch der Zusammenhang zur Hauptkomponentenanalyse in der Statistik würde sich anbieten(?) Vielleicht gäbe es sogar Abkürzungen direkt zur Faktoranalyse, wiederum in der Statistik, v.a. auch mit der Frage im Hintergrund, wann eine Faktoranalyse für einen gegebenen Datensatz überhaupt sinnvoll ist. Das wären sehr interessante Themen - finde ich zumindest ;-)

  • @deineoma1301
    @deineoma1301 11 หลายเดือนก่อน

    Kommentar fuer den Algorithmus, stark

  • @jensb.5456
    @jensb.5456 11 หลายเดือนก่อน

    Ist natürlich unglaublich hilfreich, wenn jemand - der keine Ahnung von der Materie hat - sich plötzlich eine Python Anwendung anschauen soll, anstatt einfach ein Beispiel zu nehmen, mit einer kleine Matrix und das per Hand zu machen. Was ein useless Video.

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      Hi, schade dass dir das Python-Beispiel nicht gefällt. Dabei sollte es doch eigentlich nur zeigen dass das ganze Zeug tatsächlich nützliche Anwendung hat. 😢 Wenn du aber auf der Suche nach einem Beispiel per Hand mit kleinen Matrizen bist, hab ich gute Nachrichten: Überspringe doch einfach den Programmierteil mit der Zeitleiste oder den Kapitelmarken. Im letzten Teil des Videos rechne ich genau das vor, was du dir wünschst 😉

  • @Nichtzzzz
    @Nichtzzzz 11 หลายเดือนก่อน

    Wie gut bist du in etwas komplexeren Aufgaben mit Wahrscheinlichkeitsrechnungen und Faktoren deren charakteristische Eigenschaften reichen müssen um die Wahrscheinlichkeitsrechnung weiter zu führen.

    • @brainpi
      @brainpi 11 หลายเดือนก่อน

      Mit Wahrscheinlichkeitsrechnung kann ich leider nicht dienen. Da müsste ich mich erstmal selber von Grund auf einarbeiten 😅

  • @dopasCreativeLab
    @dopasCreativeLab 11 หลายเดือนก่อน

    voll gut, dankeschön

  • @zirkq
    @zirkq 11 หลายเดือนก่อน

    der goat 🐐🐐🐐