Advanced LAFF
Advanced LAFF
  • 280
  • 637 704
Authoring for Active Learning
Quick video to share our experiences with online courses. Intended audience: other instructors at UT.
This was a hastily created video, so don't judge our course by the quality of it!
For information on Advanced Linear Algebra: Foundations to Frontiers, see ulaff.net
A representative review by a learner:
"It was a very unique experience which I will never forget. I felt more engaged and involved than any other online or even on-campus class I have ever attended. Thanks Robert, Maggie, and TAs for making a memorable experience and providing a env to learn and grow. The structure, exercises, leaving room for thinking about a problem by pausing/cutting videos into two and may other things, pushed me to go one extra step. Robert and Maggie, maybe you guys should consider preparing a MOOC on "How to do MOOCs". Thanks once again."
มุมมอง: 747

วีดีโอ

High performance Implementation of Cholesky Factorization
มุมมอง 1.7K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.1.1 Subspace Iteration, implementation
มุมมอง 1.5K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.3.6 Putting it all together, Part 2
มุมมอง 1.7K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.1.1 Power Method, implementation
มุมมอง 1.4K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.3.5 Implicitly shifted QR algorithm
มุมมอง 3.5K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.1.1 Power Method to compute second eigenvalue, implementation Part 2
มุมมอง 7814 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
10.1.1 Power Method to compute second eigenvalue, implementation Part 1
มุมมอง 1.7K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
9.2.1 Gershgorin Disk Theorem, Part 2
มุมมอง 2K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
9.2.1 Gershgorin Disk Theorem, Part 1
มุมมอง 4K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.2.3 Reduction to bidiagonal form
มุมมอง 2.9K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.3.3 One sided Jacobi's method
มุมมอง 1.6K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.3.2 Jacobi's method, Part 2
มุมมอง 1.6K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.3.2 Jacobi's method, Part 1
มุมมอง 2.3K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.3.1 Jabobi rotation
มุมมอง 2.5K4 ปีที่แล้ว
Advanced Linear Algebra: Foundations to Frontiers Robert van de Geijn and Maggie Myers For more information: ulaff.net
11.2.4 Implicitly shifted bidiagonal QR algorithm
มุมมอง 2.3K4 ปีที่แล้ว
11.2.4 Implicitly shifted bidiagonal QR algorithm
11.2.2 A strategy for computing the SVD, Part 3
มุมมอง 1.3K4 ปีที่แล้ว
11.2.2 A strategy for computing the SVD, Part 3
11.2.2 A strategy for computing the SVD, Part 2
มุมมอง 1.1K4 ปีที่แล้ว
11.2.2 A strategy for computing the SVD, Part 2
11.2.2 A strategy for computing the SVD, Part 1
มุมมอง 1.3K4 ปีที่แล้ว
11.2.2 A strategy for computing the SVD, Part 1
11.2.1 Computing the SVD from the Spectral Decomposition, Part 2
มุมมอง 9444 ปีที่แล้ว
11.2.1 Computing the SVD from the Spectral Decomposition, Part 2
11.2.1 Computing the SVD from the Spectral Decomposition, Part 1
มุมมอง 1.1K4 ปีที่แล้ว
11.2.1 Computing the SVD from the Spectral Decomposition, Part 1
11.1.1 Linking the SVD to the Spectral Decomposition
มุมมอง 2.1K4 ปีที่แล้ว
11.1.1 Linking the SVD to the Spectral Decomposition
10.3.4 Implicit Q Theorem, Part 2
มุมมอง 7764 ปีที่แล้ว
10.3.4 Implicit Q Theorem, Part 2
10.3.4 Implicit Q Theorem, Part 1
มุมมอง 1.1K4 ปีที่แล้ว
10.3.4 Implicit Q Theorem, Part 1
10.3.6 Putting it all together, Part 1
มุมมอง 1.2K4 ปีที่แล้ว
10.3.6 Putting it all together, Part 1
7.1.1 Poisson's equation, Part 3
มุมมอง 5954 ปีที่แล้ว
7.1.1 Poisson's equation, Part 3
10 3 3 Simple tridiagonal QR algorithm
มุมมอง 1.7K4 ปีที่แล้ว
10 3 3 Simple tridiagonal QR algorithm
10.3.2 Givens rotations
มุมมอง 8K4 ปีที่แล้ว
10.3.2 Givens rotations
10 3 1 Reduction to tridiagonal form
มุมมอง 3.2K4 ปีที่แล้ว
10 3 1 Reduction to tridiagonal form
10.2.2 Simple shifted QR algorithm, Part 1
มุมมอง 3K4 ปีที่แล้ว
10.2.2 Simple shifted QR algorithm, Part 1

ความคิดเห็น

  • @keziah8337
    @keziah8337 5 วันที่ผ่านมา

    great

  • @ibrahimhebib9588
    @ibrahimhebib9588 6 วันที่ผ่านมา

    That was so clear thank you

  • @winstonong9593
    @winstonong9593 10 วันที่ผ่านมา

    Minor error on right side second last bullet point. Should be dim(N(\lambda I - A))=0. Missed out the null space notation N( . ).

  • @InoceramusGigas
    @InoceramusGigas 14 วันที่ผ่านมา

    Life saver!! Fantastic lecture=, Professor. I've a graduate exam in numerical analysis and i couldn't quite grasp the intuition behind Householder QR Factorization. Truly amazing! Best, from UWaterloo.

  • @__amkhrjee__
    @__amkhrjee__ 27 วันที่ผ่านมา

    Very clear explanation! I'm implementing a tiny linear algebra library and this channel has been super helpful to me in the process 💗

  • @edwardelric8852
    @edwardelric8852 หลายเดือนก่อน

    Thanks, you cooked me up real good

  • @Unknownfor13
    @Unknownfor13 หลายเดือนก่อน

    Thanks sir <3

  • @Unknownfor13
    @Unknownfor13 หลายเดือนก่อน

    explain it very well!!!

  • @gk4539
    @gk4539 หลายเดือนก่อน

    how did he go from 'v' which was a row matrix to a column matrix? 2:55?

  • @rav2n
    @rav2n 2 หลายเดือนก่อน

    how does the mirroring onto the standard basis relate to the upper triangular matrix?

  • @rav2n
    @rav2n 2 หลายเดือนก่อน

    if one knows the 2.norm of x and the standard basis e, then beta e directly gives the required mirror vector along e right. Then why do we need to represent the "mirror" operation as a matrix in terms of u in the first place?

  • @rav2n
    @rav2n 2 หลายเดือนก่อน

    Why is it not + and is * ?

  • @rav2n
    @rav2n 2 หลายเดือนก่อน

    why does it make no sense at all?

    • @winstonong9593
      @winstonong9593 18 วันที่ผ่านมา

      Which part do you not understand? I think the proof is quite straightforward. Although at 4:23 I think what Prof. Robert may have meant (I could be wrong) is that the general strategy is to show that if max f(x) <= alpha and max f(x) >= alpha, then the only way these two inequalities can be satisfied is if max f(x) = alpha (i.e. think of it as max f(x) has been "sandwiched" to alpha). That was how he derived that ||A||_2 = max(d_1, d_2), where A is a 2-by-2 diagonal matrix with d_1 and d_2 as entries.

  • @princeardalan
    @princeardalan 2 หลายเดือนก่อน

    Very good explanation.

  • @waqasbaig993
    @waqasbaig993 2 หลายเดือนก่อน

    Amazing, i was struggling for this one from last two days.

  • @mouaadelyalaoui642
    @mouaadelyalaoui642 2 หลายเดือนก่อน

    Thank you

  • @kiiiko8575
    @kiiiko8575 2 หลายเดือนก่อน

    amazing

  • @danser_theplayer01
    @danser_theplayer01 2 หลายเดือนก่อน

    Frobeanius is making me loose all my -marbles- beans.

  • @PreyumKumar
    @PreyumKumar 2 หลายเดือนก่อน

    2-Norm of a matrix is Frobenius Norm?

  • @uphadhayay
    @uphadhayay 3 หลายเดือนก่อน

    Well, I didn't get it from the first problem. so should I know the LU decompostion first to understand it. If it were in the form of a normal matrix I could have solved it. can anyone suggest please.

    • @vas_show
      @vas_show หลายเดือนก่อน

      what do you mean by LU decomposition?

  • @aidanahram8245
    @aidanahram8245 3 หลายเดือนก่อน

    great explainer

  • @AnnikaMeyer-fm2qu
    @AnnikaMeyer-fm2qu 3 หลายเดือนก่อน

    Thank you for this very clear and comprehensive explanation!

  • @realnameverified416
    @realnameverified416 3 หลายเดือนก่อน

    Splendid! I wish I could like the video more than once!

  • @hiteshkumar5847
    @hiteshkumar5847 3 หลายเดือนก่อน

    Thanks You are a Saviour for Tommorow's Matrix Computation Quiz.

  • @rommeltzer
    @rommeltzer 3 หลายเดือนก่อน

    its not good, why dont you write something on the board?!

  • @crisnc29
    @crisnc29 4 หลายเดือนก่อน

    Nice class, thanks!

  • @EngSeifHabashy
    @EngSeifHabashy 4 หลายเดือนก่อน

    I love how simple, straight to the point, short his explanaition Thank you sir!

  • @xiaoweilin8184
    @xiaoweilin8184 5 หลายเดือนก่อน

    Hi Professor van de Gejin, is it possible to generalize this inequality when A is rank-deficient?

  • @cakefactoryy
    @cakefactoryy 6 หลายเดือนก่อน

    This video was actually amazing! Wow, needs more exposure. Thanks professor!

  • @jackdevereux6254
    @jackdevereux6254 6 หลายเดือนก่อน

    did not help santa

  • @tech_reforcae_mn
    @tech_reforcae_mn 7 หลายเดือนก่อน

    Nice, very well explained!

  • @AfsarPervez
    @AfsarPervez 7 หลายเดือนก่อน

    Thank you teacher!

  • @sattikbiswas2187
    @sattikbiswas2187 7 หลายเดือนก่อน

    This is what I wanted. Amazing sir.

  • @pilot615
    @pilot615 8 หลายเดือนก่อน

    Thank you!!!

  • @pilot615
    @pilot615 8 หลายเดือนก่อน

    The best explanation of Householder QR algorithm

  • @lirabin
    @lirabin 8 หลายเดือนก่อน

    Best explanation I saw until now. Thanks!!

  • @ShwethaVme23b073
    @ShwethaVme23b073 8 หลายเดือนก่อน

    helpful👍

  • @ViniciusSantos-bn6ov
    @ViniciusSantos-bn6ov 9 หลายเดือนก่อน

    excellent explanation. Thanks

  • @malikialgeriankabyleswag4200
    @malikialgeriankabyleswag4200 9 หลายเดือนก่อน

    You are an absolute fooookin legend.. Who ever this guy Robert de Geijn is I want to say thanks lol

  • @eveleenkaur4349
    @eveleenkaur4349 9 หลายเดือนก่อน

    Great explanation Sir 👏

  • @VolumetricTerrain-hz7ci
    @VolumetricTerrain-hz7ci 9 หลายเดือนก่อน

    There unknown way to visualize subspace, or vector spaces. You can stretching the width of the x axis, for example, in the right line of a 3d stereo image, and also get depth, as shown below. L R |____| |______| This because the z axis uses x to get depth. Which means that you can get double depth to the image.... 4d depth??? :O p.s You're good teacher!

  • @mamaslostsoul
    @mamaslostsoul 9 หลายเดือนก่อน

    What a brilliant video !! Thank you so much. had been looking everywhere to extend my 3x3 imagination and here you give it beautifully. thank you so much !!

  • @aezo6285
    @aezo6285 10 หลายเดือนก่อน

    Thank you very much! Very good explanation! 👍

  • @tjeaue
    @tjeaue 10 หลายเดือนก่อน

    different into tune. liked it!

  • @markdebono1273
    @markdebono1273 10 หลายเดือนก่อน

    Is it easy to code such an algorithm? Maybe you have any references I could look at? I am interested in the SVD of the covariance matrix in order to approximate a rigid body’s basis to calculate rotations with respect to the XYZ axes. I have been going round in circles with no success, the main problem being that the three eigenvectors constantly change direction as the object is rotated so it’s impossible to compute smooth rotations. Tried QR, Power Method, Euler angles and Quaternions with similar results, hence no success. I am hoping that the Polar Decompositon addresses the issue but not so sure. Any help will be appreciated.

  • @Wortigon2000
    @Wortigon2000 11 หลายเดือนก่อน

    In short, the reduced form just means that we leave out the irrelevant 0s from the sigma matrix, and it's corresponding parts in the other 2? Sounds simple enough.

  • @sadegh5429
    @sadegh5429 11 หลายเดือนก่อน

    Amazing! Thanks for this course!

  • @lounes9777
    @lounes9777 11 หลายเดือนก่อน

    It has been some years ago that I have enjoyed for the first time this video. Come back now, just to remember some stuff :)

  • @XahhaTheCrimson
    @XahhaTheCrimson 11 หลายเดือนก่อน

    Thank you for sharing your knowledge to the world. I'm just a tiny programmer who haven't learned error analysis, suffering for numerical error of some time-complexity-optimized NURBS algorithm. As a beginner of error analysis outside of the university, your lectures really save me a lot. If I understood well, are followings true? Example of (relatively) ill-conditioned problem - Find the reciprocal of given real number x. (small changes near zero makes catastrophic error) - Find any solution of equation y' = x^2 * (y + 0.000001 * sin(x)) with initial value x(0) = 1, y(0) = 0.001 numeically Example of numerically unstable algorithm - Solve linear system using Cramer's rule - Compute f(x) = (x - 1.414e+9) / 3.141e-13 using an expression: (x * (1 / 3.141e-13)) - 1.414e+9 / 3.141e-13 (I don't know why but at least I know the later is horrible)

  • @richardfrederick1885
    @richardfrederick1885 ปีที่แล้ว

    If the proof is so simple why not show it?