Gaussian Processes - Part 1

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ม.ค. 2025

ความคิดเห็น •

  • @mikel5264
    @mikel5264 11 วันที่ผ่านมา

    The best lecture of GP ever!!!!

  • @yexiuxia6059
    @yexiuxia6059 หลายเดือนก่อน

    very clear🎉thanks a lot!

  • @rajanalexander4949
    @rajanalexander4949 10 หลายเดือนก่อน +1

    Incredible lecture; thank you

  • @sashaelswit
    @sashaelswit 2 หลายเดือนก่อน

    This lecture is very concise and the explanations are quite convincing. thank you

  • @findoc9282
    @findoc9282 2 ปีที่แล้ว

    the last 5 mins of process adding observation is so insightful and helped me a lot, thanks professor!

  • @nzambabignoumba445
    @nzambabignoumba445 7 หลายเดือนก่อน

    Amazing!!

  • @jasonhe6947
    @jasonhe6947 2 ปีที่แล้ว +2

    Excellent explanation. Thank you so much for making this video.

  • @gareebmanus2387
    @gareebmanus2387 3 ปีที่แล้ว +8

    Prof. Deisenroth, Thank you for sharing your excellent lecture. At the very beginning, you say that, "...yesterday we looked at the Bayesian Linear Regression towards the end of the class...". Is that previous lecture's video available?

  • @fikusznumerikusz5816
    @fikusznumerikusz5816 ปีที่แล้ว

    At 58:10 , f1,..., fk and x1,...xk are with stars I guess. At 1:00:59 what is cov( f(x);f(x*))? Maybe it is a (k+N)x(k+N) covariance matrix there defined via kernels.

  • @amirhassanabbasi1439
    @amirhassanabbasi1439 3 ปีที่แล้ว

    Very helpful !

  • @findoc9282
    @findoc9282 2 ปีที่แล้ว

    Sir may I ask why in the slide page 40 the Posterior has different functions instead like in pages before only one function?