Knowledge Distillation: A Good Teacher is Patient and Consistent

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 ม.ค. 2025

ความคิดเห็น • 7

  • @connor-shorten
    @connor-shorten  3 ปีที่แล้ว +4

    This paper was quickly previewed in the AI Weekly Update series!
    Check it out here - th-cam.com/video/Y_htHk3snYo/w-d-xo.html

  • @juanmanuelcirotorres6155
    @juanmanuelcirotorres6155 3 ปีที่แล้ว +1

    You're the best one, I'm your bigger fan

  • @irfanrahadi7487
    @irfanrahadi7487 2 ปีที่แล้ว

    great video !

  • @pawelkubik
    @pawelkubik 2 ปีที่แล้ว +1

    Fixed teacher caching was never very practical anyway, because it greatly complicates the pipelines and teacher inference time is usually dwarfed by student's backpropagation. Backward pass is waaaay more expensive than the forward pass.

  • @NarkeEmpire
    @NarkeEmpire หลายเดือนก่อน

    You eat too many words... :(

  • @patriciamachado6050
    @patriciamachado6050 3 ปีที่แล้ว

    I recommend you research no sulfates fast hair growth shampoo.