18. Обучение нейросетей с точки зрения оптимизации. Grokking. Double Descent. Loss Surface. ФКН.2024

แชร์
ฝัง
  • เผยแพร่เมื่อ 25 ธ.ค. 2024

ความคิดเห็น • 3

  • @VladKochetov
    @VladKochetov 6 หลายเดือนก่อน +2

    Голос одного из умов за кадром чем-то напоминает Onigiri

  • @spiritmoon3457
    @spiritmoon3457 4 หลายเดือนก่อน +1

    Если большинство задач и функций нелинейны, то тогда имеет смысл половину курса рассказывать и доказывать теоремы, связанные с выпуклостью?

    • @fmin
      @fmin  4 หลายเดือนก่อน

      Имеет. Потому что во-первых, нелинейность не означает невыпуклость (парабола, модуль - примеров полно).
      Если комментарий был про невыпуклость, то все равно имеет смысл, потому что для этого случая можно формулировать и доказывать понятные теоремы. И потом пользоваться хотя бы этой интуицией на практике. Часто она работает (не всегда понятно почему).