Latent Space LIVE! - Best of 2024: Startups, Vision, Open Src, Reasoning, & The Great Scaling Debate

แชร์
ฝัง
  • เผยแพร่เมื่อ 12 ม.ค. 2025

ความคิดเห็น • 11

  • @amgad_hasan
    @amgad_hasan หลายเดือนก่อน +2

    Timestamps (on my phone so lazy descriptions)
    Sara Guo 20:52
    Best of Vision 2024 (Roboflows x Moondrram) 1:18:44
    Loubna (HF) synthetic data and smol models 5:22:59

  • @stalkermustang
    @stalkermustang หลายเดือนก่อน +3

    7:37:40 - The scaling/wall debate w/ Dylan Patel
    7:45:26 - opening statements here

    • @MrNoipe
      @MrNoipe หลายเดือนก่อน

      thanks

    • @LatentSpacePod
      @LatentSpacePod  26 วันที่ผ่านมา

      Added! Thank you

  • @austin917
    @austin917 13 วันที่ผ่านมา

    very cool

  • @OGIMxGaMeR
    @OGIMxGaMeR หลายเดือนก่อน

    Will slides made available? Thanks

    • @LatentSpacePod
      @LatentSpacePod  26 วันที่ผ่านมา

      Yes will likely go out on our newsletter: latent.space

  • @MrNoipe
    @MrNoipe หลายเดือนก่อน +1

    anyone got some timestamps

    • @LatentSpacePod
      @LatentSpacePod  หลายเดือนก่อน +1

      we will recut the recordings dw

  • @shubhamtoshniwal2221
    @shubhamtoshniwal2221 26 วันที่ผ่านมา

    Dang, missed this at NeurIPS. Also, Jonathan's logic is quite flawed. He's saying scaling laws are all about a log-linear relationship between cost and log-loss. Two issues with this assertion:
    (a) Who said that log-loss represents a linear relationship with the model quality. What if the pretraining loss is represented as a log-log-cross entropy loss. Now, the loss linearly grows with the compute.
    (b) GPT-4/Llama pretrained vs post-trained had a less than 2x compute difference, assuming that pretraining compute > post-training compute, and the quality comparison is not even close.