Improving models via subsets

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 พ.ย. 2024

ความคิดเห็น •

  • @patrickleduc7712
    @patrickleduc7712 2 หลายเดือนก่อน

    Thanks

  • @AkaExcel
    @AkaExcel 2 หลายเดือนก่อน

    Hi Vincent thank you for your video, please also do not forget to give code link

    • @probabl_ai
      @probabl_ai  2 หลายเดือนก่อน

      d0h! Added it in the shownotes too, it is here: github.com/probabl-ai/youtube-appendix/blob/main/13-sample-weights/sample-weights.ipynb

  • @Amulya7
    @Amulya7 2 หลายเดือนก่อน

    Fascinating. Thanks!

    • @probabl_ai
      @probabl_ai  2 หลายเดือนก่อน

      You bet!

  • @Amulya7
    @Amulya7 2 หลายเดือนก่อน +1

    Just a quick question:
    Why was the sample_weight parameter in scikit-learn's models like Ridge designed to be passed during the fit method rather than being included as a model attribute or hyperparameter in the class definition? Wouldn't having sample_weight as part of the model initialization simplify its usage, particularly when integrating with pipelines?

    • @probabl_ai
      @probabl_ai  2 หลายเดือนก่อน +1

      You need the sample weights to be as long as the input data, which is only known at fit time.

  • @TheMustafaKaan
    @TheMustafaKaan 2 หลายเดือนก่อน

    Would a different random seed change the ranking of the benchmark?

    • @probabl_ai
      @probabl_ai  2 หลายเดือนก่อน

      While I do not recall benchmarking for it, I am doing cross validation for the results. Is there a concern with the code?

    • @TheMustafaKaan
      @TheMustafaKaan 2 หลายเดือนก่อน

      @@probabl_aiI supposed a single test set from the code. But convinced with cv since it reduce the variance.