K-Fold Cross Validation: Explanation + Tutorial in Python, Scikit-Learn & NumPy

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 พ.ย. 2024

ความคิดเห็น • 15

  • @GregHogg
    @GregHogg  ปีที่แล้ว

    Take my courses at mlnow.ai/!

  • @SaffTechJourney
    @SaffTechJourney ปีที่แล้ว +2

    I don't get why your videos don't have millions of views yet, you explain everything so clearly! awesome work man keep it up!

    • @GregHogg
      @GregHogg  ปีที่แล้ว +1

      Haha thank you I appreciate that!!

  • @arsheyajain7055
    @arsheyajain7055 3 ปีที่แล้ว +1

    LOVE THE THUMBNAIL

    • @GregHogg
      @GregHogg  3 ปีที่แล้ว +1

      Thank you!!!

  • @panagiotisgoulas8539
    @panagiotisgoulas8539 2 ปีที่แล้ว

    For anyone wondering why he flatten the images example: X_train.reshape(X_train.shape[0],-1) is because sklearn predict wants a 2D array as a first argument.

    • @GregHogg
      @GregHogg  2 ปีที่แล้ว

      Thanks Panagiotis, I appreciate that!!

  • @jacobdavies3761
    @jacobdavies3761 8 หลายเดือนก่อน

    Cheers for the help mate 👍

  • @prachishah2151
    @prachishah2151 3 ปีที่แล้ว

    Thank you so much for the amazing video

    • @GregHogg
      @GregHogg  3 ปีที่แล้ว

      Glad it was helpful and you're very welcome, Prachi!

  • @sukanyaacharya5202
    @sukanyaacharya5202 2 ปีที่แล้ว

    Hi Greg.. Thank you for the wonderful video. I have been working on Time series evaluation and specifically cross validation. My question is, is there a way to generalize the parameter tuning once the cross validation is complete or is it just trial and error basis.

    • @GregHogg
      @GregHogg  2 ปีที่แล้ว +1

      You can always tune values to minimize cross val loss :)

  • @pogiribhanuteja4650
    @pogiribhanuteja4650 3 ปีที่แล้ว

    wanted an 'statistics for data science' video plz.. like distributions etc.,

  • @beypazariofficial
    @beypazariofficial 5 หลายเดือนก่อน

    🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓🤓