Logistic Regression

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ธ.ค. 2024

ความคิดเห็น •

  • @chaotic_singer13
    @chaotic_singer13 7 หลายเดือนก่อน +1

    jaane wo kaise log the jinke dimaag ko yeh samajhne ki shakti mila,
    hamne to jab seekhna chaha kathinaaiyo ka saamna kara *crying emoji *

  • @tolifeandlearning3919
    @tolifeandlearning3919 2 ปีที่แล้ว +1

    Great lecture

  • @arundasari773
    @arundasari773 6 ปีที่แล้ว +4

    Hi mam,
    How to calculate intercept value in logistic regression by hand. Any formula is there for intercept value.

  • @manaspeshwe8297
    @manaspeshwe8297 5 ปีที่แล้ว +1

    why are we learning P(Y|X) and what do we mean by B(beta) parameterizes X ?

  • @arundasari773
    @arundasari773 6 ปีที่แล้ว +3

    Nice Video.
    I am learning Data science.I have a doubt in logistic regression. can you explain How to calculate intercept value.

    • @rishabhghosh155
      @rishabhghosh155 3 ปีที่แล้ว

      use the method of max log likelihood to fit the model, the numerical method to actually calculate beta (coefficient of x) is Newton-Raphson's method (see the book Elements of Statistical Learning)

  • @srikanthtammina1900
    @srikanthtammina1900 4 ปีที่แล้ว

    really great explanation madam

  • @adityarazpokhrel7626
    @adityarazpokhrel7626 4 ปีที่แล้ว

    Thank you mam. Very useful.
    Greetings from Nepal, T.U.

  • @rameshlanka171
    @rameshlanka171 5 ปีที่แล้ว

    Thank you......for these Explanation..Madam

  • @ravimishra339
    @ravimishra339 6 ปีที่แล้ว +2

    Great video, can you explain why :-
    derivative of g(beta T x) = (1 - g(beta T x)) derivative beta T x
    Video :- 17:29

    • @srinivasdivishad8626
      @srinivasdivishad8626 6 ปีที่แล้ว +1

      Explained at 7:40

    • @vijayshankar9529
      @vijayshankar9529 4 ปีที่แล้ว

      @@srinivasdivishad8626 tehre is a mistake it is a faxtor of g(beta TX) is missing

  • @rajeshreddy3133
    @rajeshreddy3133 4 ปีที่แล้ว +2

    for gradient descent the update has to be beta = beta - alpha*delta of Beta

  • @alluprasad5976
    @alluprasad5976 5 ปีที่แล้ว

    how is this different from convex optimization?

  • @sivanandapanda9793
    @sivanandapanda9793 5 ปีที่แล้ว

    Why we take log of this expression at 12:52

    • @AK-lp3ze
      @AK-lp3ze 5 ปีที่แล้ว +4

      It's for handling numerical underflows and reducing numbers of multiplications, which is computationally expensive.

    • @akashsaha3921
      @akashsaha3921 4 ปีที่แล้ว

      Log is monotonic function so it can be used in the context of original function. Also log is computationally efficient when we are using SGD for the logistic optimization equation

    • @sankarse1162
      @sankarse1162 3 ปีที่แล้ว +1

      To simplify computation in the function where powers of number are involved

  • @thecodingdice3107
    @thecodingdice3107 2 ปีที่แล้ว

    At z tends to 0 the value is .5 3:21

  • @arunselvabio
    @arunselvabio 4 ปีที่แล้ว

    Thank you

  • @sharatpc2371
    @sharatpc2371 3 ปีที่แล้ว +11

    Disappointed to see such a poor non-intuitive explanation of such a beautiful method. I can only imagine how IIT students would have studied. Videos from channels like Statquest, etc are way way better.

    • @SuryaBoddu
      @SuryaBoddu 2 ปีที่แล้ว +1

      These were my exact thoughts going through this video