Leslie Myint
Leslie Myint
  • 55
  • 234 011
Bagging and Random Forests
Bagging and Random Forests
มุมมอง: 9 246

วีดีโอ

Decision Trees
มุมมอง 2K3 ปีที่แล้ว
Decision Trees
Evaluating Classification Models
มุมมอง 4K3 ปีที่แล้ว
Evaluating Classification Models
Logistic Regression
มุมมอง 1.8K3 ปีที่แล้ว
Logistic Regression
Local Regression and Generalized Additive Models
มุมมอง 16K3 ปีที่แล้ว
Local Regression and Generalized Additive Models
KNN Regression and the Bias-Variance Tradeoff
มุมมอง 4.3K3 ปีที่แล้ว
KNN Regression and the Bias-Variance Tradeoff
Modeling Nonlinearity: Polynomial Regression and Splines
มุมมอง 12K3 ปีที่แล้ว
Modeling Nonlinearity: Polynomial Regression and Splines
LASSO (Shrinkage/Regularization)
มุมมอง 18K3 ปีที่แล้ว
LASSO (Shrinkage/Regularization)
Variable Subset Selection
มุมมอง 2.1K3 ปีที่แล้ว
Variable Subset Selection
Cross-validation
มุมมอง 2.3K3 ปีที่แล้ว
Cross-validation
Overfitting
มุมมอง 1.6K3 ปีที่แล้ว
Overfitting
Evaluating Regression Models
มุมมอง 9K3 ปีที่แล้ว
Evaluating Regression Models
Mediation Analysis
มุมมอง 2K4 ปีที่แล้ว
Mediation Analysis
Causal Discovery
มุมมอง 4K4 ปีที่แล้ว
Causal Discovery
Sensitivity Analyses for Unmeasured Variables
มุมมอง 9K4 ปีที่แล้ว
Sensitivity Analyses for Unmeasured Variables
Estimating Causal Effects: Inverse Probability Weighting
มุมมอง 18K4 ปีที่แล้ว
Estimating Causal Effects: Inverse Probability Weighting
Estimating Causal Effects: Regression
มุมมอง 3.7K4 ปีที่แล้ว
Estimating Causal Effects: Regression
Asking Clear Questions and Building Graphs
มุมมอง 1.3K4 ปีที่แล้ว
Asking Clear Questions and Building Graphs
D-Separation
มุมมอง 5K4 ปีที่แล้ว
D-Separation
Causal and Noncausal Paths
มุมมอง 2.2K4 ปีที่แล้ว
Causal and Noncausal Paths
Key Structures in Causal Graphs
มุมมอง 3K4 ปีที่แล้ว
Key Structures in Causal Graphs
Causal Graphs as Statistical Models
มุมมอง 3.4K4 ปีที่แล้ว
Causal Graphs as Statistical Models
Introduction to Causal Graphs
มุมมอง 9K4 ปีที่แล้ว
Introduction to Causal Graphs
Study Designs in Causal Inference
มุมมอง 1.7K4 ปีที่แล้ว
Study Designs in Causal Inference
Exchangeability
มุมมอง 4.2K4 ปีที่แล้ว
Exchangeability
Defining Causal Effects
มุมมอง 6K4 ปีที่แล้ว
Defining Causal Effects
Hypothesis Testing Errors
มุมมอง 2284 ปีที่แล้ว
Hypothesis Testing Errors
Hypothesis Testing
มุมมอง 1714 ปีที่แล้ว
Hypothesis Testing
Sampling Distributions
มุมมอง 1654 ปีที่แล้ว
Sampling Distributions
Logistic Regression
มุมมอง 3474 ปีที่แล้ว
Logistic Regression

ความคิดเห็น

  • @leixiao169
    @leixiao169 8 ชั่วโมงที่ผ่านมา

    thank you very much for the good lecture!

  • @mattiamoro2050
    @mattiamoro2050 5 วันที่ผ่านมา

    Thank you this channel is carrying my exam 🫶

  • @mazharmertulukaya2091
    @mazharmertulukaya2091 25 วันที่ผ่านมา

    very good

  • @JiamuTang
    @JiamuTang หลายเดือนก่อน

    so gooooood!!

  • @danbocker7398
    @danbocker7398 หลายเดือนก่อน

    Great video - thank you

  • @RezkyIlhamSaputra
    @RezkyIlhamSaputra หลายเดือนก่อน

    Thank you very much for the wonderful explanation. I have one question regarding IPW. What are the advantages and disadvantages of IPW compared to regression? Thank you

  • @danielegreco1925
    @danielegreco1925 2 หลายเดือนก่อน

    I am often wondering why you stopped making these incredibly well-explained videos. Thanks!

  • @danielegreco1925
    @danielegreco1925 2 หลายเดือนก่อน

    Leslie's explanations are crystal clear and balanced. Awesome resource!

  • @northcarolinaname
    @northcarolinaname 3 หลายเดือนก่อน

    great explanation, thank you!

  • @DejeneBelay-f2x
    @DejeneBelay-f2x 3 หลายเดือนก่อน

    Thank

  • @joseluismartinezr.1713
    @joseluismartinezr.1713 3 หลายเดือนก่อน

    Leslie.. muy buen material.. pregunta: que debere hacer si cuento con un conjunto de datos grande en variables (o hasta cuantas variables es computacionalmente aceptable) y influyen la cantidad de observaciones? que metodo debo seguir si es incapaz de trabajar con las computadoras ..

  • @ShahFahad-ez1cm
    @ShahFahad-ez1cm 3 หลายเดือนก่อน

    the best video i have watched on statistical ml

  • @TheOnlyAndreySotnikov
    @TheOnlyAndreySotnikov 5 หลายเดือนก่อน

    One of the most significant benefits of local regression is that it allows you to easily estimate a regularized derivative. It's practically the best method for differentiating any measurements.

  • @aabhagoyal9194
    @aabhagoyal9194 8 หลายเดือนก่อน

    thanks mam

  • @mhjlakkis8038
    @mhjlakkis8038 9 หลายเดือนก่อน

    Thank you so much for this content

  • @jihu-pf1ku
    @jihu-pf1ku 9 หลายเดือนก่อน

    Awesome

  • @mikehynz
    @mikehynz 9 หลายเดือนก่อน

    Very helpful, one of the best on bagging and random forests I have seen.

  • @thilinawee
    @thilinawee 9 หลายเดือนก่อน

    Thank you for the simple explanation. I was stuck in a research paper with a causal graph diagram which did not include much information. This video saved my day <3

  • @nishah4058
    @nishah4058 9 หลายเดือนก่อน

    Hui superb lecture.. but I have one doubt I hope u will clear it. All of the videos related to lasso used regression model to explain it.. since it’s also a feature selection so can we use this as a feature selection for classification problem?? As PCA is used for both regression and classification. And moreover classifications means related to categorical data which by default convert into numerical values. So can we use lasso for classification problem also as a feature selection,if yes then why there is not any example of it? Thanx in advance

  • @paulhowrang
    @paulhowrang 10 หลายเดือนก่อน

    at 9:45 , when you divided data into two strata by education, are the graphs correct? when you select low education strata, plot Y(a=1) and Y(a=0) (treatment and no treatment), still you cannot observe contra factual, how come you have double line graph again in both cases Ya=1 and Ya=0? How are you observing both effects (doubly line graph) within both treatment and control group? Was that a hypothetical graph?

  • @aryaassadian6695
    @aryaassadian6695 10 หลายเดือนก่อน

    This way truly informative! Thanks!

  • @aravindsreekumar3278
    @aravindsreekumar3278 11 หลายเดือนก่อน

    Amazing explanation. Thank you

  • @mojtabamohtasebi6082
    @mojtabamohtasebi6082 11 หลายเดือนก่อน

    Great explanation 👌

  • @mojtabamohtasebi6082
    @mojtabamohtasebi6082 11 หลายเดือนก่อน

    Perfect

  • @nachomacho7027
    @nachomacho7027 11 หลายเดือนก่อน

    You are a goddess Leslie... your voice... your intellect <3

  • @nachomacho7027
    @nachomacho7027 11 หลายเดือนก่อน

    Finally I get this stupid topic...

  • @nachomacho7027
    @nachomacho7027 11 หลายเดือนก่อน

    these videos are all extremely well done. clean recordings, good explanations, thanks for your efforts!!

  • @davidwang8971
    @davidwang8971 ปีที่แล้ว

    great explantion! the only thing I do not understand why it is called "natural" xxxx effect? thx!

  • @xuyizhen00
    @xuyizhen00 ปีที่แล้ว

    great illustration of Verma and Pearl's inductive causation algorithm. Spirtes et al. was the first practical application of the algorithm. this video explains things better than reading a book for an hour.

  • @achmadsamjunanto6410
    @achmadsamjunanto6410 ปีที่แล้ว

    is there any cutoff, of how much the associations are called strong or not? to qualitatively change results.

  • @teddybear5828
    @teddybear5828 ปีที่แล้ว

    thx for teaching well

  • @fabianaltendorfer11
    @fabianaltendorfer11 ปีที่แล้ว

    Very cool, thank you!

  • @Alkis05
    @Alkis05 ปีที่แล้ว

    7:56 Hey, I recognize that. It's Sugeno fuzzy-logic! Makes sense, since we are talking about inference. I been wondering how one could mix graphs and fuzzy logic, but wasn't exactly looking for it. What a nice surprise.

  • @syedhasan773
    @syedhasan773 ปีที่แล้ว

    Hello miss, great video, but just one thing. How do we assume that the potential outcomes are independent of the treatment? Isn't this a bit counterintuitive? If we want to measure the causal effects between the treatment and the outcome then why are we assuming them to be independent? Thanks again for the video.

  • @deepshahsvnit
    @deepshahsvnit ปีที่แล้ว

    Please share codes in desciption box

  • @fanwinwin
    @fanwinwin ปีที่แล้ว

    great

  • @cozzel3995
    @cozzel3995 ปีที่แล้ว

    Are you by any chance Burmese? I am just curious. Thank you for the video.

  • @FernandaPeres
    @FernandaPeres ปีที่แล้ว

    Great video! Thank you very much!

  • @Zumerjud
    @Zumerjud ปีที่แล้ว

    Very easy to understand. Thank you!

  • @davidwang8971
    @davidwang8971 ปีที่แล้ว

    well-explained!

  • @davidwang8971
    @davidwang8971 ปีที่แล้ว

    This is the best expalnation for ignorability I have ever heard!

  • @alghanimaa
    @alghanimaa ปีที่แล้ว

    are there any code examples with this tutorial?

  • @alghanimaa
    @alghanimaa ปีที่แล้ว

    so you cannot have a collider in DAG? a collider is said her to be undirected...

  • @emmettfitzgerald3184
    @emmettfitzgerald3184 ปีที่แล้ว

    Awesome explanation!

  • @haoli5727
    @haoli5727 ปีที่แล้ว

    very well explained! good work!

  • @kan3259
    @kan3259 ปีที่แล้ว

    Why do we need the penalty term? can we not just have the RSS without it?

    • @lesliemyint1865
      @lesliemyint1865 ปีที่แล้ว

      Yes, we can just have RSS but just RSS can lead to an overfit model when we have lots of predictors (some of which are likely uninformative in predicting the outcome). The penalty term encourages predictors that help little to not at all be eliminated from the model.

  • @kaylairish2224
    @kaylairish2224 ปีที่แล้ว

    Thank you so much for such an amazing explanation!

  • @feifang1406
    @feifang1406 ปีที่แล้ว

    The best explanation I heard for IPW estimator!

  • @valentinrack6028
    @valentinrack6028 ปีที่แล้ว

    beutiful slides, and vey clear also. Thank u <3

  • @raquelmirman1508
    @raquelmirman1508 ปีที่แล้ว

    This was really helpful, thanks a lot!