Data Validation with Pyspark || Real Time Scenario

แชร์
ฝัง
  • เผยแพร่เมื่อ 28 ส.ค. 2024
  • In this video will discuss about , how we are going to perform data validation with pyspark Dynamically
    Data Sources Link:
    drive.google.c...
    #pyspark #databricks #dataanalytics #data #dataengineering

ความคิดเห็น • 14

  • @mohitupadhayay1439
    @mohitupadhayay1439 3 หลายเดือนก่อน

    Amazing content. Keep a playlist for Real time scenarios for Industry.

  • @vamshimerugu6184
    @vamshimerugu6184 4 หลายเดือนก่อน

    Great explanation ❤.Keep upload more content on pyspark

    • @DataSpark45
      @DataSpark45  4 หลายเดือนก่อน

      Thank you, I will

  • @ArabindaMohapatra
    @ArabindaMohapatra 3 หลายเดือนก่อน

    I just started watching this playlist. I'm hoping to learn how to deal with schema-related issues in real time.Thanks

    • @DataSpark45
      @DataSpark45  2 หลายเดือนก่อน

      Thanks a million bro

  • @ajaykiranchundi9979
    @ajaykiranchundi9979 3 หลายเดือนก่อน

    Very helpful! Thank you

  • @ComedyXRoad
    @ComedyXRoad 28 วันที่ผ่านมา

    do we apply these techniques for delta tables also

  • @listentoyourheart45
    @listentoyourheart45 8 หลายเดือนก่อน

    Nice

  • @skateforlife3679
    @skateforlife3679 8 หลายเดือนก่อน

    Cool, but is it like this every time ? Like you have a reference df containing all columns and file name / path and you have to iterate over it to see if its matching ?

  • @OmkarGurme
    @OmkarGurme 5 หลายเดือนก่อน

    while working with databricks we dont need to start a spark session right ?

    • @DataSpark45
      @DataSpark45  5 หลายเดือนก่อน +1

      No need brother, we can continue with out defining spark session, i just kept for practice

  • @World_Exploror
    @World_Exploror 6 หลายเดือนก่อน

    how did you define reference_df and control_df

    • @DataSpark45
      @DataSpark45  6 หลายเดือนก่อน

      we defined as a table in any DataBase. As of know i used them as a csv