BigData Thoughts
BigData Thoughts
  • 96
  • 440 300

มุมมอง: 0

วีดีโอ

All about spark tuningAll about spark tuning
All about spark tuning
มุมมอง 254หลายเดือนก่อน
All you need to know about Spark MonitoringAll you need to know about Spark Monitoring
All you need to know about Spark Monitoring
มุมมอง 4582 หลายเดือนก่อน
All you need to know about Spark Monitoring - Ways to Monitor - WebUI - History Server - REST API - External Instrumentation
Google Gemini vs ChatGPTGoogle Gemini vs ChatGPT
Google Gemini vs ChatGPT
มุมมอง 914 หลายเดือนก่อน
Google Gemini vs ChatGPT
What is generative AIWhat is generative AI
What is generative AI
มุมมอง 2265 หลายเดือนก่อน
What is AI What is generative AI Large language model (LLM) use cases challenges
Stream Processing FundamentalsStream Processing Fundamentals
Stream Processing Fundamentals
มุมมอง 2395 หลายเดือนก่อน
Stream Processing Fundamentals What is stream processing Stream and batch combination Benefits Challenges Design considerations
Evolution of Data Architectures in last 40 yearsEvolution of Data Architectures in last 40 years
Evolution of Data Architectures in last 40 years
มุมมอง 4286 หลายเดือนก่อน
Evolution of Data Architectures -The Landscape -RDBMS -Datawarehouse -Data lake -Why data lakes? -Data lakehouse
Spark low level API Distributed variablesSpark low level API Distributed variables
Spark low level API Distributed variables
มุมมอง 3729 หลายเดือนก่อน
Different APIs offered by Spark What are low level APIs ? Why are they needed? Types of low level API What are distributed variables ? Distributed variable types Broadcast variables Why are Broadcast Variables better ? Accumulators
Spark low level API - RDDsSpark low level API - RDDs
Spark low level API - RDDs
มุมมอง 4449 หลายเดือนก่อน
Different APIs offered by Spark What are low level APIs ? Why are they needed? Types of low level API What is RDD? Internals of RDD RDD API Types of RDD Creating RDDs Transformations on RDD Actions of RDD
Spark structured API - Dataframe and DatasetsSpark structured API - Dataframe and Datasets
Spark structured API - Dataframe and Datasets
มุมมอง 88510 หลายเดือนก่อน
Spark structured API - Dataframe and Datasets - Structured and unstructured APIs - Dataframe and Datasets - Row Object - Schema - Column - Column as logical tree - Dataset - when to use Dataset
Spark structured API - DataframeSpark structured API - Dataframe
Spark structured API - Dataframe
มุมมอง 84311 หลายเดือนก่อน
This video explains about - High level structured API Dataframe - How spark executes user code - All the steps that are needed to create a DAG
Spark Architecture in Depth Part2Spark Architecture in Depth Part2
Spark Architecture in Depth Part2
มุมมอง 2.2K11 หลายเดือนก่อน
Spark Architecture in Depth Part 2 - Spark Architecture - Spark APIs - transformation vs actions with examples - End to end example to explain spark execution -
Spark Architecture in Depth Part1Spark Architecture in Depth Part1
Spark Architecture in Depth Part1
มุมมอง 3.8Kปีที่แล้ว
Spark Architecture in Depth - Driver - Executor - Cluster Manager - Data frame - Partition - Transformations - Narrow - Wide
All About Continuous IntegrationAll About Continuous Integration
All About Continuous Integration
มุมมอง 426ปีที่แล้ว
Top 3 file formats frequently used in bigdata worldTop 3 file formats frequently used in bigdata world
Top 3 file formats frequently used in bigdata world
มุมมอง 669ปีที่แล้ว
Top 3 file formats frequently used in bigdata world
Understanding Spark ExecutionUnderstanding Spark Execution
Understanding Spark Execution
มุมมอง 2Kปีที่แล้ว

ความคิดเห็น

  • @shubhamdaundkar8327
    @shubhamdaundkar8327 วันที่ผ่านมา

    Hello Shreya, Can you make a video of hand on Data ingestion in AWS S3?

  • @yashawanthraj8872
    @yashawanthraj8872 15 วันที่ผ่านมา

    Can Node/Thread have more partition than no of executors, if yes where the no of partition information will be stored.

  • @gvnreddy2244
    @gvnreddy2244 20 วันที่ผ่านมา

    Very good session mam if it was a practically show means it is very useful. thank you for your efforts

  • @nishchaysharma5904
    @nishchaysharma5904 22 วันที่ผ่านมา

    Thank you for this video.

  • @vaibhavjoshi6853
    @vaibhavjoshi6853 24 วันที่ผ่านมา

    Getting confidence in spark because of you only. Thanks so so much!

  • @ambar752
    @ambar752 29 วันที่ผ่านมา

    To summarize, what the Datamarts are for a DataWarehouse, same are the DataMesh for a DataLake

  • @rovashri566
    @rovashri566 หลายเดือนก่อน

    How did you make such a good visual explanation? Which tool you used to draw sketches ? Pls guide 🙏

  • @muralichiyan
    @muralichiyan หลายเดือนก่อน

    Data mesh and snowflake same..? Data mesh and microsoft fabric same?

  • @Learn2Share786
    @Learn2Share786 หลายเดือนก่อน

    Thanks, appreciate it.. is there a plan to post practical videos around spark performance tuning?

  • @user-zb9hm5yh1m
    @user-zb9hm5yh1m หลายเดือนก่อน

    Thank you for sharing your thoughts.

  • @BishalKarki-pe8hs
    @BishalKarki-pe8hs หลายเดือนก่อน

    this is not excatly asnwer

  • @ranyasri1092
    @ranyasri1092 หลายเดือนก่อน

    Please do videos with sample data sets so that it would help for hands on

  • @mindwithcuriosity5347
    @mindwithcuriosity5347 หลายเดือนก่อน

    Seems it is PAAS as mentioned on Microsoft website

  • @sanketdhamane5941
    @sanketdhamane5941 2 หลายเดือนก่อน

    Really Thanks to Good And Indepth Explantion

  • @sindhuchowdary572
    @sindhuchowdary572 2 หลายเดือนก่อน

    lets say there is no change in records for the next day.. then.. does the data gets overwrite again?? with same records..??

    • @BigDataThoughts
      @BigDataThoughts 2 หลายเดือนก่อน

      No we are only taking the new differential data when we do CDC

  • @sunnyd9878
    @sunnyd9878 2 หลายเดือนก่อน

    This is excellent and valuable knowledge sharing... Easily one can make out these trainings are coming out of personal deep hands-on experience and not the mere theory ..Great work

  • @Learn2Share786
    @Learn2Share786 2 หลายเดือนก่อน

    Thank you, pls also post some practical videos around the same topic

  • @user-zb9hm5yh1m
    @user-zb9hm5yh1m 2 หลายเดือนก่อน

    Thank you for sharing thoughts

  • @KiranKumar-cg3yg
    @KiranKumar-cg3yg 2 หลายเดือนก่อน

    First one to monitor the notification from you

  • @ahmedaly6999
    @ahmedaly6999 2 หลายเดือนก่อน

    how i join small table with big table but i want to fetch all the data in small table like the small table is 100k record and large table is 1 milion record df = smalldf.join(largedf, smalldf.id==largedf.id , how = 'left_outerjoin') it makes out of memory and i cant do broadcast the small df idont know why what is best case here pls help

  • @harigovindk
    @harigovindk 3 หลายเดือนก่อน

    18/april/2024

  • @karthikeyanr1171
    @karthikeyanr1171 3 หลายเดือนก่อน

    your videos on spark are hidden gems

  • @mdatasoft1525
    @mdatasoft1525 3 หลายเดือนก่อน

  • @mdatasoft1525
    @mdatasoft1525 3 หลายเดือนก่อน

  • @rupaghosh6251
    @rupaghosh6251 3 หลายเดือนก่อน

    Nice explanation

  • @RameshKumar-ng3nf
    @RameshKumar-ng3nf 3 หลายเดือนก่อน

    At the start of the video i was so happy seing all the diagrams.. Later got fully confused & felt complicated and i didnt understand well 😢

  • @nahomg.4191
    @nahomg.4191 3 หลายเดือนก่อน

    I wish I could give 1000 likes. You’re an excellent teacher!

  • @user-eg9ed5nr8z
    @user-eg9ed5nr8z 3 หลายเดือนก่อน

    Nice explaination

  • @amitgupta3
    @amitgupta3 3 หลายเดือนก่อน

    found it helpful. You may go slower though. I had to stop and rewind few times.

  • @husnabanu4370
    @husnabanu4370 3 หลายเดือนก่อน

    what a wonderfull explanation to the point... thank you

  • @sumonmal009
    @sumonmal009 3 หลายเดือนก่อน

    Good playlist for Spark th-cam.com/play/PL1RS9FR9qIPEAtSWX3rKLVcRWoaBDqVBV.html

  • @mohnishverma87
    @mohnishverma87 4 หลายเดือนก่อน

    Just woow, very simple explanation of a complex cluster overview.. Thanks.

  • @masoom002
    @masoom002 4 หลายเดือนก่อน

    best explanation ever i came across on TH-cam. watching all the parts .... Thank you for explaining it so smoothly.

  • @user-zb9hm5yh1m
    @user-zb9hm5yh1m 4 หลายเดือนก่อน

    Thank you for sharing thoughts!

  • @utsavchanda4190
    @utsavchanda4190 4 หลายเดือนก่อน

    That was very well explained. Thank you for putting this together. One question though, do you really think data modelling should be done on the Gold layer? I don't think so because Gold datasets are just busineess level aggregates suited to particular business consumption needs. Whereas Silver layer is the warehouse in Lakehouse. That is where modelling should be done, if needed.

  • @shrabanti84
    @shrabanti84 4 หลายเดือนก่อน

    Thank you so much.. all the vdos are very much clear and effective.

  • @user-zb9hm5yh1m
    @user-zb9hm5yh1m 4 หลายเดือนก่อน

    Thank you for sharing your thoughts.

  • @deepalirathod4929
    @deepalirathod4929 4 หลายเดือนก่อน

    Finally it got cleared to me after reading here and there . thank you .

  • @himanshupandey8576
    @himanshupandey8576 4 หลายเดือนก่อน

    one of the helpful session !

  • @Learn2Share786
    @Learn2Share786 4 หลายเดือนก่อน

    Nicely explained, thank you ..looking forward to learn more around this topic

  • @srinivas123j
    @srinivas123j 4 หลายเดือนก่อน

    well explained!!!

  • @srinivas123j
    @srinivas123j 4 หลายเดือนก่อน

    Well explained!!!

  • @srinivas123j
    @srinivas123j 4 หลายเดือนก่อน

    well explained!!

  • @srinivas123j
    @srinivas123j 4 หลายเดือนก่อน

    well explained

  • @user-zm2me1gc5z
    @user-zm2me1gc5z 4 หลายเดือนก่อน

    Nicely explained and thanks. helping a lot

  • @hlearningkids
    @hlearningkids 4 หลายเดือนก่อน

    kindly do similar simple thing for dataproc also bigquery.

  • @user-fz4in8bf1y
    @user-fz4in8bf1y 5 หลายเดือนก่อน

    Thank you for the detailed explanation. However the problems that I faced with reading dates prior to 1900, does not resolve even after setting all the mentioned properties. Does any one have a working example that solved the issue of reading dates prior to 1900. Below is the code that I added but did not work. conf = sparkContext.getConf() conf.set("spark.sql.legacy.parquet.datetimeRebaseModeInRead", "CORRECTED") conf.set("spark.sql.legacy.parquet.datetimeRebaseModeInWrite", "CORRECTED") conf.set("spark.sql.datetime.java8API.enabled", "true")

  • @hlearningkids
    @hlearningkids 5 หลายเดือนก่อน

    Very good information 🎉

  • @hlearningkids
    @hlearningkids 5 หลายเดือนก่อน

    Very nice 👍

    • @BigDataThoughts
      @BigDataThoughts 5 หลายเดือนก่อน

      Thanks

    • @hlearningkids
      @hlearningkids 4 หลายเดือนก่อน

      @@BigDataThoughts did you explained in this style big query also. ? improvement in this video can be summary in slow way. please dont get hurt because i gave comment. you did really well in video. excellent explanation.

  • @vishalmehta5171
    @vishalmehta5171 5 หลายเดือนก่อน

    Can you make a content on JVON separate?