Managed and External Delta Tables in Databricks| DataFrame and Spark SQL way

แชร์
ฝัง
  • เผยแพร่เมื่อ 14 ม.ค. 2025

ความคิดเห็น • 10

  • @rabink.5115
    @rabink.5115 4 หลายเดือนก่อน +2

    At 5:01, you mentioned metadata for external table stored in the storage path mentioned in the syntax. I had a doubt for it. Only, the data got stored in the path mentioned, the metadata is always stored inside the databricks irrespective of table type. Correct me, if I understand wrong.

    • @santoshatyam1409
      @santoshatyam1409 4 หลายเดือนก่อน

      I think you are correct

    • @vishoonaik
      @vishoonaik 2 หลายเดือนก่อน

      Yes, Data is stored in external location. That's what if you drop the table, data still exists in external location.

  • @anagaraj4706
    @anagaraj4706 2 หลายเดือนก่อน +1

    audio-video is not aligned for this video. please check

  • @suvakantasahoo7546
    @suvakantasahoo7546 ปีที่แล้ว +5

    audio with video is mismatching

  • @SunilKumar-hq6bt
    @SunilKumar-hq6bt 2 หลายเดือนก่อน +1

    The data for the external tables are stored in cloud and metadata is stored with in databricks.

  • @JD-xd3xp
    @JD-xd3xp ปีที่แล้ว +4

    audio-video is not aligned

  • @snagendra5415
    @snagendra5415 ปีที่แล้ว

    Bro, If I want to delete external table completely, then how to do it? Please tell me

    • @IrfanMohammed-n6r
      @IrfanMohammed-n6r 5 หลายเดือนก่อน

      When it comes to external tables, you can only delete their schema or table in database. To delete the underlying data, you need to either delete the entire folder which was using that location for external table or delete files inside that folder.

  • @surajwagh1990
    @surajwagh1990 10 หลายเดือนก่อน

    Could you please create video on workflow job