Reading local files using Spark Data Frame APIs in Cluster Mode

แชร์
ฝัง
  • เผยแพร่เมื่อ 28 พ.ย. 2024

ความคิดเห็น • 11

  • @damangrewal2928
    @damangrewal2928 4 ปีที่แล้ว +1

    So using pandas, we still created a dataframe on gateway node. How did we pass it to the cluster (worker nodes)?

  • @ak_editz_u1341
    @ak_editz_u1341 4 ปีที่แล้ว

    can we copy the files from local to hdfs using hadoop command instead of using pandas in exam ?

  • @dailydoseofvideos55
    @dailydoseofvideos55 6 หลายเดือนก่อน

    Sir if we are using Cluster mode, is not the driver code will run in any of the worker node

    • @itversity
      @itversity  6 หลายเดือนก่อน

      That is right.

  • @anshulbisht4130
    @anshulbisht4130 4 ปีที่แล้ว

    hey durga any chance of lecture on pyspark with kafka ?

  • @ranjuthomas5629
    @ranjuthomas5629 4 ปีที่แล้ว

    Hi...How to save header of text file in hdfs? If I am trying to do df.write.option("header","true").format("text").save("/user/cloudera/output") , Header is not displaying in the hdfs output

  • @arunkumark66
    @arunkumark66 4 ปีที่แล้ว

    When you ll upload lastest course of pyspark in udemy

  • @gandlapentasabjan9115
    @gandlapentasabjan9115 3 ปีที่แล้ว

    How will signup and login slack channel . please do kindly help me

  • @simasjanusas1766
    @simasjanusas1766 ปีที่แล้ว

    I fail to accept that the best practice way of reading files from a local file system is by reading files first using pandas and converting to spark type. Looks more like a hack, not an actual method. Are there any other ways of doing that?

    • @itversity
      @itversity  ปีที่แล้ว

      This is one of the way to access the local files. With Cloud it need not be relevant any more.