How to Bulk Insert Data With Laravel

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 ม.ค. 2025

ความคิดเห็น • 44

  • @bankai7654
    @bankai7654 2 หลายเดือนก่อน +2

    No Jobs, No saving files somewhere. The best explanation. Love it. Liked, subscribed. ❤

  • @vartisan
    @vartisan 2 หลายเดือนก่อน

    Great video! One thing to consider, though, is how this approach handles untrusted CSV files. Using methods like LOAD DATA INFILE is incredibly efficient but might not be safe when importing data from untrusted sources. Since this method doesn't allow for row-by-row validation or sanitization, it could introduce security risks like SQL injection or data corruption.

  • @biryuk88
    @biryuk88 10 หลายเดือนก่อน +4

    Great speaker and a useful video! Thanks 👍

  • @OliverKurmis
    @OliverKurmis 10 หลายเดือนก่อน +4

    Using DB:: instead of the Model class should speed up the process quite a bit

  • @DirkZz
    @DirkZz 10 หลายเดือนก่อน

    Truely went all the way with the bulk insert scenarios, good vid!

  • @JoseFranciscoIT
    @JoseFranciscoIT 10 หลายเดือนก่อน +1

    Thanks for the video.. One Note: Disabling foreign key check in a production app, can lead to slowdown or worst case an error inserting an id a does not exists on parent, so for your safety i would skip disabling foreign key check

  • @arthmelikyan
    @arthmelikyan 10 หลายเดือนก่อน +2

    I think using queues with chunking is also useful in this case, e.g chunking the file and storing 10k records into the database during each queue iteration

    • @blank001
      @blank001 10 หลายเดือนก่อน

      If possible I would recommend you not to use this method because when queuing you are essentially writing to DB 2 times for each queue, 1 for queue and 2nd for the actual record
      If your are using redis then that's an ok ok case

    • @arthmelikyan
      @arthmelikyan 10 หลายเดือนก่อน

      ​sure I'm about redis driver not DB

  • @swancompany_inc
    @swancompany_inc 10 หลายเดือนก่อน

    This is a great larabit. Thanks for the video Jeremy!

  • @shaikhanuman8012
    @shaikhanuman8012 10 หลายเดือนก่อน

    great content, tqs for sharing valuable information with laravel developers, tq you very much.

  • @vic_casanas
    @vic_casanas 10 หลายเดือนก่อน

    Wooooow great video, super useful, please more like this 🤩

  • @edventuretech
    @edventuretech 10 หลายเดือนก่อน

    Thank you for sharing such a value and informative video.
    This is my first time reaching your channel. I am gonna follow you and share this vid.
    I have a question.
    Is it suitable to use Transaction and Commit for bulking tons of record like this?

  • @MT87840
    @MT87840 10 หลายเดือนก่อน +2

    What a great topic!

  • @shahzadwaris7193
    @shahzadwaris7193 10 หลายเดือนก่อน

    Hi, This is a great way of inserting for a single table and where don't need to perform any functionality but if we want to perform some functionality and store the data in to different tables. Can you please cover that topic as well? I know that can be handled with queues but I wasn't able to implement it in an efficient way instead I overloaded the database with many mini jobs.

  • @grugbrain
    @grugbrain 10 หลายเดือนก่อน

    Amazing. Please share some ideas about database design for scalable Laravel app.

  • @franciscojunior2141
    @franciscojunior2141 10 หลายเดือนก่อน

    That’s amazing, thanks for the video, excellent well done 👍🏽

  • @muhamadfikri7263
    @muhamadfikri7263 10 หลายเดือนก่อน +1

    Great 🔥 what the name theme vscode?

  • @docetapedro5007
    @docetapedro5007 10 หลายเดือนก่อน

    Can I use bulk insert to get data from api and insert to my database?

  • @FahadTariq-x3q
    @FahadTariq-x3q 9 หลายเดือนก่อน

    Which platform you use in which you give that data and just say do it.?

  • @hkhdev95
    @hkhdev95 5 หลายเดือนก่อน

    Amazing tut, thanks

  • @АртурЗарипов-б2й
    @АртурЗарипов-б2й 10 หลายเดือนก่อน

    Good job! Thank you very much!

  • @underflowexception
    @underflowexception 10 หลายเดือนก่อน

    What about exporting INSERT statements to a SQL file and using MySQL dump to import the file? Would that be more memory efficient in some cases?

    • @arthmelikyan
      @arthmelikyan 10 หลายเดือนก่อน

      I don't think so, in that case you will add one more useless step which is writing/creating a new file and it is not memory efficient because you will take the same data and put into the sql file... also insert query is limited, you can't inert 1M rows at once by default.
      instead you can immidiatelly insert prepared data into the database and clean the memory. Using queues can also help, you can send a notification to user saying "your data insert is in progress", and then notify if the process is finished, in this case the user will not wait 20/60/80+ seconds to receive a response from the server

  • @wadecodez
    @wadecodez 10 หลายเดือนก่อน

    did not know about infile, thanks!

  • @yasser.elgammal
    @yasser.elgammal 10 หลายเดือนก่อน

    Great Topic, Thank you

  • @rafamorawiec
    @rafamorawiec 5 หลายเดือนก่อน

    Great video but last option is good only for simple import. If you need some checking, other laravel/php stuff to do before/during insert then we are doomed :D

  • @ParsclickTV
    @ParsclickTV 10 หลายเดือนก่อน

    very useful video

  • @IndraKurniawan
    @IndraKurniawan 10 หลายเดือนก่อน

    Chunking is way more available than threading. Still better than none at all.

  • @BruceEmmanuelSueira
    @BruceEmmanuelSueira 10 หลายเดือนก่อน

    That's amazing! Thanks you

  • @SemenP-i4x
    @SemenP-i4x 8 หลายเดือนก่อน

    Extremely cool, yeah

  • @bryanhalstead
    @bryanhalstead 10 หลายเดือนก่อน

    I won't fight you. Thanks 🙂

  • @mouhamaddiop1144
    @mouhamaddiop1144 10 หลายเดือนก่อน

    Just amazing

  • @gabrielborges1185
    @gabrielborges1185 10 หลายเดือนก่อน

    Fantastic.

  • @keyvanakbarzadeh
    @keyvanakbarzadeh หลายเดือนก่อน

    fantastic

  • @wadday
    @wadday 10 หลายเดือนก่อน

    What if we collect the information into an array named $data during the loop and then execute a single database insert query, similar to using Model::query()->insert($data);?

    • @tass2001
      @tass2001 10 หลายเดือนก่อน +1

      You can end up backing yourself into the corner of exceeding the max_allowed_packet size for the DBMS or depending on the load the DBMS is enduring, you could bring the application to a halt because of row locks. I would batch it into sensible chunks - 100-1000 records at a time depending on your dataset.

  • @GergelyCsermely
    @GergelyCsermely 10 หลายเดือนก่อน

    thanks

  • @michalbany5162
    @michalbany5162 10 หลายเดือนก่อน

    very good

  • @Fever1984
    @Fever1984 9 หลายเดือนก่อน

    League/csv has been using generators for a long tim e now. I don't g et why you would use laravel and then not use a package like csv/league

  • @bidhanbaniya7605
    @bidhanbaniya7605 10 หลายเดือนก่อน

    You Could Have used Job here

  • @mohammadashrafuddinferdous9347
    @mohammadashrafuddinferdous9347 10 หลายเดือนก่อน +1

    Note for me before watching the full video: php generator will be the option to read such big sized files line by line. Lets see if I am right or wrong.