Boost Next.js App Speed With Groq LLM Integration: Fast AI Token Processing Tutorial! | Gui Bibeau

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ม.ค. 2025

ความคิดเห็น • 14

  • @AgentGill74
    @AgentGill74 2 หลายเดือนก่อน +1

    Yes great stuff, exactly what I was looking for!

    • @guibibeau
      @guibibeau  2 หลายเดือนก่อน

      So soGlad you liked it!

  • @toby_solutions
    @toby_solutions 5 หลายเดือนก่อน +1

    Succint, direct and motivating. Resuming my online content more soon!

    • @guibibeau
      @guibibeau  5 หลายเดือนก่อน +1

      Glad you liked it! Churning out more of those to empty my brain of all the valuable informations inlearn

    • @toby_solutions
      @toby_solutions 5 หลายเดือนก่อน

      @@guibibeau The world thanks you!! Would personally appreciate more of these.

  • @dappadandev
    @dappadandev 5 หลายเดือนก่อน +1

    Great stuff, just the tutorial I was looking for!

    • @guibibeau
      @guibibeau  5 หลายเดือนก่อน

      Thanks for the comment

  • @iamtofu7408
    @iamtofu7408 3 หลายเดือนก่อน +1

    Great content, and straight to the point. Thank you! Btw what tool are you using for recording your cam and screen at the same time?

    • @guibibeau
      @guibibeau  3 หลายเดือนก่อน

      The name is screen studio

  • @toby_solutions
    @toby_solutions 5 หลายเดือนก่อน

    Amazing!!

  • @flamethrower883
    @flamethrower883 2 หลายเดือนก่อน +1

    Awesome overview, do you have the repo public?

    • @guibibeau
      @guibibeau  2 หลายเดือนก่อน

      So sorry for forgetting!
      github.com/GuiBibeau/groq-nextjs-demo

  • @mrwhitegg702
    @mrwhitegg702 3 หลายเดือนก่อน +1

    is this free sir

    • @guibibeau
      @guibibeau  3 หลายเดือนก่อน +1

      Super cheap. They have are running a beta program but when they start charging it’s likely some of the cheapest inference APi around.