Create a custom GPT from a URL in 2 minutes

แชร์
ฝัง
  • เผยแพร่เมื่อ 13 พ.ย. 2023
  • Learn more in the announcement blog post: www.builder.io/blog/custom-gpt
    #javascript #typescript #developer #ai #gpt

ความคิดเห็น • 45

  • @Steve8708
    @Steve8708  7 หลายเดือนก่อน +3

    Try it yourself: www.builder.io/blog/custom-gpt

  • @ahabibe
    @ahabibe 7 หลายเดือนก่อน +11

    Non-stop top shelf content, thanks Steve.

  • @FlygOnLiTe
    @FlygOnLiTe 7 หลายเดือนก่อน +3

    This is sick!!! Been wanting this since GPT came out

  • @SamFromaway
    @SamFromaway 7 หลายเดือนก่อน +1

    I just tried it. It works like a charm. Amazing work!

  • @dromerdev
    @dromerdev 7 หลายเดือนก่อน +1

    Nice video! Thanks for making these awesome videos

  • @InnocenceVVX
    @InnocenceVVX 3 หลายเดือนก่อน

    Great stuff Steve, really enjoying your content. What route would you advise to go from an unstructured individual pdf to a structured json output with the help of an api?

  • @nro337
    @nro337 7 หลายเดือนก่อน

    Awesome stuff!

  • @2an_sound
    @2an_sound 5 หลายเดือนก่อน

    Amazing - thank you for making this available to everyone! Have you experimented with a different approach like creating separate text files for each URL? I've seen a few developers say it helps the GPT or Assistant return more accurate/relevant results compared to one large file.

  • @anoniem012
    @anoniem012 3 หลายเดือนก่อน

    Fast and clear!

  • @itsmestevieg81
    @itsmestevieg81 7 หลายเดือนก่อน

    Legend! Thanks so much

  • @oscarmendez9079
    @oscarmendez9079 7 หลายเดือนก่อน

    Thanks it worked! This is awesome🎉

  • @davidkwon1233
    @davidkwon1233 7 หลายเดือนก่อน

    You are amazing, thank you so much

  • @moellerseo
    @moellerseo 4 หลายเดือนก่อน

    ❤ thanks for the tip
    Thats great

  • @WorldWaterWars14
    @WorldWaterWars14 6 หลายเดือนก่อน

    Hey Steve, question for you: does the crawler also create a log file so that I can go look and see which URL's had a crawling error? Or is there a way to view my console log files in general?

  • @saadowain3511
    @saadowain3511 4 หลายเดือนก่อน

    Man you are so generous

  • @TheStandard_io
    @TheStandard_io 6 หลายเดือนก่อน

    would love to include images so the GPT can look at screengrabs in the docs

  • @parkerrex
    @parkerrex 6 หลายเดือนก่อน

    Yep, this bangs.

  • @turahtid
    @turahtid 7 หลายเดือนก่อน

    How do you know what to put for the selector?

  • @bajuhitam1005
    @bajuhitam1005 7 หลายเดือนก่อน +2

    i tried to crawl laravel documentation, but i dont know what to fill in selector

  • @ChrisLaupama
    @ChrisLaupama 7 หลายเดือนก่อน

    This is the sauce right here.

  • @gemnewyork
    @gemnewyork 5 หลายเดือนก่อน

    do you think you can help me with setting up something similar for a unique use case?

  • @muralig7359
    @muralig7359 7 หลายเดือนก่อน

    Would like to integrate this open ai created assistant to my website. Any specific video or article to explore ???

  • @SimenStaabyKnudsen
    @SimenStaabyKnudsen 7 หลายเดือนก่อน +1

    This is great, thanks! So how do I find the correct selector for my page? I am inspecting the page and trying out some names for the selector I think is correct, but is does seem to be because I am getting errors. I am inspecting your site to see what you take as selector. When I try that "div" name under "main" as you do, it does seem to work for me for other pages. Any ideas? Thanks

    • @vegangaymerplays
      @vegangaymerplays 7 หลายเดือนก่อน

      I'm having the same problem.

    • @rodrigoillas6085
      @rodrigoillas6085 5 หลายเดือนก่อน

      same@@vegangaymerplays

  • @peterrogu153
    @peterrogu153 2 หลายเดือนก่อน

    Does this work on sites that have pdf knowledge base? Or only scrapes the body html?

  • @charleslegare5462
    @charleslegare5462 4 หลายเดือนก่อน

    Wondering if there is some kind of tool similar to this that we could potentially crawl thousands of client email and awnser that will help to build an nosql database to be query by an ai..

  • @FP8J
    @FP8J 4 หลายเดือนก่อน

    How does this work with links locked behind auth?

  • @AIGooroo
    @AIGooroo 4 หลายเดือนก่อน

    what if the website needs authorization? is it possible? Thank you

  • @user-xs1hd3rb1v
    @user-xs1hd3rb1v 5 หลายเดือนก่อน

    @Steve8708 - thank you for this great video. I am trying to use this for a website that is not public. How can I customize the crawler to log into a site and crawl non-public information? The crawler shut down with this message - Reclaiming failed request back to the list or queue. page.title: Execution context was destroyed, most likely because of a navigation. The output-1.json file had just one entry with the following html" Sign in
    Can’t access your account?


    Terms of use Privacy & cookies ..."

  • @rodrigorb2630
    @rodrigorb2630 7 หลายเดือนก่อน

    Does it handle docs behind auth?

    • @Steve8708
      @Steve8708  7 หลายเดือนก่อน +1

      It uses a headless browser so can be customized to do that

  • @berkerdemirer7982
    @berkerdemirer7982 7 หลายเดือนก่อน

    Is it possible to prevent gpt to use this information that we supply? my company wouldn't want to make the information public for example

    • @Steve8708
      @Steve8708  7 หลายเดือนก่อน

      To my knowledge yes. While it will be shared with OpenAI, they say they don’t use any of the data for training purposes

  • @SimenStaabyKnudsen
    @SimenStaabyKnudsen 7 หลายเดือนก่อน +1

    What is the difference between doing this, and just creating a custom gpt that can scrape a site directly? GPT builder can search the web!

    • @mrloofer72
      @mrloofer72 7 หลายเดือนก่อน

      GPT Builder can’t crawl a specific website.

    • @DRILLREPRESENT
      @DRILLREPRESENT 7 หลายเดือนก่อน

      @@mrloofer72 But for what use cases i can use this?

  • @mrloofer72
    @mrloofer72 7 หลายเดือนก่อน +2

    Not a very good scraper if it has to rely on finding the selector for the website first.

    • @ilahazs
      @ilahazs 5 หลายเดือนก่อน

      is there any scraper without manually select dom?

  • @0xtz_
    @0xtz_ 7 หลายเดือนก่อน

    adding Next.js 14 + shadcn... Hhhhh