ChatGPT Running Locally on Raspberry Pi (ft. Ryan Reynolds)

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ต.ค. 2024
  • Is it just me or does Ryan look different?
    Full Tutorial Instructions Here: bit.ly/gpt-on-rpi
    Order the NEW Tinker Project Ultimate Dev Kit Here 👉 tinkerprojects...
    In this tutorial, I guide you through setting up ChatGPT on a Raspberry Pi, allowing you to chat seamlessly with advanced AI models. Perfect for AI enthusiasts, Raspberry Pi users, and DIY tech lovers!
    🔗 Links:
    Step-by-Step Tutorial: bit.ly/gpt-on-rpi
    GitHub Source Code for alpaca.cpp: github.com/ant...
    Download Model Weights from HuggingFace: huggingface.co...
    Instructions:
    Choose your OS-specific zip from alpaca.cpp releases (including alpaca-win, alpaca-mac, alpaca-linux).
    Pair downloaded model weights with the 'chat' executable.
    Launch & initiate an interactive chat with AI on Mac/Linux using ./chat or on Windows via .\Release\chat.exe.
    Build from Source: For hardcore DIY fans, we've got detailed build-from-source instructions.
    🔥 Highlight: Meta's LLaMA - Pioneering the Future of NLP
    Discover Meta's groundbreaking Large Language Model, LLaMA. It's a revolutionary step towards democratizing AI and making top-notch NLP accessible to all, even those with constrained resources.
    LLaMA Features:
    Ranges from 7B to an impressive 65B parameters.
    Rigorous training with up to a staggering 1.4 trillion tokens.
    Designed with versatility to combat biases and toxicities.
    At the core of our mission? Combining cutting-edge research with responsibility. We're dedicated to minimizing biases in AI. By offering conditional access to LLaMA, we prioritize ethical AI use and champion significant AI breakthroughs.
    Apply for LLaMA Access: Dive deep into our research paper for more insights.
    Join us in shaping a collective AI future, pooling knowledge from academia, the tech industry, and policy-makers. Can't wait to see the innovations you'll spark with LLaMA!

ความคิดเห็น • 257

  • @DataSlayerMedia
    @DataSlayerMedia  11 หลายเดือนก่อน +93

    Full Tutorial Instructions Here 👉 bit.ly/gpt-on-rpi

    • @Meow-fx1ws
      @Meow-fx1ws 10 หลายเดือนก่อน +2

      Use text to speech to transfer your question and a small speaker connected to get answer .plz you can do this

    • @peterbelanger4094
      @peterbelanger4094 8 หลายเดือนก่อน +17

      reported for misleading. Llama is NOT ChatGPT. and you show a Pico in the thumbnail, but actually install on a full size Pi.

    • @insertthecoinz
      @insertthecoinz 5 หลายเดือนก่อน

      ​@@peterbelanger4094lol reported? TH-cam don't care for ya false claims karen

    • @toyotaae86trueno
      @toyotaae86trueno 5 หลายเดือนก่อน

      ​@@peterbelanger4094 unfunny nerd

  • @chadisleiman4195
    @chadisleiman4195 4 หลายเดือนก่อน +611

    "Running ChatGPT on raspberry pi!" Proceeds to install llama....what's wrong with you?

    • @innovationscode9909
      @innovationscode9909 4 หลายเดือนก่อน +3

      😂

    • @zephyr3656
      @zephyr3656 4 หลายเดือนก่อน +70

      ChatGPT attracts more people, usual clickbait

    • @AndersJackson
      @AndersJackson 4 หลายเดือนก่อน +15

      Yes, and Click Bsit are NOT cool.

    • @sabianwarner5316
      @sabianwarner5316 4 หลายเดือนก่อน +5

      Chatgpt is quite literally a llm like most llama models, what is your point? Most people will not know what "llama running locally on a rapsberry Pi" means.

    • @chadisleiman4195
      @chadisleiman4195 4 หลายเดือนก่อน +10

      Basically instead of teaching ppl you used buzz words to get views. That's my point. Anyway, guess I can't judge. Don't know much about having a youtube channel.

  • @Ramattrius
    @Ramattrius 11 หลายเดือนก่อน +368

    Did he seriously just call like at most a 7B parameter AI model available for free on HuggingFace 'ChatGPT'?

    • @SirTodd
      @SirTodd 10 หลายเดือนก่อน +38

      well, AKSHUALLY...
      professional research has been done and with recent distillation algs are producing LLMs that are consistently outperforming OpenAIs ChatGPT significantly.
      for example, X's Grok LLM is quantized approx ⅓ of ChatGPT 4 and outperforms it on every single benchmark. also, to be fair, X even used OpenAIs own benchmarking tests, which should have given them the upper hand.
      also, keep in mind that it only took the team behind Grok ~6 months to revolutionize LLM's. AI is moving at break neck speeds and the more advanced it gets will make it that much quicker to develop and implement much more powerful, efficient and extremely accurate models.

    • @cyrilogoh6171
      @cyrilogoh6171 10 หลายเดือนก่อน +9

      I was kinda piss like this is a win for meta give them their appreciation

    • @Danefrak
      @Danefrak 9 หลายเดือนก่อน +2

      ​@@SirToddmeme boy

    • @AH-hp5jz
      @AH-hp5jz 9 หลายเดือนก่อน +3

      Well, my guess is he used the llamaindex and embedded an OpenAI Model, which connects to the OpenAi API using the API key that one can get from his OpenAI account. This is probably also the reason he called it ChatGPT, because the OpenAI API used to use GPT 3.5 Turbo Up until recently. But I'm not sure either 🤷

    • @AH-hp5jz
      @AH-hp5jz 9 หลายเดือนก่อน +5

      Nevermind, rewatching the video, the console definitely wasn't outputting the correct GPT code, you were absolutely right

  • @geeksandfilms4118
    @geeksandfilms4118 ปีที่แล้ว +456

    Bruh that ain’t Ryan Reynolds that’s Bryan Brainolds

    • @theantil7
      @theantil7 5 หลายเดือนก่อน +5

      Reynan Rynolds

    • @icee3126
      @icee3126 2 หลายเดือนก่อน +1

      Ha! A marvel jesus

  • @dishcleaner2
    @dishcleaner2 4 หลายเดือนก่อน +86

    Clickbait. Take the microcontroller model out of the thumbnail

    • @Hermitmaster
      @Hermitmaster 3 หลายเดือนก่อน +3

      Sick of this guy and his bait. Blocking.

    • @Ivory_Velvet
      @Ivory_Velvet 2 หลายเดือนก่อน +3

      Fr, the whole reason I clicked on this is because of the thumbnail.

    • @timmmm5012
      @timmmm5012 25 วันที่ผ่านมา

      you can't change thumbnails on shorts. youtube decides them for you.

    • @Hermitmaster
      @Hermitmaster 24 วันที่ผ่านมา

      @@timmmm5012 You definitely can, it's part of the upload process.

  • @ashissoback
    @ashissoback 11 หลายเดือนก่อน +94

    That’s not chatgpt, that’s facebook’s LLM

  • @FlyingMilton
    @FlyingMilton 11 หลายเดือนก่อน +77

    That had nothing to do with a Pi Pico. Why show it?

    • @TheNpcNoob
      @TheNpcNoob 8 หลายเดือนก่อน +14

      Because clickbait lol

    • @justinnamuco9096
      @justinnamuco9096 7 หลายเดือนก่อน +3

      I thought he just didn't know the difference

    • @Jblow-u2m
      @Jblow-u2m 5 หลายเดือนก่อน

      He didn't say pico

    • @FlyingMilton
      @FlyingMilton 5 หลายเดือนก่อน +1

      @@Jblow-u2m there’s a pico in the thumbnail

    • @sentientprogram9699
      @sentientprogram9699 5 หลายเดือนก่อน +1

      came here to say this too, wtf man lol

  • @hamnuggets
    @hamnuggets 11 หลายเดือนก่อน +82

    "i don't think raspberry pi os is up for the challenge"
    *uses worse os*

    • @hamnuggets
      @hamnuggets 11 หลายเดือนก่อน +4

      @NirjharNaskar lol

    • @motocrosser784
      @motocrosser784 5 หลายเดือนก่อน

      @NirjharNaskar what.....

    • @AndersJackson
      @AndersJackson 4 หลายเดือนก่อน

      No.
      There are nothing erong with Ubuntu, but Raspberry os is as much up for the challange. Might be better, because it doesn't use as much memory.
      The problem is that the hardeare isn't up for the task of running large models, and the models that can run isn't good enough to challange ChatGTP.
      And ollama with llama models are NOT ChatGTP.

    • @randomgamingin144p
      @randomgamingin144p 24 วันที่ผ่านมา

      @@AndersJackson snap packages + spyware ig on the ubuntu side
      but yes, its fine for running a llm just like pi os

  • @daelpin
    @daelpin 4 หลายเดือนก่อน +17

    I hate this clickbait so much, pico is never used and uses LaMA instead of ChatGPT. What was this even for? to harvest dislikes I guess!

    • @ash-tn6fl
      @ash-tn6fl 3 หลายเดือนก่อน

      Most people dont know what llama is. So saying chatgpt is easier

    • @theredtechengineer1480
      @theredtechengineer1480 3 หลายเดือนก่อน

      @@ash-tn6flIt's okay to lie to people that won't know the difference?

  • @daking3597
    @daking3597 5 หลายเดือนก่อน +16

    "Im poor", meanwhile bros chilling in what looks like a penthouse 💀

  • @susdj
    @susdj 11 หลายเดือนก่อน +99

    For a second I was excited when I thought he was gonna run the language model on the pico

    • @pedrofmonteiro
      @pedrofmonteiro 10 หลายเดือนก่อน +10

      Clickbait...

    • @ash-tn6fl
      @ash-tn6fl 3 หลายเดือนก่อน +2

      Technically you can, llm on the edge is possible

  • @shaharyar-dev
    @shaharyar-dev 4 หลายเดือนก่อน +26

    Even with a 7B parameters model, best you could get is 0.2 tokens per second with that kind of hardware

    • @realSkyfr
      @realSkyfr 2 หลายเดือนก่อน +1

      yeah i made an ai voice assistant thats supposed to run on pi so i used 0.5b. it is crazy fast on my pc so im confident

  • @AustinLHoward
    @AustinLHoward 11 หลายเดือนก่อน +51

    Bro literally has no idea what he's doing lol. First he holds up a pico then proceeds to use a pi, then uses a worse OS because he doesn't understand how pis work, then uploads code he doesn't understand.
    Good work buddy.
    At least you're trying in fairness. If you do this enough hopefully you'll start to pick up on the differences. Really look into it though, try to not just blindly follow someone else's guide online

    • @mrdiamond64
      @mrdiamond64 11 หลายเดือนก่อน +11

      And he doesn't know that ChatGPT and Llama are completely different 😂

    • @II_top
      @II_top 5 หลายเดือนก่อน +4

      in my opinion he knows what he’s doing, at least I see that he baited you into comments

    • @ash-tn6fl
      @ash-tn6fl 3 หลายเดือนก่อน

      ​@@mrdiamond64its close enough. Dont try to be smart

  • @hafezsarraf4889
    @hafezsarraf4889 11 หลายเดือนก่อน +17

    Bro always talks about how poor he is:
    Also his videos in big 1M dollars penthouse with a full sea view:

  • @HoloTheDrunk
    @HoloTheDrunk 11 หลายเดือนก่อน +10

    Tech "influencer" try to not to lie and be wildly incompetent challenge (impossible)

    • @fabiandrinksmilk6205
      @fabiandrinksmilk6205 10 หลายเดือนก่อน +2

      While flexing his high rise apartment.

  • @MrFranciss
    @MrFranciss 4 หลายเดือนก่อน +6

    The amount of hype and click bait in this video is incredible

  • @SteeveEfnet
    @SteeveEfnet 11 หลายเดือนก่อน +20

    You're probably the kind of person who call any SUV a JEEP.

  • @laithWaseem
    @laithWaseem 11 หลายเดือนก่อน +8

    Bro his voice is ai

  • @WorriedArrow
    @WorriedArrow 3 หลายเดือนก่อน +1

    It's not ChatGPT. It's GPT. ChatGPT is the webapp. GPT is the model. And yes, I know he's using Llama in the video.

  • @catdotjs
    @catdotjs 11 หลายเดือนก่อน +8

    im sorry what ??
    “ I don’t think pi os is up for the challenge”
    *proceeds to run cpp code*

    • @someidiot4311
      @someidiot4311 2 หลายเดือนก่อน +1

      How does that relate to pi os?

    • @PhoenixVids123
      @PhoenixVids123 หลายเดือนก่อน +1

      @@someidiot4311yeah I’m confused too lol, kid be talking gibberish

  • @GoWithAndy-cp8tz
    @GoWithAndy-cp8tz 4 หลายเดือนก่อน +3

    How many hours does it take for an answer to be generated in response to a prompt? Cheers!

    • @-.-.-30
      @-.-.-30 4 หลายเดือนก่อน +1

      😂. I tried it too. Its because they have no GPU and the CPU is too bad

  • @reinekewf7987
    @reinekewf7987 4 หลายเดือนก่อน +1

    chat gtp is not running on your computer it is a online service you can book. ollama is runing on your system aber a pi would be overwhelmed by this because the smallest models are 6gb and has only 8 billion parameters. even on my r630 every question takes 30sek up to 6 min. but running something bigger is more ridicules. there are bigger models who has 70 billion parameters and this models are 60gb big and some of them are up to 400 billion parameters. but this is nothing compared to gpt4 witch consists of 1.8 trillion parameters and is something about 700tb big. so jea that's why it is running online on specialized computers with hundreds of gpus in it. how ever you can run models at home. they need some time to answer but this is not that bad. the tool ollama is great and simple for that job. it is easy to use and models are 6gb each for the 8bilion models and 60gb for he 70billion models and you dont need a gpu if your gpu is not kompatible or slower as your cpu wold do the same task. but for real a gtx 730 is faster as your ryzen 9 5950x so yea your would probably have something bigger as this in your system and if not ollama is compatible with the google coral and this has the same performance like a 1660 but uses only 1.4w and is as usb device available for about 100 dollar.
    how i said i use a ollama on my r630 in cpu mode and use the 70bilion models so yea they need some time but they work.

  • @DwightTam
    @DwightTam 3 หลายเดือนก่อน +1

    I have something in my mind that seems to had been never done about raspberry пайс. I'm thinking I'm gonna challenge you with it but it may be impossible by now. I think.

  • @Kreezyouttahere
    @Kreezyouttahere 5 หลายเดือนก่อน +2

    What was the token speed

  • @jurian2325
    @jurian2325 8 วันที่ผ่านมา +1

    Total clickbait. That thing is never going to run any capable LLM and you can't even run ChatGPT because it's private. Stop lying dude, any small kid can see you edited the responses.

  • @ottersmeep25
    @ottersmeep25 10 หลายเดือนก่อน +3

    If you're poor, why did you go for a $100 dollar board?

    • @TechnologyRules
      @TechnologyRules 4 หลายเดือนก่อน +1

      Exactly. The dude is a big nasty lie.

  • @anshulnamdev9363
    @anshulnamdev9363 10 หลายเดือนก่อน +1

    Why you damn promote raspberry Pi boards like seriously 😒

  • @hashishishin
    @hashishishin 11 หลายเดือนก่อน +4

    Wow, that is so fast! Looks like it might even reach... 10 seconds per token. I hope you'll trick many suckers today good sir.

    • @Azuroth
      @Azuroth 5 หลายเดือนก่อน +2

      Exactly, anyone who's used a local LLM on CPU only has incredibly slow inference speeds

  • @thinking-laaf
    @thinking-laaf 5 หลายเดือนก่อน +1

    And you cannot run a GPU on a Pi 4. @JeffGeerling is able to add a GPU to a Pi 5 - but not a 4 reliably.. Certainly NOT the Pi4.

    • @ash-tn6fl
      @ash-tn6fl 3 หลายเดือนก่อน

      You can

  • @damanMikey
    @damanMikey 3 หลายเดือนก่อน +1

    "erhm actually, there is a wii port of chatgpt that's only a few megabites 🤓☝️"

    • @someidiot4311
      @someidiot4311 2 หลายเดือนก่อน

      That's remote.

  • @WilsonR-r3m
    @WilsonR-r3m 2 หลายเดือนก่อน +1

    Does it have internet access capabilities?

  • @YeetusYeetus-t5q
    @YeetusYeetus-t5q 5 หลายเดือนก่อน +2

    I'm now wondering if I can put a talking A.I on my RC truck 😂

  • @Calooonzy
    @Calooonzy 11 หลายเดือนก่อน +3

    Bro this is goddam clickbait cuz you showed a pico which is a horrible computer

    • @de-y
      @de-y 11 หลายเดือนก่อน +1

      A Pico isn't a computer, its a microcontroller.

    • @Calooonzy
      @Calooonzy 11 หลายเดือนก่อน

      @@de-y look bro I’m calling him out on clickbait ok I’m not looking for grammar correction.

    • @de-y
      @de-y 11 หลายเดือนก่อน

      @@Calooonzy I'm just defining a Pico to you

    • @Calooonzy
      @Calooonzy 11 หลายเดือนก่อน

      @@de-y I own a pico dude I think I know that. People won’t understand if I said microcontroller.

    • @de-y
      @de-y 11 หลายเดือนก่อน

      @@Calooonzy I also own a Pico, but you should've stated it first instead of all this.
      Anyways, what do you use your Pico for? I've been trying to do some micropython.

  • @Technicallyaddicted
    @Technicallyaddicted 2 หลายเดือนก่อน

    That’s a pi4 correct? If you’re going to copy him GET THE 8GB!! it will cut down on your massive latency. Better yet, get the pi5. The pi5 is the highest power to dollar computer you can buy. $100 for 25 TOPS. $4 a terra-operation.

  • @TechnologyRules
    @TechnologyRules 4 หลายเดือนก่อน

    What a sad soul.
    He has no idea what he's doing, even though he mentions "installing an AI" on a Raspberry Pi and shows a Pico microcontroller. He mentions ChatGPT and proceeds to use Llama.
    Get some decency, dude.

  • @_nightowl263
    @_nightowl263 8 หลายเดือนก่อน +1

    Why isn't raspberry pi OS up to the challenge?
    Why is Ubuntu??

    • @pentester4162
      @pentester4162 16 วันที่ผ่านมา +1

      Just because he wants to.
      Ignore that part

  • @mrlately7253
    @mrlately7253 11 หลายเดือนก่อน +6

    It's not running locally and having a pico for the thumbnail is pretty odd. Still cool but chatgpt is not running locally on your pi. You are running something locally that still depends on chatgpt which is outside.

    • @DataSlayerMedia
      @DataSlayerMedia  11 หลายเดือนก่อน

      It's 100% local, full tutorial here - th-cam.com/video/N0718RfpuWE/w-d-xo.html

    • @mrlately7253
      @mrlately7253 11 หลายเดือนก่อน

      @@DataSlayerMedia you charge for a tutorial, fuck that

    • @sorvex9
      @sorvex9 11 หลายเดือนก่อน +5

      Its not local you dofus, because OpenAI doesnt let you download the model weight. You are just making remote calls.
      If it is running local this is not chatgpt lol

    • @motocrosser784
      @motocrosser784 5 หลายเดือนก่อน +2

      It's not local. 2nd, Llama and chatgpt aren't the same either, but hey, tech "influencer".

  • @someidiot4311
    @someidiot4311 2 หลายเดือนก่อน

    1. That aint ryan Reynolds
    2. You showed a pi pico in thumbnail when its a pi 4. Big difference, one has 4gb of ram and the other 260k.
    3. You didn't even run chatgpt, you ran LLAMA.
    4. How do you even have that much storage to run the model?

  • @BohdanTrotsenko
    @BohdanTrotsenko 2 หลายเดือนก่อน

    "But I'm poor,
    Look how poor my apartment is and how basic MacBook I've got"
    But cool video, thanks, please create more!
    _____
    P.S. ruzzia is evil

  • @amando250
    @amando250 10 หลายเดือนก่อน

    You can right easy a 3 gb bash ai better than that ( more useful than you can use OpenAI), but you should use at least 12 GB or 30GB but everything else is kinda ridiculous.

  • @CatDevz
    @CatDevz 11 หลายเดือนก่อน +1

    Llama 2 isn't ChatGPT...

    • @ariffrahim6459
      @ariffrahim6459 8 หลายเดือนก่อน

      Exactly my thoughts

  • @bztube888
    @bztube888 หลายเดือนก่อน

    It's impossible on so many levels. You're using a SMALL, and OPEN SOURCE model, AS YOU KNOW. Liar liar pants on fire.

  • @NeonGreenT
    @NeonGreenT 4 หลายเดือนก่อน

    Either you are Mr. P. Solver or you be kinda copy pasting. Either way don't clickbait me with a pico thumbnail

  • @Jakku_Azzo
    @Jakku_Azzo หลายเดือนก่อน

    Make a messaging app, have two instances communicate with random topics , take highlights and make a series .
    Charge people to add topics , host results online.
    Make money…
    “If it’s so easy why don’t you do it? “ I never complete a project, too busy

  • @Ashterix_Nocturnal
    @Ashterix_Nocturnal 2 หลายเดือนก่อน

    Data Slayer is the worst clickbaiter on earth. There aint even any Ryan Reynolds in the vid (except for the start) and his "this will kill phone providers" vids are just clickbait asf. No way are they gonna kill phones.

  • @amando250
    @amando250 10 หลายเดือนก่อน

    Like raspberry pi isn't easy mode because drivers and chips are open source materials. If you programm the big thing yourself

  • @ArcamNight
    @ArcamNight 8 หลายเดือนก่อน

    You can do it but as you can see is so damn slow. It’s faster to search it manually, trust me.
    Otherwise a good thing is to use an specific model for an specific task, so it’s lightweight and fast.

  • @catalystzerova
    @catalystzerova 6 หลายเดือนก่อน

    This kind of clickbait is the exact reason we have a “don’t recommend this channel” button (tap and hold on the screen while the video is playing)

  • @ziurnauj
    @ziurnauj 7 หลายเดือนก่อน

    I get calling it ChatGPT for the algorithm. But also this is for technical people who know the term llm and other models. So itd be better to not use a misleading title

  • @NurbNerb
    @NurbNerb 11 หลายเดือนก่อน +2

    This is not chatgpt though

  • @ThePositiev3x
    @ThePositiev3x 4 หลายเดือนก่อน

    I saw the title and wondered how did this guy run chatgpt which is a proprietary model on his local computer? I should have guessed. Disliked.

  • @pawelzny
    @pawelzny 5 หลายเดือนก่อน

    You advertised it with R Pico which is not in the video. I don't trust anything you say.

  • @terboDZ
    @terboDZ 5 หลายเดือนก่อน

    It's Llama2 by Meta
    Not Got by OpenAI
    (Gpt4/3.5 ain't open source)

  • @prodBrainShot
    @prodBrainShot หลายเดือนก่อน

    Claickbait asf showing a pico, i knew you couldnt but had to see

  • @hosseintarighatimomtaz3298
    @hosseintarighatimomtaz3298 2 หลายเดือนก่อน

    I just liked cause of Ryan Raynolds
    Didn't understand much else of the video

  • @NoCodeFilmmaker
    @NoCodeFilmmaker 3 หลายเดือนก่อน

    Actually, I was able to run Phi3 and Llama8b in the pi os. I got VS code running great too as well as Crew Ai

    • @ash-tn6fl
      @ash-tn6fl 3 หลายเดือนก่อน

      Dont. Vscode is laggy on pi

    • @NoCodeFilmmaker
      @NoCodeFilmmaker 3 หลายเดือนก่อน

      @@ash-tn6fl For you not me. I have zero issues working with VScode. In fact my pi is now where I do all my coding because it's a hell of a lot easier for me in Linux than Windows or osx. However, you are correct that an LLM will run slow for obvious reasons. However for a few hundred dollars you can get an adapter to connect an eGPU and increase the inference time.

  • @vulnoryx
    @vulnoryx ปีที่แล้ว +3

    Time to take over the world with my raspberry pi

  •  3 หลายเดือนก่อน +1

    LlamaGPT

  • @TheNpcNoob
    @TheNpcNoob 8 หลายเดือนก่อน

    How can you make history, by doing something that countless others have done?

  • @Lluma12
    @Lluma12 5 หลายเดือนก่อน

    you are not running the model out of the raspberry, you are lying to sound smart. You need a lof of those to run chatgpt...

  • @McBlammy-x
    @McBlammy-x หลายเดือนก่อน

    He said Ryan Reynolds but I’m pretty sure that was Nick Swardson

  • @tonymudau3005
    @tonymudau3005 5 หลายเดือนก่อน

    There's no useful purpose for running an llm on such an instance ... as far as I have imagined

  • @ergonomiczero2228
    @ergonomiczero2228 3 หลายเดือนก่อน

    This guy is going places, where, I have no idea. Probably across the road

  • @orbatos
    @orbatos 5 หลายเดือนก่อน

    Ah, more lying for clicks, reported as spam and blocked

  • @interstaller
    @interstaller 11 หลายเดือนก่อน +2

    was it true or just a parody if gpt can run on pi then tell me how

    • @DataSlayerMedia
      @DataSlayerMedia  11 หลายเดือนก่อน

      Full Tutorial Instructions Here 👉 bit.ly/gpt-on-rpi

  • @jacquelinewalker6357
    @jacquelinewalker6357 2 หลายเดือนก่อน

    I bought a robot to take apart and make it talk, but i don't know nothing , but i do have a arduino, still learning.

  • @mr.johnson8974
    @mr.johnson8974 5 หลายเดือนก่อน

    You don’t have to be a SWE to know Llama is not ChatGPT….

  • @azverndias913
    @azverndias913 20 วันที่ผ่านมา

    Heyy! You shoulf stop uploading 😊

  • @surfkid1111
    @surfkid1111 5 หลายเดือนก่อน

    That´s not ChatGPT, just a less performant knock-off.

  • @filipwroclawski
    @filipwroclawski 2 วันที่ผ่านมา

    How many should I cluster to run Doom locally on gpt on piraspberry?

  • @russellodell5544
    @russellodell5544 7 วันที่ผ่านมา

    "Why did the chicken cross the road?" ... Ten years later ... "To get to the other side"

  • @amando250
    @amando250 10 หลายเดือนก่อน

    Dude its not that hard the way you do so you can do it on a 2 bit bash of an IBM first gen easily

  • @amando250
    @amando250 10 หลายเดือนก่อน

    You can run linux on a raspberry pi everything run on that.

  • @Sphyxx
    @Sphyxx 10 หลายเดือนก่อน

    I was deceived and now my morning is ruined

  • @FarebrothaChronicle
    @FarebrothaChronicle 2 หลายเดือนก่อน

    Where is the tutorial which outlines the processss step by step?

  • @Thepianist12
    @Thepianist12 5 หลายเดือนก่อน

    Bro is broke and he is flashing ubuntu from mac😂

  • @damn204
    @damn204 9 หลายเดือนก่อน

    Don't show pi Pico if you are not going to use it 😢, you made me sad.

  • @ohiograssman1564
    @ohiograssman1564 5 หลายเดือนก่อน

    My potato is way smarter. It just ignores the questions 😂

  • @Ocelot851
    @Ocelot851 วันที่ผ่านมา

    In turkey someone maked a thing like this for university exam😂

  • @Pritam252
    @Pritam252 4 หลายเดือนก่อน

    Bro the video thumbnail used a pico, what?

  • @CodesExplorer-hb1wr
    @CodesExplorer-hb1wr 4 หลายเดือนก่อน

    I've been scammed, i thought you would do it on the pico

  • @motocrosser784
    @motocrosser784 5 หลายเดือนก่อน

    A pico and a Pi 4 arent the same thing.... #stopclickbait

  • @ujjwalprasad1421
    @ujjwalprasad1421 11 หลายเดือนก่อน +1

    So no one's gonna talk about the internet history and interesting choices?🥶

  • @shreyassk1515
    @shreyassk1515 5 หลายเดือนก่อน

    Can it be used as a personal coding assistant with just 4 gb ram?

  • @mazyarkatouzian
    @mazyarkatouzian 2 หลายเดือนก่อน

    When you install llama, you should not say chatgpt.

  • @Pantherasinleopard
    @Pantherasinleopard 4 หลายเดือนก่อน

    Ctrl c ctrl c ctrl c terminate it before it terminates us

  • @m4wolf1
    @m4wolf1 3 หลายเดือนก่อน

    That is not ryan renolds that is ryan thick and olds

  • @FunNFury
    @FunNFury 10 หลายเดือนก่อน

    Llama model with a less parameter is lame, it still needs time

  • @bobtarmac1828
    @bobtarmac1828 2 หลายเดือนก่อน

    These devices will only get worse. Can we cease Ai?

  • @lp3037
    @lp3037 11 วันที่ผ่านมา

    OK is this about running gpt on raspberry pi 4 or pico?

  • @thanatosor
    @thanatosor 5 หลายเดือนก่อน

    That AI is made in China 😂

  • @thomasthemaker
    @thomasthemaker 11 หลายเดือนก่อน

    Ubuntu is literally a worse and much less optimized... Also it's a pico at the beginning

  • @wolfrust0
    @wolfrust0 22 วันที่ผ่านมา

    Blud couldve just used gpt 2

  • @TShearPhoto
    @TShearPhoto 3 หลายเดือนก่อน

    Is this the new Doom (runs on anything)?

  • @October-TE
    @October-TE 4 หลายเดือนก่อน

    that is not chatgpt or anything close to it cuh

  • @javeallanbillones956
    @javeallanbillones956 หลายเดือนก่อน

    'I totally get this code' lmao relatable

  • @Okkkkkkkkkkkkkkkkkkkkkkkkkkkk9
    @Okkkkkkkkkkkkkkkkkkkkkkkkkkkk9 10 หลายเดือนก่อน

    Becouse im poor *shows a 2k macbook*

  • @theredtechengineer1480
    @theredtechengineer1480 3 หลายเดือนก่อน

    So when are you going to do what you said instead of using llama?

    • @someidiot4311
      @someidiot4311 2 หลายเดือนก่อน

      Impossible. OpenAI's name is inaccurate so gpt is closed source

  • @daily.trades
    @daily.trades 10 หลายเดือนก่อน +1

    Ryan made a one sec appearance lol

  • @aaroncarrigan
    @aaroncarrigan 5 หลายเดือนก่อน

    Shows a Pico, doesn't use it.