Run a private ChatGPT locally on raspberry pi

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ธ.ค. 2024

ความคิดเห็น • 4

  • @percivul1786
    @percivul1786 2 วันที่ผ่านมา +5

    Don't use a model greater than about 4G in size or you'll be sitting there for awhile waiting on responses.
    The Pi, while capable of running tiny LLM's, it doesn't actually have a GPU that's usable to do this so it's all CPU driven, which is horribly inefficient for the task.

    • @VincentStevenson
      @VincentStevenson  วันที่ผ่านมา +2

      Good point!

    • @OriNachum
      @OriNachum 15 ชั่วโมงที่ผ่านมา

      @@VincentStevensonjoining their point. Pi CPU maxes out with LLMs (with bitnet model as possible future exceptions)
      The “super” Nvidia board will do, or Hailo-10 if it hits Raspberry Pi, as Hailo-8L did

  • @Waveshare_Ruan
    @Waveshare_Ruan 24 นาทีที่ผ่านมา

    Wow~~,i will try it