Use GPT4All in Python Code to Manage LLMs Locally

แชร์
ฝัง
  • เผยแพร่เมื่อ 13 ม.ค. 2025

ความคิดเห็น • 10

  • @AlexAlex-ei7zf
    @AlexAlex-ei7zf 5 หลายเดือนก่อน

    bro, thanks. You got an answer very quick. How it could? Will it work if I have already install Gpt4all and will set in a "Settings" a GPU to be as a device to generate a text? And after that I will use in a script a code you provided? Am I right? Or I am wrong and it will not take effect?

  • @amrmunshi5114
    @amrmunshi5114 6 หลายเดือนก่อน

    Is it possible to personalize the interface?

    • @fahdmirza
      @fahdmirza  6 หลายเดือนก่อน +1

      There are few settings but not much . May be check hte source code to change it...

  • @skyrod5823
    @skyrod5823 หลายเดือนก่อน

    Did someone know why i got this error?
    Python\Python39\lib\site-packages
    equests\__init__.py:86: RequestsDependencyWarning: Unable to find acceptable character detection dependency (chardet or charset_normalizer).
    warnings.warn(
    Failed to load llamamodel-mainline-cuda-avxonly.dll: LoadLibraryExW failed with error 0x7e
    Failed to load llamamodel-mainline-cuda.dll: LoadLibraryExW failed with error 0x7e

    • @fahdmirza
      @fahdmirza  หลายเดือนก่อน +1

      What is your OS?

    • @skyrod5823
      @skyrod5823 หลายเดือนก่อน

      Resolved execept the Llama model failed to load. Just had to pip install ​chardet

  • @Artem1234-m9d
    @Artem1234-m9d 6 หลายเดือนก่อน +2

    Bro, I thought the whole time I was getting emails.

    • @fahdmirza
      @fahdmirza  6 หลายเดือนก่อน

      cheers

  • @llms-ideas
    @llms-ideas 6 หลายเดือนก่อน

    You are underrated

    • @fahdmirza
      @fahdmirza  6 หลายเดือนก่อน +1

      thank you