GPT 替代方案!不再受 GPT-4 使用次數限制,上百種 AI 大語言模型免費任你用?|LM Studio|泛科學院
ฝัง
- เผยแพร่เมื่อ 2 มิ.ย. 2024
- 如果你跟我一樣是 ChatGPT 的重度使用者,你一定懂!三小時內發送超過50則 GPT-4 的指令,就會遇到需要等待一段時間才能重新開始使用。這個時候該怎麼辦呢?
教你改用這個既免費又可以強化資料安全的好工具,而且跟GPT4的能力不相上下?還能免費下載各式各樣的AI大語言模型,聽起來也太厲害了吧?
LM Studio ➤ lmstudio.ai/
歡迎加入頻道會員 ➤ / @panscischool
歡迎加入泛科學 AI 討論群組 ➤ / discord
// 延伸閱讀 //
不繳月費還是爽用GPT-4?每個GPT用戶都該學的「加強版」模式!更省錢且功能更強大!
• 不繳月費還是爽用GPT-4?每個GPT用戶都...
00:00 遇到GPT-4次數限制怎麼辦?
00:55 可以下載各種大語言模型的 LM Studio
01:35 怎麼挑選下載模型?
02:59 邏輯問題測試
04:17 總結
#ai #llama #lmstudio #gpt4 #gpt
期待泛科學院推薦其他好用的模型
最重要的Preset一点没提到
那台灣以外的中文國家你建議用哪一個模型呢?謝謝🙏🙏
處理器: Apple M1 Max
記憶體: 64G
作業系統: MacOS 14 Sonoma
測試模型: Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得: 用泛科學那幾段話邏輯測試
1. 開啟使用Apple Metal GPU,Enter按下去大概一秒後回答完成。
2. 使用CPU (4 threads) 大概五秒鐘回答。
CPU: AMD Ryzen 5 5500U
RAM: 64 GB
OS: Win11
Model: Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
Result: 可以跑,但怪怪的,而且CPU不夠力跑起來真的超級慢,會寧可用chatgpt 的API Key付錢問問題。
还是用bard AI 比较好
期待博主做一期将模型部署在云服务器上的教程
處理器:Intel i7 1180H
記憶體:16G
作業系統:Win10
測試模型:Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:成功
處理器: Apple M2 pro
記憶體: 32G
作業系統: MacOS 13.5.2
測試模型: Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得: 成功執行,但只能用 CPU 運行,文字產生速度偏慢。
CPU : Apple M1
RAM : 16GB
OS : macOS Ventura 13.5.2
Model : Taiwan LLaMa 1 0 13B q4_k_m gguf
Result : 成功。速度慢,CPU 100%,Speed 4.40 tok/s
電腦規格跟我差不多耶...跑13B真的比較喘一點...
筆電(MSI Prestige 15 A10SC):
處理器:10th Gen. Intel® Core™ i7 U-Processor
記憶體:32G (16*2)
作業系統:Win10 (22H2)
測試模型:Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:成功
缺點:速度慢,可能要3~5分鐘回應,而且他不會依據上下文判斷,會重複回答文不對題,需要開新的Chats,才能正常運作。
M2 Pro 16GB跑起來有點慢,這也是預期中的事,不知道大家覺得96GB的M2 Max會不會表現得更好?其實我不只是想在本地跑那些訓練好的模型,我更希望能在本地運行自己用個人隱私資料訓練出來的數位分身。
處理器:Intel(R) Core(TM) i5-7300HQ CPU @ 2.50GHz 2.50 GHz
記憶體:16G
作業系統:Win10
測試模型:Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:成功,但對話回應的速度很慢
偷偷跟你說,我用AMD R5-5600X連掛載都會失敗.....
處理器:Intel i7-7700
記憶體:32G (16*2)
作業系統:Win10 (22H2)
測試模型:Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:成功
不曉得,這個軟體有沒有支援GPU加速,只用CPU計算,回應速度感覺稍微有點慢。
在右手右手面的setting - hardware setting - 開啟gpu
@@852timHKS 看到setting,但找不到hardware setting,跟頁面有關嗎?但每頁都看過了......求指點!
@@ScriptureWong 不知道,我在SETTING都有HARDWARE SETTING,入面都有GPU Acceleration.
@@852timHKS 後來找到了, 謝謝你
@@852timHKS 後來找到了, 謝謝你
處理器:5975wx
顯示卡:rtx4090
記憶體:128gb
作業系統:win11(22H2)
測試模型:Llama2-70B
測試對話,:hi
成功運行,全佔滿運行,速度極慢,但應該可以靠加卡解決
更新:不知道為甚麼 運行一段時間後(睡了一覺起來)記憶體占用剩一半
對話速度也更快了 同樣都是70B...好神奇
MacBook Pro 15-inch, 2017
處理器: 3.1 GHz 四核心Intel Core i7
macOS: 13.6.3(22G436)
錯誤訊息:無法打開應用程式「LM Studio」,因為此 Mac 不支援此應用程式。
請問這有解嗎?😮💨
這我沒很肯定...僅提供兩個可能的狀況
1. 這台 mac 不是 apple m 系列的處理器,讓 LM studio 無法在 MacOS 中順利開啟
2. 你的 i7 處理器太舊,沒有 AVX2 指令集,但看 mac 出場年份,處理器應該是第七代的 i7,是有內建 AVX2 的,所以很可能不是這個問題
(A.)
@@panscischool 那可能是一吧……可惜了…… 🥲
處理器:Intel i9 12900KF
記憶體:64G
作業系統:Win11
測試模型:Taiwan-LLaMa-13b-1.0.Q8_0.gguf
測試心得:成功,但速度不夠快..
GPT3.5真的很快...大家都被慣壞了...
請問使用這個還有字數限制嗎?
根據模型的不同一樣會有token的限制..
安裝失敗,電腦說我的java有問題。但我看不懂哪裡出問題。
2020年的M1 MacBook Air 16GB Ram 512GB SSD Taiwan LLaMa 測試成功
Air上面跑會明顯的慢喔XD
我的筆電7b parameter都很勉強😢
我的桌上型電腦明明是3060但是任何一個模型都掛不起來...(這樣有安慰到你嗎 )
@@panscischool 😂
@@panscischool 但我有個不錯的桌上型電腦 可以當server連mac
但7b真的沒啥用 知識不夠準 可能13b好一點
不知是哪裡設定錯誤,問他GPT4 經典問題:魯迅為何暴打周樹人? 回覆都不正確,硬掰!
我的是Macbook Air M2 (16GRAM)
可能使用的模型智慧有限....換個模型試試 XD
處理器:Intel i5-6600
記憶體:16G
作業系統:Win10
測試模型:Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:失敗
13b的模型
nvidia VRAM太少幾乎沒啥用
用CPU跑真的頗慢的
如果你的問題剛好7b模型就可以跑....就當賺到了...(?)
不能搜索模型是怎么回事啊?
There was an error searching for models. Please check your internet connection.
我的也是,怎么回事啊
要等一下,我一開始也是這樣
具体怎么做呢@@albert-yu
可以考慮更新lm studio.我一開始也有遇到類似的問題,但過兩天更新之後就可以了
我自己使用起來,反應很慢,並且只要他回應的文章一長他後面就會亂講話
餵給他youtube網址他也不能正確的幫我做摘要
而且常常答非所問,完全比不過chatgpt3.5
要摘要TH-cam可以看這裡
th-cam.com/video/T1NBZIgjO0U/w-d-xo.html
處理器:Intel i5-12400F
記憶體:64G (32*2)
作業系統:Win11 (22H2)
顯示卡:RTX 3080 12G
測試模型:Taiwan-LLaMa-13b-1.0.Q5_0.gguf
測試心得:成功
Taiwan-LLaMa-13b-1.0.Q8_0.gguf 測試心得:成功
我用3060 12G+ R5-5600X不知為何就是掛不起來
对电脑要求太高,很难发展。
只能等待之後電腦處理器內建神經網路運算核心囉....
GPT3.5普号+API/New Bing号零售个3元1个,批发1元1个!!!!!
那叫 llama -> [jiama] 你学学西班牙语吧
咦google 翻譯也唸錯了嗎.....
超級難用,答非所問的...
換個模型試試XD
@@panscischool我一開始裝檔案最大的,問了問題都不知道在說甚麼,之後跑去裝推薦的,也是差不多問題,
CPU: i5 13500
RAM: 32 GB
OS: Win10
GPU RTX4070
CPU: Intel 13900K
RAM: 128 GB
OS: Win11
Model: Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf
測試心得:成功
13900k真香~~ 128G Ram真香~~