Cara Install DeepSeek Termudah Di Laptop Sendiri
ฝัง
- เผยแพร่เมื่อ 7 ก.พ. 2025
- Tutorial setup AI Deepseek Di laptop atau komputer PC masing-masing, running di local buat replacement ChatGPT.
Download LM Studio: lmstudio.ai
Transfer DONASI: saweria.co/dea...
Join this channel to get access to perks:
/ @deaafrizal
#programming #tutorial #deepseek
Github: github.com/dea...
Instagram: / dea.afrizal
backsound: • No Copyright Backsound...
=================
💌 Email (for business) 💌
support@dealabs.cloud
==================
🔻🔻🔻 SUBSCRIBE 🔻🔻🔻
For More Update
🔺🔺🔺LONCENGNYA 🔺🔺🔺
wah ..top bgt...jadi pengatahuan baru,,,,ternyata bisa opensource juga ....selama ini pake chatgpt n deepseek fokus pada pronpt enginerignya saja,,,bikin pertanyaan sedetail mungkin....nice inpo
yg laptopnya gk kuat bisa pakai openwebui + gemini api free
data chat tetep di local, laptop kentangpun bisa ikut pakai AI.
Link nya bang
Spesifikasi minimum buat run deepseek R1 di local:
DeepSeek-R1-Distill-Qwen-1.5B: 0.75 GB VRAM
DeepSeek-R1-Distill-Qwen-7B: 3.5 GB VRAM
DeepSeek-R1-Distill-Llama-8B: 4 GB VRAM
DeepSeek-R1-Distill-Qwen-14B: 7 GB VRAM
DeepSeek-R1-Distill-Qwen-32B: 16 GB VRAM
DeepSeek-R1-Distill-Llama-70B: 35 GB VRAM
note : Pas nyoba model 14B (minimum VRAM 7 GB) di RTX 3060 VRAM 6GB masih jalan sih walaupun rada berat dan agak lama proses mikirnya, rekomen pake yang 7B atau 8B aja, lancar jaya dan responnya pintar, kalo yang 1.5B masih rada dongo soalnya, sering ga nyambung
Gimana kabarnya buat yg gak pake VGA eksternal/ igpu?
@@MrLacimossajr belum nyoba sih bang, tapi kemungkinan gabisa jalan sih kyknya, kalo device nya ga ada GPU amannya pake yg online aja, API Deepseek juga jauh lebih murah dari chatgpt
kalau untuk research data yang update buat konten apakah bisa ?
@@gitgoal di LM Studio modelnya gabisa akses internet sih, rata2 datanya terbatas di 2023, jadi ga terlalu update, kalo pake oobabooga, sillytavern atau ollama dengan open web ui kyknya bisa ditambahin extension biar modelnya bisa searching ke internet, tapi setupnya lebih ribet.
Additional info : DeepSeek R1 Thought process nya kepanjangan ternyata wkwk, lebih panjang isi pemikirannya daripada jawaban aslinya, buat ngoding bagus sih, jadi lebih paham alurnya, tapi kalo buat chat casual, bantu nulis, atau cari info doang jadi berasa buang2 waktu, buat casual user yang udah terbiasa pakai chatgpt mungkin bakal lebih cocok dengan model Qwen 2.5 daripada DeepSeek R1.
Wah mantabs nih ada yg lokalan, soalnya kl yg versi web sering sibuk servernya, tapi sejauh ini saia kl untuk ngoding pakai curve bang bisa ai juga jd kebantu kl ada masalah di codingan. Ditunggu vidio motorannya 😂
gw ga pernah sibuk pake deepseek perasaan
Hoki nya gedee ya. Aku udh 5 hari ini cuman 2 kali Reasoning Prompt langsung sibuk ga bisa dipake
tp dengan resource yg gede bgt bikin merem melek untuk gunain ini. klo kebutuhan vps dengan vga aja udah engap harganya 😂 klo di taro di local ya pikir aja hahaha klo sambil ngoding lumayan haha
Pantes saham nya pada turun yg gratisan aja se gahar ini 😩
gratis cuma awal2, nanti klo udh pada rame 😂
@@gakjelas4587 ini open souce bang free selamanya + semua orang bisa kembangin sendiri
@@gakjelas4587 kodenya udah opensource, banyak yg forking juga nntinya gamungkin jadi berbayar kecuali ada service lain yg dikasih seperti support
Malah bagus bersaing biar gk ada monopoli 😁
@@gakjelas4587 ini namanya LLM open source. Sampe kapan pun bakal gratis, kenapa gratis? Soalnya ini project side aja, atau emang developernya maunya open source.
Kereeeeen
seandainya jaman sekolah ada LLM kek gini XD asik banget ngotak-ngatik bikin apps sendiri padahal gw gak bisa programing, paling jauh cuma bisa bikin bat file wkwk... skrg bisa bikin script after effect, plugin, website, bikin aplikasi downloader sendiri... berasa jadi programer XD padahal cuma modal ngetik ngalor ngidul
mantap bang, gua ga ngerti tapi enjoy aja nonton tutorialnya, lebih enjoy daripada dengerin dosen gua ngomong
saya juga ga paham pak wkwk. Nanya via prompt di web nya langsung aja ngerasa udah cukup
keren pake banget kang Dea..top deh.
Ajarin fine tuning dong mas dea.. fine tuning dengan dokumentasi typescript misalkan. Karena beberapa script mungkin sudab usang. Jd perlu adanya fine tunning
Terimakasih pencerahannya 👍
mana lebih bagus ya Om? Ollama atau LMStudio ??
wihh nyangkut dimari juga bang?? corestress gimna bang ga kelar2 itu hehe
@@PajakSmartKalau kamu tanya dari ToPS nya sih lebih oke di Ollama CLI.
Tapi kalau dari segi GUI dan simplisitas ya jelas LMStudio.
lebih user friendly lm studio pa, ollama enak kalau udah ngerti basic linux
makasih pak dea baru tau saya hal kaya gini
happy weekend bang 🤙
Hadir bang, semangat terus bikin konten edukasi tentang AI
mantap bang, langsung donload
Mantap Bang dea aprijal👍
Mantap… Terimakasih Banyak Bang
Bos perusahaan dan instansi ke IT: Siapkan 2 komputer server Spek tertinggi utk AI ini.
1 utk terhubung ke jaringan, 1 full offline utk kerjaan² rahasia, tanpa lan dan wifi.
gas... RTX 5090
Setuju
Fully offline aja biar tenang😅
di laptop saya, dengan CPU i5-12450H + GPU GTX 1650 (4GB VRAM) menggunakan model DeepSeek-R1-Distill-Qwen-7B bisa jalan cukup lancar meskipun ngga langsung muncul hasilnya karena proses mikir model AI.nya sekitar 20 detik
tapi hasilnya cukup akurat
Bang saya sudah uji coba dengan code python, antara deepSeek dengan Deepseek , untuk code test 3 x hasil akhir skor 10, dan GPT ambyar 3 x test coding tidak berhasil alias code separoh saja, saya kasih skor 0 ut 3 x , keunggulan Gpt respontime unggul tapi tidak akurat
Mau tanya, abang pake cara apa pengujian nya dan skoringnya?
Soalnya aku juga mau ngebandingin untuk use case harian ku antara 1.5b dan 7b
Siplah bisa dicoba. Chat gpt kadang kusuruh benerin kodenya malah diubah" udah gitu malah error lagi 🤣. Tapi emang yg gratisan sih
mantap lah bang
Mantap bang👍
informasi yang bermanfaat
mantep eyy
Mantap abangku ❤❤❤
Dulu tertarik sama laptop pake chip NPU biar mendukung beginian. Tapi kayaknya ga banyak yang bisa manfaatin chip itu ya, Bang? Malah ga support. Atau memang ga banyak tutorial cara pakenya aja?
Teknologi makin canggih, tapi manusianya ga ikut makin canggih.
Jadi ya... Use case nya masih ujung ujung nya nge generate yg "aneh aneh" atau nggak ya sebatas improve gaming performance.
Padahal NPU kalau dimanfaatin bener bener, dan publik ikut paham cara pakenya, sehari-hari mah udh bisa kaya Iron Man kali, gerak dikit langsunt dibantu AI wkwkwk.
nice vang 👍
tq bang nice
thanks bang, bermanfaat banget
makasihh ya bangg ilmu nyaaa
Yg pengen lebih sederhana dr LM Studio coba pake Alphaca, tp sering error
security nya gimana bro? denger" meskipun running di local, ngeri juga klo sewaktu" ada hidden treath yg lempar data hasil obrolan kita di deepseek or klo local resource yg kita pake utk install deepseek di kirim ke server induk mereka di sono..
@@cryptofulus5114 Udh ada video di YT pakai dasarnya DS R1 Ween 7B Q4_K_M, running di Ollama tanpa Docker dan GUI.
Di tes hasilnya sih ga ada try catch data keluar.
@@cryptofulus5114 Tapi ya kalau ngomongin sekuritas, kamu nutup "1 lubang" tapi ga sadar kamu selama ini udh punya banyak "lubang bocor".
YT, IG, WA, TikTok, AI Service yg berbasis online.
mas dea bagusan deepseek ai atau qwen ai untuk partner coding
coba bang tolong bahas plugin cline di vscode, auto coding ai semoga di buatin tutor dan penjelasannya terimakasih bang sukses selalu
kang tutorial install bolt diy local nya di video yang mana?
bang bikinkan tutorial tentang perbandingan semua AI misalnya chatgpt, gemini, claude dll biar tau semua
coba 8b di running di server proxmox lu bg hsilnya bisa sama lumayan cepet ga sma M silicon
kalo kebutuhan buat jadi asisten ngoding yang mana bang?
bang udah ada bikin tutor AI yang bisa analisis kode terbuka seperti php dalam satu directory? biar ada mentor AI buat kita belajar kode langsung dari program jadi
@@MiftahulKhairSamarinda bisa pake github copilot versi free
Minta saran yang terbaik untuk penggunaan mode olama yang paling maksimal MacBook Pro M2 CPU 10 core 1 TB ? Trims
kapan buat game di godot dilanjutin bang?
deepseek kayanya harus ambil model paling gede , yang 1,5b-7b jawabannya suka rada aneh kang, yg 8b udah mulai nyambung
ini kalau install DeepSeek di komputer sendiri ada sensor kata kata gk? word filter. kalau gk ada langsung install si
Daging Semua Bang 🥩🔥
Asiik wajib dicoba
spek min berapa ? dan coba video cara bisa akses lokal nya lewat ollama models deep seek nya bg?
Tanya bang, kalau udah install deepseek di LM studio itu bisa ngasih perintah offline?
bisa bray
Bang, nanya: kenapa harus install, kan bisa tuh langsung ke webnya deepskeek, log in pakai google, lalngsung bisa menikmati. Mengapa harus capek install di komputer? Manfaatnya apa?
Mohon maaf saya benar² tidak tahu. Terimakasih jawabannya
Ini harus online ya bang, kalau offline apa bisa? Klo bisa ditunggu tutorial nya ya🎉
misal diinstall di pc/laptop di rumah, apakah bisa akses model deepseek ini di laptop lain baik local network atau publik?
bg modelan kaya gini an nge run pakai aplikasi desktop sendiri dibandingkan langsung nanya di platform web, aman aja kah data laptop/pc ketika disuruh minta akses dri aplikasi Lm Studio tersebut
Aku mau nny bang dea aku kan mau belajar cara buat vps dari laptop bekas cara buat nya gimana bang dea maaf saya maaih pemula bg dea
Dan apa bedanya dan keunggulannya kalo diinstal dibanding tidak diinstal secara lokal?
bg dea bikin tutorial yang bikin port atau buat api untuk yang pake vps sama ollama
Up
up. butuh juga nih😅
Buat tutorial konfigurasi apinya bang
klo ada npu nya kira kira aman gak ya? atau masih lama respon nya
bang gw udah install lmstudio, udah download juga gguf deepseeknya, nah masalahnya runtimenya gak support buat running karena invalid cpu arch, log nya sih tertulis dibutuhkan cpu dengan arch AVX. Prosesor gw kentang bang tapi pengen coba rasanya jalanin AI di local. Ada solusinya gak sih?
Ane pake Bolt di PC kentang dari dulu masih aman, selama gak bau gosong tetep lanjut 😅
Advan workplus kira² pake yang mana ya? Ryzen 5 6600h ram 16gb
Nah iyaaa itu punyaku juga advan workplus.Takutnya ga kuat nanti...
ril, pake llama mikirny sejam gila
pake yg 1.5B coba bang
Bisa nyimpen memori(ingatan) kek Chat GPT ga?
Bang ini minimum Reqmennt nya berapa sih buat yang paling rendah
bang kalo pake mac intel ada alternative lms studionya gak, soalnya kan cuma support Mac M series
sorry bang gw gk ngerti beginian tapi pengen nanya, mendingan pake LM Studio atau ollama atau sama aj?
@@PopeyeSipelaut-qp8om Hasil yang diharapkan bisa sama, tapi melalui jalan yang berbeda aja.
Misalnya kamu running mobile legends di iPhone, aku running mobile legends di Android. Ujung ujungnya sama sama bisa main mobile legends, paling ya pengalaman penggunaan nya aja yang jadi tolak ukur kamu lebih suka yg mana.
@@PopeyeSipelaut-qp8om Kalau kamu penasaran ada juga tutorial yang ngegabungin "Ollama" dan "AI ChatBox" buat nge run DS R1 nya.
Tapi ya ujung ujungnya mirip mirip style nya kaya Generative AI Chat pada umumnya.
bg apakah perbedaannya yg diwebsite dan dengan yang lokal cuma jika di lokal ga perlu pake internet?,terus kalo yang deepseek web itu dia pake yang berapa B ?, 8b/7b/1,5b ????
@@nouvalrifqi9368 Jawabannya sdikit panjang
@@nouvalrifqi9368 1. Yg di web native DeepSeek chat botnya, itu anggaplah sebagai versi original dari DS R1 nya itu sndiri, yang pakai full parametee 671b.
Tapi ada setelah aku searching, karena DS R1 itu pakai arsitektur MoE (Mixture of Experts) yang singkatnya ngebuat DS R1 "original" itu ngejalanin 32b dalam satu waktu tapi tetap berdasarkan basis kualitas parameter 761b.
@@nouvalrifqi9368 2. Versi DS R1 Distill yang bang Dea pake atau mungkin nanti kamu pakai itu bukan versi original lagi, nah itu yang pakai parameter 1.5b, 7b, 8b, sampai 70b (selain dari 671b).
Dan iya... Ga perlu internet kalau kamu udh full download model AI nya ke local PC anda, dan ada apps runner AI Modelnya (LM Studio salah satunya)
@@nouvalrifqi9368 3. Versi DS R1 Distill itu simplenya orang nge training model AI dengan DS R1 originalnya. Atau ya DS R1 Distill itu murid DS R1 671b itu sendiri.
Nah analoginya, semakin banyak parameter, ya anggaplah sebagai IQ si DS R1 Distill nya juga semakin besar, yang menghasilkan kualitas pengetahuan yang semakin tinggi, jadi jawaban yang dihasilkan juga semakin baik, bahkan untuk soal-soal yang lebih sulit.
@@misaellim148 memang, tapi kekurangannya butuh spek gila gilaan buat jalan kalo lu bukan pengen ngebuat sesuatu yg bener bener kompleks web aja cukup
Idealnya spek pc seperti apa? Budget 10 jt cumuy ga ya running ini
Apakah sudah coba Qwen 2.5-Max bang, bagus mana
Anjirlah w kebagian bisa pakeknya dari jam 1 sampe jam 14 an🥲
Walaupun gitu deepseek gelo pisan euy ngbantu banget buat gue anak data Science
knp kalau pake ollama responnya lebih labat dari pada pake lm studio?
Bg mau nanya bg katanya ada rumor kalo gunain bakal bocor datanya itu betul atau tidak bg, saya bingung mau pake deepsek a.i
Bang gmna cara bikin deepseek yg kita install di local bisa di pake buat code assist kayak copilot?
cara integerasiin nya gimana bang pengen coba juga bolt di ayway nya
btw ini bang dea lu gk mau bahas n8n kah ?? pala gw udh ngebulll ini nyari tutor luar
Apa bisa di pake secara offline bng klo dah di install di LM studionya?
Pertanyaan macam apa ini
Bang kira2 minimal spec buat nge run model deepseek di VPS berapa ya
Bang coba kalo berkenan buatkan agar dia bisa buat file sendiri kayak di menit 3:38 🙏
kalo macbook air m1 pakai r1 7b kuat ga ya bang?
Bisakah membuat API untuk deepseek local ini, sehingga aplikasi lain bisa menggunakan deepseek dalam aplikasinya
info yg pake m1 air aman ga? mau nyoba yg 8b soalnya
bang kasih cara biar modelnya bisa kita latih lagi dong bang misalnya pake google colab jadi kayak kita jadiin pretained model gitu bang
Bang cara bikin wifi offline gimana caranya tolong jawab nya bang
apakah bisa generate response yang up to date selain coding?
lagi gw coba bang, lagi download llama sama deepsek nih di m1 air base model gw taruh di ssd external wkwkkw
@@lambemu6338 Seharusnya sih kalau dari "nalar bego" ya DS R1 kan up-date sampai 2025 kemarin ini ya datanya mungkin up to date 2024 an.
Terkecuali udh bisa integrasi fitur search online.
Biar promptnya terus kesimpen gimana ya? Kok gw pas udh lewat sehari promptnya hilang
Itu cara go live nya pke apa bang, copy paste code nya
Gratisan ngapain jg naruh dilaptop hehe... Sy prnah lakuin ini hbs itu dipikir lagi buat apa hasil jg sama malah di web lbh cepat.. Klo model lain bs pakai blackbox tinggal pilih modelnya..
Udh nyoba di workplus lu bang?
Kenapa pas nyobain banya bug ya ? malah pake chat gpt buat degubing , padahal cuman game snake, ryzen 5 3600, ram 32gb dan rtx 3070
Kenapa ga gunain Groq AI aja bang? kan udah ada deepseek distile llama 70B gratis pulak
serius nanya, buat apa instal model ai + software di lokal -sementara kita bisa langsung pakai deepseek nya secara langsung tanpa perlu proses instalasi?
nitip jg penasaran
Nitip juga
1. Data ga dibagikan.
2. Tidak terbatas.
3. Offline.
itu dia aman gak bang, soalnya di pc saya ada beberapa abun m banking, takutnya nyuri data kita
Mohon dijawab, sy msh heran kok AI macam ini bs diinstal independen ke laptop/pc, bukannya mesti terhubung internet? Krn harus mengambil data².
Datanya si ai disimpan di server lokal biar gak ngelag saat men generate perintah. Kan kalau di servernya si ai lgsg pasti banyak bgt org2 yg menggunakan server si ai tersebut jadi bisa menyebabkan lag
perbedaan ollama sama lm studio apa bang ?
Spek PC Windows minimal buat yang 8b ?
bang gw pake laptop acer jaduo ram 4, win 10 ghost spectre, Vga onboard intel hd 3000.. kira-kira bisa gak pake gituan bang ?
Gasss coba
sepertinya berat bray
@@teddicted yaahhhh
@@onceindonesia8496 Bisa bang, bisa emosi. 🤣
@@onceindonesia8496 Laptopku i5 11300H 4C/8T, 16GB RAM, 1650 G6 4GB VRAM.
Running DS R1 Distill 7b Qwen - Q4 aja cuma dapet 5-6 Token per second (Alias nge generate 5-6 kata kata jawaban per detik)
Gokil batt
spek macbooknya apa bang
Makasih bang
ini harus pake procie yang ada npu nya ? atau pake nvidia yang punya kemampuan AI juga bisa ?
Nggak bang, CPU/GPU tanpa NPU juga bisa. Tapi sesuaikan sama kemampuan spek PC/Laptopnya.
Bagian yg paling penting diperhatikan itu di RAM dan VRAM.
Pakai
LLM Calculator kalau mau tau berapa besar parameter yang direkomen buat bisa jalan di PC mu
@ oke thank you
izin subscribe bang