Run Mô Hình DeepSeek-R1:14b Với Ollama Trên Google Colab

แชร์
ฝัง
  • เผยแพร่เมื่อ 8 ก.พ. 2025

ความคิดเห็น • 12

  • @tankhoanguyen293
    @tankhoanguyen293 6 วันที่ผ่านมา

    Anh ơi, anh đăng lên các video môn học UEH hồi đó với, để bọn em theo dõi và học tập với ạ hihi cảm ơn anh nhiều lắm ạ!

  • @teo7651
    @teo7651 5 วันที่ผ่านมา

    cho em hỏi em có đề tài đồ án cuối năm là về y tế, em có sử dụng tín hiệu từ thiết bị ECG, và em đã lọc ra những chỉ số cần thiết, cho em hỏi bây giờ em muốn fine-tune đống data đó thì nên làm sao ạ

    • @codermetaichinh
      @codermetaichinh  5 วันที่ผ่านมา +1

      Hiện giờ mình không có làm về fine-tune cũng như training model nên cũng không có nhiều kiền thức để hướng dẫn bạn. Bạn có thể tham khảo cái video sau nha: th-cam.com/video/qcNmOItRw4U/w-d-xo.html
      Nếu không bắt buộc phải fine-tune, thì bạn có thể dùng kỹ thuật RAG để tăng cường kiến thức cho model theo ngữ cảnh cũng được

    • @teo7651
      @teo7651 4 วันที่ผ่านมา

      @ em cảm ơn anh nhiều ạ

  • @rn.cslive
    @rn.cslive 4 วันที่ผ่านมา

    cài cho biết thôi chứ xài con này hao máy quá

    • @codermetaichinh
      @codermetaichinh  4 วันที่ผ่านมา

      Cần thì chạy, không cần thì nghỉ thôi. Hao máy vẫn đỡ hơn hao $200/month, nếu tháng đó không sài hoặc sài ít thì bay luôn $200. Cái nào cũng có cái Pros/Cons

    • @rn.cslive
      @rn.cslive 4 วันที่ผ่านมา

      @@codermetaichinh sr haha,mình mới xem khúc đầu, tưởng đưa vào Cline :D

  • @luanvo2227
    @luanvo2227 5 วันที่ผ่านมา

    cái này hơi bất tiện anh nhỉ , mỗi lần tắt colab phải chạy lại từ đầu , tốn quá nhiều thời gian

    • @codermetaichinh
      @codermetaichinh  5 วันที่ผ่านมา

      Này test thôi mà bạn (do môi trường Colab nó chạy theo dạng session, hết session thì các thứ mình cài đặt nó xóa hết thôi). Nếu bạn có điều kiện mua được Card màn hình như RTX-3090/4090 gắn vào PC thì cài đặt trên PC cũng tương tự, và chỉ cài một lần thôi cho Ollama + pull model Deepseek

    • @TruongMinh2911
      @TruongMinh2911 5 วันที่ผ่านมา

      Các mô hình distilled nhỏ hơn, chẳng hạn 7b, 1.5b thì có đủ tốt cho một số ví dụ prompt mà bạn dùng trong video không? Nó cứ hay bị một số lỗi tiếng Anh, tiếng Trung, tiếng Việt lẫn lộn

    • @codermetaichinh
      @codermetaichinh  5 วันที่ผ่านมา

      Nếu bạn cần nó trả ra nội dung dạng content nội dung tiếng Việt như bài viết, report + cái nội dung prompt nó dài thì nên dùng 14b trở lên để đảm bảo nó answer ra đúng ý mình.
      Còn trường hợp như vd 1 và 2 trong video, mình kêu nó phân tích rồi trả ra giá trị là Yes/No, True/False hoặc một chuổi không phải là tiếng Việt hoặc dữ liệu JSON dạng chuổi thì có thể dùng model thấp hơn như 8b, 7b, 1.5b (và cái nội dung prompt không quá nhiều)

    • @luanvo2227
      @luanvo2227 5 วันที่ผ่านมา

      @@codermetaichinh em thử trên con 14b chạy rất chậm dù chạy được trên con 4060 laptop , khi hỏi vẫn bị tiếng trung tiếng anh xen kẽ ... xuống 8b thì ổn , có cách nào nào để liên kết nó với database cá nhân để nó đọc và phân tích dữ liệu từ database