cho em hỏi em có đề tài đồ án cuối năm là về y tế, em có sử dụng tín hiệu từ thiết bị ECG, và em đã lọc ra những chỉ số cần thiết, cho em hỏi bây giờ em muốn fine-tune đống data đó thì nên làm sao ạ
Hiện giờ mình không có làm về fine-tune cũng như training model nên cũng không có nhiều kiền thức để hướng dẫn bạn. Bạn có thể tham khảo cái video sau nha: th-cam.com/video/qcNmOItRw4U/w-d-xo.html Nếu không bắt buộc phải fine-tune, thì bạn có thể dùng kỹ thuật RAG để tăng cường kiến thức cho model theo ngữ cảnh cũng được
Cần thì chạy, không cần thì nghỉ thôi. Hao máy vẫn đỡ hơn hao $200/month, nếu tháng đó không sài hoặc sài ít thì bay luôn $200. Cái nào cũng có cái Pros/Cons
Này test thôi mà bạn (do môi trường Colab nó chạy theo dạng session, hết session thì các thứ mình cài đặt nó xóa hết thôi). Nếu bạn có điều kiện mua được Card màn hình như RTX-3090/4090 gắn vào PC thì cài đặt trên PC cũng tương tự, và chỉ cài một lần thôi cho Ollama + pull model Deepseek
Các mô hình distilled nhỏ hơn, chẳng hạn 7b, 1.5b thì có đủ tốt cho một số ví dụ prompt mà bạn dùng trong video không? Nó cứ hay bị một số lỗi tiếng Anh, tiếng Trung, tiếng Việt lẫn lộn
Nếu bạn cần nó trả ra nội dung dạng content nội dung tiếng Việt như bài viết, report + cái nội dung prompt nó dài thì nên dùng 14b trở lên để đảm bảo nó answer ra đúng ý mình. Còn trường hợp như vd 1 và 2 trong video, mình kêu nó phân tích rồi trả ra giá trị là Yes/No, True/False hoặc một chuổi không phải là tiếng Việt hoặc dữ liệu JSON dạng chuổi thì có thể dùng model thấp hơn như 8b, 7b, 1.5b (và cái nội dung prompt không quá nhiều)
@@codermetaichinh em thử trên con 14b chạy rất chậm dù chạy được trên con 4060 laptop , khi hỏi vẫn bị tiếng trung tiếng anh xen kẽ ... xuống 8b thì ổn , có cách nào nào để liên kết nó với database cá nhân để nó đọc và phân tích dữ liệu từ database
Anh ơi, anh đăng lên các video môn học UEH hồi đó với, để bọn em theo dõi và học tập với ạ hihi cảm ơn anh nhiều lắm ạ!
cho em hỏi em có đề tài đồ án cuối năm là về y tế, em có sử dụng tín hiệu từ thiết bị ECG, và em đã lọc ra những chỉ số cần thiết, cho em hỏi bây giờ em muốn fine-tune đống data đó thì nên làm sao ạ
Hiện giờ mình không có làm về fine-tune cũng như training model nên cũng không có nhiều kiền thức để hướng dẫn bạn. Bạn có thể tham khảo cái video sau nha: th-cam.com/video/qcNmOItRw4U/w-d-xo.html
Nếu không bắt buộc phải fine-tune, thì bạn có thể dùng kỹ thuật RAG để tăng cường kiến thức cho model theo ngữ cảnh cũng được
@ em cảm ơn anh nhiều ạ
cài cho biết thôi chứ xài con này hao máy quá
Cần thì chạy, không cần thì nghỉ thôi. Hao máy vẫn đỡ hơn hao $200/month, nếu tháng đó không sài hoặc sài ít thì bay luôn $200. Cái nào cũng có cái Pros/Cons
@@codermetaichinh sr haha,mình mới xem khúc đầu, tưởng đưa vào Cline :D
cái này hơi bất tiện anh nhỉ , mỗi lần tắt colab phải chạy lại từ đầu , tốn quá nhiều thời gian
Này test thôi mà bạn (do môi trường Colab nó chạy theo dạng session, hết session thì các thứ mình cài đặt nó xóa hết thôi). Nếu bạn có điều kiện mua được Card màn hình như RTX-3090/4090 gắn vào PC thì cài đặt trên PC cũng tương tự, và chỉ cài một lần thôi cho Ollama + pull model Deepseek
Các mô hình distilled nhỏ hơn, chẳng hạn 7b, 1.5b thì có đủ tốt cho một số ví dụ prompt mà bạn dùng trong video không? Nó cứ hay bị một số lỗi tiếng Anh, tiếng Trung, tiếng Việt lẫn lộn
Nếu bạn cần nó trả ra nội dung dạng content nội dung tiếng Việt như bài viết, report + cái nội dung prompt nó dài thì nên dùng 14b trở lên để đảm bảo nó answer ra đúng ý mình.
Còn trường hợp như vd 1 và 2 trong video, mình kêu nó phân tích rồi trả ra giá trị là Yes/No, True/False hoặc một chuổi không phải là tiếng Việt hoặc dữ liệu JSON dạng chuổi thì có thể dùng model thấp hơn như 8b, 7b, 1.5b (và cái nội dung prompt không quá nhiều)
@@codermetaichinh em thử trên con 14b chạy rất chậm dù chạy được trên con 4060 laptop , khi hỏi vẫn bị tiếng trung tiếng anh xen kẽ ... xuống 8b thì ổn , có cách nào nào để liên kết nó với database cá nhân để nó đọc và phân tích dữ liệu từ database