kk kan saya memprediksi tinggi rendahnya minat baca berdasarkan provinsi diindonesia dan hasil prediksinya 1 1 1 0 0 1 nah untuk mengetahui hasil prediksi untuk setiap provinsinya gimna kk? Sedangkan dstu cm angka kk?
@@ashen7772 Kalau yg dimaksud berupa string yg merupakan kategorikal masih bisa. Tapi kalau datanya berupa kalimat misal seperti review/tweet pemrosesannya termasuk analisis sentimen. Lebih kompleks daripada yg di video
Kak, izin bertanya mengapa nilai akurasi kita itu tidak stabil pada random state nya, padahal percobaan pertama mendapatkan akurasi yang besar lalu percobaan kedua dengan random state yang sama akurasinya kecil
Sepengalamanku kalo yg digunakan algoritma machine learning sederhana seperti Naive Bayes, selama nilai random state-nya sama, maka akurasinya akan tetap sama meskipun kodenya di-run berulang kali. Sejauh yg kutahu, nggak ada ketentuan mengenai nilai random state yg stabil karena random state hanya berfungsi utk menjaga konsistensi hasil splitting data. Jadi bisa dilakukan eksperimen aja untuk menghasilkan model yg akurasinya tinggi.
kak, saya kan mengklasifikasikan potensi bencana menjadi rendah, sedang, tinggi. saya menggunakan salah satu atribut "total kerugian", nah apakah atribut ini harus jadikan bobot begitu kak? misalnya kerugian
Kalau total kerugiannya memang berupa kategorikal di-encode jadi 0, 1, 2, dst gitu bisa, tapi kalau pure numerik alias datanya sangat unik satu sama lain, diskalakan pake standardscaler
Malam kak, izin bertanya kenapa ya kak saya melakukan penelitian mengenai pengenalan pola sidik jari menggunakan naive bayes tetapi akurasi nya kecil, Kira-kira kakak ad solusinya tidak? Terimakasih kak
@@bellaagustriana1669 Pengenalan pola sidik jari berarti pake data citra ya. Pada umumnya, data yg lebih banyak akan menghasilkan model yg lebih bagus karena model mempelajari data yg lebih beragam. Selain itu, tahap preprocessing juga sangat memengaruhi kualitas model
@@febbisenalestari betul kak data citra sidik jari, nah data yg saya gunakan msih 1000 data mendapatkan hasil naive bayes bru sebesar 40%, berarti hrus dinaikkan lagi datanya ya kak?, dan tahapan preprocessing sendiri sudah saya lakukan sesuai di video ini
@@bellaagustriana1669 Tahapan preprocessing data citra & tabular itu beda loh ya. Data citra punya karakteristik tersendiri sehingga preprocessingnya tidak bisa disamakan dengan data tabular (seperti data yg digunakan pada video).
Function LabelEncoder-nya disimpan dalam variabel "en" agar lebih ringkas dalam penggunaannya. Jadi tiap kali mau melakukan label encoding data tinggal panggil "en" aja
Upload langsung ke colab/github/google drive? Pastikan nama file & codingnya sesuai, misal file csv berarti pake read_csv, file xls pake read_excel, dll
@@wintermlnv Menaikkan akurasi bisa dari preprocessing datanya, bisa dari penentuan atribut yg digunakan, bisa dari rasio splitting datanya, bahkan terkadang nilai random state yg digunakan utk splitting data juga berpengaruh
Penjelasannya sederhana dengan bahasa yg baku zehingga mudah dipahami.❤makasih
@@bimbimboom-b3 Sama-sama kak ☺️🙏
penjelasannya bener bener mudah dipahami, sukses terus kak
Terima kasih 😊
Terimakasih banyak kak, sungguh sangat membantu 🙏🙏
Sama-sama ☺️
penjelasannya mendalam dan mudah dipahami. sayang ga dilanjutin kak
Pengen dilanjutin apa nih? 😁
lanjutin yang multi kelas dong. penjelasannya detail bgt. gasss kak
@@marizadevega2709 Multiclass caranya sama aja kok kak 😁
Kak untuk model algoritma naevy bayes apakah wajib pakai kurva ROC? 🙏🏽
@@dittaevvi Nggak kok. Disesuaikan dengan kebutuhan aja
kak, mohon maaf untuk di githubnya kok ngga ada yg menggunakan algoritma naive bayes yah? saya klik link di deskripsi adanya menggunakan KNN🙏
Memang yang ku-upload di github cuma datasetnya
kk kan saya memprediksi tinggi rendahnya minat baca berdasarkan provinsi diindonesia dan hasil prediksinya 1 1 1 0 0 1 nah untuk mengetahui hasil prediksi untuk setiap provinsinya gimna kk? Sedangkan dstu cm angka kk?
1 & 0 itu hasil labelisasi/label encoder dari class dataset. Bisa dicek apakah 0 mewakili tinggi atau rendah, trus 1 mewakili apa
Kak jika dataset saya berbentuk object apakah masih bisa untuk menggunakan code ini?
@@ashen7772 Berbentuk object itu yg bagaimana kak?
@@febbisenalestari jadi bukan bentuk numerik melainkan masih bentuk huruf kalimat
@@ashen7772 Kalau yg dimaksud berupa string yg merupakan kategorikal masih bisa. Tapi kalau datanya berupa kalimat misal seperti review/tweet pemrosesannya termasuk analisis sentimen. Lebih kompleks daripada yg di video
Kak, izin bertanya mengapa nilai akurasi kita itu tidak stabil pada random state nya, padahal percobaan pertama mendapatkan akurasi yang besar lalu percobaan kedua dengan random state yang sama akurasinya kecil
terimakasih kak, jdi menurut kak random state brp yg membuat nilai stabil
Sepengalamanku kalo yg digunakan algoritma machine learning sederhana seperti Naive Bayes, selama nilai random state-nya sama, maka akurasinya akan tetap sama meskipun kodenya di-run berulang kali. Sejauh yg kutahu, nggak ada ketentuan mengenai nilai random state yg stabil karena random state hanya berfungsi utk menjaga konsistensi hasil splitting data. Jadi bisa dilakukan eksperimen aja untuk menghasilkan model yg akurasinya tinggi.
@@febbisenalestariterimakasih kak atas penjelasannya, mungkin data masukan saya berubah jadi hasil akurasi nya itu turun kak
kak, saya kan mengklasifikasikan potensi bencana menjadi rendah, sedang, tinggi. saya menggunakan salah satu atribut "total kerugian", nah apakah atribut ini harus jadikan bobot begitu kak? misalnya kerugian
Kalau total kerugiannya memang berupa kategorikal di-encode jadi 0, 1, 2, dst gitu bisa, tapi kalau pure numerik alias datanya sangat unik satu sama lain, diskalakan pake standardscaler
kak punya saya di bagian standardscaler nya eror, pesannya string tidak dapat dikonversi ke float solusinya gimana yaa kak
Yg bisa diskalakan pake standardscaler cuma data angka ya kak. Kalau string nggak bisa 😊🙏
Malam kak, izin bertanya kenapa ya kak saya melakukan penelitian mengenai pengenalan pola sidik jari menggunakan naive bayes tetapi akurasi nya kecil, Kira-kira kakak ad solusinya tidak?
Terimakasih kak
Apakah naive bayes ini memerlukan data puluhan ribu atau dari proses preprocessing nya yg kurang hingga evaluasi nya?
@@bellaagustriana1669 Pengenalan pola sidik jari berarti pake data citra ya. Pada umumnya, data yg lebih banyak akan menghasilkan model yg lebih bagus karena model mempelajari data yg lebih beragam. Selain itu, tahap preprocessing juga sangat memengaruhi kualitas model
@@febbisenalestari betul kak data citra sidik jari, nah data yg saya gunakan msih 1000 data mendapatkan hasil naive bayes bru sebesar 40%, berarti hrus dinaikkan lagi datanya ya kak?, dan tahapan preprocessing sendiri sudah saya lakukan sesuai di video ini
@@bellaagustriana1669 Tahapan preprocessing data citra & tabular itu beda loh ya. Data citra punya karakteristik tersendiri sehingga preprocessingnya tidak bisa disamakan dengan data tabular (seperti data yg digunakan pada video).
kak untuk datasetnya yang format csv bisa ngak pakai kode tersebut ?
Bisa. Kodenya tinggal diganti "read_csv", bukan read_excel lagi
kak, kalau ada data yang kosong pada dataset bagaimana? apa yang harus dilakukan?
Datasetnya di-preprocessing dulu. Kalau data kosong bisa dihapus atau diisi dengan nilai tertentu
Kak mau nanya nih untuk labelencoder penyimpanan en itu bagaimana ya kak
Function LabelEncoder-nya disimpan dalam variabel "en" agar lebih ringkas dalam penggunaannya. Jadi tiap kali mau melakukan label encoding data tinggal panggil "en" aja
Untuk masuk di bagian standar scaler menit 11 eror kak
Pesan errornya apa kak?
@@febbisenalestari ValueError Traceback (most recent call last)
in ()
1 from sklearn.preprocessing import StandardScaler
2 sc = StandardScaler()
----> 3 x_train = sc.fit_transform(x_train)
4 # scaler_train=sc.fit(x_train)
5 #x_train_sd=scaler_train.transform(x_train)
kak, kalau dataku ngga kebaca sama colab gimana ya? padahal sudah upload
Upload langsung ke colab/github/google drive? Pastikan nama file & codingnya sesuai, misal file csv berarti pake read_csv, file xls pake read_excel, dll
Ketika data set nya di runing muncul pesna error kenapa yah ka
@@NovanUbaidillah-o5q Pesan error yg muncul apa kak?
Kak ditutorialnya ini ada evaluasi presisi dan recall juga?
@@intanuggrahintan7216 Ada kak, di bagian classification report
Oke kak, terimakasih tutorialnya sangat membantu 😁 sukses terus ya kak
@@intanuggrahintan7216 Sama-sama ☺️
kak untuk metode random forest apakah bisa?
Bisa. Random forest juga algoritma klasifikasi, jadi secara umum codingannya sama. Tinggal ngubah bagian algoritma yg digunakan
kak untuk hasil probabilitasnya itu perolehannya dari hitungan mana aja ya?
Perhitungan dari penerapan teorema bayes kak
Kak, untuk flowchart mulai hingga selesai bisa di jawab?
@@OkSlur Flowchart apa ya?
cara menaikkan akurasi gimana kak? dataset saya cuma ada 1000 baris
@@wintermlnv Menaikkan akurasi bisa dari preprocessing datanya, bisa dari penentuan atribut yg digunakan, bisa dari rasio splitting datanya, bahkan terkadang nilai random state yg digunakan utk splitting data juga berpengaruh
Kak mau nanyak aku di pengskalaannya error , gimana ya kak
Kok bisa error ya kak, padahal masih di pengsklaan
Pesan errornya apa kak?
Knp saya pakek error semua
@@nurulkhotimah1797 Coba dicek pesan errornya apa
link kaggle nya ada ga kak
Ini kak
www.kaggle.com/datasets/joshmcadams/oranges-vs-grapefruit
ka untuk yang di mnt 9 kok gk jdiya yang untuk
x_train,x_test,y_train,y_test= train_test_split(x, y , test_size=0.2, ramdom_state=123)
Nggak jadinya gimana tuh kak? Muncul pesan error apa?
Ka mau tanya, dataset nya harus di upload di github dulu yaa ka?
Nggak kak. Bisa diupload langsung ke colab, bisa juga di google drive
kak, bisa aku hubungi gak? butuh bantuan eheheh
Di komen sini bisa, di IG bisa..
Hallo kk, bisa minta source codenya?
Maaf source code yg dipake di video udah nggak ada kak 🥲🙏 Tapi keseluruhan codenya aku tampilin di video kan ya, jadi bisa diikuti aja