kak, saya kan mengklasifikasikan potensi bencana menjadi rendah, sedang, tinggi. saya menggunakan salah satu atribut "total kerugian", nah apakah atribut ini harus jadikan bobot begitu kak? misalnya kerugian
Kalau total kerugiannya memang berupa kategorikal di-encode jadi 0, 1, 2, dst gitu bisa, tapi kalau pure numerik alias datanya sangat unik satu sama lain, diskalakan pake standardscaler
kk kan saya memprediksi tinggi rendahnya minat baca berdasarkan provinsi diindonesia dan hasil prediksinya 1 1 1 0 0 1 nah untuk mengetahui hasil prediksi untuk setiap provinsinya gimna kk? Sedangkan dstu cm angka kk?
@@wintermlnv Menaikkan akurasi bisa dari preprocessing datanya, bisa dari penentuan atribut yg digunakan, bisa dari rasio splitting datanya, bahkan terkadang nilai random state yg digunakan utk splitting data juga berpengaruh
Upload langsung ke colab/github/google drive? Pastikan nama file & codingnya sesuai, misal file csv berarti pake read_csv, file xls pake read_excel, dll
Kak, izin bertanya mengapa nilai akurasi kita itu tidak stabil pada random state nya, padahal percobaan pertama mendapatkan akurasi yang besar lalu percobaan kedua dengan random state yang sama akurasinya kecil
Sepengalamanku kalo yg digunakan algoritma machine learning sederhana seperti Naive Bayes, selama nilai random state-nya sama, maka akurasinya akan tetap sama meskipun kodenya di-run berulang kali. Sejauh yg kutahu, nggak ada ketentuan mengenai nilai random state yg stabil karena random state hanya berfungsi utk menjaga konsistensi hasil splitting data. Jadi bisa dilakukan eksperimen aja untuk menghasilkan model yg akurasinya tinggi.
Malam kak, izin bertanya kenapa ya kak saya melakukan penelitian mengenai pengenalan pola sidik jari menggunakan naive bayes tetapi akurasi nya kecil, Kira-kira kakak ad solusinya tidak? Terimakasih kak
@@bellaagustriana1669 Pengenalan pola sidik jari berarti pake data citra ya. Pada umumnya, data yg lebih banyak akan menghasilkan model yg lebih bagus karena model mempelajari data yg lebih beragam. Selain itu, tahap preprocessing juga sangat memengaruhi kualitas model
@@febbisenalestari betul kak data citra sidik jari, nah data yg saya gunakan msih 1000 data mendapatkan hasil naive bayes bru sebesar 40%, berarti hrus dinaikkan lagi datanya ya kak?, dan tahapan preprocessing sendiri sudah saya lakukan sesuai di video ini
@@bellaagustriana1669 Tahapan preprocessing data citra & tabular itu beda loh ya. Data citra punya karakteristik tersendiri sehingga preprocessingnya tidak bisa disamakan dengan data tabular (seperti data yg digunakan pada video).
Function LabelEncoder-nya disimpan dalam variabel "en" agar lebih ringkas dalam penggunaannya. Jadi tiap kali mau melakukan label encoding data tinggal panggil "en" aja
Terimakasih banyak kak, sungguh sangat membantu 🙏🙏
Sama-sama ☺️
penjelasannya bener bener mudah dipahami, sukses terus kak
Terima kasih 😊
penjelasannya mendalam dan mudah dipahami. sayang ga dilanjutin kak
Pengen dilanjutin apa nih? 😁
kak, mohon maaf untuk di githubnya kok ngga ada yg menggunakan algoritma naive bayes yah? saya klik link di deskripsi adanya menggunakan KNN🙏
Memang yang ku-upload di github cuma datasetnya
kak, saya kan mengklasifikasikan potensi bencana menjadi rendah, sedang, tinggi. saya menggunakan salah satu atribut "total kerugian", nah apakah atribut ini harus jadikan bobot begitu kak? misalnya kerugian
Kalau total kerugiannya memang berupa kategorikal di-encode jadi 0, 1, 2, dst gitu bisa, tapi kalau pure numerik alias datanya sangat unik satu sama lain, diskalakan pake standardscaler
kk kan saya memprediksi tinggi rendahnya minat baca berdasarkan provinsi diindonesia dan hasil prediksinya 1 1 1 0 0 1 nah untuk mengetahui hasil prediksi untuk setiap provinsinya gimna kk? Sedangkan dstu cm angka kk?
1 & 0 itu hasil labelisasi/label encoder dari class dataset. Bisa dicek apakah 0 mewakili tinggi atau rendah, trus 1 mewakili apa
Ketika data set nya di runing muncul pesna error kenapa yah ka
@@user-mp2hv7xw8h Pesan error yg muncul apa kak?
cara menaikkan akurasi gimana kak? dataset saya cuma ada 1000 baris
@@wintermlnv Menaikkan akurasi bisa dari preprocessing datanya, bisa dari penentuan atribut yg digunakan, bisa dari rasio splitting datanya, bahkan terkadang nilai random state yg digunakan utk splitting data juga berpengaruh
kak punya saya di bagian standardscaler nya eror, pesannya string tidak dapat dikonversi ke float solusinya gimana yaa kak
Yg bisa diskalakan pake standardscaler cuma data angka ya kak. Kalau string nggak bisa 😊🙏
kak untuk datasetnya yang format csv bisa ngak pakai kode tersebut ?
Bisa. Kodenya tinggal diganti "read_csv", bukan read_excel lagi
kak, kalau ada data yang kosong pada dataset bagaimana? apa yang harus dilakukan?
Datasetnya di-preprocessing dulu. Kalau data kosong bisa dihapus atau diisi dengan nilai tertentu
Ka mau tanya, dataset nya harus di upload di github dulu yaa ka?
Nggak kak. Bisa diupload langsung ke colab, bisa juga di google drive
kak untuk hasil probabilitasnya itu perolehannya dari hitungan mana aja ya?
Perhitungan dari penerapan teorema bayes kak
kak, kalau dataku ngga kebaca sama colab gimana ya? padahal sudah upload
Upload langsung ke colab/github/google drive? Pastikan nama file & codingnya sesuai, misal file csv berarti pake read_csv, file xls pake read_excel, dll
kak untuk metode random forest apakah bisa?
Bisa. Random forest juga algoritma klasifikasi, jadi secara umum codingannya sama. Tinggal ngubah bagian algoritma yg digunakan
link kaggle nya ada ga kak
Ini kak
www.kaggle.com/datasets/joshmcadams/oranges-vs-grapefruit
Kak, izin bertanya mengapa nilai akurasi kita itu tidak stabil pada random state nya, padahal percobaan pertama mendapatkan akurasi yang besar lalu percobaan kedua dengan random state yang sama akurasinya kecil
terimakasih kak, jdi menurut kak random state brp yg membuat nilai stabil
Sepengalamanku kalo yg digunakan algoritma machine learning sederhana seperti Naive Bayes, selama nilai random state-nya sama, maka akurasinya akan tetap sama meskipun kodenya di-run berulang kali. Sejauh yg kutahu, nggak ada ketentuan mengenai nilai random state yg stabil karena random state hanya berfungsi utk menjaga konsistensi hasil splitting data. Jadi bisa dilakukan eksperimen aja untuk menghasilkan model yg akurasinya tinggi.
@@febbisenalestariterimakasih kak atas penjelasannya, mungkin data masukan saya berubah jadi hasil akurasi nya itu turun kak
Malam kak, izin bertanya kenapa ya kak saya melakukan penelitian mengenai pengenalan pola sidik jari menggunakan naive bayes tetapi akurasi nya kecil, Kira-kira kakak ad solusinya tidak?
Terimakasih kak
Apakah naive bayes ini memerlukan data puluhan ribu atau dari proses preprocessing nya yg kurang hingga evaluasi nya?
@@bellaagustriana1669 Pengenalan pola sidik jari berarti pake data citra ya. Pada umumnya, data yg lebih banyak akan menghasilkan model yg lebih bagus karena model mempelajari data yg lebih beragam. Selain itu, tahap preprocessing juga sangat memengaruhi kualitas model
@@febbisenalestari betul kak data citra sidik jari, nah data yg saya gunakan msih 1000 data mendapatkan hasil naive bayes bru sebesar 40%, berarti hrus dinaikkan lagi datanya ya kak?, dan tahapan preprocessing sendiri sudah saya lakukan sesuai di video ini
@@bellaagustriana1669 Tahapan preprocessing data citra & tabular itu beda loh ya. Data citra punya karakteristik tersendiri sehingga preprocessingnya tidak bisa disamakan dengan data tabular (seperti data yg digunakan pada video).
Kak mau nanya nih untuk labelencoder penyimpanan en itu bagaimana ya kak
Function LabelEncoder-nya disimpan dalam variabel "en" agar lebih ringkas dalam penggunaannya. Jadi tiap kali mau melakukan label encoding data tinggal panggil "en" aja
Untuk masuk di bagian standar scaler menit 11 eror kak
Pesan errornya apa kak?
@@febbisenalestari ValueError Traceback (most recent call last)
in ()
1 from sklearn.preprocessing import StandardScaler
2 sc = StandardScaler()
----> 3 x_train = sc.fit_transform(x_train)
4 # scaler_train=sc.fit(x_train)
5 #x_train_sd=scaler_train.transform(x_train)
Kak mau nanyak aku di pengskalaannya error , gimana ya kak
Kok bisa error ya kak, padahal masih di pengsklaan
Pesan errornya apa kak?
kak, bisa aku hubungi gak? butuh bantuan eheheh
Di komen sini bisa, di IG bisa..
Kak ditutorialnya ini ada evaluasi presisi dan recall juga?
@@intanuggrahintan7216 Ada kak, di bagian classification report
Oke kak, terimakasih tutorialnya sangat membantu 😁 sukses terus ya kak
@@intanuggrahintan7216 Sama-sama ☺️
Hallo kk, bisa minta source codenya?
Maaf source code yg dipake di video udah nggak ada kak 🥲🙏 Tapi keseluruhan codenya aku tampilin di video kan ya, jadi bisa diikuti aja
ka untuk yang di mnt 9 kok gk jdiya yang untuk
x_train,x_test,y_train,y_test= train_test_split(x, y , test_size=0.2, ramdom_state=123)
Nggak jadinya gimana tuh kak? Muncul pesan error apa?