Tutorial Klasifikasi Algoritma Naive Bayes Classifier dengan Python - Google Colab

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 ม.ค. 2025

ความคิดเห็น • 75

  • @bimbimboom-b3
    @bimbimboom-b3 2 หลายเดือนก่อน +1

    Penjelasannya sederhana dengan bahasa yg baku zehingga mudah dipahami.❤makasih

    • @febbisenalestari
      @febbisenalestari  2 หลายเดือนก่อน

      @@bimbimboom-b3 Sama-sama kak ☺️🙏

  • @lacreativeproduction7544
    @lacreativeproduction7544 8 หลายเดือนก่อน +1

    penjelasannya bener bener mudah dipahami, sukses terus kak

  • @moongoddessbaby
    @moongoddessbaby 6 หลายเดือนก่อน +1

    Terimakasih banyak kak, sungguh sangat membantu 🙏🙏

  • @furqonfidal876
    @furqonfidal876 10 หลายเดือนก่อน +2

    penjelasannya mendalam dan mudah dipahami. sayang ga dilanjutin kak

    • @febbisenalestari
      @febbisenalestari  10 หลายเดือนก่อน

      Pengen dilanjutin apa nih? 😁

  • @marizadevega2709
    @marizadevega2709 2 หลายเดือนก่อน +2

    lanjutin yang multi kelas dong. penjelasannya detail bgt. gasss kak

    • @febbisenalestari
      @febbisenalestari  2 หลายเดือนก่อน

      @@marizadevega2709 Multiclass caranya sama aja kok kak 😁

  • @dittaevvi
    @dittaevvi 15 วันที่ผ่านมา +1

    Kak untuk model algoritma naevy bayes apakah wajib pakai kurva ROC? 🙏🏽

    • @febbisenalestari
      @febbisenalestari  11 วันที่ผ่านมา

      @@dittaevvi Nggak kok. Disesuaikan dengan kebutuhan aja

  • @stayhealthy21
    @stayhealthy21 ปีที่แล้ว +2

    kak, mohon maaf untuk di githubnya kok ngga ada yg menggunakan algoritma naive bayes yah? saya klik link di deskripsi adanya menggunakan KNN🙏

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Memang yang ku-upload di github cuma datasetnya

  • @WindiKhirzameila-u2v
    @WindiKhirzameila-u2v 10 หลายเดือนก่อน +1

    kk kan saya memprediksi tinggi rendahnya minat baca berdasarkan provinsi diindonesia dan hasil prediksinya 1 1 1 0 0 1 nah untuk mengetahui hasil prediksi untuk setiap provinsinya gimna kk? Sedangkan dstu cm angka kk?

    • @febbisenalestari
      @febbisenalestari  10 หลายเดือนก่อน

      1 & 0 itu hasil labelisasi/label encoder dari class dataset. Bisa dicek apakah 0 mewakili tinggi atau rendah, trus 1 mewakili apa

  • @ashen7772
    @ashen7772 5 หลายเดือนก่อน +1

    Kak jika dataset saya berbentuk object apakah masih bisa untuk menggunakan code ini?

    • @febbisenalestari
      @febbisenalestari  5 หลายเดือนก่อน

      @@ashen7772 Berbentuk object itu yg bagaimana kak?

    • @ashen7772
      @ashen7772 4 หลายเดือนก่อน

      @@febbisenalestari jadi bukan bentuk numerik melainkan masih bentuk huruf kalimat

    • @febbisenalestari
      @febbisenalestari  4 หลายเดือนก่อน

      @@ashen7772 Kalau yg dimaksud berupa string yg merupakan kategorikal masih bisa. Tapi kalau datanya berupa kalimat misal seperti review/tweet pemrosesannya termasuk analisis sentimen. Lebih kompleks daripada yg di video

  • @bellaagustriana1669
    @bellaagustriana1669 6 หลายเดือนก่อน +1

    Kak, izin bertanya mengapa nilai akurasi kita itu tidak stabil pada random state nya, padahal percobaan pertama mendapatkan akurasi yang besar lalu percobaan kedua dengan random state yang sama akurasinya kecil

    • @bellaagustriana1669
      @bellaagustriana1669 6 หลายเดือนก่อน

      terimakasih kak, jdi menurut kak random state brp yg membuat nilai stabil

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      Sepengalamanku kalo yg digunakan algoritma machine learning sederhana seperti Naive Bayes, selama nilai random state-nya sama, maka akurasinya akan tetap sama meskipun kodenya di-run berulang kali. Sejauh yg kutahu, nggak ada ketentuan mengenai nilai random state yg stabil karena random state hanya berfungsi utk menjaga konsistensi hasil splitting data. Jadi bisa dilakukan eksperimen aja untuk menghasilkan model yg akurasinya tinggi.

    • @bellaagustriana1669
      @bellaagustriana1669 6 หลายเดือนก่อน

      @@febbisenalestariterimakasih kak atas penjelasannya, mungkin data masukan saya berubah jadi hasil akurasi nya itu turun kak

  • @fadiaindahsari7756
    @fadiaindahsari7756 7 หลายเดือนก่อน +1

    kak, saya kan mengklasifikasikan potensi bencana menjadi rendah, sedang, tinggi. saya menggunakan salah satu atribut "total kerugian", nah apakah atribut ini harus jadikan bobot begitu kak? misalnya kerugian

    • @febbisenalestari
      @febbisenalestari  7 หลายเดือนก่อน

      Kalau total kerugiannya memang berupa kategorikal di-encode jadi 0, 1, 2, dst gitu bisa, tapi kalau pure numerik alias datanya sangat unik satu sama lain, diskalakan pake standardscaler

  • @irsaaprianti2767
    @irsaaprianti2767 9 หลายเดือนก่อน +1

    kak punya saya di bagian standardscaler nya eror, pesannya string tidak dapat dikonversi ke float solusinya gimana yaa kak

    • @febbisenalestari
      @febbisenalestari  9 หลายเดือนก่อน

      Yg bisa diskalakan pake standardscaler cuma data angka ya kak. Kalau string nggak bisa 😊🙏

  • @bellaagustriana1669
    @bellaagustriana1669 6 หลายเดือนก่อน +1

    Malam kak, izin bertanya kenapa ya kak saya melakukan penelitian mengenai pengenalan pola sidik jari menggunakan naive bayes tetapi akurasi nya kecil, Kira-kira kakak ad solusinya tidak?
    Terimakasih kak

    • @bellaagustriana1669
      @bellaagustriana1669 6 หลายเดือนก่อน

      Apakah naive bayes ini memerlukan data puluhan ribu atau dari proses preprocessing nya yg kurang hingga evaluasi nya?

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      @@bellaagustriana1669 Pengenalan pola sidik jari berarti pake data citra ya. Pada umumnya, data yg lebih banyak akan menghasilkan model yg lebih bagus karena model mempelajari data yg lebih beragam. Selain itu, tahap preprocessing juga sangat memengaruhi kualitas model

    • @bellaagustriana1669
      @bellaagustriana1669 6 หลายเดือนก่อน

      @@febbisenalestari betul kak data citra sidik jari, nah data yg saya gunakan msih 1000 data mendapatkan hasil naive bayes bru sebesar 40%, berarti hrus dinaikkan lagi datanya ya kak?, dan tahapan preprocessing sendiri sudah saya lakukan sesuai di video ini

    • @febbisenalestari
      @febbisenalestari  5 หลายเดือนก่อน

      @@bellaagustriana1669 Tahapan preprocessing data citra & tabular itu beda loh ya. Data citra punya karakteristik tersendiri sehingga preprocessingnya tidak bisa disamakan dengan data tabular (seperti data yg digunakan pada video).

  • @ahmade1238
    @ahmade1238 6 หลายเดือนก่อน +1

    kak untuk datasetnya yang format csv bisa ngak pakai kode tersebut ?

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      Bisa. Kodenya tinggal diganti "read_csv", bukan read_excel lagi

  • @uganisme
    @uganisme ปีที่แล้ว +1

    kak, kalau ada data yang kosong pada dataset bagaimana? apa yang harus dilakukan?

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Datasetnya di-preprocessing dulu. Kalau data kosong bisa dihapus atau diisi dengan nilai tertentu

  • @aryasita7478
    @aryasita7478 ปีที่แล้ว +1

    Kak mau nanya nih untuk labelencoder penyimpanan en itu bagaimana ya kak

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Function LabelEncoder-nya disimpan dalam variabel "en" agar lebih ringkas dalam penggunaannya. Jadi tiap kali mau melakukan label encoding data tinggal panggil "en" aja

    • @aryasita7478
      @aryasita7478 ปีที่แล้ว

      Untuk masuk di bagian standar scaler menit 11 eror kak

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Pesan errornya apa kak?

    • @aryasita7478
      @aryasita7478 ปีที่แล้ว

      @@febbisenalestari ValueError Traceback (most recent call last)
      in ()
      1 from sklearn.preprocessing import StandardScaler
      2 sc = StandardScaler()
      ----> 3 x_train = sc.fit_transform(x_train)
      4 # scaler_train=sc.fit(x_train)
      5 #x_train_sd=scaler_train.transform(x_train)

  • @aimeenatya
    @aimeenatya ปีที่แล้ว +1

    kak, kalau dataku ngga kebaca sama colab gimana ya? padahal sudah upload

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Upload langsung ke colab/github/google drive? Pastikan nama file & codingnya sesuai, misal file csv berarti pake read_csv, file xls pake read_excel, dll

  • @NovanUbaidillah-o5q
    @NovanUbaidillah-o5q 5 หลายเดือนก่อน +1

    Ketika data set nya di runing muncul pesna error kenapa yah ka

    • @febbisenalestari
      @febbisenalestari  5 หลายเดือนก่อน

      @@NovanUbaidillah-o5q Pesan error yg muncul apa kak?

  • @intanuggrahintan7216
    @intanuggrahintan7216 6 หลายเดือนก่อน +1

    Kak ditutorialnya ini ada evaluasi presisi dan recall juga?

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      @@intanuggrahintan7216 Ada kak, di bagian classification report

    • @intanuggrahintan7216
      @intanuggrahintan7216 6 หลายเดือนก่อน

      Oke kak, terimakasih tutorialnya sangat membantu 😁 sukses terus ya kak

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      @@intanuggrahintan7216 Sama-sama ☺️

  • @yuliafatimah4656
    @yuliafatimah4656 7 หลายเดือนก่อน +1

    kak untuk metode random forest apakah bisa?

    • @febbisenalestari
      @febbisenalestari  7 หลายเดือนก่อน

      Bisa. Random forest juga algoritma klasifikasi, jadi secara umum codingannya sama. Tinggal ngubah bagian algoritma yg digunakan

  • @asyfamaulidina1197
    @asyfamaulidina1197 ปีที่แล้ว +1

    kak untuk hasil probabilitasnya itu perolehannya dari hitungan mana aja ya?

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Perhitungan dari penerapan teorema bayes kak

  • @OkSlur
    @OkSlur หลายเดือนก่อน

    Kak, untuk flowchart mulai hingga selesai bisa di jawab?

  • @wintermlnv
    @wintermlnv 5 หลายเดือนก่อน +1

    cara menaikkan akurasi gimana kak? dataset saya cuma ada 1000 baris

    • @febbisenalestari
      @febbisenalestari  5 หลายเดือนก่อน

      @@wintermlnv Menaikkan akurasi bisa dari preprocessing datanya, bisa dari penentuan atribut yg digunakan, bisa dari rasio splitting datanya, bahkan terkadang nilai random state yg digunakan utk splitting data juga berpengaruh

  • @hendaputririnabrginting0074
    @hendaputririnabrginting0074 ปีที่แล้ว +1

    Kak mau nanyak aku di pengskalaannya error , gimana ya kak

  • @nurulkhotimah1797
    @nurulkhotimah1797 หลายเดือนก่อน +1

    Knp saya pakek error semua

    • @febbisenalestari
      @febbisenalestari  หลายเดือนก่อน

      @@nurulkhotimah1797 Coba dicek pesan errornya apa

  • @RAHMATIRWANDI-rn5th
    @RAHMATIRWANDI-rn5th 6 หลายเดือนก่อน +1

    link kaggle nya ada ga kak

    • @febbisenalestari
      @febbisenalestari  6 หลายเดือนก่อน

      Ini kak
      www.kaggle.com/datasets/joshmcadams/oranges-vs-grapefruit

  • @nyx32114
    @nyx32114 ปีที่แล้ว +1

    ka untuk yang di mnt 9 kok gk jdiya yang untuk

    • @nyx32114
      @nyx32114 ปีที่แล้ว

      x_train,x_test,y_train,y_test= train_test_split(x, y , test_size=0.2, ramdom_state=123)

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Nggak jadinya gimana tuh kak? Muncul pesan error apa?

  • @AtyahAldawiyah
    @AtyahAldawiyah ปีที่แล้ว +1

    Ka mau tanya, dataset nya harus di upload di github dulu yaa ka?

    • @febbisenalestari
      @febbisenalestari  ปีที่แล้ว

      Nggak kak. Bisa diupload langsung ke colab, bisa juga di google drive

  • @rohadatulnaesa1647
    @rohadatulnaesa1647 ปีที่แล้ว +1

    kak, bisa aku hubungi gak? butuh bantuan eheheh

  • @Trysno_Wara
    @Trysno_Wara 8 หลายเดือนก่อน +1

    Hallo kk, bisa minta source codenya?

    • @febbisenalestari
      @febbisenalestari  8 หลายเดือนก่อน

      Maaf source code yg dipake di video udah nggak ada kak 🥲🙏 Tapi keseluruhan codenya aku tampilin di video kan ya, jadi bisa diikuti aja