Junta Zeniarja
Junta Zeniarja
  • 54
  • 243 853
Klastering K Means dengan Streamlit (Web Apps) | Cara Mudah Membuat Aplikasi Web Data Science
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Data Science menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang klastering dengan algoritma K-Means dimana data yang digunakan berjumlah 5000 data acak secara normal yang dibangun dengan library numpy.
Dokumentasi Matplotlib untuk fungsi confidence_ellipse :
matplotlib.org/stable/gallery/statistics/confidence_ellipse.html
Requirements Library:
numpy==1.23.1
matplotlib==3.5.2
scikit-learn==1.1.1
streamlit==1.11.1
Terimakasih sudah menonton videonya.
Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini.
Kunjungi video lainnya di:
th-cam.com/users/JuntaZeniarja​
#Aplikasi #Skripsi #DataMining #WebApps #Streamlit #Python #Klastering #K-Means #kmeans #KMeans #scikit-learn #sklearn #Algoritma #MachineLearning #Framework #SkripsiDataMining #JudulSkripsiDataMining #SidangSkripsiDataMining #PengolahanDataSkripsi #AnalisisDataSkripsi #CariDataSkripsi #MengolahDataSkripsi #DataSkripsi #OlahDataSkripsidenganPython #SkripsiDataSekunder #DataSkripsiTidakNormal #MengolahDataSkripsidenganPython #SkripsiTeknikInformatika #SkripsiSistemInformasi #SkripsiKualitatif #SkripsiKuantitatif #Skripsiadalah #KuliahOnline​ #DiRumahAja​ #SamaSaya​ #DataMining​ #DataMining2022 #DataMiningBasic​ #DataMiningIndonesia​ #DataMiningTutorial​ #DataMiningRapidminer​ #Clustering #DataMiningKlasterisasi #DataMiningClassification​ #DataMiningConcept​ #DataMiningAlgorithm​ #DataMiningTechniques​ #DataMiningBusiness​ #Rapidminer​ #RapidminerStudio​ #RapidminerIndonesia​ #RapidminerBasics​ #RapidminerTutorial​ #RapidminerAutoModel​ #RapidminerDataMiningTutorial​ #Python #DataScience #DataScience2022 #DataScienceIndonesia #JuntaZeniarja
มุมมอง: 4 045

วีดีโอ

Klasifikasi Penguin dengan Streamlit (Web Apps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining
มุมมอง 6K2 ปีที่แล้ว
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang Klasifikasi Penguin dengan algoritma Naive Bayes (bisa diganti sesuai keinginan) yang bisa disimpan atau diimport dengan library pickle, kemudian dibangun menggunakan Streamlit. Terimakasih sudah menonton videonya. Subscribe...
Klasifikasi Bunga IRIS dengan Streamlit (WebApps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining
มุมมอง 3.8K2 ปีที่แล้ว
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang Klasifikasi Bunga IRIS dengan algoritma Naive Bayes yang dibangun menggunakan Streamlit. Terimakasih sudah menonton videonya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini. Kunj...
Klasifikasi Data dengan Streamlit (Web Apps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining #3
มุมมอง 10K2 ปีที่แล้ว
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Web yang akan dibangun menggunakan 3 dataset bawaan dari library Scikit-Learn antara lain Dataset Bunga Iris, Dataset Kanker Payudara dan Dataset Digit Angka. Sedangkan untuk penggunaan algoritma Machine Learningnya menggunakan 3 contoh algoritma yaitu algoritma K...
Prediksi Kelulusan Mahasiswa dengan Naive Bayes | Cara Mudah Buat Aplikasi Skripsi Data Mining #2
มุมมอง 7K2 ปีที่แล้ว
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Skripsi Data Mining dengan algoritma klasifikasi Naive Bayes. Implementasi menggunakan Python 3 (Anaconda - Jupyter Notebook). Studi kasus yang digunakan adalah Prediksi / Klasifikasi Kelulusan Mahasiswa. Download sampel data kelulusan mahasiswa: drive.google.com/drive/folders/1Tu5q3vtZpI_v5wsmLPtKynC7S2YXO8Xn?usp=shar...
Klasifikasi Bunga Iris dengan Naive Bayes | Cara Mudah Buat Aplikasi Skripsi Data Mining - Kasus #1
มุมมอง 4.9K2 ปีที่แล้ว
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Skripsi Data Mining dengan algoritma klasifikasi Naive Bayes. Implementasi menggunakan Python 3 (Anaconda - Jupyter Notebook). Studi kasus yang digunakan adalah Prediksi / Klasifikasi Jenis Bunga (IRIS). Terimakasih sudah menonton videonya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukun...
Pertemuan 14 - Validasi dan Pengujian Model dengan Python |Cross Validation|Python Data Mining 2021
มุมมอง 4K3 ปีที่แล้ว
Kuliah Online Data Mining tentang penjelasan Validasi dan Pengujian Model serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Terimakasih sudah mengikuti kuliah online & tutorialnya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini. Kunjungi video perkuliahan lainnya di: th-cam.com/...
Pertemuan 13 - Asosiasi dengan Python | Apriori dengan Python | Python Data Mining 2021
มุมมอง 7K3 ปีที่แล้ว
Kuliah Online Data Mining tentang Asosiasi (Association Rules) atau Market Basket Analysis dengan algoritma Apriori serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Online_Retail.xlsx): drive.google.com/file/d/1hEL7PFv7_TRjmdWSp4l9_bh8FTA5fl5p/view?usp=sharing Sumber: www.geeksforgeeks.org/imp...
Pertemuan 12 - Regresi dengan Python | Regresi Linear & Berganda | Python Data Mining 2021 |Korelasi
มุมมอง 5K3 ปีที่แล้ว
Kuliah Online Data Mining tentang Regresi baik Simple Regresi Linear dan Regresi Linear Berganda serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Data Penjualan.xlsx): drive.google.com/file/d/1yI3zRPa89SFL7tS0pFewcuERzv8LBa_S/view?usp=sharing Terimakasih sudah mengikuti kuliah online & tutoria...
Pertemuan 11 - Agglomerative Hierarchical Clustering (AHC) dengan Python | Python Data Mining 2021
มุมมอง 5K3 ปีที่แล้ว
Kuliah Online Data Mining tentang Klastering Data dengan Agglomerative Hierarchical Clustering (AHC) dan Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Data AHC.xlsx): drive.google.com/file/d/100GNSA0qOYo0KEr0FF3_mfuQ_7Vc3OKt/view?usp=sharing Terimakasih sudah mengikuti kuliah online & tutorialnya...
Pertemuan 10 - Klastering Data dengan K-Means menggunakan Python | Python Data Mining 2021 | K-MEANS
มุมมอง 14K3 ปีที่แล้ว
Kuliah Online Data Mining tentang Klastering Data dengan K-Means dan Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Dataku.txt): drive.google.com/file/d/1hTLWrxcdikAwpTRmR0OHomdfciPb-vJd/view?usp=sharing Download data yang digunakan (Konsumen.csv): drive.google.com/file/d/1aR8dgJ9MA3VBc9DSsdKTwQCf...
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Data Mining & Data Science 2021
มุมมอง 1.5K3 ปีที่แล้ว
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Data Mining & Data Science 2021
Pertemuan 2 - Data untuk Data Mining |Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
มุมมอง 2.3K3 ปีที่แล้ว
Pertemuan 2 - Data untuk Data Mining |Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
มุมมอง 2K3 ปีที่แล้ว
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Pertemuan 7 - Klasifikasi Decision Tree dgn Python |Python Data Mining| DecisionTree C4.5 (Revisi)
มุมมอง 13K3 ปีที่แล้ว
Pertemuan 7 - Klasifikasi Decision Tree dgn Python |Python Data Mining| DecisionTree C4.5 (Revisi)
Pertemuan 6 - Klasifikasi K-Nearest Neighbor (K-NN) dengan Python | Python Data Mining 2021
มุมมอง 13K3 ปีที่แล้ว
Pertemuan 6 - Klasifikasi K-Nearest Neighbor (K-NN) dengan Python | Python Data Mining 2021
Pertemuan 5 - Klasifikasi Naive Bayes dengan Python | Python Data Mining 2021 (versi Meet)
มุมมอง 13K3 ปีที่แล้ว
Pertemuan 5 - Klasifikasi Naive Bayes dengan Python | Python Data Mining 2021 (versi Meet)
Visualisasi Data Covid19 dengan Python | Corona Virus | Covid-19 | Python Data Mining 2021
มุมมอง 7K3 ปีที่แล้ว
Visualisasi Data Covid19 dengan Python | Corona Virus | Covid-19 | Python Data Mining 2021
Pertemuan 4 - Metode Learning | Kuliah Online Data Mining 2021 | Data Mining Indonesia
มุมมอง 1.8K3 ปีที่แล้ว
Pertemuan 4 - Metode Learning | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Pertemuan 3 - Preprocessing Data dengan Python | Kuliah Online Data Mining 2021 | Python Data Mining
มุมมอง 20K3 ปีที่แล้ว
Pertemuan 3 - Preprocessing Data dengan Python | Kuliah Online Data Mining 2021 | Python Data Mining
Pertemuan 2 - Data untuk Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
มุมมอง 1.8K3 ปีที่แล้ว
Pertemuan 2 - Data untuk Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
มุมมอง 3.6K3 ปีที่แล้ว
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Web Mining | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
มุมมอง 5513 ปีที่แล้ว
Web Mining | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Model STKI dengan Boolean Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
มุมมอง 1.7K3 ปีที่แล้ว
Model STKI dengan Boolean Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Preprosesing Dokumen (Document Preprocessing)
มุมมอง 1.1K3 ปีที่แล้ว
Preprosesing Dokumen (Document Preprocessing)
Klasifikasi Dokumen dengan K-Nearest Neighbor (K-NN) | Sistem Temu Kembali Informasi (STKI) | IR
มุมมอง 3.8K3 ปีที่แล้ว
Klasifikasi Dokumen dengan K-Nearest Neighbor (K-NN) | Sistem Temu Kembali Informasi (STKI) | IR
Pengenalan Sistem Temu Kembali Informasi
มุมมอง 2.3K3 ปีที่แล้ว
Pengenalan Sistem Temu Kembali Informasi
Model STKI dengan Vector Space Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
มุมมอง 1.9K3 ปีที่แล้ว
Model STKI dengan Vector Space Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Kuliah Online Data Mining - Tipe Tipe Atribut Data | 1 Menit Mengenal Tipe Data
มุมมอง 7944 ปีที่แล้ว
Kuliah Online Data Mining - Tipe Tipe Atribut Data | 1 Menit Mengenal Tipe Data
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Channel
มุมมอง 1.2K4 ปีที่แล้ว
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Channel

ความคิดเห็น

  • @nuzultriyanto
    @nuzultriyanto ปีที่แล้ว

    Pak numpang nanya, kalau data ada beberapa file bisa di Cluster tidak pak? Terima kasih pak

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa, tetapi sebaiknya waktu pengolahan dijadikan satu

  • @unknown-xp5qw
    @unknown-xp5qw ปีที่แล้ว

    izin bertanya pak. saya masih pemula mengenai python streamlit. jadi saya hanya menginstall sesuai yg ada divideo tapi belum sampai masuk di kodingan di Vs code. saya break dahulu.. lalu ketika saya menjalankan cmd kembali saya cek kok semacam streamlit, pandas, dll tidak ada ya pak. mohon solusinya pak

    • @juntazen
      @juntazen ปีที่แล้ว

      diaktifkan dahulu Virtual Environment nya mas/mb, yg telah diinstal library streamlit, pandas, dll

  • @unknown-xp5qw
    @unknown-xp5qw ปีที่แล้ว

    maaf pak data tidak terjadi missing value tetapi ketika mengimplementasikan misal dg menggunakan algo. naive bayes 2 label mendapatkan hasil 0 semua. solusinya bagaimana ya pak

    • @juntazen
      @juntazen ปีที่แล้ว

      Jika hasil prediksi menggunakan algoritma Naive Bayes mendapatkan nilai 0 semua, bisa jadi terdapat masalah pada pembagian data training dan testing. Salah satu solusinya adalah dengan memastikan bahwa data yang digunakan untuk training dan testing telah terdistribusi dengan baik dan mewakili semua kemungkinan nilai pada setiap fitur. Selain itu, dapat juga dilakukan pengecekan terhadap model Naive Bayes yang digunakan. Mungkin model yang digunakan tidak cocok dengan data yang digunakan, sehingga perlu memilih model yang lebih sesuai dengan data. Selain itu, bisa juga dicoba menggunakan algoritma klasifikasi lain yang lebih cocok dengan data yang dimiliki, seperti Decision Tree, Random Forest, atau Support Vector Machine (SVM). Jika hal tersebut tidak memperbaiki hasil prediksi, maka bisa jadi data tidak memiliki korelasi dengan variabel target sehingga tidak bisa digunakan untuk memprediksi variabel target dengan model tertentu. Dalam hal ini, perlu dilakukan analisis lebih lanjut untuk mencari tahu apakah memang ada korelasi antara variabel prediktor dan variabel target.

  • @zulfaizzullabibah4728
    @zulfaizzullabibah4728 ปีที่แล้ว

    kak implementasi yang Algoritma C4.5 ke streamlit 🙏

  • @ummymusyarofah6362
    @ummymusyarofah6362 ปีที่แล้ว

    Pak mohon izin, kalau menggunakan backaward elimination syntaxnya bagaimana lg ? Terimakasih 🙏🏻

    • @juntazen
      @juntazen ปีที่แล้ว

      import numpy as np from sklearn.neighbors import KNeighborsClassifier from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # Load dataset iris = load_iris() X = iris.data y = iris.target # Bagi dataset menjadi data latih dan data uji X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # Inisialisasi nilai K K = 5 # Inisialisasi variabel untuk menyimpan subset atribut yang akan dipertahankan selected_features = list(range(X.shape[1])) # Tentukan SL (significance level) yang diinginkan SL = 0.05 # Looping untuk menghapus atribut yang tidak signifikan while True: # Inisialisasi array untuk menyimpan hasil evaluasi model p_values = [] # Looping untuk melakukan evaluasi model dengan setiap atribut yang dipertahankan for feature in selected_features: # Buat model KNN dengan atribut yang dipertahankan knn = KNeighborsClassifier(n_neighbors=K) knn.fit(X_train[:, selected_features], y_train) # Hitung prediksi model pada data uji y_pred = knn.predict(X_test[:, selected_features]) # Hitung p-value untuk atribut tertentu p_value = 1 - accuracy_score(y_test, y_pred) # Simpan p-value ke dalam array p_values.append(p_value) # Cari atribut dengan p-value paling besar max_p_value = max(p_values) max_p_value_index = p_values.index(max_p_value) # Jika p-value paling besar melebihi SL, hapus atribut tersebut if max_p_value > SL: del selected_features[max_p_value_index] else: break # Buat model KNN dengan subset atribut yang dipertahankan knn = KNeighborsClassifier(n_neighbors=K) knn.fit(X_train[:, selected_features], y_train) # Hitung prediksi model pada data uji dengan subset atribut yang dipertahankan y_pred = knn.predict(X_test[:, selected_features]) # Hitung akurasi model pada data uji dengan subset atribut yang dipertahankan accuracy = accuracy_score(y_test, y_pred) # Cetak akurasi model print("Akurasi model KNN dengan subset atribut yang dipertahankan: {:.2f}%".format(accuracy * 100))

    • @juntazen
      @juntazen ปีที่แล้ว

      Program di atas mengimplementasikan algoritma Backward Elimination untuk mempertahankan subset atribut yang signifikan pada data latih untuk digunakan dalam model KNN. Algoritma ini dapat membantu meningkatkan akurasi model dengan membuang atribut yang tidak signifikan dan mengurangi dimensi data. Program ini diuji pada dataset iris dan mencetak akurasi model KNN pada data uji dengan subset atribut yang dipertahankan. Anda dapat memodifikasi program ini untuk digunakan pada dataset yang berbeda dan menyesuaikan parameter K dan SL sesuai kebutuhan.

  • @nikomangrustini7553
    @nikomangrustini7553 ปีที่แล้ว

    Ijin bertanya pak, untuk data kategorikal yg missing valuesnya mencapai ribuan itu bisa pakai modus juga?

    • @juntazen
      @juntazen ปีที่แล้ว

      Memakai modus sebagai imputasi (pengisian) data yang hilang pada variabel kategorikal bisa jadi pilihan yang tepat, namun tergantung pada karakteristik data tersebut. Namun, perlu diperhatikan bahwa penggunaan modus hanya cocok untuk data kategorikal yang memiliki distribusi frekuensi yang seimbang, yaitu setiap nilai muncul dengan frekuensi yang relatif sama. Jika distribusi frekuensi tidak seimbang, maka penggunaan modus dapat menghasilkan bias pada data. Selain penggunaan modus, terdapat beberapa metode lain yang dapat digunakan untuk mengisi missing value pada data kategorikal, seperti metode hot-deck dan cold-deck, serta teknik regresi. Pilihan metode yang digunakan harus disesuaikan dengan karakteristik data yang dimiliki dan tujuan analisis yang ingin dicapai.

  • @sigitaja7140
    @sigitaja7140 ปีที่แล้ว

    maaf pak izin bertanya, untuk membagi data training dan data testing bagaimana ya pak?

    • @juntazen
      @juntazen ปีที่แล้ว

      Untuk membagi data menjadi data training dan data testing di RapidMiner, Anda dapat menggunakan operator Split atau Cross Validation. 1. Menggunakan operator Split: - Buka RapidMiner Studio dan buka proses Anda. - Tambahkan operator Split dari panel Operator di sisi kiri. - Hubungkan operator Split ke data input. - Atur proporsi split (misalnya 70% training dan 30% testing) pada konfigurasi operator Split. - Jika diperlukan, atur pengaturan lain seperti randomization atau stratification. - Output dari operator Split akan menghasilkan dua kumpulan data, satu untuk training dan satu lagi untuk testing. 2. Menggunakan operator Cross Validation: - Buka RapidMiner Studio dan buka proses Anda. - Tambahkan operator Cross Validation dari panel Operator di sisi kiri. - Hubungkan operator Cross Validation ke data input. - Atur pengaturan operator Cross Validation seperti jumlah fold dan pengaturan stratifikasi. - Output dari operator Cross Validation akan menghasilkan beberapa kumpulan data, masing-masing berisi bagian data training dan testing yang berbeda. Anda dapat menggunakan operator lain untuk memproses data training dan data testing, seperti operator Decision Tree atau operator Neural Network, tergantung pada tipe model yang ingin Anda kembangkan. Jangan lupa juga untuk melakukan evaluasi kinerja model Anda pada data testing untuk memastikan kualitas model Anda.

  • @idabagusmadeswarbawa2074
    @idabagusmadeswarbawa2074 ปีที่แล้ว

    Command prompt dan streamlitnya gak ada

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa disimak video yang hampir sama di link berikut : 1. Klasifikasi Penguin => th-cam.com/video/M_VZkyWHPvY/w-d-xo.html 2. Klasifikasi Bunga IRIS => th-cam.com/video/H1LYO6vhFek/w-d-xo.html 3. Klasifikasi Data dengan Streamlit (Web Apps) => th-cam.com/video/hTn_3qss7KQ/w-d-xo.html

  • @idabagusmadeswarbawa6286
    @idabagusmadeswarbawa6286 ปีที่แล้ว

    Request menu output akurasi

  • @idabagusmadeswarbawa2074
    @idabagusmadeswarbawa2074 ปีที่แล้ว

    Streamlit gak bisa diinstall

    • @juntazen
      @juntazen ปีที่แล้ว

      dicek terlebih dahulu untuk versi python nya mas, mungkin dependency nya

  • @ajitegar7738
    @ajitegar7738 ปีที่แล้ว

    Mantabbb Pak

  • @jefrijaya1960
    @jefrijaya1960 ปีที่แล้ว

    pak minta ppt pertemuan 1 sampai akhir dong pak

  • @jevone9570
    @jevone9570 ปีที่แล้ว

    pak apakah saya boleh minta ppt dari pertemuan 1 sampai pertemuan akhir pak? untuk mempermudah akses belajar saya?

  • @jefry4887
    @jefry4887 ปีที่แล้ว

    Pak boleh minta pptnya gk pak?

  • @azkaluthfanrudiana397
    @azkaluthfanrudiana397 ปีที่แล้ว

    pak saya coba buat bikin mirip seperti yang bapak buat, tapi saya kena atribut eror di def pilih_dataset(), dibaris x = data.data dan y = data.target. katanya NoneType object has no atribute 'data'. solusinya gimana ya pak? terimakasih

  • @aisyahnovriani1990
    @aisyahnovriani1990 ปีที่แล้ว

    pak, jika menggunakan dataset yang berupa excel kira-kira masih bisa ga ya pak?

    • @juntazen
      @juntazen ปีที่แล้ว

      masih bisa

  • @puzpa
    @puzpa ปีที่แล้ว

    Pak ijin bertanya, gimna caranya kalau pake dua metode pak, metode naive bayes dan Knn pak

    • @juntazen
      @juntazen ปีที่แล้ว

      import numpy as np from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.naive_bayes import GaussianNB from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # load dataset iris iris = datasets.load_iris() X = iris.data y = iris.target # bagi data menjadi data training dan data testing X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # buat model Naive Bayes nb_model = GaussianNB() nb_model.fit(X_train, y_train) # buat model KNN knn_model = KNeighborsClassifier(n_neighbors=5) knn_model.fit(X_train, y_train) # prediksi kelas menggunakan model Naive Bayes dan model KNN nb_pred = nb_model.predict(X_test) knn_pred = knn_model.predict(X_test) # gabungkan prediksi kedua model combined_pred = np.vstack((nb_pred, knn_pred)).T # klasifikasi dengan memilih hasil prediksi terbanyak final_pred = [] for pred in combined_pred: final_pred.append(np.argmax(np.bincount(pred))) # hitung akurasi accuracy = accuracy_score(y_test, final_pred) print("Akurasi kombinasi Naive Bayes dan KNN: {:.2f}%".format(accuracy*100))

    • @juntazen
      @juntazen ปีที่แล้ว

      Bisa menggunakan contoh diatas kemudian dimodifikasi sesuai kebutuhan. Pada program di atas, dataset Iris di-load menggunakan fungsi load_iris() dari library scikit-learn. Data kemudian dibagi menjadi data training dan data testing dengan rasio 70:30 menggunakan fungsi train_test_split(). Selanjutnya, dibuat dua model klasifikasi yaitu Naive Bayes dan KNN menggunakan library scikit-learn. Setelah model-model dibuat, data testing digunakan untuk memprediksi kelas menggunakan model Naive Bayes dan KNN. Hasil prediksi kedua model digabungkan dengan fungsi vstack() dan hasilnya diteruskan ke tahap klasifikasi, di mana kelas yang diprediksi adalah kelas yang muncul paling banyak pada kedua hasil prediksi. Akhirnya, akurasi dari kombinasi kedua model dihitung menggunakan fungsi accuracy_score().

  • @solihkhinmustofa8381
    @solihkhinmustofa8381 ปีที่แล้ว

    assalumualaikum.., pak junta., lihat konten dan materi nya., langsung tahu ini sahabat seperdjoengan., salam satu perguruan RSW...

    • @juntazen
      @juntazen ปีที่แล้ว

      wa'alaikumsalam, salam seperdjoengan mas Solihkhin

  • @successfulvictorypublisher6090
    @successfulvictorypublisher6090 ปีที่แล้ว

    Mantap! Ribuan terima kasih!

  • @supiyantohasan3776
    @supiyantohasan3776 ปีที่แล้ว

    Terima kasih Pak, semoga berkah ilmunya ijin bertanya Pak..bagaimana perintahnya kalau saya mau cari tahu datasets apa saja ada di library sklearn

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa menggunakan baris kode seperti ini: from sklearn import datasets # list semua dataset di sklearn.datasets dataset_list = [i for i in dir(datasets) if i.startswith('load_')] print("Daftar dataset di scikit-learn: ") for dataset in dataset_list: print(dataset[5:])

  • @raihansyah1853
    @raihansyah1853 ปีที่แล้ว

    Izin bertanya pak kalau saat Mentraining Model Error penyebabnya apa ya pak

  • @roniardianzah1896
    @roniardianzah1896 ปีที่แล้ว

    Implementasi source code nya dong pak

    • @juntazen
      @juntazen ปีที่แล้ว

      !pip install Sastrawi from Sastrawi.StopWordRemover.StopWordRemoverFactory import StopWordRemoverFactory from Sastrawi.Stemmer.StemmerFactory import StemmerFactory import re # Contoh dokumen doc = "Ini adalah contoh dokumen. Dokumen ini berisi beberapa kalimat. Kita akan menggunakan ini untuk menunjukkan tahapan preprocessing." # Case folding (ubah huruf kapital menjadi huruf kecil) doc = doc.lower() # Menghapus karakter non-alfanumerik dan whitespace doc = re.sub(r'[^\w\s]', '', doc) # Menghapus stopword stopword_factory = StopWordRemoverFactory() stopword = stopword_factory.create_stop_word_remover() filtered_doc = stopword.remove(doc) # Stemming stemmer_factory = StemmerFactory() stemmer = stemmer_factory.create_stemmer() normalized_doc = stemmer.stem(filtered_doc) # Output hasil preprocessing print("Hasil preprocessing:") print(normalized_doc)

    • @juntazen
      @juntazen ปีที่แล้ว

      diatas contoh preprocessing menggunakan Sastrawi

  • @RafaelEden
    @RafaelEden ปีที่แล้ว

    bang , sumber datanya dari mana bang , mohon bang diblas bang

    • @juntazen
      @juntazen ปีที่แล้ว

      data random sample dari riset sebelumnya

  • @nimasayumasithoh4133
    @nimasayumasithoh4133 ปีที่แล้ว

    mengapa ketika sudah klik finish untuk mengupload datanya lama ya pak?

    • @juntazen
      @juntazen ปีที่แล้ว

      mungkin jumlah datanya terlalu banyak, karna versi yang free maksimal skitar 10rb record, atau ada beberapa proses yang tidak sesuai

  • @fadliazisalauzi8090
    @fadliazisalauzi8090 ปีที่แล้ว

    Terimakasih kak, semoga ilmunya di catat menjadi kebaikan 😇

  • @hadadkarsanuriman2487
    @hadadkarsanuriman2487 ปีที่แล้ว

    izin bertanya pak, apakah coding python untuk decision tree selain C4.5 berbeda dengan yang divideo pak? atau sama saja untuk semua jenis decision tree?

    • @juntazen
      @juntazen ปีที่แล้ว

      sama untuk library yg telah update dengan jenis decision tree yang terbaik, bisa dicek disini scikit-learn.org/stable/modules/tree.html#tree-algorithms-id3-c4-5-c5-0-and-cart

  • @nugrahaufal2754
    @nugrahaufal2754 ปีที่แล้ว

    pak mau bertanya, untuk dataku.txt itu dataset tentang apa ya?

    • @juntazen
      @juntazen ปีที่แล้ว

      dataset sampel klastering

  • @sandiadimulya4966
    @sandiadimulya4966 ปีที่แล้ว

    maaf pak, ada contoh program untuk klasifikasi kelayakan penerima bantuan pake naive bayes?

    • @juntazen
      @juntazen ปีที่แล้ว

      kalau sesuai topik tidak ada mas, bisa menggunakan contoh data klasifikasi kelulusan mahasiswa di th-cam.com/video/7elJMqv8AlY/w-d-xo.html, atau klasifikasi bunga iris di th-cam.com/video/H1LYO6vhFek/w-d-xo.html, atau klasifikasi penguin di th-cam.com/video/M_VZkyWHPvY/w-d-xo.html, karena sama contohnya tinggal diganti saja data atau topik kasusnya.

  • @ilhamferdiansyah7275
    @ilhamferdiansyah7275 ปีที่แล้ว

    Pak saya stak di cmd di py -3 -m venv env , error nya py is not recognized itu knp ya pak

    • @juntazen
      @juntazen ปีที่แล้ว

      pastikan sudah terinstall pythonnya, atau bisa dicek disini, semoga bisa membantu => www.educative.io/answers/err-python-is-not-recognized-as-an-internal-or-external-command

  • @Itscindyaaa
    @Itscindyaaa ปีที่แล้ว

    Izin meminta source code nya pak🙏

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa di cek disini untuk source codenya => colab.research.google.com/drive/11R9qYf5pojIiw34r-8b5wz7MC3kA-3NM?usp=sharing

  • @tjitjidarma3064
    @tjitjidarma3064 ปีที่แล้ว

    Terimakasih untuk ilmunya pak. Sudah lama saya cari video seperti ini. Alhamdulillah dah dapat di channel bapak. Penjelasannya jelas dan mudah dipahami. Tetap semangat bkin videonya pak. Auto like coment subscribe pokoknya. Ditunggu video selanjutnya pak. Kalau bisa yg k means yah pak🙏💪

  • @tjitjidarma3064
    @tjitjidarma3064 ปีที่แล้ว

    Terimakasih untuk ilmunya pak. Saya dah lama cari2 video seperti ini. Sangat jelas sekali penjelasannya. Semngat yah pak. Langsung subscribe pokoknya. Ditunggu video selanjutnya. Yg k.means klw bisa pak😌

  • @vikiwahyudi2860
    @vikiwahyudi2860 ปีที่แล้ว

    Terimakasih pak

  • @boprewugadijo5839
    @boprewugadijo5839 ปีที่แล้ว

    Sangat membantu, terimakasih pak dosen sehat selalu...

  • @faridwahyu9073
    @faridwahyu9073 ปีที่แล้ว

    bang minta kodenya

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa dicek disini kak => colab.research.google.com/drive/10XFU5-FJT5ARFwZX_M80VTHOIWUK3G5G?usp=sharing

  • @destriputriyani8916
    @destriputriyani8916 ปีที่แล้ว

    Halo pak, boleh minta source code nya untuk dicoba dan dipelajari?🙏

    • @juntazen
      @juntazen ปีที่แล้ว

      DecisionTree => colab.research.google.com/drive/1aFxk99E_5IfUgrtG9FzhF2nUBBRJHVnV?usp=sharing DecisionTree_IrisCSV => colab.research.google.com/drive/1DW8t7n6cmy_EVXXZ8WmzO9UMkFB3-6m6?usp=sharing Dataset Bunga Iris => drive.google.com/file/d/1yCyc88rWHW77zHdkGkmJOB-tUMuxStEM/view

  • @aldilukman6794
    @aldilukman6794 ปีที่แล้ว

    Permisi pak, setelah membuat model naive bayes lalu ingin menerapkan model tersebut menggunakan file baru (belum ada 0/1) untuk dilakukan prediksi tahapannya bagaimana ya pak?

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa menyimak video ini mas => th-cam.com/video/7elJMqv8AlY/w-d-xo.html

  • @prasetyaprasetya1817
    @prasetyaprasetya1817 ปีที่แล้ว

    pak bagaimana cara evaluasi model dec tree menggunakan python?

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa menyimak video yg ini mas => th-cam.com/video/rosTpHk9IuI/w-d-xo.html

  • @damarjatisuryakusuma6572
    @damarjatisuryakusuma6572 ปีที่แล้ว

    Saya mau tanya Pak, kalau untuk menghapus record yang ada missing value (nan tadi di python) itu untuk codenya bagaimana ya Pak? terimakasih

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa menggunakan perintah => df.dropna() df => dataframe Secara default perintah dropna() akan menghapus semua baris yang mengandung nilai NaN.

  • @maheswari9338
    @maheswari9338 ปีที่แล้ว

    27:20

  • @waynness906
    @waynness906 ปีที่แล้ว

    pak streamlit apakah bisa di deploy ke self hosting?

    • @juntazen
      @juntazen ปีที่แล้ว

      sesuai dokumentasi di website nya (docs.streamlit.io/knowledge-base/tutorials/deploy), utk deploy bisa melalui streamlit cloud, docker, kubernetes, heroku. Dan nantinya bisa di forward ke domain kita.

  • @Nano_2147
    @Nano_2147 ปีที่แล้ว

    sangat bermanfaat, barakallahu fiikum

  • @agungdwi2250
    @agungdwi2250 ปีที่แล้ว

    Pak buat tutorial analisa loyalitas pelanggan dengan stramlite

    • @juntazen
      @juntazen ปีที่แล้ว

      ditunggu tutorial selanjutnya mas, trus dukung channel ini agar terus berkembang. terimakasih

  • @vernandyasasti9550
    @vernandyasasti9550 ปีที่แล้ว

    pak mau tanya, untuk mengetahui hasil data apa saja yg masuk ke cluster tsb bagaimana ya?

    • @juntazen
      @juntazen ปีที่แล้ว

      bisa menggunakan : print(kmeans.labels_), dicek disini mb => colab.research.google.com/drive/11enMbQNfqU3SxCClZLOVmYKb92kyOkg-?usp=sharing

  • @galihfarid1277
    @galihfarid1277 ปีที่แล้ว

    Bismillah, maaf pak mau bertanya, apakah sebelum tahapan operator cross validation harus di tambahkan operator Split data?

    • @juntazen
      @juntazen ปีที่แล้ว

      tidak harus mas

  • @fikal_hafidzhaikal41
    @fikal_hafidzhaikal41 ปีที่แล้ว

    Pak kalau bisa pakai database juga dan dapat di cari serpi kayak mesin pencari ?

    • @juntazen
      @juntazen ปีที่แล้ว

      iya mas, mhn maaf karena banyak agenda dan kesibukan kerja, jadi dukung terus channelnya dan nantikan video berikutnya, semoga bisa sesuai harapan teman2. Terimakasih

  • @alfafa6657
    @alfafa6657 ปีที่แล้ว

    Mohon penjelasannya Pak, cara membaca/menginterpretasikan diagram yang terbentuk di menit 11:58 itu seperti apa ya Pak ? Terimakasih Pak.

    • @juntazen
      @juntazen ปีที่แล้ว

      diagram yg terbentuk pertama kelompok (2,3), kemudian digabung dengan kelompok (1,4) => menjadi satu kelompok (1,2,3,4). Kemudian kelompok (1,2,3,4) digabung dengan kelompok 5 menjadi satu kelompok (1,2,3,4,5). Sehingga hirarki yang pertama 2 dan 3, kemudian 1 dan 4. Dan hirarki yang kedua gabungan (2, 3) dan (1,4) menjadi (1,2,3,4). Kemudian hirarki yang ketiga (1,2,3,4) dengan 5 menjadi (1,2,3,4,5).

  • @localpedia7169
    @localpedia7169 ปีที่แล้ว

    Bang buat tutorial hasil prediksinya bisa disimpan ke dalam database bang

    • @juntazen
      @juntazen ปีที่แล้ว

      ditunggu tutorial selanjutnya, terus dukung channel ini ya kak, terimakasih

    • @localpedia7169
      @localpedia7169 ปีที่แล้ว

      @@juntazen siap bang ditunggu

  • @sdnkaranganyarii8577
    @sdnkaranganyarii8577 ปีที่แล้ว

    mas mau tanya,saya masih bingung tentang data mining, tapi saya mau ambil skripsi data mining, bisa membantu gak mas ? terima kasih

    • @juntazen
      @juntazen ปีที่แล้ว

      nanti ditanyakan disini saja mas

  • @nuraaaaid
    @nuraaaaid ปีที่แล้ว

    Pak izin bertanya, apakah ada jurnal/buku tentang aturan baku penentuan nilai min support dan minimum confidence pada metode asosiasi pak ? 🙏

    • @juntazen
      @juntazen ปีที่แล้ว

      untuk literasi utk hal tersebut saya belum menemukan yang sesuai. Jadi bisa menggunakan rule of thumb dimana gunakan aturan 50% dl dicoba, kemudian dianalisa bisa ditambahkan secara bertahap atau dikurangi.