mas mau tanya, saya mau ganti untuk di x[:,0] = le.fit_transform(x[:, 0]) menjadi y[:,0] = le.fit_transform(y[:, 0]) karena untuk kolom keterangan masih L dan TL mau saya ganti jadi 0 dan 1 tapi muncul IndexError: too many indices for array: array is 1-dimensional, but 2 were indexed
Maaf Mas, numpang tanya. Kalau munch error None of [Index(['Gender', 'Age', 'Salary'], dtype='object')] are in the [columns]" itu kira2 ada masalah apa ya?
mohon izin mas mau tanya, misal ditambah algoritma PSO sebagai feture selection dalam pembobotan atributnya, penghitunganya jadinya bagaimana ya. misalkan sudah didapatkan bobot untuk tiap atribut
Proses klasifikasi Naive Bayes akan tetap sama, tetapi bobot atribut yang digunakan akan berbeda dan disesuaikan dengan hasil dari PSO. Dengan kata lain, PSO digunakan untuk menentukan bobot atribut yang paling penting dan relevan untuk perhitungan Naive Bayes.
itu untuk menandakan jika proses training sudah selesai. karena ini menggunakan jenis gaussian nb maka outputnya gaussian nb. langkah secara umum untuk data text sama, namun secara detil akan sangat berbeda preprocessing.
mas, semisal aku punya 2 variable independent (x), yg pertama punya 4 nilai a,b,c,d, yang ke 2 punya 2 nilai e dan f, untuk dependen variablenya (y) punya 2 nilai 0 dan 1, dan dari situ kan terdapat total 8 kemungkinan kejadian, terus cara kita test di phytonnya untuk liat nilai masing-masing 8 kejadian terserbut apakah 0 atau 1 gimana mas ? tolong pencerahannya
kita tetap perlu mendefinisikan dataset yang mencakup semua kombinasi dari variabel independen itu dan kemudian baru bisa menggunakan naive bayes untuk memprediksi nilai dari y berdasarkan kombinasi-kombinasi tersebut.
terimakasih atas tanggapannya mas, setelah kita menggunakan kombinasi smua dataset untuk melatih machine learningnya, cara memprediksi nilai dari setiap kombinasi kita menggunakan codingan seperti apa mas, itu pertanyaan saya yang sebenarnya, mohon pencerahanya karna saya lagi buat skripsi mengenai itu mas @@desa-ilmu
@@sergiobavobaparuha4896 buat dulu dataset nya, misal data = { 'X1': ['a', 'b', 'c', 'd'] * 2, 'X2': ['e', 'f'] * 4, 'Y': np.random.randint(0, 2, 8) } masukin ke df df = pd.DataFrame(data) terus di encoding dan dipisahkan antara dependen dan independen le_X1 = LabelEncoder() df['X1'] = le_X1.fit_transform(df['X1']) le_X2 = LabelEncoder() df['X2'] = le_X2.fit_transform(df['X2']) X = df[['X1', 'X2']] y = df['Y'] selanjutnya tinggal split, training dan predict sama seperti di video
Terimakasih ilmunya sangat bermanfaat
terimakasih mas, sangat membantu untuk menghitung akurasi sistem saya
terima kasih, sangat membantu
terimakasih mas sangat membantu
tertulis error "ValueError: could not convert string to float: 'Yes'"
bang, kalo dependent variabel ada di kolom tengah, apa perlu dipindah dulu? dan apa harus mempunyai 2 variabel aja(0,1 atau yes/no) saja?
ga perlu dipindah, nnti tinggal dipilih ketika memisahkan antara dependen dengan independen variabelnya. Ga harus hanya 2 variabel.
Maaf mas. Saat Feature Scaling error pd "X_train = sc.fit_transform(X_train)", knp y mas ?
errornya bagaimana ya?
mas mau tanya, saya mau ganti untuk di x[:,0] = le.fit_transform(x[:, 0]) menjadi y[:,0] = le.fit_transform(y[:, 0]) karena untuk kolom keterangan masih L dan TL mau saya ganti jadi 0 dan 1 tapi muncul IndexError: too many indices for array: array is 1-dimensional, but 2 were indexed
waktu data dipisah jadi x dan y, sudah pake .values?
mas, udah solved blm errornya? boleh sharing dong kl udah solved
@@hanssss13 bantu bales mas, itu karena 1 dimensi doang. jadi pakenya y[:] = le.fit_transform(y[:]). sorry mas telat banget wkwk
mas dibagian evaluasi kalo di tambahin presisi,recal sama F1-scorenya kodingnya gimana ya?
bisa coba seperti ini
from sklearn.metrics import precision_score, recall_score, f1_score
precision = precision_score(y_test, y_pred, average='macro')
recall = recall_score(y_test, y_pred, average='macro')
f1 = f1_score(y_test, y_pred, average='macro')
print("Presisi:", precision)
print("Recall:", recall)
print("F1 Score:", f1)
Maaf mau nanya mas, apakah package inj hanya untuk data kontinu? Apakah data kategorik atau diskrit tdk bisa?
bisa namun perlu ada beberapa penyesuaian di datanya. Atau bisa juga menggunakan CategoricalNB
Pak, dependen variabel itu emg dari data mentah sudah ada? Atau memang di buat terlebih dahulu manual sendiri?
seringnya sudah ada, tapi ada juga yang dibuat, seperti pada penelitian yang bersifat eksperimen
Maaf Mas, numpang tanya. Kalau munch error None of [Index(['Gender', 'Age', 'Salary'], dtype='object')] are in the [columns]" itu kira2 ada masalah apa ya?
itu kolom2nya tidak terdeteksi, pastikan data sudah di import dengan benar
mohon izin mas mau tanya, misal ditambah algoritma PSO sebagai feture selection dalam pembobotan atributnya, penghitunganya jadinya bagaimana ya. misalkan sudah didapatkan bobot untuk tiap atribut
Proses klasifikasi Naive Bayes akan tetap sama, tetapi bobot atribut yang digunakan akan berbeda dan disesuaikan dengan hasil dari PSO. Dengan kata lain, PSO digunakan untuk menentukan bobot atribut yang paling penting dan relevan untuk perhitungan Naive Bayes.
Jika masnya ada contoh kodingnya. Saya siap membelinya malam ini 500rb
@@nurarifsetiawan7082
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import GaussianNB
from pyswarm import pso
df = pd.read_csv("social_ads.csv")
X = df.iloc[:, :-1].values
y = df.iloc[:, -1].values
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
# Define objective function for PSO
def objective_function(weights):
nb = GaussianNB()
nb.fit(X_train * weights, y_train)
return 1 - nb.score(X_test * weights, y_test)
# Set the bounds for each weight
lb = [0] * X.shape[1]
ub = [1] * X.shape[1]
# Run PSO to optimize the weights
weights, score = pso(objective_function, lb, ub)
nb = GaussianNB()
nb.fit(X_train * weights, y_train)
print("Accuracy:", nb.score(X_test * weights, y_test))
bisa dicoba
Hasil nya 'GaussianNB' pas training itu maksdnya apa ya kak?
trs klo misalnya kita pakai data sentiment sama gak ya pengerjaan kayak gini??
itu untuk menandakan jika proses training sudah selesai. karena ini menggunakan jenis gaussian nb maka outputnya gaussian nb.
langkah secara umum untuk data text sama, namun secara detil akan sangat berbeda preprocessing.
mas, semisal aku punya 2 variable independent (x), yg pertama punya 4 nilai a,b,c,d, yang ke 2 punya 2 nilai e dan f, untuk dependen variablenya (y) punya 2 nilai 0 dan 1, dan dari situ kan terdapat total 8 kemungkinan kejadian, terus cara kita test di phytonnya untuk liat nilai masing-masing 8 kejadian terserbut apakah 0 atau 1 gimana mas ? tolong pencerahannya
kita tetap perlu mendefinisikan dataset yang mencakup semua kombinasi dari variabel independen itu dan kemudian baru bisa menggunakan naive bayes untuk memprediksi nilai dari y berdasarkan kombinasi-kombinasi tersebut.
terimakasih atas tanggapannya mas, setelah kita menggunakan kombinasi smua dataset untuk melatih machine learningnya, cara memprediksi nilai dari setiap kombinasi kita menggunakan codingan seperti apa mas, itu pertanyaan saya yang sebenarnya, mohon pencerahanya karna saya lagi buat skripsi mengenai itu mas
@@desa-ilmu
@@sergiobavobaparuha4896 buat dulu dataset nya, misal
data = {
'X1': ['a', 'b', 'c', 'd'] * 2,
'X2': ['e', 'f'] * 4,
'Y': np.random.randint(0, 2, 8)
}
masukin ke df
df = pd.DataFrame(data)
terus di encoding dan dipisahkan antara dependen dan independen
le_X1 = LabelEncoder()
df['X1'] = le_X1.fit_transform(df['X1'])
le_X2 = LabelEncoder()
df['X2'] = le_X2.fit_transform(df['X2'])
X = df[['X1', 'X2']]
y = df['Y']
selanjutnya tinggal split, training dan predict sama seperti di video
Mohon ijin bertanya pak,kalau misalnya pake dua metode gimana ya pak
langsung dari bagian training ditambahkan metode lain. variabel2 juga dibuat beda ya
mas mau tanya kalo sklearn nya error terus padahal sudah di instal kenapa ya, makasih
Ada beberapa kemungkinan. Bisa jadi karena ga compatible dengan versi python nya. Coba dicek versi pythonnya dulu
@@desa-ilmu baik mas terimakasih
kak data saya berjumlah 60 tapi akurasinya masi 100% apakah masuk akal?
bisa jadi overfitting , direkomendasikan untuk menambah data
sorry mas bisa minta datasetnya ga ya ?, baru belajar banget soalnya masih bingung kao make dataset yang lain
docs.google.com/spreadsheets/d/1I_JEHVL0A4x-zFclgePAuMCO8A-VEMLH/edit?usp=sharing&ouid=113529101144704254872&rtpof=true&sd=true
bang bisa minta datanya ?
docs.google.com/spreadsheets/d/1I_JEHVL0A4x-zFclgePAuMCO8A-VEMLH/edit#gid=1483317154
cuma data kecil untuk sample