Arkadaşlar bu videoda kullandığım notebook ve veri seti 👉 www.kaggle.com/code/tirendazacademy/telco-customer-churn-eda-logistic-regression videoyu beğenmeyi ve paylaşmayı unutmayın 😀
Öğrenmesi de uygulaması da zevkli bir konu , yazılım alanında çalışmak isteyenler için kazançlı bir dal. Tirendaz Akademi'nin bu konuda emek vermesi , bu eğitimleri hazırlaması yazılıma yeni başlayanlar için hatta kendini geliştirmek isteyenler için büyük fırsat .
Bunlari sizden duymak harika 😀 uzun zamandir guzel yorumlarinizla bizi motive edici ve yol gosterici yorumlar yaziyorsunuz iyi ki varsiniz cok tesekkurler 🥰
kategorik kolonlardaki eksik veriler için iterative imputer yaparak veriyi bulup tamamlamak istiyorum ama veriler arasında büyüklük farkı yok labelencoder yerine onehotencoder yapıp eksik verileri iterative imputer ile tamamlamanın bi yolu var mı ? kategorik ve numerik kolonlarda eksik veriler var bunları tahmin ettirerek buldurmak istiyorum yani
Sayisal degiskenlerdeki eksik verileri, regresyon gibi yontemler kullanarak tahmin yapip doldurabilirsin. Stackoverflow veya kaggle da orneklerini bulabilirsin. Kategorik degiskenleri pandas ile kolayca doldurabilirsin. Pandas derslerindeki eksik veriler videosunda anlattim.
selam, deep learningde linear olmayıp non convex olunca gradiant descent yaparken local minimumu buluyor ya mesela her çalıştırdığımızda farklı yerden başlayıp başka local minimum bulması yerine global minimumu bulmasını nasıl sağlıyoruz ? optimizer onu mu yapıyo ? ve neye göre hangisi kullanılır ?
Selam en iyi parametre kombinasyonu yakalamak icin global mininum yakalamayi optimizerlar ile sagliyoruz. Lokal minimum problemini aşmak icin SGD gibi optimizer'lar var. Optimzerlar lokal problemini aşmak icin cesitli ogrenme oranlari kullaniyor. Bu oran kucuk olursa cok uzun egitim suresi geciyor. Bu oran buyuk olursa bu sefer de global minimum kacirilabiliyor. Bu iki sorunu cozmek icin dengeli bir optimizer kullanmak gerekiyor.
18.30 da df_train_full , df_test = train_test_split(df, test_size=0.2 , random_state=42) kodunu yazdık verileri bölmek için ama daha önceki derslerden ben X_train , X_test , y_train , y_test = train_test_split(X,y, test_size=0.2 , random_state=42) şeklinde bölmeyi bekliyordum acaba aradaki fark ne oluyor tam olarak çünkü videodaki gibi yapınca train_test_split fonksiyonunun 1 parametresi eksik oluyor (default değeri alıyor heralde ama ben o parametreyi bizim belirlememiz gerektiğini düşünüyordum). videoyu o kısımda durdurup yazdım ilerleyen kısımlarda cevabı olabilir bilmiyorum.
Sadece sayısal verileri scale etmek gerekir. Bunu için en sağlıklı yol kategorik ve sayısal sütunları ayırıp bir pipeline ile sadece sayısal verileri scale edebilirsiniz.
bi veride 50 farklı kolon var ve kolonların yaklaşık 40 tanesi obje ve içlerinde de 7-8 farklı değişken var, bunları one hot encoding ile yapmaya kalkınca 300 e yakın kolon oluyo, bu kadar kolon yapmak yerine category olarak çevirsem 0,1,2,3,4,5,6,7 olarak numarandırdığı zaman özellikler arasında büyüklük farkı var olarak algılar mı ? mecbur one hot encoding yapıp 300 kolonla mı devam etmem gerekir ?
One-hot kodlama yapman gerekir. 0,1,2,.. işaretlersen bu sayılar büyükten küçüğe doğru sıralanıyor şeklinde algılanır. Çok fazla sütun analize zarar veriyorsa feature engineering uygulayabilirsin.
Arkadaşlar bu videoda kullandığım notebook ve veri seti 👉 www.kaggle.com/code/tirendazacademy/telco-customer-churn-eda-logistic-regression videoyu beğenmeyi ve paylaşmayı unutmayın 😀
Öğrenmesi de uygulaması da zevkli bir konu , yazılım alanında çalışmak isteyenler için kazançlı bir dal.
Tirendaz Akademi'nin bu konuda emek vermesi , bu eğitimleri hazırlaması yazılıma yeni başlayanlar için
hatta kendini geliştirmek isteyenler için büyük fırsat .
Bunlari sizden duymak harika 😀 uzun zamandir guzel yorumlarinizla bizi motive edici ve yol gosterici yorumlar yaziyorsunuz iyi ki varsiniz cok tesekkurler 🥰
Çok teşekkür ederim. Çok değerli bilgiler. Kendini geliştirmek isteyenler için harika kaynak.
Yorum icin biz tesekkur ederiz 👍 iyi calismalar 😀
Gercekten faydali bir video olmus, cok tesekkurler.
Beğendiğinize sevindim 😀 iyi çalışmalar 👍
Eyvallah hocam.Emegine saglik
Iyi calismalar 👍😀
Merhaba Hocam,kanalınıza yeni ders videoları yükler misiniz lütfen? İyi çalışmalar.
Merhaba, hangi alanda ders videoları istersiniz?
@@TirendazAkademi makine öğrenmesi ile robot yapma gelir mi abi?
Makine ogrenmesi tensorflow derslerine baslayacagim. Tensorflow robotik uygulamalarda kullabiliyor.
Teşekkürler
Rica ederim 😀 İyi çalışmalar 👍
reinforcement learning ile ilgili videolar çekecek misin ? deep q learning örnekleri falan
Planlarimda var ama ne zaman olur bilmiyorum. Ama yakin zamanda olmaz.
perfect
👍😀
tesekurler
Ben tesekkur ederim iyi calismalar 👍😀
Editor olarak ne kullanılıyor videoda
Hocam merhaba. Veri bilimi ve makine öğrenmesi alanına girmeden önce hangi metametik konularına hakim olmalııyız?
Merhaba, ozellikle istatistik, olasilik ve lineer cebir 👍
@@TirendazAkademi teşekkür ederim
@@gsindar İyi çalışmalar 😀
tekrar selam, kategorik fakat kardinal değişken ne demek oluyo ?
kategorik kolonlardaki eksik veriler için iterative imputer yaparak veriyi bulup tamamlamak istiyorum ama veriler arasında büyüklük farkı yok labelencoder yerine onehotencoder yapıp eksik verileri iterative imputer ile tamamlamanın bi yolu var mı ? kategorik ve numerik kolonlarda eksik veriler var bunları tahmin ettirerek buldurmak istiyorum yani
Sayisal degiskenlerdeki eksik verileri, regresyon gibi yontemler kullanarak tahmin yapip doldurabilirsin. Stackoverflow veya kaggle da orneklerini bulabilirsin. Kategorik degiskenleri pandas ile kolayca doldurabilirsin. Pandas derslerindeki eksik veriler videosunda anlattim.
@@TirendazAkademi regresyon yaparak doldurmanın bi örneğini atabilir misin acaba bildiğin bi kaggle veya stackoweflow linki varsa
selam, deep learningde linear olmayıp non convex olunca gradiant descent yaparken local minimumu buluyor ya mesela her çalıştırdığımızda farklı yerden başlayıp başka local minimum bulması yerine global minimumu bulmasını nasıl sağlıyoruz ? optimizer onu mu yapıyo ? ve neye göre hangisi kullanılır ?
Selam en iyi parametre kombinasyonu yakalamak icin global mininum yakalamayi optimizerlar ile sagliyoruz. Lokal minimum problemini aşmak icin SGD gibi optimizer'lar var. Optimzerlar lokal problemini aşmak icin cesitli ogrenme oranlari kullaniyor. Bu oran kucuk olursa cok uzun egitim suresi geciyor. Bu oran buyuk olursa bu sefer de global minimum kacirilabiliyor. Bu iki sorunu cozmek icin dengeli bir optimizer kullanmak gerekiyor.
@@TirendazAkademi teşekkürler bu adam rmsprob falan bunlar mı o optimizerlar ?
Evet 👍
@@TirendazAkademi çok sağolasın
Iyi calismalar 👍
18.30 da
df_train_full , df_test = train_test_split(df, test_size=0.2 , random_state=42)
kodunu yazdık verileri bölmek için ama daha önceki derslerden ben
X_train , X_test , y_train , y_test = train_test_split(X,y, test_size=0.2 , random_state=42)
şeklinde bölmeyi bekliyordum acaba aradaki fark ne oluyor tam olarak çünkü videodaki gibi yapınca train_test_split fonksiyonunun 1 parametresi eksik oluyor (default değeri alıyor heralde ama ben o parametreyi bizim belirlememiz gerektiğini düşünüyordum).
videoyu o kısımda durdurup yazdım ilerleyen kısımlarda cevabı olabilir bilmiyorum.
Veri setini ikiye boluyor bu metot. Bir veri seti verirsek sadece bu veri setini parcalar.
verileri scale ederken 0 1 olan dummyleri ayırıp kalanları mı scale etmek gerekir yoksa tüm dataseti mi scale etmek gerekir ?
Sadece sayısal verileri scale etmek gerekir. Bunu için en sağlıklı yol kategorik ve sayısal sütunları ayırıp bir pipeline ile sadece sayısal verileri scale edebilirsiniz.
@@TirendazAkademi 1 0 da sayısal olarak algılayıp onu da scale ediyo mu acaba diye emin olamadım da o yüzden sordum sağol
bi veride 50 farklı kolon var ve kolonların yaklaşık 40 tanesi obje ve içlerinde de 7-8 farklı değişken var, bunları one hot encoding ile yapmaya kalkınca 300 e yakın kolon oluyo,
bu kadar kolon yapmak yerine category olarak çevirsem 0,1,2,3,4,5,6,7 olarak numarandırdığı zaman özellikler arasında büyüklük farkı var olarak algılar mı ? mecbur one hot encoding yapıp 300 kolonla mı devam etmem gerekir ?
One-hot kodlama yapman gerekir. 0,1,2,.. işaretlersen bu sayılar büyükten küçüğe doğru sıralanıyor şeklinde algılanır. Çok fazla sütun analize zarar veriyorsa feature engineering uygulayabilirsin.
@@TirendazAkademi tamam sağol keşke başka yöntem bulunsa da tek kolon altında bunları değerlendirebilsek one hot yerine
😢
😅
Merhabalar
import pandas as pd
df = pd.read_csv("../input/telco-customer-churn/WA_Fn-UseC_-Telco-Customer-Churn.csv")
yazdığımda FileNotFoundError tarzında hatalar veriyor nerde yanlış yapıyorum acaba
Kaggle notebookta mı çalışıyorsunuz? Kendi bilgisayarınızda çalışıyorsanız baştaki inputu kaldırıp deneyin.