Makine Öğrenmesi -3- Lineer Regresyon'un Arkasındaki Matematik (Yapay Zeka)

แชร์
ฝัง

ความคิดเห็น • 84

  • @kagantaskn5172
    @kagantaskn5172 7 ปีที่แล้ว +24

    Merhaba, kanalın türkçe kaynak açısından gerçekten güzel örneklerden biri olacak bu gidişle. Önüne çıkan engelleri aldırış etmeden devam etmeni diliyorum. Başarılı bir kanal, güzel bir yol tebrik ederim

  • @CemTopkaya
    @CemTopkaya 7 ปีที่แล้ว +15

    ilk videoda bir özet ve şimdi tek tek detaylı işlemen harika olmuş. hel hele kağıda yazarken anlatıyor olman da daha kolay anlaşılır bir öğretim olmuş.

  • @kadiryaren5564
    @kadiryaren5564 6 ปีที่แล้ว +15

    Sen nası bi kralsın yaa :D Çekimde kusurlar olsa da verdiğin bilgiler bunu fitliyor . Kralsın

    •  6 ปีที่แล้ว +3

      Belki yeniden bu videolari cekmek nasip olur

    • @kadiryaren5564
      @kadiryaren5564 6 ปีที่แล้ว +2

      insanı insan yapan da kusurları değil mi zaten :D anlatım süper baba giriş seviyesine kadar iniyorsunuz!
      aramızda kalsın biraz once şadi evren şeker izleyip geldim , üstad döktürmüş ama anlatılanın %50-60 ını alabildim. Ahanda bu video geldi karşıma her şeyi anladım :D

  • @tugbaozdemir1628
    @tugbaozdemir1628 5 ปีที่แล้ว +2

    Olayın matematiğini ve mantığını çok iyi anlatıyorsunuz teşekkür ederiz.

  • @tgbaozkn
    @tgbaozkn 4 ปีที่แล้ว

    hocam çok güzel ellerinize sağlık bir çok yapay zeka öğretene göre harika öğretiyorsunuz çünkü siz mantığını anlatıyorsunuz diğerlerinin çoğu ctrl c v anlatıyor teşekkürler emekleriniz için

  • @muhammedyasinhanyasar539
    @muhammedyasinhanyasar539 4 ปีที่แล้ว

    Bizim bir çok tahmin noktasından oluşan tahmin doğrumuz ile gerçek değer noktalarından oluşan gerçek değer foğrumuz arasındaki fark olan toplam hata farklarının karesi ile meydana gelen parabolun türevinin 0'a eşitlenmesiyle bulunan ekstremum noktasına teğet doğrunun bize gerçek değeri vermesi gerçekten aşırı derecede mantıklı.

  • @ufuktul1980
    @ufuktul1980 6 ปีที่แล้ว

    Anlatım çok iyi, makine öğrenmesinin temellerini anlatmanız çok iyi olmuş tebrik ederim. Konu ile ilgili olan herkese faydalı olacağını düşünüyorum. Emeğinize sağlık başarılar dilerim.

  • @semaky6760
    @semaky6760 3 ปีที่แล้ว

    tebrıkler gercekden cok acıklayıcı anlatuyorsunuz

  • @ruozyu2847
    @ruozyu2847 3 ปีที่แล้ว

    Sen kamera sallanmasin istersin ben de sen uzulme isterim, bilgiler icin, emegin icin tesekkur ederim. Kendine cok iyi bak, Allah'a emanet ol.

  • @Nathan-vt4zw
    @Nathan-vt4zw ปีที่แล้ว

    Bu konulara başlamadan önce hangi mat konularını bilmek lazım

  • @mustafaasanoglu3008
    @mustafaasanoglu3008 3 ปีที่แล้ว +1

    Dostum çok sağol, hukukçuyum ama gecenin bir yarısı ciddi bir aydınlatma yaşattın bana, makina öğrenmesi için temel videoalr ararken sana denk geldim. Matematiğin nerede yaradığını öğrenmiş oldum. İiyiki matematiği seviyormuşum. Ordan oraya bağlantı kurabildim. Eğer devam videoları varsa sabırsızlıkla bekliyorum. Bir konuda eğer müsaitlik durumunuz olursa makina öğrenmei ile ilgili şahsi bir soru sormak isterim.

    • @emir5146
      @emir5146 10 หลายเดือนก่อน

      Şuan ne durumdasın makine öğrenmesi alanında

  • @omercandemirci6410
    @omercandemirci6410 6 ปีที่แล้ว +1

    Sanıyordum matematikle yazılımın ilgisi yok. Meğer bizzat matematiğin kendisiymiş.

  • @metehanturan8181
    @metehanturan8181 6 ปีที่แล้ว +4

    kısmi türevleri alırken eksi işaretlerini unutmuşsunuz ama çarpım durumunda olduğundan ve 0 'a eşitlendiğinden bir şey farketmeyecek. yine de hatalı olduğunu söylemek lazım

    •  6 ปีที่แล้ว +1

      1 yıl olmuş hocam videoyu çekeli, haklısınzıdır gözmden kaçmıştır. Teşekkürler

    • @Neo-137
      @Neo-137 4 ปีที่แล้ว

      doğrusu nasıl olacak söyleyebilir misiniz

    • @icantfindaproperusername
      @icantfindaproperusername 4 ปีที่แล้ว

      @ Birsuru sorum var simdi biz bir cizgi cekiyoruz onun sayilarla alakasi nedir? Optimizerlar nasil islem yapar? Bu islemleri cozmeyi nerden ogrenirim?

  • @rusifbudaqov2712
    @rusifbudaqov2712 6 ปีที่แล้ว

    video icin teshekkur ederim,.Bu shekilde matematiyini daha derin ve numunlelerle gosterseniz,ve neural network nasil kurlur videosunu yapsaz iyi olur

    •  6 ปีที่แล้ว

      Haklısınız, vakit bulabilsem okuldan yapacağım.

    • @rusifbudaqov2712
      @rusifbudaqov2712 6 ปีที่แล้ว

      teshekkur ederim,demek olarki,turkce normal hic bir kaynak bulamuyorum,sizin bu videodan cok shey oyrendim,daha derin oyrenme icin neural network nasil kurulur ,layerler nasil kurulur,filan olursa cok guzel olur,teshekkur ederiz.

  • @ayhansar386
    @ayhansar386 3 ปีที่แล้ว

    Teşekkürler.

  • @hs34-t9s
    @hs34-t9s 3 ปีที่แล้ว

    Teşekkürler

  • @revenantt37
    @revenantt37 5 ปีที่แล้ว +1

    kalemi boru tutar gibi tutman beni benden aldı reiis :D

  • @alinazm4876
    @alinazm4876 3 ปีที่แล้ว

    güzel bi kaynak eyvallah bertay :)

  • @huseyinakcay8074
    @huseyinakcay8074 4 ปีที่แล้ว

    Kral videolarına en baştan başladım hangisi izlemesem benim için kayıp diyorum :)

    •  4 ปีที่แล้ว

      İngilizce biliyosan hiçbirini izleme courseradan vb. izle

    • @huseyinakcay8074
      @huseyinakcay8074 4 ปีที่แล้ว

      Makine Öğrenmesi Buralarda Türkçe altyapı oluşturup öyle gitmek istedim ve tamda istediğim gibi oldu bu arada Courseradan burslu kurs kazandım onu alıyorum şu an emeğin için çok teşekkür ederim iyi ki sizin gibi insanlar var.

    •  4 ปีที่แล้ว +1

      @@huseyinakcay8074 Est. teşekkür ettim. Tebrik ederim. Başarılar

  • @aerkanc
    @aerkanc 6 ปีที่แล้ว

    öncelikle bu girişiminiz için tebrik ediyorum. Bu konuda detaylı Türkçe kaynak bulmak zor. Elinize sağlık.
    Ancak videolara genel olarak yeterli hazırlık olmadan başlıyorsunuz, sürekli ıkınır gibi konuşuyorsunuz, videolardaki gereksiz bekleme yada boşlukları çekim sonrası temizlemeden, ham haliyle yüklüyorsunuz. Aslında 10 dk lık video 30 dakika sürüyor. Şu anda izlediğim videoda yankı var ve masa sallanıyor mesela.

  • @softBilim
    @softBilim 9 หลายเดือนก่อน

    istatislik dersinde förmüllerle direkt denklemi buluyoruz burdada amaç minimilize edip denkleme ulaşmaya çaılşmak mi

    •  9 หลายเดือนก่อน +1

      Probleminkz Lineer olaram cozulebilirse evet.
      stats.stackexchange.com/questions/278755/why-use-gradient-descent-for-linear-regression-when-a-closed-form-math-solution
      Sebebi burda

  • @hakankosebas2085
    @hakankosebas2085 4 ปีที่แล้ว +1

    1 bölü 2 N 'i zerre anlamadım şimdiye kadar, türev neden aldık tam iyi açıklaması yok

  • @shakor-li7734
    @shakor-li7734 5 ปีที่แล้ว

    güzel anlatım eline beynine saglik teşekkürler

  • @dogukantombul1045
    @dogukantombul1045 6 ปีที่แล้ว +1

    B nin turevini niye aldik orda

  • @ahmetboyraz7348
    @ahmetboyraz7348 6 ปีที่แล้ว

    Tüm bu formül ve bilgilere daha ayrıntılı olarak Ethem Alpaydın hocanın yapay öğrenme kitabında ulaşabilir miyiz? Yazılı kaynak üzerinde çalışmak daha rahatıma gelio da :DD

  • @serefbal
    @serefbal 4 ปีที่แล้ว

    ethem hocamızın kitabı internette satışta değil, stoklarda yok. Nasıl temin edebilirim?

  • @KaanFrat
    @KaanFrat 7 ปีที่แล้ว +2

    Learning rate'i düşük alırsak, tekrar sayısı fazla olsa bile, en doğru değeri bulmaz mıyız?

    •  7 ปีที่แล้ว

      Elbette öyle, aslında sizin de düşğndüğünüz gibi en optimum olanı, ilk yüksek learning rate den, sonra düşük learning rate e inmektir. bunun için SGD with momentum, Adam with momentum, learningrate decay gibi konulara bakabilirsiniz. Yani zamanla learning rate i yavaş yavaş düşüren metodlar yaygın. (Zaman = tekrar(epoch) sayısı)

  • @whathefunctr
    @whathefunctr 4 ปีที่แล้ว

    öncelikle merhaba güzel bir içerik olmuş özellikle türev alma mevzuu çok aydınlatıcı oldu ama kafamda bir soru var..cost fonksiyonunda kare almak bahsettiğiniz açıdan mantıklı ancak sayı değeri büyüdükçe çıktılar exponansiyel olarak artacak ve yanıltıcı sonuçlar üretecektir. fonksiyonda kare kök içinde kare almak (√x^2) daha doğru sonuçlar üretilmesini sağlamaz mı ? İnternette gördüğüm kaynakların tamamı anlattığın gibi gösteriyor ancak benim aklıma pek yatmadı.. yardımcı olursanız sevinirim ..

    •  4 ปีที่แล้ว

      Bu dediğiniz güzel bir tartışma konusu aslında L1 vs. L2 loss diye. Karesini aldığınızda farklı, mutlak değerini aldığınızda farklı sonuçlara yöneltiyor neural networku. www.chioka.in/wp-content/uploads/2013/12/L1-vs-L2-properties1.png Karesini almak, mutlak değere almayla kıyaslandığında hatayı olduğundan daha çok gösterir. Ve bu da aslında gerçek değerden uzaklaşan tahmineleri ço kdaha fazla düzeltme ihtiyacı verir. Çok güzel tartışmalar var, th-cam.com/video/sO4ZirJh9ds/w-d-xo.html , ama benim Bilkent'te bir projem bunlar üzerineydi. Mailinizi yazarsanız raporunu atayım, çok daha görsel tartışmalar var.

    • @whathefunctr
      @whathefunctr 4 ปีที่แล้ว

      @ mail adresim: semerci394@gmail.com Aslında makine öğrenimine yeni başladım hatta 3 gün ancak olmuştur. Konu hakkında pek fazla bilgim olmadığı için kaynak önerisine fazlasıyla ihtiyacım var .. kısaca bildiğiniz güzel kaynakları da paylaşma şansınız var mı ?

    •  4 ปีที่แล้ว

      @@whathefunctr github.com/deeplearningturkiye/turkce-yapay-zeka-kaynaklari maili attm

    • @whathefunctr
      @whathefunctr 4 ปีที่แล้ว

      @ kaynaklar için çok teşekkür ederim ayrıca hızınıza hayran kaldım :)

    •  4 ปีที่แล้ว

      @@whathefunctr media1.tenor.com/images/797843ecc8ca280130b80075ed63e319/tenor.gif?itemid=11858798

  • @plamedre
    @plamedre 7 ปีที่แล้ว

    Eline saglik. Tesekkurler.

  •  7 ปีที่แล้ว

    bu kadar uğraşmak yerine noktaların koordinat sisteminden başka bir sisteme geçirsek(küresel koordinat gibi) daha hızlı olur gibi.
    bir tane daha var. noktaları sıralasak yada noktaları dikkate alarak Lineer Regresyon başlatsak daha az adım yapmış olmaz mıyız?

    •  7 ปีที่แล้ว

      Ne olursa olsun en uygun değere ulaşmak için sürekli türev alıp işlemler yapacağız. O yüzden hangi koordinat sistemini almış olmamıızın bir önemi yok. Noktaları dikkate almaktan kastınız eğer ben doğrumu y = 0x+0 dan başlatmak yerine "bana sanki bu verisetine y = x +2 ile başlamak daha mantıklı geliyor" derseniz, evet o da olabilir ve hiçbir sıkıntı çıkarmaz. Fakat böyle küçük verisetleri için Sonucu ne çok doğru yapar ne de az doğru yapar.

  • @onurtural6579
    @onurtural6579 6 ปีที่แล้ว

    İlk iki videoda mantığı çok güzel anlatmışsınız. Eğitime hem Udemy hem de sizin videolarınız ile devam ediyorum. Matematiğim pek fazla yetmediği için işin sayısal kısmını pek çözemedim. Fakat Tensorflow ile MNIST veri setleri üzerinde deneme amaçlı ufak tefek çalışmalar yapıyorum. w ve b'yi güncellemek için tf.train.GradientDescentOptimizer(0.5).minimize(loss) kullanıyorum. Sorum şu olacak. Gradient Descent ile kademe kademe ilerliyoruz. Peki elimizde düz bir çizgi mi yoksa 17:53 teki gibi bir şema mı ortaya çıkıyor. Biraz kafam karıştı doğrusu. Fakat yavaş yavaş daha iyi anlıyorum gibi.

    •  6 ปีที่แล้ว

      Lineer regresyondan bahsediyorsanız, gördüğünüz eğimli şekil çıkmıyor. Burada aslında size gradient descent'in mantıgını anlatıyorum. Fark etti iseniz loss dedimiz hata değeri ilk başta mesele 10'dan 2 ye, ardından 2 den 0.5 e, ardından 0.5'ten 0.2 ye düşmekte. Neden? Ve bu 17:53 deki şema nedir? Lineer regresyonda sadece düz bir çizgi çiziyorsunuz. 17:53'de olan ise bu hataların azalımı.
      Karıştı ise şöyle toparlayalım. w değerini( ya da m, lineer regresyondaki doğrunun eğimini kastedersek aynı şey) biz w - d(loss)/dw x lr yapıyoruz. 17:53 'de d(loss)/dw nin 0'a doğgru yaklasırkenki aldığı değerleridir. d(loss)/dw gittikçe ve azalarak(10'dan 2 ye, ardından 2 den 0.5 e, ardından 0.5'ten 0.2 ye ) 0'a yaklaşır.Biz de bu değer 0'a yaklastıkca doğrunun daha iyi oturduğunu görürüz. cdn-images-1.medium.com/max/800/1*eeIvlwkMNG1wSmj3FR6M2g.gif bunun gibi.

    • @onurtural6579
      @onurtural6579 6 ปีที่แล้ว

      Attığınız gifteki çizgiyi, yani aslında verileri düzgün bir şekilde ayıran çizgiyi çekmek için her iterasyonda gradient descent uygulanıyor. loss hata oranımız. loss değerini her seferinde optimize ederek çizgiyi de gifteki gibi tam ortadan çekmiş oluyoruz. Yani tam istediğimiz gibi. Sanırım doğru anladım.

    •  6 ปีที่แล้ว

      ayyynen öyle

    • @onurtural6579
      @onurtural6579 6 ปีที่แล้ว +1

      GradientDescentOptimizer'ı defalarca kullandım. Fakat çalışma mantığını şimdi daha iyi anladım. Çok teşekkür ederim.

    •  6 ปีที่แล้ว

      ne demek, kanalı başka ilgilenenlere de yaymayı unutmayın

  • @Yusuf-dx4hw
    @Yusuf-dx4hw 5 ปีที่แล้ว

    Cok tesekkür ederim

  • @mehmethanificelebi1524
    @mehmethanificelebi1524 4 ปีที่แล้ว

    Eline emeğine sağlık adamsın

  • @sakirdag2976
    @sakirdag2976 5 ปีที่แล้ว

    emeğine sağlık

  • @denizsatr8753
    @denizsatr8753 6 ปีที่แล้ว

    Pozitif olması için neden mutlak değere almak yerine karesini kullandık?

    •  6 ปีที่แล้ว +1

      Bir tercih aslında. O da bir yol. Kütüphanelerde hata fonksiyonu olarak mean absolute error adında mutlak değeri de görüyorsunuz. Fakat genel olarak aynı amaca hizmet ediyorlar. İkisi de olur, ikisi de kullanılıyor. Fakat yüzde 99 karesi. Sebebi de zannediyorum vanishing gradient adlı problem.

    • @denizsatr8753
      @denizsatr8753 6 ปีที่แล้ว

      Cevap için teşekkür ediyorum iyi çalışmalar dilerim.

    • @xmbo1
      @xmbo1 6 ปีที่แล้ว +1

      Merhaba. Bu bir tercih degil cogu zaman bir zorunluluk. Cunku mutlak deger; sabitle carpim, dagilma ozelliginin uygulanmasi vs gibi cebirsel olarak uygun matematiksel ozelliklere sahip degildir. Bu yuzden farkin karesi ile islem yapilir. Cebirsel islemin gerekli olmadigi durumlarda mutlak deger kullanilir ki o da cok nadir mumkun olur. Yani karesini alma cebirsel islemlerin uygulanabilirligi sebebiyle tercih edilir.

  • @Tetrationwasbeenhere
    @Tetrationwasbeenhere 4 ปีที่แล้ว

    Beynim mavi ekran verdi 3.izleyişim :c

  • @AliVeli-uu1yk
    @AliVeli-uu1yk 6 ปีที่แล้ว

    Hocam merhabalar, kendimi yapay zeka vr Biga data konularında geliştirmek istiyorum.
    Sizce iyi bir okulda İstatistik mi yoksa İstanbul veya çevresinde bilgisayar mühendisliği mi okumalıyım?

    •  6 ปีที่แล้ว

      Bilgisayar müh.

    • @AliVeli-uu1yk
      @AliVeli-uu1yk 6 ปีที่แล้ว

      Makine Öğrenmesi cevap için teşekkürler efendim iyi çalışmalar. 👍

  • @handet.6235
    @handet.6235 7 ปีที่แล้ว +2

    Hocam, Insert tuşuna Allah'ını seversen basta boşuna zaman kaybetme :)

  • @burakgokgoz9018
    @burakgokgoz9018 4 ปีที่แล้ว

    hocam çok tekrara düşüp konuyu uzatmışsınız.

  • @yi9itc4n
    @yi9itc4n ปีที่แล้ว

    hiçbir şey anlatılmıyor bu videoda vakit kaybı tamamen

    •  ปีที่แล้ว

      🤙