Intuition Behind Attention Mechanism | مکانیزم توجه

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ม.ค. 2025

ความคิดเห็น • 14

  • @hamidrezadavtalab522
    @hamidrezadavtalab522 4 หลายเดือนก่อน

    خیلی عالی مختصر خلاصه و مفید بود

  • @ashabibi1976
    @ashabibi1976 ปีที่แล้ว

    درود بر شما. تشریح بسیار خوبی بود برای درک مفهوم پایه این موضوع. مرسی

  • @nastaran1010
    @nastaran1010 ปีที่แล้ว

    عالی هستید

  • @massoudkadivar8758
    @massoudkadivar8758 ปีที่แล้ว

    Great job!

  • @megheditarverdian7329
    @megheditarverdian7329 3 ปีที่แล้ว +1

    ممنون از ویدیوهای عالی که در اختیار میزارید 🙏👍

    • @MoritaDataLand
      @MoritaDataLand  3 ปีที่แล้ว

      ممنون از حمابت شما

  • @ramamorva6034
    @ramamorva6034 ปีที่แล้ว

    سلام وقتتون بخیر ...ممنون از ویدیوهای خوبتون ...در این جلسه گفتید که مکانیزم توجه باعث میشه که مدل به برخی کلمات وزن بیشتری بده ...این تکنیک در روش tfidf هم انجام میشد و بعضی کلمات وزن بیشتری داشتن ...ممکنه تفاوتشون رو بفرمایید ❤

  • @amirhoseindouzandeh7741
    @amirhoseindouzandeh7741 3 ปีที่แล้ว

    خیلی خوب محتواش و به زبان ساده‌ای توضیح داده بودید

  • @mohamadhasanzeinali3674
    @mohamadhasanzeinali3674 3 ปีที่แล้ว +1

    سلام .ممنون از ویدیو های خوبتون / لطفا در مورد سایر روش های ورد امبدینگ ویدیو بسازید.ممنونم

    • @MoritaDataLand
      @MoritaDataLand  3 ปีที่แล้ว +1

      سلام
      در مورد ورد امبدینگ دو تا ویدیو در همین پلی لیست موجوده

    • @mohamadhasanzeinali3674
      @mohamadhasanzeinali3674 3 ปีที่แล้ว +1

      @@MoritaDataLand بله دیدم / منظور روش های پیشرفته ترش هست مثل glove

  • @karikatyr9547
    @karikatyr9547 2 ปีที่แล้ว

    مثالتان خوب بود اما اینکه ان ال پی را بشکل غیر حرفه ای توضیح می‌دهید به هردو جانب ظلم میکنید جناب مهندس!

    • @MoritaDataLand
      @MoritaDataLand  2 ปีที่แล้ว

      منظورتون ازغیر حرفه ای توضیح دادن چی هست؟