Deep Learning на пальцах 10 - Recurrent Neural Networks

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 พ.ย. 2024

ความคิดเห็น • 11

  • @АлександрМиронов-ф7с
    @АлександрМиронов-ф7с 5 ปีที่แล้ว +29

    Спасибо за прекрасный материал. И эта лекция и прошлая зашли просто идеально. Лучшее подробное пояснение RNN на ютубе которое я встречал с остановками на реально тех моментах которые вызывали вопросы лично у меня везде.

  • @insanesup9648
    @insanesup9648 5 ปีที่แล้ว +5

    лучший

  • @zzzCyberzzz
    @zzzCyberzzz 2 ปีที่แล้ว +2

    Немного не хватает примеров на ты или торсе или керасе. Возникают вопросы, если несколько каналов, как оно изнутри работает и что на выходе. И что задаёт размер lstm слоя, вроде глубину? Ну и там параметры остальные есть интересные, которые на примерах хорошо бы посмотреть. И можно ли делать перемешивание в батче?

  • @АлексейБогушевич-щ1ъ
    @АлексейБогушевич-щ1ъ 5 ปีที่แล้ว +1

    Большое спасибо за лекции!!!!

  • @nurzhansarzhan8867
    @nurzhansarzhan8867 5 ปีที่แล้ว +6

    Столько боли от одного видео...

  • @zzzCyberzzz
    @zzzCyberzzz 2 ปีที่แล้ว

    Интересно не только применительно к тексту примеры смотреть, а и для обработки многоканальных сигналов.

  • @hey2956
    @hey2956 3 ปีที่แล้ว

    топ учитель

  • @nigmatoyev2668
    @nigmatoyev2668 5 ปีที่แล้ว +2

    Ссылку можно где подробно схему можно посмотреть про бота openai

  • @СергейЗинчук-и7у
    @СергейЗинчук-и7у 4 ปีที่แล้ว

    То есть если я правильно понял, на вход следующему слою передается не output, а промежуточное состояние (синий квадратик)?

  • @alexanderskusnov5119
    @alexanderskusnov5119 3 ปีที่แล้ว

    А на двухтысячной она обошла Льва Толстого! (да ещё по-английски)

  • @Roc19961
    @Roc19961 4 ปีที่แล้ว

    Лучший