Введение в Deep Learning | Григорий Сапунов (Intento)

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 พ.ย. 2024

ความคิดเห็น • 41

  • @palyura1162
    @palyura1162 7 ปีที่แล้ว +30

    Спасибо. Все так класно объясняет. Побольше бы таких видео.

  • @elenasaht1379
    @elenasaht1379 4 ปีที่แล้ว +1

    Прочла комментарии. Искренне захотелось верить, что сидящие в зале были другими (сложно, много матана...прочее). А лекция вполне хороша для вводного обзора

  • @scariestscary1090
    @scariestscary1090 3 ปีที่แล้ว +1

    Не знаю, кто как, но для меня изучающего нейросети в течении 3 часов , лекция очень понятна)))
    Осталось научить сеть прописывать/переписывать себе новые блоки и архитектуруи и организовать внутри себя нейронные связки памяти.

  • @TheMitPitt
    @TheMitPitt 4 ปีที่แล้ว +24

    Комментаторы к этому видео пытаются обучить нейросеть?

    • @eRatube
      @eRatube 3 ปีที่แล้ว +3

      Это нейросети комментировали)

  • @warnalexfrost605
    @warnalexfrost605 3 ปีที่แล้ว +1

    Сложно слооожно , много математики
    Зверский доклад
    Огонь

  • @ivanesan5235
    @ivanesan5235 3 ปีที่แล้ว

    Очень доступно и интересно! Спасибо за контент!

  • @Ridick-Furian
    @Ridick-Furian 10 หลายเดือนก่อน +1

    Респект

  • @daniiltroshkov6081
    @daniiltroshkov6081 2 ปีที่แล้ว

    Хорошая лекция! Как я понял, четыре года прошло. Хочется еще апдейта со State Of Art. Если есть у кого линки на похожий современный материал, делитесь, плиз...

  • @artemykrylov
    @artemykrylov 2 ปีที่แล้ว +1

    Слайды: edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @klev1983
    @klev1983 6 ปีที่แล้ว +1

    Нормально так пробежались по машинному обучению

  • @johnsfppanthonyvtw1387
    @johnsfppanthonyvtw1387 4 ปีที่แล้ว

    Нормально так пробежались по машинному обучению
    Сложно сложно , мнооого математики

  • @МихаилЮрков-т1э
    @МихаилЮрков-т1э 6 ปีที่แล้ว +6

    Спасибо за видео. Не смотря на продолжительность, смотрится легко. Выложите пожалуйста презентацию иди хотя бы ссылки из неё.

    • @bioinforussia
      @bioinforussia  6 ปีที่แล้ว +7

      Ссылки на все слады школы 2017: bioinformaticsinstitute.ru/summer2017/slides

    • @МихаилЮрков-т1э
      @МихаилЮрков-т1э 6 ปีที่แล้ว

      Институт биоинформатики Спасибо большое!

    • @loradolores
      @loradolores 3 ปีที่แล้ว

      @@bioinforussia Эта ссылка уже устарела. Не могли бы обновить?

    • @artemykrylov
      @artemykrylov 2 ปีที่แล้ว

      @@loradolores edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @illuzkameluz
    @illuzkameluz 4 ปีที่แล้ว +15

    Зверский доклад

  • @ЮрийПредбанников
    @ЮрийПредбанников 3 ปีที่แล้ว

    ну я этот пример где-то слышал, про отличие кошки от собаки для трёх летнего ребёнка, но там вроде речь была про простоту запоминания, то-есть, трёхлетнему покажи на пару сек и он запомнит и скорее всего распознает другой вид кошки, а компьютеру обучаться долго надо и иметь не одну картинку а целый дата сет. Но если про скорость говорить, то да это понятие не соответствует действительности, так как всё зависит от ресурсов вычислительных

  • @a.bibbspatricia2839
    @a.bibbspatricia2839 4 ปีที่แล้ว +1

    Сложно сложно , мнооого математики
    Зверский доклад

  • @maratzvizdets1208
    @maratzvizdets1208 4 ปีที่แล้ว +1

    я знаю кун-фу!
    А вообще нормально так пробежались по машинному обучению, хоть и сложно сложно , мнооого математики.
    Про что вообще лекция была?

  • @s.nielsenkeith3684
    @s.nielsenkeith3684 4 ปีที่แล้ว

    Сложно сложно , мнооого математики
    Зверский доклад
    просмотрела 40 минут и ничего не поняла

    • @elenasaht1379
      @elenasaht1379 4 ปีที่แล้ว

      Вроде уровня первого курса любого техничего вуза.

  • @mrGrey2009
    @mrGrey2009 4 ปีที่แล้ว

    Сложно стригся 40 минут, пробежался по зверям, множественная математика

  • @ZugDuk
    @ZugDuk 5 ปีที่แล้ว +1

    Я не понял, нейросеть умеет считать? А она умеет рисовать график? Умеет рисовать линии на графике?
    Про что вообще лекция была?

    • @ВасяПетров-п1з
      @ВасяПетров-п1з 2 ปีที่แล้ว

      А зачем? Графики прекрасно рисует обычный алгоритм.

  • @sashausb1
    @sashausb1 6 ปีที่แล้ว

    просмотрела 40 минут и ничего не поняла

  • @relicthominide5546
    @relicthominide5546 7 ปีที่แล้ว +3

    Мой процессор восьмилетней давности в два раза медленнее чем такой же в современной линейке. Какие 1000 раз за 10 лет?) Закон Мура давно не работает.

    • @bnbr8100
      @bnbr8100 7 ปีที่แล้ว +8

      внимательней слушайте, процессор и вычислительные мощности понятия не совсем идентичные

    • @relicthominide5546
      @relicthominide5546 7 ปีที่แล้ว

      А что, вычисления уже чем-то другим производятся? В видеокартах - не процессор? DSP - не процессор?)) Упомянутый закон Мура не работает даже в буквальном изложении, как количество транзисторов на площадь, это факт. А уж в практическом тем более.

    • @bnbr8100
      @bnbr8100 7 ปีที่แล้ว +6

      Почитайте про архитектуры процессоров, много полезного узнаете. Ваш процессор и к примеру специализированный ASIC под нейронки, недавно произведенный гуглами TPU, нельзя "сравнивать в лоб". Выщислительная мощность при равном колличестве транзисторов на кристалле будет существенно разная для разных задач. Или взять программируемые плис, их процессором в обывательском понятии вообще назвать нельзя. То, что плотность, с которой вытравливают на подложках транзисторы на кристалах микросхем уперлась в несколько нанометров, не говорит о том, что достигнут предел развития процессоров. Закон мура не о технологии производства. Просто Мур в свое время интерпретировал эмпирическую зависимость производительности по колличеству транзисторов, так и было - росла плотность - росла частота - росла производительность. Других идей не было у него. Зависимость осталась, но интерпретировать ее уже надо по другому, а название осталось.

    • @relicthominide5546
      @relicthominide5546 7 ปีที่แล้ว +3

      Нет уж попрошу, Закон Мура - это закон Мура. Он не работает. Не надо сову на глобус натягивать, как бы мы теперь имеем в виду под законом Мура что-то другое, а не закон Мура. Математическая производительность процессоров также почти не выросла за последние десять лет, ни о какой 1000 раз уж точно тут речи не идет. А что мы теперь на этой математической мощности иногда считаем что-то другое и по-другому, на других алгоритмах и при помощи специализированных архитектур, которые выполняют какие-то задачи лучше чем процессоры общего назначения - это совсем другой вопрос, который к закону Мура ровным счетом никакого отноршения не имеет.
      Так что это вы лучше пойдите что-нибудь почитайте))

    • @bnbr8100
      @bnbr8100 7 ปีที่แล้ว +7

      Походу что-то объяснять человеку нет смысла, если он черное видит белым. Те вычисления, которые мог провести ваш процессор имея в своей структуре N транзисторов, не медленнее в 2 раза процессора абсолютно другой архитектуры имеющего 2*N транзисторов. Так понятнее? Вычислительные мощности растут по закону мура а не мощность вычислений частного случая реализованного на основе какого либо одного процессора. Лектор имел ввиду это, говоря что те алгоритмы которые еще сейчас не представляется возможным общитать, уже через десять лет будут реализовываться на обычном персональном компьютере.