Я не понял откуда милионы слов? Нагуглил что в английском на 2018 год насчитали 1 052 010 слов. Но базовых слов то всё равно не больше 50к-100к в любом языке.
Как обычно, весь вопрос что считать за слово. Большие модели для deep learning тренируют на больших корпусах текста, скачанных с интернета, и там "слов" как уникальных комбинаций букв очень много, потому что они включают в себя все термины из разных областей, тысячи вариантов сленга итд итп
дай бог здоровья
Спасибо! Много интересного!
Большое спасибо!!!
Пасхалка на 1:10:38
А точно w = u + v?
Я слышал, что в word2vec w = u, а со сложением это из Glove
Я не понял откуда милионы слов? Нагуглил что в английском на 2018 год насчитали 1 052 010 слов.
Но базовых слов то всё равно не больше 50к-100к в любом языке.
Как обычно, весь вопрос что считать за слово. Большие модели для deep learning тренируют на больших корпусах текста, скачанных с интернета, и там "слов" как уникальных комбинаций букв очень много, потому что они включают в себя все термины из разных областей, тысячи вариантов сленга итд итп
Как реализовать распознавание лица и речи с нуля без библиотек? И возможно ли это сделать вообще?
Тоже интересно? И я думаю что автор хорошо знает английский.
про распознование изображений 6-я лекция
@@yrsolo там объяснения с библиотеками?
@@aidenstill7179 там в самом общем виде
@@yrsolo спасибо.