Парень, ты просто золотой. Мне поставили задачу собрать данные с двух сайтов, а там позиций больше 2 тысяч. Я уж думал я с ума сойду пока буду этим заниматься. Но твоё видео меня очень выручило!!! Правда у меня возникла одна проблема: текст не копировался как текст, а только как HTML. Чтобы привести это всё к нормальному виду, пришлось посидеть поизучать часик-другой, как работает RegEx. Но спустя это время, я наконец-то получил то, что мне было нужно!!! Без парсинга сидел бы наверное неделю. И самое главное - это бесплатное и абсолютно безопасное приложение! Вообщем, очень выручил. Всё понятно и доходчиво объяснил, спасибо большое)))
Огромнейшее спасибо. Сначала пропустил момент, что надо провалится в созданный линк и там уже делать подразделы парсинга. Всё работает в марте 2024г😄😄😄😄😵💫
Уважаемый Дмитрий, этому ролику уже почти год! Но на сколько же он нужный и актуальный даже сейчас! Спасибо Тебе большое! Мне как воздух была важна эта информация! Дай Бог Тебе здоровья крепкого и любовницу красивую и порядочную! Спасибо!!!!!
Дмитрий, подскажите, был ли опыт парсинга данных с Linkedin и с Sales Navigatora ? Мучаюсь уже неделю с парсингом данных от туда. Сейчас попробую сделать все по инструкции из видео.
Оч полезно, открыл для себя - парсинг, предстоит еще изучить. А можно по названию нужных мне товаров настроить парсер? чтобы он из моего списка брал названия и искал и собирал данные на сайтах нескольких?
Подскажи плиз, каким образом можно собрать ссылки на фотки товара в одну ячейку, а не в разные? Когда они в разных, так вроде не получится импортировать в вукомерс
у меня на сайте допустим много данных и я использую multiple чтобы разбить по строкам и столбцам, но они разбиваются не так как я хотел, если убрать по всем multiple но остаются только одни значения, а их у меня 5 строк и 10 столбцов
Вот это интеремно мне в данный момент!!! Пробоаал data miner освоить сейчас (знаю, показывали мне пару лет назад что оно работает огогь) но там расширение предупредило что джава что-то там в гугле сломано. Буду осваивать это. Нужно мне из списка участников выставки выташить данные этих участников на "бумажку"(название, адрес, емейл, телефоны, описание деятельности). Надеюсь получится. Я ваще далёк от IT😢
Супер! А этой штукой можно грузить свои файлы в инет? Например: есть сайт с кнопкой "загрузить файл/реестр". У меня есть папка с этими файлами. Эта прога сможет их загрузить? Спасибо!
спасибо братух, очень полязная инфа! Мне предстояло сделать интернет-магазин. Естественно нужны фотографии товара. А где их взять? У конкурентов. Большее тысячи позиций товара я намеревался копировать и вставлять вручную в exel. Если бы не алгоритмы ютуба так бы и занимался сизофовым трудом
Большое спасибо за видео. Подскажите, столкнулся с тем что страница сайта, откуда надо скачать данные, большая и много данных которые прогружаются с прокруткой. Как это можно настроить? потому что следуя по видео получается собрать данные только по тем компаниям которые не требуют дополнительной прокрутки вниз на странице.
Я так понимаю, что при задержке в 2,5сек между переходами по ссылкам даже небольшой реальный сайт магазина или вакансий будет парситься несколько часов? Или я ошибаюсь?
для сайтов без динамического контента и без js пойдет. Если чтото сложнее статичного сайта, то банят по ip, просят капчу ввести, или срабатывает защита cloudflare. А если нужны куки или заголовки то вообще беда
Спасибо за видео. На тестовом сайте понятно, что всё работает. А вот очень интересует селектор елемент скролл. Не могли бы вы продемонстрировать его на примере сайта вконтакте, как его правильно настроить чтоб собрать ссылки друзей, если друзей от 1000. У меня почему-то елемент скролл до конца окончания списка друзей не прокручивает. Только несколько раз и останавливается. Может что-то в настройках селектора что-то не так. Помогите пожалуйста.
Спасибо за отличное видео и доступное изложение. Правильно ли я понял, что описанным способом парсится информация только с одной страницы сайта? А как быть, если страниц много? Например, несколько категорий товаров, у каждой есть подкатегории.
Все круто, но парсит не все товары, так как товары отображаются по мере скролла, можно это как-то доделать? (Пытался парсить габариты товаров с сайта лента онлайн)
Очень здорово! Спасибо! Скажите, картинку тоже можно загрузить? и читаю что таблица сама обновляется если сайт будет обновляться это действительно так?
Супер, спасибо. Подскажите пожалуйста как можно сделать сбор данных с одной и той же страницы при ее обновлении, необходимое мне количество раз. Парсинг с этой страницы я настроил, но на самой странице сайта нет кнопки ее обновления и получается, что данные которые парсятся генерируются только при обновлении этой страницы путем нажатия на кнопку "обновить страницу" в самом браузере, а вот варианта сделать это на самой страницы сайта к сожалению нет. Заранее спасибо за ответ
Большое спасибо за видео. Я столько нового для себя открыл и все это очень упростило мне работу. Я пару дней дрочился с ручной сборкой информации. Стал искать как это упростить и наткнулся на твое видео. Все очень понятно даже человеку с уровнем владения ПК выше среднего. Есть пара вопросов: а если цен несколько как спарсить самую низкую из них?
Здравствуйте! Спасибо за контент. Вы занимаетесь разработкой проекта? За оплату конечно. Нужно вытащить в excel заказы выданные на маркетплейсе Казахстана каспи
Парень, ты просто золотой. Мне поставили задачу собрать данные с двух сайтов, а там позиций больше 2 тысяч. Я уж думал я с ума сойду пока буду этим заниматься. Но твоё видео меня очень выручило!!! Правда у меня возникла одна проблема: текст не копировался как текст, а только как HTML. Чтобы привести это всё к нормальному виду, пришлось посидеть поизучать часик-другой, как работает RegEx. Но спустя это время, я наконец-то получил то, что мне было нужно!!! Без парсинга сидел бы наверное неделю. И самое главное - это бесплатное и абсолютно безопасное приложение! Вообщем, очень выручил. Всё понятно и доходчиво объяснил, спасибо большое)))
Пожалуста брат!
Плати теперь
У нас в стране за такое не принято лучше на сиги потратиться и бутылку 😂@@victoriabreinberg9310
Здраствуйте, не подскажете как указать что парсилить линки и следующих страниц когда их 100?
Автор золотой человек! Просто Золотище) И обьясняет хорошо и говорит приятно! СПАСИБО!
Огромнейшее спасибо. Сначала пропустил момент, что надо провалится в созданный линк и там уже делать подразделы парсинга. Всё работает в марте 2024г😄😄😄😄😵💫
Блин я тоже это пропустил и не понимал почему не работает всё как надо
Спасибо большое! Редко пишу отзывы, но вы круто все объяснили. Сухо и по делу. Очень полезно! Все работает, протестил
Обзор просто Супер! Четко, ясно, по существу. Спасибо.
Уважаемый Дмитрий, этому ролику уже почти год! Но на сколько же он нужный и актуальный даже сейчас! Спасибо Тебе большое! Мне как воздух была важна эта информация! Дай Бог Тебе здоровья крепкого и любовницу красивую и порядочную! Спасибо!!!!!
Вот жешь...
За полезности рабочие и применяемые - и подписываюсь
Спасибо тебе, добрый человек! Сэкономил время и нервы) Огромное спасибо!
МОЛОДЕЦ !!!! 👍👍👍👍👍👍👍👍👍👍👍👍👍👍
Чел, спасибо тебе огромное! А главное, ты очень фундаментально объясняешь. Здоровья тебе и задора во всех твоих начинаниях :D
Спасибо! Наконец нашла нечто понятное и доступное! Буду изучать! 🥰
Золотье! И не экаешь. Приятно слушать.
😊❤❤❤ Спасибо за отоичный урок! Благодаря вашему видео за полчаса собрала нужные данные.
Ни фига не понял, но ты молодец!
Спокойный уверенный голос, сразу видно человек знает о чем говорит))
Благодарвствую от души!
Спасибо, за обзор! Все доступно, понятно!
Супер! огромная Вам благодарность, подписываюсь.
Спасибо!
спасибо, друг огромное) упростил мне жизнь и сохранил мое время)
Как там говорят, лайк подписка комментарий!!!! Сделал😊
Молодец мужик, спасибо большое, очень помог. Успехов во всех начинаниях !
Огромное спасибо за это видео... вы, можно сказать, жизнь мне спасли)))))
Спасибо большое, то что нужно!
шикарный обзор. Спасибо!!!
Спасибо! Классный урок!🎉🎉
Огромное спасибо за ролик!
а можно ли сделать так, чтобы данные с сайта автоматически обновлялись и в твоей таблице?
Это шедеееевр!
Димон, спс. Зачётный видос!
Спасибо. То что нужно. Все вечером попробую
Здоровья тебе
Классная штука, спасибо что поделились
Спасибо за видео !
Супер, спасибо 🙏
Респект парень! Помог!
Дмитрий, подскажите, был ли опыт парсинга данных с Linkedin и с Sales Navigatora ? Мучаюсь уже неделю с парсингом данных от туда. Сейчас попробую сделать все по инструкции из видео.
есть инфа как сделать автоматический парсинг?
чтобы не заходить на сайт и не скачивать данные
Просто красавчик 😘
Спасибо за данное видео.
Всё работает! ты сделал мой день :)
😆🐹
Видео просто супер
Как вы прекрасно выглялите
Спасибо большое!
Пока не разбирался но тоже спасибо напишу так как видно что это вполне рабочий инструмент!
Класс! Спасибо!!!
БЛАГОДАРЮ ❤🌷 ты спас меня😅
Спасибо Бро!!!
Вроде в метаданных сайтмэпа можно писать в конце сылки к примеру =[1-7] , но зависит от сайта конечно. Это касаемо пагинациию. Но объясняешь прикольно
Супер! Можно открыть документ и собрать данные из ворда, например? Какой инструмент может помочь?
Приветствую) спасибо, видео супер. А как сделать в пагинации ограничение, например на 10 странице остановился?
Спасибо ❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤
Оч полезно, открыл для себя - парсинг, предстоит еще изучить.
А можно по названию нужных мне товаров настроить парсер? чтобы он из моего списка брал названия и искал и собирал данные на сайтах нескольких?
есть инфа как сделать автоматический парсинг? то есть включить его в тг бот указывая ссылку
чтобы не заходить на сайт и не скачивать данные
тут ии нужен
Классный инструмент
жаль, что бесполезный почти.
@@cybersystem5137 А какой полезен? С чем сравниваете? 😊
@@Skretch1174 с нормальным парсером.
Поделишься нормальным?
Спасибо ❤
Благодарю! Подскажи как установить автообновление допустим в задержку 24ч?
Здравствуйте,а можно это скрапер приспособить для накрутки ПФ,например на Авито?
Фига, круто)
Подскажи плиз, каким образом можно собрать ссылки на фотки товара в одну ячейку, а не в разные? Когда они в разных, так вроде не получится импортировать в вукомерс
у меня на сайте допустим много данных и я использую multiple чтобы разбить по строкам и столбцам, но они разбиваются не так как я хотел, если убрать по всем multiple но остаются только одни значения, а их у меня 5 строк и 10 столбцов
Вот это интеремно мне в данный момент!!!
Пробоаал data miner освоить сейчас (знаю, показывали мне пару лет назад что оно работает огогь) но там расширение предупредило что джава что-то там в гугле сломано.
Буду осваивать это.
Нужно мне из списка участников выставки выташить данные этих участников на "бумажку"(название, адрес, емейл, телефоны, описание деятельности).
Надеюсь получится.
Я ваще далёк от IT😢
Здраствуйте, не подскажете как указать что парсилить линки и следующих страниц когда их 100?
это интересно
А в гугл таблицы можно напрямую выгружать спарсенные данные?
Супер!
А этой штукой можно грузить свои файлы в инет?
Например: есть сайт с кнопкой "загрузить файл/реестр". У меня есть папка с этими файлами. Эта прога сможет их загрузить?
Спасибо!
Аякс сайты тоже парсит?
как собирать e-mail адреса с сайтов ?
просто топ!!!!
кайф. Лайчище!
спасибо братух, очень полязная инфа! Мне предстояло сделать интернет-магазин. Естественно нужны фотографии товара. А где их взять? У конкурентов. Большее тысячи позиций товара я намеревался копировать и вставлять вручную в exel. Если бы не алгоритмы ютуба так бы и занимался сизофовым трудом
Мужик фанат дела
В магазине хром, куда ведёт ссылка, этот товар недоступен. Есть другая ссылка на другой магазин?
Братан, ты супер крутой, я тебя люблю.
все цены будут обновляться в таблице иксель автоматически?
Здравствуйте! А если линки на карточках товара динамические (при наведении на объект) что делать? не получается сайтмап тогда сделать
Спасибо
А как двигаться по различным категориям каталога сайта? только вручную каждую категорию вбивать каждый раз селекторы? или есть способ попроще?
А возможно ли сделать так,чтоб с сайта за 24 часа до начала футбольного матча,снималась иныормация?
Спасибо за идею! А отзывы с амазона этим методом можно собрать?
попробуйте🙂
Большое спасибо за видео. Подскажите, столкнулся с тем что страница сайта, откуда надо скачать данные, большая и много данных которые прогружаются с прокруткой. Как это можно настроить? потому что следуя по видео получается собрать данные только по тем компаниям которые не требуют дополнительной прокрутки вниз на странице.
спасибо большоее
Всё круто но с картинками проблема, одну парсит а если они в галереи (три шт например) нифига не получается
Пожалуйста подскажите, а если хочется также собирать данные только с другой страницы на этом же сайте.
Я так понимаю, что при задержке в 2,5сек между переходами по ссылкам даже небольшой реальный сайт магазина или вакансий будет парситься несколько часов? Или я ошибаюсь?
да автор золото!) куда донатить )
для сайтов без динамического контента и без js пойдет. Если чтото сложнее статичного сайта, то банят по ip, просят капчу ввести, или срабатывает защита cloudflare. А если нужны куки или заголовки то вообще беда
Братан как с карт собрать инфу с привязкой к координатам???
Добрый день. Нужна услуга по парсингу телефонов с сайта. Можете помочь?
Спасибо за видео. На тестовом сайте понятно, что всё работает. А вот очень интересует селектор елемент скролл. Не могли бы вы продемонстрировать его на примере сайта вконтакте, как его правильно настроить чтоб собрать ссылки друзей, если друзей от 1000. У меня почему-то елемент скролл до конца окончания списка друзей не прокручивает. Только несколько раз и останавливается. Может что-то в настройках селектора что-то не так. Помогите пожалуйста.
Подскажите, а что делать, если на первом селекторе, ссылка открывает новую вкладку, из-за чего парсер выдает ошибку
Спасибо за отличное видео и доступное изложение. Правильно ли я понял, что описанным способом парсится информация только с одной страницы сайта? А как быть, если страниц много? Например, несколько категорий товаров, у каждой есть подкатегории.
Нет, послушайте до конца, он красавчик, всё подробно объяснил и в том числе про пагинацию. Можно под себя подстроить все
Все круто, но парсит не все товары, так как товары отображаются по мере скролла, можно это как-то доделать?
(Пытался парсить габариты товаров с сайта лента онлайн)
Очень здорово! Спасибо! Скажите, картинку тоже можно загрузить? и читаю что таблица сама обновляется если сайт будет обновляться это действительно так?
пробовал, получается почему то одну только картинку
Боженька
Супер, спасибо. Подскажите пожалуйста как можно сделать сбор данных с одной и той же страницы при ее обновлении, необходимое мне количество раз. Парсинг с этой страницы я настроил, но на самой странице сайта нет кнопки ее обновления и получается, что данные которые парсятся генерируются только при обновлении этой страницы путем нажатия на кнопку "обновить страницу" в самом браузере, а вот варианта сделать это на самой страницы сайта к сожалению нет. Заранее спасибо за ответ
Спасибо за метериал!
Почему-то скачивает только 10 строчек.
В превью отбирается более 80, а вготовый файл собирает только 10.
А как собирать вариативность?
Ты золото, и я тебя нашел
Большое спасибо за видео. Я столько нового для себя открыл и все это очень упростило мне работу. Я пару дней дрочился с ручной сборкой информации. Стал искать как это упростить и наткнулся на твое видео. Все очень понятно даже человеку с уровнем владения ПК выше среднего.
Есть пара вопросов: а если цен несколько как спарсить самую низкую из них?
Здравствуйте! Спасибо за контент. Вы занимаетесь разработкой проекта? За оплату конечно. Нужно вытащить в excel заказы выданные на маркетплейсе Казахстана каспи