Парсинг сайтов при помощи GPT-4o и платформы make.com
ฝัง
- เผยแพร่เมื่อ 23 พ.ค. 2024
- В этом видео я покажу вам, как выполнять парсинг веб-страниц на основе скриншотов с помощью GPT-4o в платформе Make.com.
Регистрация на платформу Make: www.make.com/en/register?pc=a...
Привет, я Ильяс! Сегодня много людей говорят об автоматизации, но я заметил, что очень немногие добиваются практического, реального успеха в зарабатывании денег с ее помощью. На этом канале я показываю вам, как выглядят настоящие системы, приносящие реальный доход!
Надеюсь, я смогу помочь вам улучшить ваш бизнес и, тем самым, всю оставшуюся жизнь :-)
Поставьте лайк, подпишитесь и оставьте комментарий, если у вас есть конкретный запрос! Спасибо.
Агентство ИИ - консалтинговая компания по автоматизации. Если вы хотите запросить индивидуальную автоматизацию для вашего бизнеса, посетите нас по адресу ai-ii.ru.
#нейросеть #созданиеконтента #ai #chatgpt #бизнес #ии #инновации #какзаработать #контент #копирайтинг #парсинг #парсингсайтов
Супер! Благодарю за знания!
Что накинулись на спеца - звук не тот, говорит не так. Решение - не нравится не смотри, пройди мимо, но нет же, надо насрать в комментах и оскорбить человека, эго свое потешить
Вы молодец! Молю, продолжайте!!!
Ильяс спасибо! Очень интересно, кратко, наглядно!
Очень круто, и необычно! Вы молодец, продолжайте
Благодарю, даже только ради таких комментариев стОит делать)
Так мило что дедушка про нейросети рассказывает, необычно и прикольно!
благодарю за столь высокую оценку)
интересное решение, если не получается обычным способом спарсить сайт, то можно попросить чат гпт прочитать скриншоты с этого сайта)))
благодарю за отклик)
Интересно очень. Вообще, сейчас мало контента с использованием gpt, побольше бы таких видосов)
Все четко. Кратко. По делу
Суперр!!!
Продолжайте пожалуйста!!!
Супер, спасибо огромное
Спасибо большое
Если сайт имеет HTML разметку, использование AI для запросов экономически невыгодно. Сменить поменявшийся селектор в скрипте скрапера стоит 2 копейки, а AI будет жрать копейки всегда. Вообще, проблемы писать скраперы проблемы нет, проблема, это защита основанная на поведении скрипта на сайте.
как я вижу это решение для тех кто от вида html разметки в обморок падает, каким им селекторы. ну и для тех кому парсить надо 1 раз в сутки, изза цены. если четсно реальное применение очень сложно придумать, ну мало ли...
Спасибо большое круто!!!
Интересно, спасибо!
Велике дякую! 🎉
Спасибо большое круто
Интересная идея, тоже использую мейк и жпт, но пока много ручной работы, хочу все максимально сделать автономным, а то кучу времени трачу на рутину
Очень неожиданное и интересное решение!
вероятно, решение пригодилось, рад
Супер , дед не отстаёт от трендов 😮
благодарю за высокую оценку, приятно )
почему дед?)
а можно парсить не сайты а телеграм каналы ? ну и в другом удобном виде предоставлять информацию в той же телеге?
Далее можно автоматизировать отправку скриншота и настроить систему реакций на изменение значений и кнопки "покупать" и "продавать" передать нейронке )
Спасибо за урок. Подскажите как ещё используете make для автоматизации с gpt?
Для контента, в основном, статьи в блог писать, и для аудио-в-текст, саммари для видео/аудио/лонгридов
Очень интересное видео, спасибо.
было бы еще полезно если бы был ТГ канал, где так же можно почитать новости, знать информацию о новых видео.
А как оплачиваете сайт? ОН есть в бесплатном формате? или только платно?
рад, что вам интересно, также как и мне)
ТГ канала нет, вы первый, кто задает такой вопрос, стоит подумать.
Какой сайт? Маке? Там до 1000 операций/мес бесплатно
@@ai-iiru обязательно ТГ
Навеяло: Про API для CoinDesk не слышали?
По сути: а вообще занятный подход, свежий взгляд на парсинг ;)
Но по времени обработки - дохрега дольше, чем по api
ну, coinmarketcap мне попался под руку, потому что хотелось попробовать на том, где данные нужны периодически и парсинг решал бы "добычу" этих данных. К крипте никакого отношения не имею.
В любом случае, благодарю за отклик)
ПРивет. Хотелось бы понять как сделать полноценный парсер с входящим запросом, и последующим сохранением информацию после изъятия. Например если у меня есть только сайт с 100 000 страницами. НА вашем примере получается что это ручной парсер с единичным запросом, но кажется что это слишком дорого, с учетом того что нужно платить и зха сервис и за гпт нет ?
Привет! Входящие URL страниц можно задать в Google sheets, и на выходе также заносить в таблицы, либо отправлять в емайл/мессенджер. По стоимости не считал, и да, количество операций влияет на бюджет, это правда. В предыдущем видео говорил про парсинг через http -запросы, там гпт не нужен.
При таком количестве страниц (100k) имеет смысл, наверное, парсеры, типа apify, подключать.
Привет! Спасибо за видео, а ссылку на готовую автоматизацию или инструкцию можно где-то получить?
могу на емайл скинуть (в json-формате)
Спасибо
Если не трудно, скиньте пожалуйста и мне.
@@ai-iiru не пришло
@@GodProper куда отправлять?
Платен ли Маке? Если нет, как много подобных запросов он позволяет делать в день?
до 1000 операций/мес - бесплатно
Может я не понял, а просто посмотреть курс не быстрее?
А если на сайте защиты стоят, как быть?
Cloudflare, капчи, и т.д.
Возможно, могут помочь вставка в модуль cookie с визита, но это не точно, нужно тестить
Это что за мамкин трейдер!
Спасибо, очень познавательно
Начнешь изучать нейросети, и в 20 будешь выглядеть так)
А как такое сделать себе в notion??
Имеете ввиду, чтоб в notion данные приходили, или что?
@@ai-iiru да, чтобы собирались в базу данных в конкретный столбец
очень опасно полагаться на "зрение" от GPT, сейчас работаю над одной автоматизацией, и вижу, что когда речь идет о чтении данных с изображения, в ответах очень много галюцинаций, путает номера, названия улиц (может легко сказать что речь идет о совсем другом адресе, нежели указан в тексте, даже если промт составлен в виде "прочитай и верни текст слово в слово"), и речь идет об идеальных изображениях, разночтения в которых невозможны, особенно показателен пример с адресами, в тексте один адрес, в его ответе другой, причем с более популярными местами в городе о котором идет речь, а не просто созвучные улицы называет
Я юзаю и минимум ошибок, чисто скринами с ним общаюсь
@@romankonstantinovich2584 значит нам не повезло, в нашей задаче точность нужна хотя бы на уровне 80 процентов, но получаем результаты 50/50, и да, я говорю именно об API, в пользовательском интерфейсе, результаты гораздо точнее, проверено на сотнях документов
а вы не пробовали также скрин скормить Claude от Anthropic? Текст он вытаскивал корректно, правда, я только тестил, статистики нет
@@ai-iiru нет, пока тестили только openAI, и так как объем имено сканированных документов не большой, пока сосредоточились на обработке текстовых данных
Поддерживаю, как то скармливал GPT баскетбольную статистику от руки картинкой, чтобы он составил нормальный протокол, так он какие-то левые фамилии написал, очки - совсем из других данных.
Вот чувствую, что что-то интересное, но, блин, ну ничего же не понятно!
Что, куда, откуда...
Сколько стоит внедрить?
привет! здесь только как идея, в реале ваши требования нужно знать. Можете на емайл написать или здесь вкратце, обсудим, что смогу - сделаю.
@@ai-iiruЯ попытался сделать. Не получилось. Идея такая. 1 раз в сутки парить скрин токена и GPT4o делать анализ по промпту, а затем в бота закидывать, чтобы любой по запросу мог выводить себе эту аналитику. Ну и донаты просить на токены у тех кто будет пользоваться.
А в чем она дешевле? У меня как было 20$, так и осталась.
gpt-4o $5.00 / 1M tokens | $15.00 / 1M tokens
gpt-4-turbo $10.00 / 1M tokens | $30.00 / 1M tokens
ЗДАРРРРРРРРРРРРРРРОВАЙИЯ;)(:В БУДУЩЕМ БУДУТ РУЛИТЬ ТЕ КТО СМОГУТ СТРОИТЬ ГРАМОТНЫЕ И ИНТЕРЕСНО НЕСТАНДАРТНЫЕ ЗАПРОСЫ РОБОТОВ И РЕАЛИЗОВЫВАТЬ УНИКАЛЬНЫЕ ПРОЕКТЫ
О, и такие древние пенсионеры тоже знают о нейронках!
я нечего не понял
Я так понял этот Мейк в России даже с VPN не работает.😢
Маке доступен без VPN
@@ai-iiru Странно, после авторизации через гугл аккаунт написано, что сайт недоступен.
это пздц
микро делает ушам больно!
Колонки или наушники норм купите
Бедный человек. Как он завязан на чужие платформы, по самые яйца. Грустно на это смотреть. В какой-то момент его поимеют на любом этапе обработки запроса.
Ты мать тереза? Не можешь уснуть, за других переживаешь?
@@2009Spread Я за нашу Айтишечку переживаю. Походу я один здесь увидел проблему. Всем остальным все нравится, они готовы делать то же самое что и автор. А он, на минуточку, вещает на всю аудиторию ютубчика.
@@xintreavideo opensource юзать нужно больше костылить чтоб собрать все вместе. да и в бажину упрешься а там некому законтрибьютить чтоб фиксануть. А тут хочется что-то выкатить хоть MVP какое-то. Потому как можно зарыться в челленжах и перегореть.
Чел, зачем ты записываешь и выкладываешь ролики, где ты разговариваешь сам с собой? )) Все что понял я как человек много раз слышавший о "Make" , но не работавший с ним, это то, что есть такой сервис, который может сделать вот такое, а дальше бу-бу-бу, разбирайтесь сами... )) Ну реально, нихера не понятно, просто словесная каша.
Это я не для того чтобы покритиковать от нехер делать. Просто искал видос как раз о работе данного сервиса, а тут твой канал, а там бу-бу-бу, разбирайтесь сами.
Благодарю за отклик, учту в следующем видео
Пытался слушать, но не смог дальше. Толи вы заикаетесь, толи у вас такой стиль разговора.
может быть, хотя в жизни не заикаюсь, но видео режу при монтаже, возможно еще потому, что русский не родной. Учту. В любом случае, благодарю за отклик)
@@ai-iiru Да, слушать очень тяжело. Нужно что-то делать, если хотите развивать канал. Удачи!
нормально слушать на 1.5 скорости слушал и все норм
Можно читать, подключить текст или расшифровать
Скорость воспроизведения повыше ставьте, информационные ролики минимум нужно слушать на 1.25, а в данном случае ещё и съедает неровности
Интересно. Спасибо!
Это что за мамкин трейдер!