Здравствуйте, подскажите пожалуйста, как на основе Flowise реализовать логику если гпт не может ответить на вопрос то создавать пост запрос в теле которого будет этот вопрос. Я сделал через request post нод и он отправляется но асистент не может вносить изменения в тело запроса( Заранее спасибо)
Все ссылки здесь: t.me/AiExp01/61
Большое спасибо за информацию!
Огромное спасибо! Наконец то нашел достойный канал без воды всякой! Огромный респект за проделанную работу!
Низкий Вам поклон за решение! Хочу отметить, что у Вас отличные данные в области риторики. 5+
Только сегодня писал в другом видео что нужно такие материалы для развития локальных моделей, и вот нашёл 😅
Стоит попробувать потестить
Здравствуйте, подскажите пожалуйста, как на основе Flowise реализовать логику если гпт не может ответить на вопрос то создавать пост запрос в теле которого будет этот вопрос.
Я сделал через request post нод и он отправляется но асистент не может вносить изменения в тело запроса(
Заранее спасибо)
А есть возможность запустить эмбединги тоже локально?
Да конечно, вот спискок моделей t.me/AiExp02/1626
Какой нужен комп чтобы развернуть эту модель?
см. по памяти инфу под табличкой github.com/jmorganca/ollama#model-library ну и GPU как можно больше, исходя из возможностей, но не менее 12 Gb