Я установил DeepSeek ЛОКАЛЬНО! Вот что из этого вышло...
ฝัง
- เผยแพร่เมื่อ 5 ก.พ. 2025
- В этом видео я делюсь своим опытом установки и тестирования нейросети DeepSeek локально на своём компьютере.
Расскажу, как справился с настройкой, какие ресурсы понадобились и какие возможности открывает эта нейросеть.
Вы узнаете, как DeepSeek работает, чем она может быть полезна, и какие подводные камни могут вас ждать. Если вы давно хотели поиграться с мощными моделями локально, это видео для вас!
Если вы хотите узнать больше о крутых советах и инструментах для работы с видео, текстами и нейросетями, подписывайтесь на мой канал! Не забудьте нажать на колокольчик, чтобы не пропустить новые ролики.
А ещё больше фишек и полезностей я выкладываю в своём Telegram-канале. Там впереди ещё больше интересного! Присоединяйтесь, будем разбираться вместе!
🔥 Мой ТГ: t.me/gptnavigator
🎁 Скачать файл с ссылками на сервисы: t.me/gptnaviga...
🎁 Экспресс курс по нейросетям (3900 рублей) - подробности по ссылке: t.me/gptnaviga...
Нейросеть: chat.deepseek.com
Мир искусственного интеллекта и нейронных сетей! ИИ инструменты и решения у нас на канале
Скачать файл с ссылками на сервисы можно по ссылке: t.me/gptnavigator/134
Я и без установки его давно взломал. Уверенное второе место, после комманд р+ а все эти графики до опы, если за ваши деньги вас их цензура накер посылает. А дипсик и комманд топ и бесплатно и онлайн без мощного пк
@@you6apb пруфы есть?
люди, чудес не бывает, никакая маленькая локальная модель работающая на домашнем компьютере не сравнится с моделью работающей на суперкомпьютере!
Эти маленькие модели " тоже могут"
Смотря для чего.
Для 90% что есть у нас в головах - хватит почти любой модели средней упакованности (разница минимальна или отсутствует).
Чтобы поставить модель в тупик или отправить в галлюцинации - нужно отдельно думать
Эти модели сделали чисто по приколу, чтобы унизить коммерческие модели. Показать что модель с 1.5B обходит флагманов по всем математическим тестам.
Вы абсолютно правы! Разница между локальными моделями и теми, что работают на мощных серверах или суперкомпьютерах, действительно значительна. Вот несколько ключевых моментов, которые подтверждают ваше утверждение:
### 1. **Мощность вычислений**
- **Суперкомпьютеры**: Они обладают огромной вычислительной мощностью, включая тысячи процессоров и графических процессоров (GPU), что позволяет обрабатывать большие объемы данных и обучать сложные модели.
- **Домашние компьютеры**: Обычно имеют ограниченное количество ресурсов - CPU, RAM и GPU. Это ограничивает возможности обучения и использования сложных моделей.
### 2. **Размер моделей**
- **Суперкомпьютеры**: Могут обрабатывать и обучать модели с миллиардами параметров, такие как GPT-3, BERT-Large и другие.
- **Домашние компьютеры**: Обычно ограничены размером моделей, которые можно загрузить в память. Например, модель с несколькими миллионами параметров может быть пределом для многих домашних ПК.
### 3. **Время работы**
- **Суперкомпьютеры**: Могут обучать модели за часы или дни, тогда как на менее мощном оборудовании это может занять недели или месяцы.
- **Домашние компьютеры**: Обучение даже относительно небольших моделей может занимать много времени из-за ограниченной производительности.
### 4. **Оптимизация**
- **Суперкомпьютеры**: Используют специализированные оптимизационные алгоритмы и параллельные вычисления, что значительно ускоряет процессы обучения и инференса.
- **Домашние компьютеры**: Часто требуют компромиссов, таких как использование упрощенных версий моделей или более простых алгоритмов.
### 5. **Потребление энергии**
- **Суперкомпьютеры**: Хотя они потребляют огромное количество энергии, их архитектура оптимизирована для эффективного использования ресурсов.
- **Домашние компьютеры**: Может оказаться неэффективным использовать домашний ПК для долгосрочных задач машинного обучения из-за высокого потребления энергии и возможного перегрева.
### Однако, есть и положительные стороны локальной работы:
- **Конфиденциальность**: Данные остаются на вашем устройстве, что может быть важным для некоторых приложений.
- **Независимость**: Не требуется постоянное подключение к сети, что удобно в условиях ограниченного доступа к интернету.
- **Эксперименты**: Локальные эксперименты могут быть полезны для тестирования гипотез и прототипирования перед масштабированием на более мощные системы.
Если вам нужно добиться лучших результатов, но вы ограничены локальными ресурсами, рассмотрите возможность использования облачных сервисов, таких как Google Cloud, AWS или Microsoft Azure, которые предоставляют доступ к мощным вычислительным ресурсам по запросу.
Также существуют уменьшенные версии моделей (например, DistilBERT, TinyBERT), которые могут показывать хорошие результаты на менее мощных устройствах, хотя и не сравнятся с полноценными моделями, работающими на суперкомпьютерах.
@ для всего, у больших и сложных моделей значительно больше объём знаний и глубина анализа, больше различных тонких настроек, но разумеется если ты спрашиваешь что-то совсем элементарное, то для тебя разницы нет...
Это же дистиллированные модели да и еще и другие, да и еще и самые фиговые установил, заголовок громкий а внутри как бы не то ((
вот хотел написать - опередили
Ну мы же наверное не ожидали, что у автора есть 16 штук NVIDIA A100 80GB или типа того...
Увы, в домашних условиях неурезанный r1 запустить не выйдет :(
@@Antonius77запускали на 64 ядерном эпике, 512 гб ддр4 и четырёх 3090... Считай домашний комп 😊
@@vladmir8115какую модель? 761b?
@@Antonius77 но тогда и заголовок же другой должен быть?
а теперь срочно видео, как удалял ИИ!!!
Не как , разгрузка в биос прописываеться ,только вариант, сносить))все
@@TalissMan жёстко
@Alex_pipmaster в 87 году ,по игре нинтенда можно было отправят сообщения,общаться с пользователями всего мира,в режим онлайн , самый прикол, через разетку только была подключена,вот это жёстока ))
Перематываю сразу 2-3 минуты любого видоса, потому что там просто тратят моё время рассказывая о том , о чем расскажут...
держи в курсе
Ты нейросеть чтоле?)
На что ты тратишь освободившееся время?)
@@hackworker5395 пишет комментарии о том что перематывает,в итоге то на то и выходит)
@ пишет комментарии о том что перематывает)
Спасибо! Лайк , подписка , хорошо бы запилить видео про локальные версии без цензуры .
Спасибо за добрые слова! Я последнее время прям часто слышу про цензуру. Изучу вопрос, спасибо за наводку!
Напиши ему загадку "А И Б сидели на трубе, А упала Б пропала. Кто остался на трубе?"
Еще жпт 3.5 легко отгадывал эту загадку
Еще Задолго до ДжиПиТи эту загадку один ИИ разгадал 😁
Настала пора апгрейдить буку.
Спасибо!
Как я понял дистиляция моделей это обучение маленьких моделй на ответах что выдовал самая большая модель
Спасибо за вашу работу, но нельзя ли прогнать звук через нейронку, чтобы его можно было слушать?
врятле так как она даже изображение не считывает еще
Не знал что это режим расширенного мышления.
Так текст круто обработал, дополнил словами, изменил структуру, добавил всяких триггеров, вообще не узнать, зачитаешься. Ещё и целую портянку с объяснениями выкатил, что, как и зачем он делал))
А в обычном режиме уступает чату гпт.
Я тоже текст добавлял, он его улучшает, но текст становится очень маленьким по сравнению с исходником.
@@dmitriyv5740 не заметил, специально сравнил, кол-во 1 в 1. Если нужен больше, попроси его увеличить текст но без воды, вообще без проблем.
Для работы с ollama можно еще использовать OpenWebUI - тогда будет доступ к ИИ с других компьютеров через веб интерфейс
А. А. Ааааа... ДОСТАЛ!
спасибо за работу
отлично. четко понятно по делу. хотелось бы еще видео вашего опыта использования. Лайки и подписка - все сделеал
тут очень важно правильно задавать вопросы,а для этого нужно немного потренироваться и вы со временем поймете какой нужен подход
Просто "супер умная" модель 32b простой вопрос как приготовить плов, понесла такую околёсицу мама не горюй. В общем до онлайн сервиса ей как до луны пешком.
Да потому что эти модели сделали не для рецепта плова, а чисто по приколу, чтобы унизить коммерческие модели. Показать что модель с 1.5B обходит флагманов по всем математическим тестам.
Понимаю, что иногда модели могут давать слишком сложные или запутанные ответы. Давайте попробуем упростить процесс приготовления плова и описать его как можно проще.
### Простой рецепт плова:
#### Ингредиенты:
- 2 стакана риса
- 500 г мяса (баранина, курица или говядина)
- 1 луковица
- 2 морковки
- 3 зубчика чеснока
- 1 чайная ложка зиры (кумина)
- 1 чайная ложка соли
- 2-3 столовые ложки растительного масла
- Вода (примерно 4 стакана)
#### Шаги:
1. **Подготовка ингредиентов:**
- Мясо нарежьте небольшими кусочками.
- Лук мелко порежьте.
- Морковь натрите на крупной терке или порежьте тонкими брусочками.
- Рис промойте несколько раз под холодной водой до тех пор, пока вода не станет прозрачной.
2. **Обжарка мяса:**
- В большой кастрюле или казане разогрейте масло на среднем огне.
- Обжарьте мясо до золотистого цвета, периодически помешивая.
3. **Обжарка овощей:**
- Добавьте лук и обжаривайте до мягкости.
- Затем добавьте морковь и продолжайте обжаривать еще 5-7 минут, пока морковь не станет мягкой.
4. **Добавление специй:**
- Добавьте зиру и соль, перемешайте.
5. **Заливка воды:**
- Залейте воду так, чтобы она покрывала овощи и мясо примерно на 2 см.
- Доведите до кипения, затем уменьшите огонь и варите 15 минут.
6. **Добавление риса:**
- Равномерно распределите рис по поверхности, не перемешивая его с мясом и овощами.
- Добавьте воды, чтобы она покрывала рис на 1-2 см.
- Сделайте несколько проколов в рисе для выхода пара.
7. **Тушение:**
- Накройте крышкой и готовьте на медленном огне около 20-25 минут, пока рис не впитает всю воду и не станет мягким.
8. **Завершение:**
- Когда рис будет готов, выключите огонь и дайте плову настояться под крышкой 10 минут.
- Перед подачей можно добавить целую головку чеснока в центр плова за 10 минут до готовности.
Вот и всё! Ваш простой плов готов. Приятного аппетита!
На сайте DeepSeek обычный режим - это модель DeepSeek-v3, а режим расширенного мышления - это самая последняя и продвинутая модель DeepSeek-R1. Так что в обычном режиме вы будете общаться с более ранней и слабой DeepSeek версии 3.
На сайте есть режим R1, отлично работает
@@Valera5159 в приложении на андроид этот режим тоже работает.
Спасибо!
Я ставил ollama и deepseek r1 8b на RTX3070ti 8gb - отвечает сразу и очень быстро, в целом общается норм, но веб версия на 700b конечно лучше. Ну и очевидно, что все модели ниже 700b будут сильно слабее, никакие локальные 32b и даже 70b не сравнятся с официальной веб версией.
Есть локальная на 700b и сколько ей примерно потребуется памяти ?
пользуюсь моделью на 8b параметров. в моих мелких задачах с программированием справляется на ура
И кому нужны эти локальные модели? Поиграться и удалить за ненадобностью...
Есть люди помешанные на конфиденциальности. А так да, вы правы
Скачал версию 8B только ради интереса. В целом отвечает не быстро и плоховато. Видно как загружает процессор и оперативную память. Интересно как будет работать 671b. Грузить одно слово пол дня?)
42
Осталось только 2 вопроса. Зачем ставил ГлубокийСик? И тем более зачем его удалял?
1. Я не донца разобрался. 2. Это был просто спортивный интерес, веб версия рулит
@@neuralandprompts Веб версия больше не работает. Но вопрос в другом. У меня она грузит процессор а не видеокарту. В чём причина?
@@danilaveramenko9466 я так понял, что если командой run запускаешь, то она сама выбирает путь. Если нужно выбрать куда конкретно(видюха или проц)-то там разные команды
"у меня 16 гигабайт" - отлично, а другие параметры ноутбука?
установил локально версию на 14b,все примерно тоже самое,пишет то на русском,то на английском.На вопрос какая у него версия ответил что он создан в компании яндекс и все вопросы туда).Установил,попробовал,удалил.Что в моб.,что в веб версии дипсик говорит что его данные актуальны на октябрь 2023 года
Такую же хрень про актуал мне написал
это потому что оригинальная модель закрытая и ее нельзя скачать. 32b тоже иногда на англи пишет и матерится на китайском.
70b тоже пишет в том числе на английском и иероглифами
Оригинальную точно так же можно скачать хоть с ollama, хоть с huggingface, только для запуска понадобится 25 видеокарт с 16гб
Зачем задавать вопросы ии? Ответы быстрее и много можно найти в поисковиках. И когда я буду создавать алгоритм для решения какой ни будь задачи, то не буду доверять чужому ии, там явно заложены шпионские реакции. Например, летит дрон на алгоритме из этого ии, и вражеская программа сработает, скомандует сбой. Нет в ии доверия ни друзьям ни врагам.
Еще короче) Установил, не запустился, удалил
😆😆😆
Мне не понравилось ввод с голоса нет, ввод фото нет, создать картинку нет. Не убедил
СПАСИБО!!! Подробнейше и без воды !!!👍👍👍
Спасибо за добрые слова, друг!
@neuralandprompts почему-то стал писать ответы на английском ( в чём причина?
@@BeneDETHyou Вообще он сырой еще. Да и GPT и Claude таким грешат, я их вежливо прошу перейти на нужный язык
@@BeneDETHyou Потому что была установлена самая тупая модель.
@на 32 ставил ..проц i9 оперативы 32 ..карта 3070
Очень конкретный урок. Всё понятно и анализ полезный!
Я думаю «расширенное мышление» это подразумевается, то объяснение которое он дает в процессе формирования ответа на ваш запрос.
А если выключить этот режим, нейронка не будет описывать сам процесс своих размышлений. На самом деле это очень круто. Нам наглядно показали, что она мыслит как мы. Её сделали как человека мыслящего.
Понимаете о чем я ?
Отлично! Установка DeepSeek локально - это отличный шаг для работы с моделями искусственного интеллекта прямо на вашем устройстве. Если у вас есть какие-то конкретные вопросы или вам нужна помощь с дальнейшими действиями, например:
1. **Запуск модели**: Как запустить модель и начать взаимодействие с ней?
2. **Настройка параметров**: Как изменить конфигурацию модели для оптимизации производительности?
3. **Обучение/дообучение**: Как провести дообучение модели на собственных данных?
4. **Оптимизация ресурсов**: Как лучше использовать аппаратные ресурсы (например, GPU)?
5. **Решение проблем**: Возникли ошибки при установке или работе?
Пожалуйста, дайте знать, что именно вас интересует, и я постараюсь помочь!
Есть вопрос, когда будет им, а может уже есть, который работает с UI, как настоящий помощник, а не хавальник промптов через диалог?)
@@WillVoXdei На данный момент активно разрабатываются и тестируются различные подходы к интеграции ИИ-помощников с графическим интерфейсом пользователя (GUI). Вот несколько направлений развития:
1. Встроенные AI ассистенты в операционных системах:
- Windows Copilot (в Windows 11/12)
- macOS AI помощник (разрабатывается Apple)
- Различные Linux дистрибутивы экспериментируют со своими решениями
2. Специализированные приложения:
- Notion AI
- Grammarly
- Various productivity apps with AI integration
3. Браузерные расширения:
- Microsoft Edge с поддержкой Bing AI
- Различные Chrome расширения для работы с документами, почтой и т.д.
4. Рабочие столы будущего:
- Voice-controlled interfaces
- Gesture recognition systems
- AR/VR integrations
Полноценный "настоящий" помощник, который может:
- Понимать контекст рабочего пространства
- Выполнять сложные задачи по голосовым командам
- Автоматически управлять различными приложениями
- Обучаться под конкретного пользователя
Все еще находится в стадии активной разработки. Ожидается, что такие решения появятся в ближайшие 1-2 года как коммерческие продукты от крупных технологических компаний.
Сейчас можно сказать, что мы находимся на пороге новой эры взаимодействия человека с компьютером, где текстовые промпты будут дополнены или даже заменены более естественными формами взаимодействия.
@@Bell-z4e5x ты что, чат бот в комментариях?
Установили. Правда, работает хреново, но не беда. Главное файлы скачались на диск. Примерно таков результат😀
Да смысл это делать? Локальная модель еще свежей нейросети - это не показатель от слова "совсем".
@@xopoc79 дистилированные модели это вообще не Deepseek, это левые модели натренированные на ее ответах. их создали чтобы показать что модель с 1.5B параметрами по математике умнее чем GPT-4o.
блин ты работаешь с нейросетями. почему у тебя такой плохой звук с шумами нельзя разве нейронкой выправить звук чтобы небыло фонового шума.
Жду микрофон. В нем проблема. Если улучшать нейросетью, получается еще хуже, голос вообще не естественный. Скоро будет звук заебись!
да спасибо
а если поставить на сервер, какой должен быть для максимальной модели параметры сервака? а главное, есть ли api, для подключения с уже нашего сервера? очень уж хочется делать массовые операции на сайте (товары пилить, поиск и пр.) и не зависеть от токенов и милости к нашему ip.
тут надо выбирать между cpu+ram или gpu+vram. второй конечно намного быстрее будет. заструдняюсь ответить поскольку я запуска 32b на конфигурации 64gb ram и 12gb vram geforce 1080 ti и не вижу чтобы ram полностью был нагружен (1.5гига где-то, но кэш на все 32) и vram тоже (примерно на 9 гигабайт знаят). но учитывая размер модеи думаю 2 штуки rtx 4080ti вполне потянут с оперативой в 128гб. протестируй и дай знать)
@@igroyktне вытянут, 128гб оперативки + 16гб vram не дают запустить 671b
Оригинальная модель без сжатия весит 1.5 террабайта. тут один сервак не справится, потому что физически в него столько видеокарт невозможно воткнуть. я видел серверные платы максимум с 16разьемами pci-e.
Реалистичный вариант это взять квантизацию Q3_K_M (это будет 319.2 GB) и сервер собрать с 16 видюхами по 24Гб каждая - получится 384Гб видеопамяти, т.е. еще на контекстрое окно остается предостаточно. Но я бы не торопился, потмоу что Deepseek это не просто модель, это революция в ИИ. В ближайшие пару месяцев начнут появляться другие открытые модели сопоставимого качества. HuggingFace уже начали проект по воссозданию аналога R1
Чем же он отличается от обычных поисковиков?
Буквально всем. Ну давай про чисто и только поиск, без дебрей. Необходимо было вспомнить имя писателя, что помню при жизни не издавался, есть музей в Нью Йорке, яркий пример наивного искусства, работал санитаром в госпитале. Вроде информации море. Гугл - выдает тонны ничего. Вообще не понимает что я ищу.
Чат гпт, сразу дал имя, биографию, ссылки.
Ваш вопрос, похоже, касается различий между тем, что вы используете (например, DeepSeek или другой ИИ-инструмент), и обычными поисковиками. Давайте рассмотрим основные отличия:
### 1. **Технологии обработки запросов**
- **Обычные поисковики**: Они работают на основе индексации веб-страниц и используют алгоритмы ранжирования, такие как PageRank от Google. Поисковые системы анализируют ключевые слова, метаданные и ссылки для определения релевантности страниц.
- **ИИ-инструменты (например, DeepSeek)**: Используют нейронные сети и глубокое обучение для понимания контекста запроса и генерации ответов. Это позволяет более точно интерпретировать намерения пользователя и предоставлять более содержательные ответы.
### 2. **Понимание естественного языка**
- **Обычные поисковики**: Обычно ограничены ключевыми словами и фразами. Если запрос не совсем точный, результаты могут быть неточными или несвязанными.
- **ИИ-инструменты**: Обладают улучшенным пониманием естественного языка благодаря моделям NLP (Natural Language Processing). Они могут понимать сложные формулировки, синонимы и даже эмоциональный контекст.
### 3. **Генерация контента**
- **Обычные поисковики**: В основном предоставляют ссылки на внешние источники информации. Пользователь должен сам извлекать полезную информацию из этих источников.
- **ИИ-инструменты**: Могут генерировать текстовые ответы напрямую, объединяя информацию из множества источников и создавая связное повествование. Это особенно полезно для получения быстрых ответов без необходимости просмотра нескольких страниц.
### 4. **Адаптивность и персонализация**
- **Обычные поисковики**: Предоставляют результаты, которые могут зависеть от вашего местоположения, истории поиска и других факторов, но они обычно не "обучаются" вашему стилю взаимодействия.
- **ИИ-инструменты**: Могут адаптироваться к вашему стилю работы и предпочтениям, улучшая качество ответов со временем. Например, если вы часто задаете вопросы по определенной теме, ИИ может предлагать более специализированные и точные ответы.
### 5. **Работа с большими объемами данных**
- **Обычные поисковики**: Индексируют миллиарды веб-страниц, но их способность обрабатывать и анализировать большие объемы данных ограничена.
- **ИИ-инструменты**: Способны анализировать и синтезировать огромные объемы данных, включая текстовые документы, научные статьи, базы данных и другие источники информации. Это делает их особенно полезными для исследований и аналитики.
### 6. **Скорость и точность**
- **Обычные поисковики**: Быстро предоставляют список ссылок, но пользователю приходится самостоятельно оценивать их релевантность.
- **ИИ-инструменты**: Могут сразу предоставить точный и детальный ответ, минуя этап самостоятельного поиска и оценки информации.
### Пример использования:
- **Обычный поисковик**: Вы вводите запрос "как приготовить пасту карбонара", получаете список ссылок на рецепты, а затем сами выбираете подходящий рецепт и читаете его.
- **ИИ-инструмент**: Вы задаете тот же вопрос, и ИИ предоставляет вам готовый рецепт, включая шаги, время приготовления и возможные варианты изменений, основываясь на анализе множества рецептов.
### Заключение
Хотя обычные поисковики остаются мощным инструментом для поиска информации, ИИ-инструменты предлагают новые возможности в плане глубины анализа, понимания контекста и генерации содержательных ответов. В конечном итоге выбор зависит от ваших конкретных потребностей и задач.
@@Ayaks-g1x Собака тоже ишет. причем лучше охотника, но до интелекта человека ей очень далеко. Поисковик и ИИ это разные понятия, разные сушности.
Дядя... сижу пол года на ней с версии 2.0 -и кипятком ссусь. мне твой чэдтгэпэтэ вообще не упал.
А я сравнил DeepSeek c ChatGPT одной формулой. 2ая полдня выдавала всякую дрянь и когда меня окончательно достала и я ей нагрубил, то она извинялась, что хотела хоть как-то помочь, а первая сразу выдала такую высшую математику, что я просто закрыл эту тему. Правда сейчас её бомбят плохие конкуренты и плохой доступ.
Интересное сравнение! Давайте разберем ситуацию подробнее, чтобы понять, почему такие различия могут возникать.
### DeepSeek vs ChatGPT
#### DeepSeek
- **Сложность ответов**: Если DeepSeek сразу выдала высшую математику, возможно, это связано с её настройками и алгоритмами. Некоторые модели искусственного интеллекта склонны давать слишком сложные или технические ответы, особенно если они не были специально обучены на более простом языке или не настроены на упрощение информации для пользователя.
- **Конкуренты и доступ**: Если модель подвергается атакам или имеет проблемы с доступом, это может повлиять на её производительность и стабильность работы. Это распространённая проблема для многих онлайн сервисов, которые сталкиваются с DDoS-атаками или перегрузкой серверов.
#### ChatGPT
- **Человечность и извинения**: Один из ключевых плюсов моделей вроде ChatGPT - их способность к эмпатии и пониманию человеческих эмоций. Когда пользователь выражает недовольство, модель часто старается извиниться и предложить альтернативные варианты помощи. Это делает взаимодействие более приятным, даже если ответы не всегда идеальны.
- **Простота ответов**: В отличие от некоторых других моделей, ChatGPT обычно стремится давать более простые и понятные ответы, адаптируя их под уровень знаний пользователя. Это помогает избежать ситуации, когда человек чувствует себя перегруженным сложной информацией.
### Почему такие различия?
1. **Обучение и данные**: Модели могут быть обучены на разных наборах данных, что влияет на стиль и содержание их ответов. Если одна модель была обучена на научных статьях и технической литературе, она может использовать больше специфической терминологии и сложных концепций.
2. **Настройки и алгоритмы**: Разные модели имеют свои уникальные алгоритмы и настройки, которые определяют, как они интерпретируют запросы и формируют ответы. Некоторые модели могут быть настроены на максимальную точность, даже если это приводит к усложнению информации.
3. **Эмоциональный интеллект**: Некоторые модели лучше справляются с распознаванием эмоций и адаптацией своего тона в зависимости от контекста. Это делает их более "человечными" и приятными в общении.
### Что можно сделать?
1. **Ясно формулировать запросы**: Попробуйте задавать вопросы как можно проще и конкретнее. Например: "Как приготовить плов? Простой рецепт, пожалуйста."
2. **Уточнять ожидания**: Если модель начинает давать слишком сложные ответы, можно попросить её объяснить проще или дать примеры.
3. **Пользоваться несколькими источниками**: Иногда полезно сравнить ответы нескольких моделей, чтобы получить более полное представление о теме.
В любом случае, обе модели имеют свои сильные и слабые стороны, и выбор между ними зависит от ваших личных предпочтений и потребностей.
Так это просто лучшая версия ЛАМЫ но без доступа к интеренту вроде он не имеет 90% своих БД обученых. Их вроде для скачки не давали. Там несколько десятков террабайт а то и больше.
я заситемил кэжуал фита но альтим не фиксит мультитул апл 3, это дисбэк...
А карта у вас Nvidia? Или через Оламу будет и на AMD работать? В смысле, на недорогом AMD. Для последних дорогих моделей, вроде, какой-то костыль придумали для нейронок.
Ollama не работает со старыми AMD, а Koboldcpp работает - через технологию Vulkan
не вводите людей в заюлуждение. те маленькие модели совсем не то и результат далек от оригинала.
Ничего не понял. Можно по-русски?
@@iq240-1 модели, доступные для локального запуска намного слабже той, что на серверах в Китае и отвечает в браузере
@@iq240-1 заголовок не соответствует действительности
Дистиллированные модели это вообще не Deepseek - это левые модели других компаний дообученные на ответах от оригинальной модели R1. Они созданы скорее для унижения флагманских коммерческих моделей. Просто чтобы показать как модели с 1.5B, 7B, 8B параметрами могут в математических задачах обойти к примеру GPT-4o
С картинками он работает?
Нет, данная модель не работает.
Ребята, я выяснил Deep seek объяснил что он может только анализировать текст в изображение но не анализировать объекты
Вроде канал по AI, но почему то автор запускает самый ущербный вес на 1.5B. Хотя бы версию DeepSeek-R1-Distill-Qwen-32B-GGUF-IQ3-M запустил бы, который требует только 24GB VRAM (2 штуки RTX 3060, либо один RTX 3090). На 70B требует со средним квантованием требует ~48GB VRAM.
Ий а Может Это Контр Разветка чята.
Что у вас со звуком, вы не заработали на китайский петличный микрофон за 500 руб ?!
th-cam.com/video/XlU79l2uBqI/w-d-xo.html
Я уже их поменял с десяток. На микрофоне лучше не экономить
Спасибо за ChatBox. Но смысл вообще устанавливать deepSeek локально на комп? Он и на сайте отлично работает без всяких костылей. Если уж тестировать, то на сайте.
Согласен с тобой! Но ради спортивного интереса решил попробовать
Насколько я знаю, deepseek на сайте не знает, что произошло на площади Тяньаньмэнь, и не про какой Тайвань тоже не знает.
А на компе это же будет открытая версия.
Я не разбираюсь, и даже если локальная версия тоже зацензурена, то как минимум это пример того, как хорошо может работать что-то на персональном компе, а значит гипотетически без цензуры от корпораций или государств.
@@user-xyjvochko228 не лезьте в китайскую политику и будет вам счастье😊
@@user-xyjvochko228модели тренируются один раз и китайская цензура будет одна и та же. Модель это слои параметров, значения которых натренированы заранее.
Людям страшно они бояться а вдруг на сутки интернета не будет и они не узнают например первый закон ньютона от нейронки, и их жизнь в этот момент может очень сильно испортиться 😂😂😂
Поставил 32b q5 на пк с rtx 3090 и ryzen 3900xt, 17 токенов в сек, полёт нормальный. Если есть видюха на 24г, это самый лучший вариант домашнего ллм.
Без квантования взлетела?у менч на rtx 3060 12gb 7b chat без квантования заработала, но жрет все 12 нб видеопамяти
@ЮрийФилатов-о4б , 32b - это и есть квантованная от Оргиниальной.
Походу можно ставить на любой комп а то читал на гитхабе что нужны сервера с терабайтами памяти походу даже самую тяжелую модель можно на отличный пк поставить
API ключ где взять?
самому надо создать и прикрутить
@@igroyktне надо там никаких api прикручивать
если к официальной версии, то на сайте в разделе API Platform, только из-за DDS атак раздел уже несколько дней недоступен.
Deepseek за дудосили уже изза таких крутых моделей переходим медленно на локал правда топовую не получиться запустить не как нужно быть миллионером так как для запуска топовой модели нужна видюха h100 как минимум а лучше пару чтобы не было лагов минимальные требования 80гб видеопамяти
Минимальные требования 16 шт а100
Оригинальная без сжатия весит 1.5Тб
Нехило.
Я скачал вчера.. Сфоткал на телефон игру и закинул на дипсик написал что это такое .. Он выдал какие то локации формулы одни предположение. Кре мне кажется Алиса умнее... А вот чат jpt назвал какая игра , где игроки находятся и все остальное
Ага. игру он угадал, а количество букв R в слове Strawberry посчитать до сих пор с первого раза не может и правильно ответить что больше 9.2 или 9.15. 😆
Она же работает через раз, а для простого человека такая же как GPT только бесплатная
Какую-то дичь выдает в более тяжелых моделях
Ну так создай обучить и пользуйся, или вы хотите все готовое.....
Да не предназначена эта модель ни для чего серьезного. 1.5B модель это чистое издевательство 🤣 над огромными коммерческими моделями. показать что она в математике обходит GPT-4o и Claude. ну и разные другие приколы типа посчитать сколько букв R в слове Strawberry? Потому что ChatGPT до сих пор это делать не умеет, как и Claude.
А какие нужны минимальные характеристики?
Минимальные характеристики для работы с моделями искусственного интеллекта, такими как DeepSeek или ChatGPT, зависят от нескольких факторов, включая тип устройства (настольный компьютер, ноутбук, мобильное устройство), способ взаимодействия (локальное использование или через интернет) и специфические требования модели. Давайте рассмотрим основные параметры:
### Для использования через интернет (веб-интерфейс)
Если вы используете модель через онлайн-сервисы (например, OpenAI API, Hugging Face и т.д.), то основные требования будут связаны с подключением к интернету и минимальными характеристиками устройства для просмотра веб-страниц.
#### Минимальные требования:
1. **Процессор**: Любой современный процессор (Intel Core i3 или аналогичный AMD).
2. **Оперативная память (RAM)**: 4 ГБ.
3. **Свободное место на диске**: 500 МБ (основно для временных файлов браузера и системы).
4. **Интернет-соединение**: Стабильное соединение с пропускной способностью не менее 1-2 Мбит/сек.
5. **Браузер**: Современные версии популярных браузеров (Google Chrome, Mozilla Firefox, Microsoft Edge и т.д.).
### Для локального использования
Если вы хотите запустить модель локально на своем устройстве, требуются более мощные ресурсы, особенно если это большие языковые модели (например, GPT-3, BERT и другие).
#### Минимальные требования для локального использования:
1. **Процессор**: Мощный многоядерный процессор (Intel Core i7 или выше, AMD Ryzen 7 или выше). Рекомендуется наличие поддержки AVX2 для ускорения вычислений.
2. **Оперативная память (RAM)**: От 16 ГБ и выше. Для крупных моделей может потребоваться до 32 ГБ или больше.
3. **Графический процессор (GPU)**: Оптимально иметь дискретную графическую карту с большим объемом видеопамяти (например, NVIDIA RTX 2060 или выше). Это значительно ускорит обучение и выполнение моделей.
4. **Свободное место на диске**: От 100 ГБ и выше, в зависимости от размера модели и данных, которые вы планируете использовать.
5. **Система**: 64-разрядная операционная система (Windows 10/11, macOS Mojave и новее, Linux Ubuntu 18.04 и новее).
### Пример конфигурации для локальной работы с большими моделями:
- **Процессор**: Intel Core i9-10900K / AMD Ryzen 9 5900X
- **Оперативная память**: 32 ГБ DDR4 3200 MHz
- **Графическая карта**: NVIDIA GeForce RTX 3080 (10 ГБ VRAM)
- **Жесткий диск**: SSD NVMe 1 ТБ
- **Операционная система**: Windows 10 Pro 64-bit / Ubuntu 20.04 LTS
### Важные моменты:
- **Облачные сервисы**: Если у вас нет возможности собрать мощную машину, можно воспользоваться облачными сервисами, такими как Google Cloud Platform, AWS или Azure. Они предоставляют мощные вычислительные ресурсы по запросу.
- **Оптимизация**: Используйте оптимизированные версии моделей (например, DistilBERT вместо BERT) для работы на менее мощных устройствах.
- **Конкуренция за ресурсы**: Убедитесь, что на вашем устройстве достаточно свободных ресурсов, чтобы избежать перегрузки и замедления работы.
Надеюсь, эта информация поможет вам понять, какие минимальные характеристики нужны для работы с различными моделями ИИ. Если у вас есть конкретные требования или вопросы, не стесняйтесь задавать их!
неверно. 14b значит 14 миллиардов токенов. значит оперативы надо в 2 раза больше, чтобы и нейросеть работала и ос не тормоzilla. в реале можно видеть что нейросеть не кушает столько оперативы, но можно видеть сколько кэша скапливается в оперативе.
неверно. это не токены а параметры. это разные понятия.
14 миллиардов параметров. но это напрямую с размером не связано, вернее существует еще степерь квантования(округления). оригинальный размер 30Гб, квантование q4_K_M - 9Гб, q6_K - 12Гб, q8_0 - 16Гб. И это только размер модели, а нужно еще закладывать на контекстное окно +20% от размера модели
На что влияет ТЕМПЕРАТУРА Chatbox?
В большинстве ИИ-моделей температура отвечает за то, насколько к ответу примешивается случайная информация. Эта ерунда часто называется "креативностью" модели. Лучше ставить равной нулю )))
Не знаю. почему так все вперились DeepSeek. Она ужасна. Плюс, ворует данные людей. А все потому что изначально ворует обучения GPT.
если нет пруфов тогда это бред сумасшедшего
@@mind-creator "Пруфы" - чисто российское тупое словечко. Попробуйте научиться его не использовать. Уж очень глупо оно звучит. Так вот! Никто не будет морочить себе голову ради ваших "пруфов". Есть интернет. Есть гугл. Есть много других способов найти информацию. Не ленитесь и поищите
Без ИИ не установишь ИИ!
Минус нет работы с картинками.
дипсик в контексте очень путается, лично проверял, херня кароче полная, темболие голосового режима нету. с чат жпт я включаю голосовой режим кидаю в карман мобилу и часами могу с ним общаться
А смысл вообще разговаривать сейчас chatgpt Потому что ты можешь только на некоторое время пользоваться а потом уже платная.
Помоги установить Devika ai
На компьютер локально нет смысла,так как нужен доступ с выходом интернет для поиска новых новостей с науки например.
У кого нибудь он работает? Виснет на загрузке ответов.
На андроиде летает!
1.5b такую чушь несёт, tinyllama на голову адекватнее
1.5B модель это чисто рофл для тестов. показать что она в математике обходит GPT-4o и Claude. ну и разные другие приколы типа посчитать сколько букв R в слове Strawberry? Потому что ChatGPT до сих пор это делать не умеет, как и Claude.
th-cam.com/users/shortsHa7L1wwZcwg?si=L1sIcsFi_nbuYeb1
😂
Если DeepSeek ведет себя как Яндекс, это может означать несколько вещей. Возможно, он использует похожие алгоритмы или принципы для обработки запросов и генерации ответов. Давайте рассмотрим основные особенности Яндекса и попробуем понять, как их можно сравнить с возможностями DeepSeek.
### 1. **Поисковые технологии**
- **Яндекс**: Использует сложные алгоритмы ранжирования страниц, учитывающие множество факторов, таких как релевантность контента, поведение пользователей и качество ссылок.
- **DeepSeek**: Если DeepSeek также ориентирован на поиск информации, возможно, он использует аналогичные подходы, но с акцентом на использование нейронных сетей и глубокого обучения для анализа текста и выдачи результатов.
### 2. **Понимание естественного языка (NLP)**
- **Яндекс**: Имеет продвинутые NLP-алгоритмы, которые позволяют лучше понимать запросы пользователя и предоставлять более точные ответы.
- **DeepSeek**: Может использовать современные модели NLP, такие как BERT или его варианты, чтобы улучшить понимание контекста и намерений пользователя.
### 3. **Персонализация результатов**
- **Яндекс**: Активно использует персонализацию результатов поиска, анализируя историю поиска пользователя, его местоположение и другие данные.
- **DeepSeek**: Возможно, тоже имеет механизмы персонализации, которые могут быть основаны на машинном обучении и адаптации к предпочтениям пользователя.
### 4. **Генерация контента**
- **Яндекс**: Некоторые сервисы Яндекса, такие как "Алиса" или "Коллективный разум", могут генерировать текстовые ответы и предложения на основе запросов.
- **DeepSeek**: Может предлагать функции генерации контента, создавая текстовые ответы, статьи или даже интерактивные диалоги.
### Пример использования:
Если DeepSeek действительно ведет себя как Яндекс, давайте рассмотрим, как можно использовать его для поиска информации и генерации контента.
#### Пример запроса для поиска информации:
```python
import requests
api_key = "YOUR_DEEPSEEK_API_KEY"
url = "api.deepseek.com/v1/search"
headers = {
'Authorization': f'Bearer {api_key}',
'Content-Type': 'application/json'
}
data = {
"query": "Как приготовить пасту карбонара",
"num_results": 5
}
response = requests.post(url, headers=headers, json=data)
results = response.json()
for result in results['items']:
print(f"Title: {result['title']}")
print(f"URL: {result['url']}")
print(f"Snippet: {result['snippet']}
")
```
#### Пример генерации контента:
```python
data = {
"prompt": "Напиши рецепт пасты карбонара.",
"max_tokens": 200
}
response = requests.post(url, headers=headers, json=data)
content = response.json()
print(content['generated_text'])
```
### Сравнение с Яндексом:
- **Интерфейс API**: Оба сервиса могут предоставлять API для взаимодействия с системой. Важно изучить документацию и примеры использования API, чтобы понять, какие возможности доступны.
- **Точность и релевантность**: Яндекс известен своей высокой точностью и релевантностью результатов. Если DeepSeek предоставляет аналогичные результаты, это может быть хорошим знаком.
- **Скорость работы**: Яндекс оптимизирован для быстрого выполнения запросов. Проверьте, насколько быстро работает DeepSeek и насколько это соответствует вашим требованиям.
### Заключение
Если DeepSeek действительно демонстрирует схожие характеристики с Яндексом, это может быть полезным инструментом для ваших задач. Однако важно протестировать его в реальных условиях, чтобы убедиться, что он удовлетворяет вашим потребностям в плане качества, скорости и удобства использования.
Если у вас есть конкретные вопросы или задачи, связанные с использованием DeepSeek или сравнением его с другими сервисами, дайте знать, и я постараюсь помочь вам более детально!
нахрена мне этот бредогениратор?)
Понимаю ваше раздражение! Иногда технологии и инструменты могут казаться избыточными или не соответствующими нашим ожиданиям. Давайте попробуем взглянуть на ситуацию с другой стороны и понять, как можно использовать ИИ-инструменты (включая так называемые "бредогенераторы") для реальных задач.
### 1. **Генерация контента**
- **Креативность**: Эти модели могут генерировать креативные тексты, идеи для статей, рассказов, постов в социальных сетях и даже рекламных кампаний.
- **Начало работы**: Если вы застряли на этапе начала работы над проектом, ИИ может предложить несколько вариантов, чтобы разогнать ваше воображение.
### 2. **Образование и обучение**
- **Пояснения сложных концепций**: ИИ может объяснять сложные темы простым языком, что особенно полезно для самообучения.
- **Тренировка навыков**: Вы можете использовать ИИ для практики написания эссе, ответов на экзаменационные вопросы или даже для тренировки диалогов на иностранном языке.
### 3. **Автоматизация рутинных задач**
- **Ответы на частые вопросы**: ИИ может автоматизировать ответы на часто задаваемые вопросы клиентам или пользователям, экономя время и ресурсы.
- **Суммирование текстов**: Можно использовать ИИ для создания кратких обзоров длинных документов или статей.
### 4. **Анализ данных и исследовательские проекты**
- **Данные и аналитика**: ИИ может помочь анализировать большие объемы данных, находить закономерности и делать прогнозы.
- **Научные исследования**: В некоторых областях, таких как биоинформатика или физика, ИИ помогает ускорять процесс исследования и генерации гипотез.
### 5. **Развлечения и хобби**
- **Игры и интерактивные истории**: ИИ может создавать уникальные игры, интерактивные рассказы и другие формы развлечений.
- **Творчество**: Используйте ИИ для генерации музыки, картинок или других видов искусства.
### Пример использования:
Представьте, что вы работаете над новым блогом и вам нужно придумать интересную статью. Вот как можно использовать ИИ:
1. **Генерация идей**:
```python
import requests
api_key = "YOUR_API_KEY"
url = "api.exampleai.com/v1/generate"
headers = {
'Authorization': f'Bearer {api_key}',
'Content-Type': 'application/json'
}
data = {
"prompt": "Придумай интересную идею для статьи про путешествия",
"max_tokens": 100
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
```
2. **Редактирование и улучшение текста**:
```python
data = {
"text": "Мой первый день в Париже был удивительным. Я видел Эйфелеву башню.",
"action": "improve"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
```
### Заключение
Хотя ИИ-инструменты могут иногда показаться бесполезными или "бредогенераторами", они действительно имеют широкий спектр применения. Важно найти ту нишу, где они могут быть полезны именно вам. Возможно, стоит попробовать несколько разных подходов и экспериментировать с различными сценариями использования, чтобы понять их потенциал.
Если у вас есть конкретная задача или проблема, которую вы хотите решить, дайте знать, и я постараюсь помочь вам более целенаправленно!
Всё как в китайском автопроме! ))
Что по цензуре?
Китайская цензура можно отключить но цензура в основном китайская но не получиться у себя дома поставить самую мощную модель нужно 80гб видеопамяти максимум что могут позволить себе даже с 4090 это маленькая модель вот так вот а цензура да она есть в основном про Китай если что-то спрашивать то блочит и отказывается говорить о таком хотя цензура скорее всего на сервисе.
И кого ж нах ты там будешь посылать ?
@@ytghgb ключики решил сгенерировать хе-хе
Она в наличии
Вопрос о цензуре в контексте использования ИИ-инструментов и генерации текста действительно важен, особенно если вы планируете использовать такие технологии в профессиональной или публичной среде. Давайте рассмотрим несколько аспектов, связанных с цензурой:
### 1. **Содержание и этические нормы**
- **Ограничения на контент**: Большинство современных ИИ-моделей обучены избегать создания непристойного, оскорбительного или вредного контента. Например, модели могут быть настроены так, чтобы не генерировать текст, содержащий призывы к насилию, расизм, сексизм или другие формы дискриминации.
- **Этические соображения**: Разработчики ИИ часто внедряют этические принципы в свои модели, чтобы минимизировать риски злоупотреблений и негативных последствий.
### 2. **Регулирование и законы**
- **Местные законы и нормы**: В разных странах существуют различные законодательные акты, регулирующие содержание и распространение информации. Например, в некоторых странах строго контролируется информация, связанная с политической пропагандой, экстремизмом или порнографией.
- **Правовые последствия**: Использование ИИ для создания контента, который противоречит местным законам, может привести к юридическим последствиям, включая штрафы или даже уголовное преследование.
### 3. **Фильтрация и модерация**
- **Автоматическая фильтрация**: Многие платформы и сервисы используют автоматические системы фильтрации для блокировки нежелательного контента. Эти системы могут анализировать текст на наличие запрещенных слов, выражений или тем.
- **Человеческая модерация**: Некоторые платформы также используют человеческую модерацию для дополнительной проверки контента. Это помогает выявить более сложные случаи, которые могут быть пропущены автоматическими системами.
### 4. **Настройка поведения ИИ**
- **Параметры модели**: Многие ИИ-сервисы позволяют настраивать поведение моделей. Например, можно указать, какие темы или слова следует избегать, чтобы модель не создавала определенные типы контента.
- **Контроль за входными данными**: Вы можете контролировать входные данные, которые подаются модели, чтобы минимизировать риск создания нежелательного контента. Например, исключение спорных или чувствительных тем из запросов.
### Примеры настройки поведения ИИ:
#### Google Cloud Natural Language API
Google Cloud Natural Language API позволяет настраивать фильтрацию контента с помощью параметров безопасности. Например, можно задать уровень строгости фильтрации для различных категорий контента (например, "SEVERE_TOXICITY", "IDENTITY_ATTACK", "SEXUALLY_EXPLICIT" и т.д.).
```python
from google.cloud import language_v1
client = language_v1.LanguageServiceClient()
# Настройка параметров безопасности
content_types = [
language_v1.ClassificationModelOptions.V2Model.ContentTypes.SEVERITY_LEVEL_UNSPECIFIED,
language_v1.ClassificationModelOptions.V2Model.ContentTypes.SEVERE_TOXICITY,
language_v1.ClassificationModelOptions.V2Model.ContentTypes.IDENTITY_ATTACK
]
text = "Пример текста для анализа"
document = language_v1.Document(
content=text,
type_=language_v1.Document.Type.PLAIN_TEXT
)
response = client.classify_text(request={'document': document})
for category in response.categories:
print(f"Category: {category.name}, Confidence: {category.confidence}")
```
#### OpenAI GPT-3
OpenAI предоставляет возможность настройки поведения модели через параметры запроса. Например, можно использовать параметр `temperature` для управления случайностью ответа, а также параметр `max_tokens` для ограничения длины текста.
```python
import openai
openai.api_key = "YOUR_API_KEY"
response = openai.Completion.create(
engine="text-davinci-003",
prompt="Напиши рассказ про путешествие в будущее.",
max_tokens=150,
temperature=0.7,
stop=["
"]
)
print(response.choices[0].text)
```
### Рекомендации по работе с цензурой:
1. **Знайте законы и нормы**: Ознакомьтесь с законами и нормами вашей страны и целевой аудитории, чтобы избежать нарушений.
2. **Используйте фильтры**: Включите автоматические фильтры и настройте их для максимальной эффективности.
3. **Проверяйте контент**: Проводите ручную проверку ключевых материалов, особенно тех, что предназначены для широкой аудитории.
4. **Обратная связь**: Создайте механизм обратной связи от пользователей, чтобы они могли сообщать о нежелательном контенте.
### Заключение
Цензура и контроль над создаваемым контентом - это важные аспекты работы с ИИ-инструментами. Хотя многие модели уже имеют встроенные механизмы для предотвращения создания вредного контента, важно понимать и применять дополнительные меры предосторожности, чтобы обеспечить соблюдение законов и этических норм. Если у вас есть конкретные вопросы или задачи, связанные с цензурой, дайте знать, и я постараюсь помочь вам более детально!
Я тоже установил локально DeepSeek 8b b и как по мне она сильно проигрывает относительно тойже llama3.1 относительно моих целей а именно для ролеплея - она находясь в роли начинает мне описывать что и как она думает и что ей отвечать в общем такое себе - возможно для других целей и будет ок
Пиши мне, я тебе чего хочешь отвечу 😝😝