Вообще крайне странное сравнение, логичнее было бы сравнивать o1 pro (200$) против o1 (20$) против Gemini 2.0 flash thinking (0$) на задачах по матану и сложному кодингу либо gpt 4o (20$) против Claude 3,5 Sonnet (20$) против Gemini-Exp-1206 (0$) на сложных текстовых задачах, например сочинение стихов.
Claude не заявлялся как "думающая" модель, как позиционируют o1. А вот DeepSeek про это говорили. Было бы прикольно и её задействовать в тестах. Как я понял, они нацелились именно на конкуренцию с 01
@@Anya_zaikaЕщё как стоит. Это вы не разобрались видимо! У DeepSeek на сегодня просто не хватает функционала, а по знаниям и уму, как таковому, она на уровне всех топовых моделей!
Deepseek по факту думающей не является, хотя она решает задачи логичнее и успешнее чем Claude, но по общему уровню ближе к gpt4, моя оценка что 20% математических задач лучше решает реально думающая qwq32b, которая кстати и использовалась для обучения Deepseek, т.е. если долгих рассуждений не нужно то Deepseek справится, если нужно - то даже qwq32b скорее всего окажется лучше, разумеется o1 pro лучше, чем все существующих (кроме o3) в смысле решения задач, где требуется размышления и логика + математика, или медицина, Deepseek v3 при переводе (русeng) медицинских терминов изредка ошибается причём по глупому (когда транслитерация была бы ближе к истине), однако Deepseek v3 дешевле и с учётом близости по уровню к gpt4 а по логике чуть лучше, то в отстутсвии тяжёлых задач она предпочтительна (цена играет решающую роль)
К сожалению автор еще молод (и глуп😂) и не смог подобрать интересные тесты для ИИ. В результате получил тривиальные ответы. Не забывайте, что ЛЛМ модели - это вероятностные модели и с точки зрения получения новых знаний результат их анализа максимально тривиален и бесполезен. Современные системы ИИ это как «бог из машины» знания-то они содержат, но очень трудно их оттуда извлечь. Необходимо самостоятельно предлагать к рассмотрению не стандартные точки зрения на проблемы. Например, в тесте на происхождение жизни можно было попросить вычленить «факты» божественного вмешательства и оценить их вероятность. В примере с дождём, попросить проанализировать возможные политические, экономические и социальные цели, которые могут преследовать элиты используя тему манипулирования климатом. Попробуйте😂
У тебя в тестах не о1про, а максимум о1. О1про думает даже над простыми задачами по несколько минут. А у тебя в видео всё по 7 секунд. Это не та версия
100%, у меня o1 Pro даже над самыми простыми задачами думал минимум минуту, задачи на кодинг или многобукв это 5-6 минут Это только о1 научили думать «оптимизировано» по 10-20 секунд после о1 превью, который думал по минуте над любым промтом Хотелось бы от автора видео услышать какой-то комментарий по этому поводу
Можно попробовать модельку в разметке сложных данных и сложных классификаций, например симптомы болезни или результаты анализов в гипотезы диагнозов, скорее всего есть открытые дата сеты на это, обезличенные данные реальных пациентов. Можно попробовать поиски креативных решений и создание чего то нового ТРИЗ скажем )
да это реально то где o1 pro крутая, разумеется если спрашивать её по английски, но можно в принципе её попросить перевести, остальные модели для этих запросов заметно отстают.
У меня после гпт в повершелле скрипт не выполнялся и гпт не хотел в фигурные скобки переменную брать. В дипсик решил проблему и там-сям поулучшал. Лимиты в дипсике как будто сейчас только на количество сообщений в сессии. И можно начать новый чат без проблем.
Дядя Д., спасибо за любопытные вопросы. Думаю потестировать Gemini Exp 1206. Нравится она мне в последнее время. С первым вопросом, думаю, 1206 справилась :) Ответ: Учитывая сложность живых организмов, вероятность самопроизвольного зарождения жизни крайне мала, но не невозможна, в то время как концепция создателя умозрительна и не поддается проверке, поэтому на данный момент ни одна из гипотез не может быть однозначно подтверждена или опровергнута.
к сожалению кроме последней он не давал реально сложные задачи, на сложных задачах o1 pro думает >5 min и на этих задачах становится видна разница в моделях (обычно остальные на множестве задач показывают себя хуже)
Вот с этим еще ни одна LLM не справилась: У меня 3 брата. У каждого из моих братьев по 2 брата. У моей единственной сестры тоже 3 брата. Сколько всего братьев и сестер в моей семье? (3 брата 2 сестры)
другой вариант запроса, как Клод быстрее приходит к решению: У меня 3 брата. У каждого из моих братьев по 2 брата. У моей единственной сестры тоже 3 брата. Сколько всего братьев и сестер в моей семье? ОЧЕНЬ ВНИМАТЕЛЬНО проверь ответ на соответствие ВСЕМ условиям задачи. проверь 2 раза это соответствие. попунктно! ------------ потом все равно приходится сомневаться в его каких-то частях решения... и тогда он решает верно в итоге. а ChatGPT и Gemini не решает верно вообще никогда) как ни докапывайся. выдают чушь. Grok чуть умнее чем Gemini но в общем тоже довольно чушь.
не дать протестить pro средне- обьемную задачу по ПРОГРАММИРОВАНИЮ (с подробн.описанием "контекста , требований" - это ..ты безтолку 200$ выбросил(считаю). Убрал лайк, т.к. ждал именно этого😮
Он не выбрасывал. Ему дали попробовать. Ставь лайк обратно 😂. Что касается задач по программированию, то ЛЛМ модели и заточены под проекты, связанные с языками (естественными и искусственными). Там всё хорошо. А в чем плохо, то это почти во всем остальном.
o1 не нужна для обычного пользователя, она изначально создавалась для лабораторий, исследований и сложных расчетов связанных модуляцией ситуаций (стихийных бедствий, траекторий полетов астероидов и всякой такой фигни, для этого и сделали режим мозгов), по сути все задачи можно выполнять обычным GPT или нейронкой от гугла студио, тем более платить за это 200$, сейчас столько стало бесплатных нейронок, что даже за 20$ покупать подписку нет большой нужды, разве что побаловаться с расширенным голосовым режимом.
Хз, что там у тебя за обычные задачи. Я для своего приложения пытался генерить текстовый контент, казалось бы - идеальная работа для GPT, но он справляется отвратительно. Все предложения строились по одной и той же структуре, на втором абзаце уже было невозможно читать, нужно все переписывать. При этом обычный о1 справлялся чуть получше, но налил очень много воды, терял контекст других текстов, которые я прислал для примера и формат. Типа я просто прошу его выделить жирным определенные заголовки, он пишет - да, хорошо и не делает этого. О1 Pro справлялся значительно лучше по качеству именно учета контекста и формата, но текста все равно нужно было переписывать, жирные заголовки вставлял, но не всегда - приходилось перегенерировать, я так понимаю, что это уже ограничение всего семейства моделей и о1 Pro может выдавать более точный результат, но на том же уровне. Так это задача просто генерить текст на основе других текстов, до профессиональных лабораторных работ там еще как до луны. Для перевода контента, кстати, мне моя программа генерирует текст формата id строки: многострочный текст на русском;; Я просил все модели просто взять весь русский текст, перевести его, а все остальное (спец символы и переносы на новую строку) не трогать. С этой задачей не справилась ни одна из моделей ни с первого, ни с десятого раза. В ответ я каждый раз получал действительно переведенный текст, но все переносы на новую строку он зачем-то убирал внутри текста, хотя я много и разными способами просил его этого не делать. В итоге пришлось просить его присылать ответ файлом, только в этом случае о1 про выдавал то, что мне нужно. Вообщем, начиная, наверное, с модели о5 про можно будет доверить ИИ не сложную работу, сейчас больше времени потратил на промтопердолинг
Задайте задачу любой модели такого типа: есть несколько букв 2 и 4 нужно из например 7 букв разгадать итоговое слово , реальность в том что хрен один отгадывает нарушая условия задачи
Потрясно, что упоминаете фреймворки, но вообще не понимаете как ими пользоваться. Продвинутый фреймворк делает из колода 3.5, не менее чем в 10 раз более мощную модель чем без него. И все эти gpt с одной библиотекой входа просто мусор! Для думающих Я уже всё сказал😅
Open AI " rag " модели ефективно манипулирует словами, намного лучше чем богатейшие политики. Это страшно... И знаешь когда их палят они типо это не мы это модель так "хочет". ВООБЩЕ не очень их сравнивать...сделай rag + несколько експертов , тогда да... Кнопки все жму.
интересный вопрос, - Как бы поступил, для справки не один ИИ пока не в состоянии заработать, хотя бы 1$, о чём есть статья Майкрософта и разработчика openAi, а вот это платить за облачные сервисы хрен пойми за что...?
ИИ сам должен пройти все пути заработка или нужно заработать с помощью ИИ. Если второе, то с помощью ИИ УЖЕ «заработали» миллионы человек сотни миллиардов долларом. Взять хоты бы ту же OpenAI…😂
да и о1 мини прекрасно кодит. Не всегда, прямо, на любых языках, но просто надо подход. Я на выходных за полдня треть транслятора C# в Си на нем сделал (сам ни строчки кода не написал). Ну треть, может громко сказано, треть из того что планировал. Сам транслятор не нужен, понятно, это я просто для проверки о1 мини делал, и прозрел. Это как вы понимаете, задача вообще не для всех программистов. Если бы я писал, я бы это неделю точно писал, что получилось с ним. В общем, с пару лет максимум, программистов не будет. Вот что единственное меня остановило дальше продолжать эксперимент, даже о1 мини за подписку в 20 баксов - лимит на день - 50 запросов
@@dimmArtist Я пока не знаю, я не использую, это я проверил. Но если он начнет кодить хотя бы частично, то конечно окупится. Я уже придумал как его заставить кодить через API. Попробую. Т.е. так чтобы не вмешиваться, дать ему задание и он сделал от начала до конца. Я не уверен, что он сможет удерживать контекст долго. Но если так не получится, то 200 долларов просто не за что платить, т.к. есть подписка в 20 долларов, там 50 запросов за день. Это пока не так часто лично мне надо - какую-то задачу помочь решить. Когда уже опыт большой то и сам могу. Но начал в последнее время иногда спрашивать, как написать код работы с какой-то библиотекой для меня новой, он это быстро делает. Для новичков он будет заметной помощью. Но у них и зп меньше.
У кого то в начале сложного Проекта есть полное понимание как его реализовывать, чтоб создать ПОЛНЫЙ ПРОМТ? Тогда вам и AI не нужно, вы и так знаете как решать. Глупость это, Промт пишется НЕПРЕРЫВНО на протяжении всей реализации проекта и ни как иначе. У меня за пол года не было ни одного проекта при создании алгоритмов параметрического 3D моделирования, чтоб я мог в начале целиком его в промте описать. О1 имеет смысл на сегодня использовать не в Pro подписке, а в Plus для генерации списка эффективных путей решения какой то сложной алгоритмической или тригонометрической (например) задачи. Тут он Claude 3.5 может помочь выйти из тупика. Вот пока и всё. Зря они сделали такую цену, это просто большую часть пользователей заставит пробовать другие AI и они больше не вернутся!
Клод условно топово соображает и креативит, но его слабая сторона - способность глубоко ориентироваться в заложенных при обучении знаниях, их комплексно анализировать. Например, в юридических тонкостях может что-то наперепутать маленько. Может даже не вспомнить вовремя, что кто-то уже умер, когда биографическую статью пишет. В общем, в фактологии за ним нужен иногда глаз, врёт ведь очень убедительно. Нечасто,но думается,что о1 должна быть лишена этого почти
ВНИМАТЕЛЬНО посмотрел данный ролик. Вывод: Как и предполагал, когда подписчикам предложили дать интересные промты, для дорогой версии GPT, ничего умнее теории заговоров, и другой чуши, никто не придумал. Что касается кодинга, если ты не обладаешь хотя бы общими знаниями, то не сможешь ничего сделать, хоть с gpt, хоть с папой римским. Автору просьба: Не много сменить направление обзоров, на решения которые можно применить в реальной жизни. Есть пара задумок, но хотел бы написать в ЛС.
да автор тут ни одного запрос нормально не разобрал. Я вот проверяю все модели одним хитрым запросом, логической задачкой. Даже О1 ее без моих подсказок не решает, по крайней мере с первого раза. А остальные и подавно. Писанина про теорию заговоров бесполезна в жизни чуть более чем полностью, а вот решение логических задач в текстовом виде это уровень
@@alexanderprint6841 так тут же все равно придется нанимать мидла/синьера чтоб добиться хотя бы рабочего прототипа от этих ллмок. Если все равно придется применять людей в том же обьеме, то нафиг тогда платить больше? Ну для прототипа разве что - там да, может быстрей выйдет. И то, наверняка после добавления 3 "очевидных" уточнений от заказчика, придется переписывать все вручную)
Вообще крайне странное сравнение, логичнее было бы сравнивать
o1 pro (200$) против o1 (20$) против Gemini 2.0 flash thinking (0$) на задачах по матану и сложному кодингу
либо
gpt 4o (20$) против Claude 3,5 Sonnet (20$) против Gemini-Exp-1206 (0$) на сложных текстовых задачах, например сочинение стихов.
Claude не заявлялся как "думающая" модель, как позиционируют o1. А вот DeepSeek про это говорили. Было бы прикольно и её задействовать в тестах. Как я понял, они нацелились именно на конкуренцию с 01
Плохо понял, она и рядом не стоит
@@Anya_zaikaDeepseek переваривает дофига строк кода, так что успокойся.
@@Anya_zaikaЕщё как стоит. Это вы не разобрались видимо! У DeepSeek на сегодня просто не хватает функционала, а по знаниям и уму, как таковому, она на уровне всех топовых моделей!
Deepseek по факту думающей не является, хотя она решает задачи логичнее и успешнее чем Claude, но по общему уровню ближе к gpt4, моя оценка что 20% математических задач лучше решает реально думающая qwq32b, которая кстати и использовалась для обучения Deepseek, т.е. если долгих рассуждений не нужно то Deepseek справится, если нужно - то даже qwq32b скорее всего окажется лучше, разумеется o1 pro лучше, чем все существующих (кроме o3) в смысле решения задач, где требуется размышления и логика + математика, или медицина, Deepseek v3 при переводе (русeng) медицинских терминов изредка ошибается причём по глупому (когда транслитерация была бы ближе к истине), однако Deepseek v3 дешевле и с учётом близости по уровню к gpt4 а по логике чуть лучше, то в отстутсвии тяжёлых задач она предпочтительна (цена играет решающую роль)
@@OliinykO соболезную
К сожалению автор еще молод (и глуп😂) и не смог подобрать интересные тесты для ИИ. В результате получил тривиальные ответы. Не забывайте, что ЛЛМ модели - это вероятностные модели и с точки зрения получения новых знаний результат их анализа максимально тривиален и бесполезен. Современные системы ИИ это как «бог из машины» знания-то они содержат, но очень трудно их оттуда извлечь. Необходимо самостоятельно предлагать к рассмотрению не стандартные точки зрения на проблемы. Например, в тесте на происхождение жизни можно было попросить вычленить «факты» божественного вмешательства и оценить их вероятность. В примере с дождём, попросить проанализировать возможные политические, экономические и социальные цели, которые могут преследовать элиты используя тему манипулирования климатом. Попробуйте😂
Очень приятно что ты задал этот вопрос в самом начале. ❤❤
будет о3 интересно сравнить. потому что про нее обещали 🔥
Спасибо за подробный обзор. Как раз думал брать для тестирования или нет
У тебя в тестах не о1про, а максимум о1.
О1про думает даже над простыми задачами по несколько минут. А у тебя в видео всё по 7 секунд.
Это не та версия
100%, у меня o1 Pro даже над самыми простыми задачами думал минимум минуту, задачи на кодинг или многобукв это 5-6 минут
Это только о1 научили думать «оптимизировано» по 10-20 секунд после о1 превью, который думал по минуте над любым промтом
Хотелось бы от автора видео услышать какой-то комментарий по этому поводу
12:30 - стоит в целом код проверять локально, так как такие задачи могут на подобных платформах иногда не корректно работать
Чисто смеха ради:
А можно сравнение по кодингу "популярных" ии плагинов для IDE? Codieum, CoPilot, JetBrains AI (для райдер)?
Можно попробовать модельку в разметке сложных данных и сложных классификаций, например симптомы болезни или результаты анализов в гипотезы диагнозов, скорее всего есть открытые дата сеты на это, обезличенные данные реальных пациентов. Можно попробовать поиски креативных решений и создание чего то нового ТРИЗ скажем )
да это реально то где o1 pro крутая, разумеется если спрашивать её по английски, но можно в принципе её попросить перевести, остальные модели для этих запросов заметно отстают.
DeepSeek и Qwen
У меня после гпт в повершелле скрипт не выполнялся и гпт не хотел в фигурные скобки переменную брать. В дипсик решил проблему и там-сям поулучшал.
Лимиты в дипсике как будто сейчас только на количество сообщений в сессии. И можно начать новый чат без проблем.
Дядя Д., спасибо за любопытные вопросы. Думаю потестировать Gemini Exp 1206. Нравится она мне в последнее время. С первым вопросом, думаю, 1206 справилась :)
Ответ:
Учитывая сложность живых организмов, вероятность самопроизвольного зарождения жизни крайне мала, но не невозможна, в то время как концепция создателя умозрительна и не поддается проверке, поэтому на данный момент ни одна из гипотез не может быть однозначно подтверждена или опровергнута.
Для написания кода на JS Вы сейчас какую модель используете?
я проверяю ИИ запросом придумать 20 новых очень смешных анекдотов. Клод Opus справляется лучше всех, как правило.
Спасибо за контент. Интересно сравнить за 200 vs за 20. Хотя из вашего обзора понятно, что разница будет небольшая.
к сожалению кроме последней он не давал реально сложные задачи, на сложных задачах o1 pro думает >5 min и на этих задачах становится видна разница в моделях (обычно остальные на множестве задач показывают себя хуже)
Вот с этим еще ни одна LLM не справилась: У меня 3 брата. У каждого из моих братьев по 2 брата. У моей единственной сестры тоже 3 брата. Сколько всего братьев и сестер в моей семье? (3 брата 2 сестры)
после длительных до**бов (наводящих вопросов, ставящих под сомнение логику рассуждений) Клод 3.5 Sonnet решил задачу правильно.
другой вариант запроса, как Клод быстрее приходит к решению:
У меня 3 брата. У каждого из моих братьев по 2 брата. У моей единственной сестры тоже 3 брата. Сколько всего братьев и сестер в моей семье?
ОЧЕНЬ ВНИМАТЕЛЬНО проверь ответ на соответствие ВСЕМ условиям задачи. проверь 2 раза это соответствие. попунктно!
------------
потом все равно приходится сомневаться в его каких-то частях решения... и тогда он решает верно в итоге. а ChatGPT и Gemini не решает верно вообще никогда) как ни докапывайся. выдают чушь. Grok чуть умнее чем Gemini но в общем тоже довольно чушь.
не дать протестить pro средне- обьемную задачу по ПРОГРАММИРОВАНИЮ (с подробн.описанием "контекста , требований" - это ..ты безтолку 200$ выбросил(считаю). Убрал лайк, т.к. ждал именно этого😮
Последнее задание с подключением апишки openai достаточно объёмно для такого сравнения
Ну так покажи как надо, сними видео
Он не выбрасывал. Ему дали попробовать. Ставь лайк обратно 😂. Что касается задач по программированию, то ЛЛМ модели и заточены под проекты, связанные с языками (естественными и искусственными). Там всё хорошо. А в чем плохо, то это почти во всем остальном.
🔥🔥🔥🔥🔥🔥🔥
o1 не нужна для обычного пользователя, она изначально создавалась для лабораторий, исследований и сложных расчетов связанных модуляцией ситуаций (стихийных бедствий, траекторий полетов астероидов и всякой такой фигни, для этого и сделали режим мозгов), по сути все задачи можно выполнять обычным GPT или нейронкой от гугла студио, тем более платить за это 200$, сейчас столько стало бесплатных нейронок, что даже за 20$ покупать подписку нет большой нужды, разве что побаловаться с расширенным голосовым режимом.
Хз, что там у тебя за обычные задачи. Я для своего приложения пытался генерить текстовый контент, казалось бы - идеальная работа для GPT, но он справляется отвратительно. Все предложения строились по одной и той же структуре, на втором абзаце уже было невозможно читать, нужно все переписывать. При этом обычный о1 справлялся чуть получше, но налил очень много воды, терял контекст других текстов, которые я прислал для примера и формат. Типа я просто прошу его выделить жирным определенные заголовки, он пишет - да, хорошо и не делает этого. О1 Pro справлялся значительно лучше по качеству именно учета контекста и формата, но текста все равно нужно было переписывать, жирные заголовки вставлял, но не всегда - приходилось перегенерировать, я так понимаю, что это уже ограничение всего семейства моделей и о1 Pro может выдавать более точный результат, но на том же уровне.
Так это задача просто генерить текст на основе других текстов, до профессиональных лабораторных работ там еще как до луны. Для перевода контента, кстати, мне моя программа генерирует текст формата id строки: многострочный текст на русском;;
Я просил все модели просто взять весь русский текст, перевести его, а все остальное (спец символы и переносы на новую строку) не трогать. С этой задачей не справилась ни одна из моделей ни с первого, ни с десятого раза. В ответ я каждый раз получал действительно переведенный текст, но все переносы на новую строку он зачем-то убирал внутри текста, хотя я много и разными способами просил его этого не делать. В итоге пришлось просить его присылать ответ файлом, только в этом случае о1 про выдавал то, что мне нужно.
Вообщем, начиная, наверное, с модели о5 про можно будет доверить ИИ не сложную работу, сейчас больше времени потратил на промтопердолинг
Да, надо сравниение с DeepSeek
Отказался от ChatGPT, а потом взял подписку за 200$? Ничего себе перемены
Бро, сделай обзор на то как прошка кодит обучением в игре Змейка. Задача в том , что бы научить змейку находить цель
Взял за 200 чисто из-за 120к контекста, очень полезная штка.
Кстати Sora даже в релакс моде генерит видео быстрее любых дрцгмх видеонейронок. Так что Сора считай и так безлимитная даже на подписке чатГПТ плюс.
Задайте задачу любой модели такого типа: есть несколько букв 2 и 4 нужно из например 7 букв разгадать итоговое слово , реальность в том что хрен один отгадывает нарушая условия задачи
Про теорию заговора то они из Wikipedia взяли на счет Blue Beam.
Потрясно, что упоминаете фреймворки, но вообще не понимаете как ими пользоваться. Продвинутый фреймворк делает из колода 3.5, не менее чем в 10 раз более мощную модель чем без него. И все эти gpt с одной библиотекой входа просто мусор! Для думающих Я уже всё сказал😅
а какой фреймворк делает из Клода в 10 раз более мощную модель? и для каких задач более мощную?
Open AI " rag " модели ефективно манипулирует словами, намного лучше чем богатейшие политики. Это страшно...
И знаешь когда их палят они типо это не мы это модель так "хочет".
ВООБЩЕ не очень их сравнивать...сделай rag + несколько експертов , тогда да...
Кнопки все жму.
наконец то уже
интересный вопрос, - Как бы поступил, для справки не один ИИ пока не в состоянии заработать, хотя бы 1$, о чём есть статья Майкрософта и разработчика openAi, а вот это платить за облачные сервисы хрен пойми за что...?
ИИ сам должен пройти все пути заработка или нужно заработать с помощью ИИ. Если второе, то с помощью ИИ УЖЕ «заработали» миллионы человек сотни миллиардов долларом. Взять хоты бы ту же OpenAI…😂
доделать до агентного ИИ просто надо. либо кому-то либо самим компаниям-разработчикам. это вполне реал
Чё то Прошка знает про элIты
Секретное салохранилище 🤔
S3 это не про данные 😮
Вышел на белорусский слел
?? Главное отличие pro от plus - в ЛИМИТАХ использования o1!
я чатом джипите бесплатно пользуюсь
я плачу за o1 20 баксов но легко бы платил и 500 если бы бы были такие цены
Не насыщенный выпуск
Хорошее сравнение. Не идеальное, но хорошее. Чувствуется рука мастера.
забавно что аффтар не захотел дать линк на статью ))
ттержите www.latent.space/p/o1-skill-issue
Надо же как-то людей цеплять в телегу, чтобы лучше монетизировать проект, а не на одном энтузиазме работать
ЭлIты
да и о1 мини прекрасно кодит. Не всегда, прямо, на любых языках, но просто надо подход. Я на выходных за полдня треть транслятора C# в Си на нем сделал (сам ни строчки кода не написал). Ну треть, может громко сказано, треть из того что планировал. Сам транслятор не нужен, понятно, это я просто для проверки о1 мини делал, и прозрел.
Это как вы понимаете, задача вообще не для всех программистов. Если бы я писал, я бы это неделю точно писал, что получилось с ним. В общем, с пару лет максимум, программистов не будет.
Вот что единственное меня остановило дальше продолжать эксперимент, даже о1 мини за подписку в 20 баксов - лимит на день - 50 запросов
так если у программистов большие зп и ты был очень доволен, то 200 баксов окупается для них влегкую?
@@dimmArtist Я пока не знаю, я не использую, это я проверил. Но если он начнет кодить хотя бы частично, то конечно окупится. Я уже придумал как его заставить кодить через API.
Попробую. Т.е. так чтобы не вмешиваться, дать ему задание и он сделал от начала до конца.
Я не уверен, что он сможет удерживать контекст долго. Но если так не получится, то 200 долларов просто не за что платить, т.к. есть подписка в 20 долларов, там 50 запросов за день. Это пока не так часто лично мне надо - какую-то задачу помочь решить. Когда уже опыт большой то и сам могу. Но начал в последнее время иногда спрашивать, как написать код работы с какой-то библиотекой для меня новой, он это быстро делает.
Для новичков он будет заметной помощью. Но у них и зп меньше.
У кого то в начале сложного Проекта есть полное понимание как его реализовывать, чтоб создать ПОЛНЫЙ ПРОМТ? Тогда вам и AI не нужно, вы и так знаете как решать. Глупость это, Промт пишется НЕПРЕРЫВНО на протяжении всей реализации проекта и ни как иначе. У меня за пол года не было ни одного проекта при создании алгоритмов параметрического 3D моделирования, чтоб я мог в начале целиком его в промте описать.
О1 имеет смысл на сегодня использовать не в Pro подписке, а в Plus для генерации списка эффективных путей решения какой то сложной алгоритмической или тригонометрической (например) задачи. Тут он Claude 3.5 может помочь выйти из тупика. Вот пока и всё.
Зря они сделали такую цену, это просто большую часть пользователей заставит пробовать другие AI и они больше не вернутся!
Клод условно топово соображает и креативит, но его слабая сторона - способность глубоко ориентироваться в заложенных при обучении знаниях, их комплексно анализировать. Например, в юридических тонкостях может что-то наперепутать маленько. Может даже не вспомнить вовремя, что кто-то уже умер, когда биографическую статью пишет. В общем, в фактологии за ним нужен иногда глаз, врёт ведь очень убедительно. Нечасто,но думается,что о1 должна быть лишена этого почти
ему бы факт-чекинг добавить для достоверности поиском на веб. это да. не пойму почему Антропик не добавят.
Вроде норм но пипееееец как душно…
ВНИМАТЕЛЬНО посмотрел данный ролик.
Вывод:
Как и предполагал, когда
подписчикам предложили дать интересные промты, для дорогой версии GPT, ничего умнее теории заговоров, и другой чуши, никто не придумал.
Что касается кодинга, если ты не обладаешь хотя бы общими знаниями, то не сможешь ничего сделать, хоть с gpt, хоть с папой римским.
Автору просьба:
Не много сменить направление обзоров, на решения которые можно применить в реальной жизни.
Есть пара задумок, но хотел бы написать в ЛС.
да автор тут ни одного запрос нормально не разобрал. Я вот проверяю все модели одним хитрым запросом, логической задачкой. Даже О1 ее без моих подсказок не решает, по крайней мере с первого раза. А остальные и подавно. Писанина про теорию заговоров бесполезна в жизни чуть более чем полностью, а вот решение логических задач в текстовом виде это уровень
200 баксов это копейки за такой сервис особенно для предприятия. люди о чем вы вообще
посмотрите сколько всегда софт стоит.
тоже всегда удивляет когда кричат "огооо аж 200 баксов", но про зарплату мидлов сеньоров в 2-5-7+К не кричат ого
@@alexanderprint6841 если честно я был уверен что такие сервисы будут только по закрытой подписке и цена подписки будет миллионы долларов
@@alexanderprint6841 так тут же все равно придется нанимать мидла/синьера чтоб добиться хотя бы рабочего прототипа от этих ллмок. Если все равно придется применять людей в том же обьеме, то нафиг тогда платить больше? Ну для прототипа разве что - там да, может быстрей выйдет. И то, наверняка после добавления 3 "очевидных" уточнений от заказчика, придется переписывать все вручную)