надо понимать простую штуку. если не залить в ее миллиард вариантов пройти такой бэнчмарк, оно не пройдет его! человеку же не надо миллиард тон данных чтоб это пройти, он может сам додуматься. как по мне ИИ еще очень слабые.. да, решать типоавые задачи по которым они обучены они могут !и тоне всегда... но стоит чуть в сторону отойти и все, ИИ ничего не может.. за уже лет пять наверное, пользования разными моделями. понял одно - "думать оно не умеет вообще! это шикарный поисковик по стеку готовых данных!".
Будет ли обзор свежей модели Microsoft_Phi-4 ? По моему они значительно улучшили поддержку русского языка и качество ответов у неё даже выше чем у Llama-3-70b хотя параметров у неё всего 14b. Такую можно даже на обычном геймерском пк попробовать запустить.
о3 модель не для смертных, т.е. она создана по сути по большей части для решения сложных вопросов математики, медицины, программирования и науки в целом. Ни о каком AGI и говорить не приходится. По прежнему o1 не может решать даже некоторые детские задачи. AGI не нужно будет подталкивать к решению проблем через промпты, он сам будет их искать и решать в полуавтоматическом режиме, но до этого ещё минимум 4-5 лет. Я убеждён, что настоящий AGI и супер ИИ будет функционировать только на нейроморфных чипах интел и IBM.
Выскажу предположение, что сильный скачек в качестве моделей завязан на нескольких методах - рефлексии на основе повторяющихся циклов генерации, а также RAG in-memory. Последние может подгружать вместе с LLM в VRAM базу данных со структурированной информацией в виде справочников по наукам. Предполагаю что без MemoRAG в O3 не обошлось. По этому методу вообще инфы мало... Было бы интересно услышать мнение Руслана на этот счет🧐
Ну понятно что это пока не AGI, потому что нет внутреннего состояния для эпизодичской памяти и эту модель очень дорого обучать на видео-токенах так как слишком много электро-энергии на это тратится, нужно дождаться аналоговоых или световых нейромофных чипов которые удешевят обучение и инференс моделей в разы тогда ОИИ замаячит на горизонте.
К Аналогу, нужен обязательно параллелизм в вычислении и запоминании состояния и не столь важно, что для этого будут использовать, магнетизм или фотоны, это уже будет достаточно для "замаячивания...", все остальное это жалкая пародия!
Звучит бредово))) Почему 85 процентов)) Почему именно эти тесты? Кто вообще судья. Это очень субьективно. Да и вообще сама задача странная и не определенная точно. Звучит как просто очередной хайп модели которую натренировали решать именно эти задачи. Челы посидели и решили датасет сдедать где похожие задачи решаются. Уверен чуть вправо или влево и будет провал. Визуальные тесты и взаимодействие с реальным миром должны быть проведены. Хотя это тоже не факт будет.
надо понимать простую штуку. если не залить в ее миллиард вариантов пройти такой бэнчмарк, оно не пройдет его! человеку же не надо миллиард тон данных чтоб это пройти, он может сам додуматься.
как по мне ИИ еще очень слабые.. да, решать типоавые задачи по которым они обучены они могут !и тоне всегда... но стоит чуть в сторону отойти и все, ИИ ничего не может.. за уже лет пять наверное, пользования разными моделями. понял одно - "думать оно не умеет вообще! это шикарный поисковик по стеку готовых данных!".
Спасибо за видео! С наступающим!
Будет ли обзор свежей модели Microsoft_Phi-4 ? По моему они значительно улучшили поддержку русского языка и качество ответов у неё даже выше чем у Llama-3-70b хотя параметров у неё всего 14b. Такую можно даже на обычном геймерском пк попробовать запустить.
5:20 предполагаю, что эту модель выпустят Qwen. Они буквально недавно выпустили QVQ-72B-Preview.
Deepseek R3
@@Fenixtremo Да, но чтобы запустить его нужно нечто большее чем обычный компьютер.
Хотелось бы увидеть локальные модели для слабых пк.
сделай плз разбор мелких моделей с которыми может начинующий дома играться типа 3Б или новую квин с резонингом
тоже интересует эта тема, но я бы планку опустил до 1Б
Напоминает ли принцип, предположительно использованный разработчиками, ДОКТОРА СТРЕНДЖА, пересчитавшего 14.000.625 вариантов исходов?
о3 модель не для смертных, т.е. она создана по сути по большей части для решения сложных вопросов математики, медицины, программирования и науки в целом. Ни о каком AGI и говорить не приходится. По прежнему o1 не может решать даже некоторые детские задачи. AGI не нужно будет подталкивать к решению проблем через промпты, он сам будет их искать и решать в полуавтоматическом режиме, но до этого ещё минимум 4-5 лет. Я убеждён, что настоящий AGI и супер ИИ будет функционировать только на нейроморфных чипах интел и IBM.
Выскажу предположение, что сильный скачек в качестве моделей завязан на нескольких методах - рефлексии на основе повторяющихся циклов генерации, а также RAG in-memory. Последние может подгружать вместе с LLM в VRAM базу данных со структурированной информацией в виде справочников по наукам. Предполагаю что без MemoRAG в O3 не обошлось. По этому методу вообще инфы мало... Было бы интересно услышать мнение Руслана на этот счет🧐
Так то для технологии масштаба AGI, 4-5 лет это мелочь вообще. Речь идет о самой важной технологии в истории человечества.
спасибо
Ну понятно что это пока не AGI, потому что нет внутреннего состояния для эпизодичской памяти и эту модель очень дорого обучать на видео-токенах так как слишком много электро-энергии на это тратится, нужно дождаться аналоговоых или световых нейромофных чипов которые удешевят обучение и инференс моделей в разы тогда ОИИ замаячит на горизонте.
К Аналогу, нужен обязательно параллелизм в вычислении и запоминании состояния и не столь важно, что для этого будут использовать, магнетизм или фотоны, это уже будет достаточно для "замаячивания...", все остальное это жалкая пародия!
Звучит бредово))) Почему 85 процентов)) Почему именно эти тесты? Кто вообще судья. Это очень субьективно. Да и вообще сама задача странная и не определенная точно. Звучит как просто очередной хайп модели которую натренировали решать именно эти задачи. Челы посидели и решили датасет сдедать где похожие задачи решаются. Уверен чуть вправо или влево и будет провал. Визуальные тесты и взаимодействие с реальным миром должны быть проведены. Хотя это тоже не факт будет.
лайк!
Думаю эта уже точно не потянет текущ. техническую базу для масс! Нужен науч. прорыв в микропроцессорах и памяти!
Для масс и не требуется. Если AI позволит получать военное преимущество, разработки мгновенно станут закрытыми и секретными.
Как же хочется пощупать новую модель 😅
😁 а вы подайте заявку на ранний доступ для safety testing
@@ruslandev я уже подавал. Но модель сказала, что я нищеброд и чтобы шел лапать доярок.