Евгений Разинков
Евгений Разинков
  • 193
  • 302 961
AI–стартапы: привлечь инвестиции в Долине. Максим Косенко и Игорь Зильберг
Пробую новый формат: беседы с фаундерами AI-стартапов :)
В первом выпуске фаундеры компании Askera.ai - Максим Косенко и Игорь Зильберг, которые находятся в Сан-Франциско и рассказывают, что собой представляет процесс поиска первых инвесторов.
А еще с 18.11.2024 у нас стартует очередной поток AI-школы! Информация здесь: t.me/razinkov_ai/653
Подробности об AI-школе расскажу на стриме 13 ноября в 13:00 по Москве:
th-cam.com/users/liveii4H-KZ1m3k?feature=share
Таймкоды:
00:00 Приветствие
01:56 Игорь о себе
02:52 Максим о себе
04:58 План на эту беседу
06:41 Об Askera.ai
10:38 Askera.ai - это ChatGPT-wrapper?
11:55 Питчи каких стартапов доводится слышать - только связанных с AI или и других тоже?
14:22 Какая доля стартапов использует AI?
16:20 Типичный фаундер AI-стартапа - кто он?
18:53 Насколько важно ехать в "долину" для привлечения инвестиций и почему?
25:58 Что должно быть готово к моменту привлечения первых инвестиций?
31:45 Какие примерно суммы рейзят на первом этапе и какую долю в компании получается инвестор?
34:35 Самые частые ошибки начинающих фаундеров
38:50 Самые "горячие" AI-темы
41:35 Примеры самых избитых идей
44:35 Как ChatGPT-wrapper-стартапу защититься от такого конкурента как OpenAI? Что устроит инвестора?
49:10 Какие самые интересные идеи довелось услышать?
51:41 Сколько в питчах правды, лукавства?
53:50 Какое соотношение между B2C/B2B/B2G-стартапами?
58:06 Как найти хорошую B2B-идею аутсайдеру?
01:01:10 Как аутсайдеру совершать первые B2B-продажи?
01:04:51 Хорошее ли сейчас время, чтобы делать AI-стартап?
01:06:50 Прочие интересные наблюдения
มุมมอง: 517

วีดีโอ

Llama 3.1: разбор статьи. Часть 10. Factuality & Steerability
มุมมอง 312หลายเดือนก่อน
Следующий поток AI-школы: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Информация о лекциях: razinkov.ai Телеграм-канал с анонсами лекций и материалами по машинному обучению: t.me/razinkov_ai
Оптимистичное послание AI-специалистам
มุมมอง 2.8K2 หลายเดือนก่อน
Я долго был пессимистом относительно последнего прогресса в AI. Чувствую, что появляется оптимизм. Хочу поделиться с вами) Следующий поток онлайн-школы по AI: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Мой маленький телеграм-канал о яхтинге: t.me/captain_razinkov Инстаграм (теперь о яхтинге): evgeny.razinkov Llama 3.1, разбор статьи: th-cam.com/play/PL6-BrcpR2C5QXuCa...
Llama 3.1: разбор статьи. Часть 9. Long context & Tool use
มุมมอง 2802 หลายเดือนก่อน
Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Информация о лекциях: razinkov.ai Телеграм-канал с анонсами лекций и материалами по машинному обучению: t.me/razinkov_ai
Llama 3.1: разбор статьи. Часть 8. Multilinguality & Reasoning
มุมมอง 2582 หลายเดือนก่อน
Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, разделы Multilinguality & Reasoning Таймкоды: 00:00 Приветствие Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/...
Llama 3.1: разбор статьи. Часть 7. Capabilities: code generation
มุมมอง 3162 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел Capabilities: code Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRs...
Llama 3.1: разбор статьи. Часть 6. Post-training data
มุมมอง 5383 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел 4.2 Post-training Data Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие 00:39 4.1.5 Model Averaging 03:05 4.1.6 Iterative Rounds 10:31 4.2 Post-training Data 11:43 4.2.1 Preference Data 25:23 4.2.2 SFT Data 35:14 4.2.3...
Llama 3.1: разбор статьи. Часть 5. DPO.
มุมมอง 4613 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел 4.1.4 Direct Preference Optimization. Таймкоды: 00:00 Приветствие 01:37 Direct Preference Optimization Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling l...
Llama 3.1: разбор статьи. Часть 4. Reward modeling & SFT
มุมมอง 3953 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Таймкоды: 00:00 Приветствие 01:13 4.1.2 Reward Modeling 34:28 4.1.3 Supervised Finetuning В следующий раз мы начнем с раздела 4.1.4 Direct Preference Optimization Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRs...
Llama 3.1: разбор статьи. Часть 3. Pre-training
มุมมอง 5593 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling laws: th-cam.com/video/fR8flHXcvLs/w-d-xo.html 3. Pre-training: th-cam.com/video/1Ut-3-Ost0w/w-d-xo.html 4. Reward modeling & Supervised Fine-tuning: th-cam.com/video/4aUYhAgW5h4/w-d-xo.html 5. DPO:...
Llama 3.1: разбор статьи. Часть 2. Architecture & Scaling laws.
มุมมอง 7963 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Предыдущее видео: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html Таймкоды: 00:00 Приветствие 03:54 3.2 Model Architecture 42:35 3.2.1 Scaling Laws Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling laws: th-cam.com/video/fR8flHXcvLs/w...
Llama 3.1: разбор статьи. Часть 1.Intro & Data mix
มุมมอง 2.4K4 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Следующий поток онлайн-школы по AI: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие 03:07 Abstract 06:50 1 Introduction 20:30 2 General Overview 32:12 3 Pre-Training 33:07 3.1 Pre-Training Data 35:33 3.1.1 Web Data Cu...
Dropout: универсальный метод регуляризации
มุมมอง 7696 หลายเดือนก่อน
Dropout: универсальный метод регуляризации
Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалий
มุมมอง 710ปีที่แล้ว
Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалий
Трансформер: training best practices
มุมมอง 1Kปีที่แล้ว
Трансформер: training best practices
Обнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)
มุมมอง 672ปีที่แล้ว
Обнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)
Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)
มุมมอง 372ปีที่แล้ว
Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)
Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплением
มุมมอง 292ปีที่แล้ว
Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплением
Monte Carlo Learning. Off-Policy Evaluation and Control. Лекция 6 по обучению с подкреплением.
มุมมอง 232ปีที่แล้ว
Monte Carlo Learning. Off-Policy Evaluation and Control. Лекция 6 по обучению с подкреплением.
Евгений Разинков. Лекция 1 по машинному обучению. Введение. (2023)
มุมมอง 2.8Kปีที่แล้ว
Евгений Разинков. Лекция 1 по машинному обучению. Введение. (2023)
Методы Монте-Карло. Контроль: On-Policy. Лекция 5 по обучению с подкреплением
มุมมอง 480ปีที่แล้ว
Методы Монте-Карло. Контроль: On-Policy. Лекция 5 по обучению с подкреплением
Последние тренды в машинном обучении (и как мы к этому пришли). От AlexNet до DALL-E 2 и ChatGPT.
มุมมอง 2.5K2 ปีที่แล้ว
Последние тренды в машинном обучении (и как мы к этому пришли). От AlexNet до DALL-E 2 и ChatGPT.
Self-Supervised Learning. Часть 1. Лекция 5 по Advanced Computer Vision
มุมมอง 5622 ปีที่แล้ว
Self-Supervised Learning. Часть 1. Лекция 5 по Advanced Computer Vision
Метод Монте-Карло: оценка политики. Лекция 4 по обучению с подкреплением
มุมมอง 4802 ปีที่แล้ว
Метод Монте-Карло: оценка политики. Лекция 4 по обучению с подкреплением
Вредоносные примеры в компьютерном зрении. Лекция 4 по Advanced Computer Vision
มุมมอง 4062 ปีที่แล้ว
Вредоносные примеры в компьютерном зрении. Лекция 4 по Advanced Computer Vision
BERT - универсальный инструмент NLP. Лекция 6 по обработке естественного языка.
มุมมอง 1.7K2 ปีที่แล้ว
BERT - универсальный инструмент NLP. Лекция 6 по обработке естественного языка.
Генеративно-состязательные сети: GANs. Лекция 3 по Advanced Computer Vision.
มุมมอง 8182 ปีที่แล้ว
Генеративно-состязательные сети: GANs. Лекция 3 по Advanced Computer Vision.
Поиск оптимальной политики в марковском процессе принятия решений. Лекция 3 по RL.
มุมมอง 6262 ปีที่แล้ว
Поиск оптимальной политики в марковском процессе принятия решений. Лекция 3 по RL.
Трансформер, часть 2. Архитектура. Лекция 5 по NLP
มุมมอง 1K2 ปีที่แล้ว
Трансформер, часть 2. Архитектура. Лекция 5 по NLP
Марковский процесс принятия решений. Лекция 2 по обучению с подкреплением
มุมมอง 8802 ปีที่แล้ว
Марковский процесс принятия решений. Лекция 2 по обучению с подкреплением

ความคิดเห็น

  • @angryworm80
    @angryworm80 วันที่ผ่านมา

    Вопрос вызвал спойлер, где было сказано, что размерность модели и размерность векторов V по факту окажется одинаковой. Вопрос: почему бы сразу не искать скалярное QV? Зачем в «посредники» ввели матрицу К и потом взвешивают сумму векторов V по весам софтмакса QK? Зачем лишняя информация в виде матрицы К?

  • @angryworm80
    @angryworm80 วันที่ผ่านมา

    Я осознал с 3-го просмотра как эта штука работает :) Но это не значит, что автор плохо объясняет 😂

  • @abcdefllful
    @abcdefllful 11 วันที่ผ่านมา

    Вопрос- почему в блоке нет ни одного обучаемого параметра? Разве изначально матрици Q, K и V не обучаються? Спасибо

    • @razinkov
      @razinkov 11 วันที่ผ่านมา

      В SDPA не обучаются :) Следующая лекция всё расставит на свои места)

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 15 วันที่ผ่านมา

    Как и всегда, лекции на шикарном уровне!

  • @alekseimikhalev1807
    @alekseimikhalev1807 20 วันที่ผ่านมา

    Очень интересная подача материала! Когда услышал про Фетхие, улыбнуло) Мы с семьей там как раз в одно и то же время с вами жили, два года. Как второй дом теперь)

    • @razinkov
      @razinkov 20 วันที่ผ่านมา

      Замечательное место) Вы на киноклуб в Гиппокампус не приходили случаем?)

  • @kiryllshynharow9058
    @kiryllshynharow9058 28 วันที่ผ่านมา

    35:40 если перенести в general capabilities то там это могло бы назваться language invariance в классическом NLP алгоритм существенно зависит от специфики языка, скажем, финты для "оцифровки" английского, русского, китайского и языка каких-нибудь папуасов Полинезии будут отличаться радикально быть может, я чего-то не знаю, но как мне видится, то что отличает LLM в разрезе NLP, так это то что многоязычность заложена в самой архитектуре и если какой-то язык не поддерживается то это скорее вопрос доступности обучающих данных или вычислительного бюджета разработчиков, а не алгоритмическая проблема

  • @Skolzzkey
    @Skolzzkey 29 วันที่ผ่านมา

    Спасибо большое за Ваш труд.

  • @angryworm80
    @angryworm80 หลายเดือนก่อน

    На самом деле это самая сложная лекция курса. Пересматривая эту лекцию с дистанцией в год понимаешь намного больше и извлекается намного больше смысла. Через год еще раз посмотрю. Вот точно - много новых смыслов увижу. Автору 🤝

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо) Буду ждать!)

  • @lokivoid886
    @lokivoid886 หลายเดือนก่อน

    АИ для сурдоперевода? Это для глухих которые не умеют читать? Потому что автоматические субтитры выглядит задачей попроще )

    • @razinkov
      @razinkov หลายเดือนก่อน

      Согласен, что выглядит попроще. Но нашел такое в интернете: "Sign language would be the preferred choice in general for pre-lingually deaf people. Post-lingually deaf people have become deaf later in life, so they are often more comfortable communicating in English". То есть иногда сурдоперевод предпочтительнее.

  • @maksimvolvach8322
    @maksimvolvach8322 หลายเดือนก่อน

    Спасибо за лекцию! Вот интересно, если при инициализации фильтров, их веса распределятся так, что при умножении на на входной тензор они дадут примерно равные значения, то дальше мы потеряем информационность тензоров. И обратное распространение не будет обучать эти фильтры. И если такое может случиться на разных слоях, то это не даст возможности обучать сеть в общем. И еще одно наблюдение. Мы ведь не можем быть уверенны, на каком уровне астракции остановилась сверточная сеть. То есть размеры обьектов в тензоре должны быть примерно одинаковые, ведь наш фильтр не сработает, если объекты будут кратно по размеру отличаться. А также мы не можем определить что признаки, которые нашла сеть перед полносвязным слоем, расположенны именно так как мы ожидаем.

  • @sergejskorohodov9201
    @sergejskorohodov9201 หลายเดือนก่อน

    Евгений, большое спасибо за проделанную работу. Было очень познавательно. Думаю есть смысл продолжать. Мне зашло)

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо, Сергей!

  • @ostrov11
    @ostrov11 หลายเดือนก่อน

    ... бухаешь?

  • @ostrov11
    @ostrov11 หลายเดือนก่อน

    ... МММ современности )))

  • @500barnaul
    @500barnaul หลายเดือนก่อน

    Еще захотелось добавить, что инди-хакерский подход у ребят мне видится очень, мега, трезвым - быстрые гипотезы, без влюбления и очарования. Они сейчас как серферы в лёгких нелипнущих ботинках. Задерживаться там однозначно. Всех благ им, и вам, Евгений, в вашей задумке - что конечно же читается!

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо большое!

  • @500barnaul
    @500barnaul หลายเดือนก่อน

    Клёво сказано: короткая дорожка для умников! Реально! Ситуация такая, что технологии развиваются настолько быстро, что большинство компаний просто не имеют возможности привлекать достаточное количество специалистов в теме AI. Поэтому скорее проектам на AI стоит думать в сторону работы с B2B сектором (даже наверное B2B2B - что еще мультипликатор). Не стоит заниматься конечным потребителем - все взаимоотношения с ним уже многократно отутюжены обычным бизнесом - нужно помочь компаниям. И взять свои деньги за момент - момент, когда большие компании из за бурного течения отстали. ЗЫ: Можно подробнее по сурдопереводчику? Можно стать тестером?

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо! Уточню, запомнилось ли Игорю и Максиму название проекта по сурдопереводу)

  • @mopchik8301
    @mopchik8301 หลายเดือนก่อน

    Справа французик

  • @TheLegend-f2l
    @TheLegend-f2l หลายเดือนก่อน

    Отличный формат! Надеюсь на его развитие 👍

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо!

  • @LLIo6oH
    @LLIo6oH หลายเดือนก่อน

    Формат класс! Нужно больше такого. Но ребята, без обид, какие-то невнятные. я попробовал зайти на сайт, но там пусто. Одно предложение. Поискал github - снова ничего. LinkedIn - мертвый. Так что же они продвигают? С чем идут к инвесторам? С идеей? Так это очень размытая идея. Все AI стартапы предлагают эту идею, поскольку это и есть идея AI

  • @staspolianychko
    @staspolianychko หลายเดือนก่อน

    🔥🔥🔥

  • @ilya_rekun
    @ilya_rekun หลายเดือนก่อน

    давно пора! очень рад появлению нового формата, надеюсь в будущем их будет больше . . . . . где комменты? 🤨

    • @razinkov
      @razinkov หลายเดือนก่อน

      40 минут назад опубликовал, поэтому и нет комментариев) А за Ваш - спасибо :)

    • @ilya_rekun
      @ilya_rekun หลายเดือนก่อน

      ​@@razinkov просто актив очень важен в первое время после залива видео

    • @razinkov
      @razinkov หลายเดือนก่อน

      @@ilya_rekun я могу только надеяться :)

  • @kiryllshynharow9058
    @kiryllshynharow9058 หลายเดือนก่อน

    @jack j Вам хочется "настоящей" мультимодальности - ну так подождите несколько лет настоящую мультимодальность пока слишком дорого обучать "налево и направо" кроме того, учтите что текстовые даные для self-supervised learning гораздо более доступны (и в достаточном количестве) чем данные для других модальностей

  • @вгостяхуЯны-ъ9б
    @вгостяхуЯны-ъ9б หลายเดือนก่อน

    Прежде, чем вещать, сам бы разобрался

  • @вгостяхуЯны-ъ9б
    @вгостяхуЯны-ъ9б หลายเดือนก่อน

    Видно, что парень еще сам совсем не разобрался... Дизлайк

  • @sultanidza
    @sultanidza หลายเดือนก่อน

    Потрясающие лекции и безумно красивая математика - как из довольно неприятной формулы выходит вполне себе понятная и красивая loss function. Спасибо, Евгений!

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо большое за лестный отзыв!

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 หลายเดือนก่อน

    Былр бы интересно послушать другие глубокие лекции на тему классического cv: shape analysis, texture analysis, eigen analysis, orb, image moments. Есть еще области где глубокие модели беспомощны.

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 หลายเดือนก่อน

    Шикарное объяснение этой темы

  • @zirtit
    @zirtit หลายเดือนก่อน

    Спасибо огромно за курс!!!!!

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 หลายเดือนก่อน

    Что плохого в batchnorm? Я активно им пользуюсь, частенько помогает.

  • @nickfarshev9575
    @nickfarshev9575 หลายเดือนก่อน

    Приветствую, Учитель. Интерес у аудитории к тематике есть. Спасибо за контент!

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо, что смотрите!

  • @sergeisotnik
    @sergeisotnik หลายเดือนก่อน

    Спасибо за вебинары. Забрел сюда случайно, еще на первую сессию и дотянул то нынешнего момента)) Вопрос относительно галлюцинаций. Я понимаю, что таким образом, как описано в статье, мы можем найти области, где модель любит галлюцинировать. Но по описанию не совсем понял, что мы делаем далее, чтобы уменьшить этот эффект?

    • @razinkov
      @razinkov หลายเดือนก่อน

      Мы определяем промпты, где модель галлюцинирует и через SFT обучаем ее вежливо отказываться отвечать.

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 หลายเดือนก่อน

    Не понятно как на этапе тестирования они после замены слоев подобрали веса на новых слоях. По идее их надо тоже обучать, тогда это надо сделать на этапе обучения.

    • @fatvvsfatvvs5642
      @fatvvsfatvvs5642 หลายเดือนก่อน

      И не понятно почему сразу не обучить полносверточную версию vgg. Кажется что выкидывание линейных слрев это как выкинуть коныету и оставить фантик. Там куча связей, которые требовали много вычислений. А потом мы посто выкидываем их.

  • @fatvvsfatvvs5642
    @fatvvsfatvvs5642 หลายเดือนก่อน

    Спасибо за топ контент! Буду рад послушать про мультимодальность, тема тоже интересная.

  • @EdelWeiss-s6m
    @EdelWeiss-s6m หลายเดือนก่อน

    Господи, где вам поставить памятник?)) Наконец-то все четко по полочкам разложено

    • @razinkov
      @razinkov หลายเดือนก่อน

      Спасибо большое, очень приятно🤎

  • @irinakrivichenko7824
    @irinakrivichenko7824 2 หลายเดือนก่อน

    Благодарю, Евгений! Галлюцинации - важная тема. Думаю, что в последующих поколениях моделей найдут ещё способы, как с ними бороться, помимо фаинтьюнинга.

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Спасибо, Ирина, что не сдаетесь)

  • @CaptainAdmiral
    @CaptainAdmiral 2 หลายเดือนก่อน

    круто, спасибо за разбор

  • @ИванЖарский-к9э
    @ИванЖарский-к9э 2 หลายเดือนก่อน

    Semantic deduplication напомнил NMS в object detection, только сравниваем не по IoU, а по CosSim

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Нравится Ваша ассоциация)

  • @ИванЖарский-к9э
    @ИванЖарский-к9э 2 หลายเดือนก่อน

    Курсор там, где нужно)

  • @ИванЖарский-к9э
    @ИванЖарский-к9э 2 หลายเดือนก่อน

    Супер видео, очень рад, что есть такие выпуски! Наверное всё-таки mOdeling, а не modEling

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Да, Вы правы, mOdeling) Спасибо)

  • @Anton_Sh.
    @Anton_Sh. 2 หลายเดือนก่อน

    Ну, а как момент с границами на AGI перенести?.. да, даже хотя бы proto-AGI...

  • @user-fhi58gg4gk
    @user-fhi58gg4gk 2 หลายเดือนก่อน

    Какое же крутое объяснение. Спасибо большое ❤❤❤

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Очень рад, что объяснение понравилось)

  • @nickfarshev9575
    @nickfarshev9575 2 หลายเดือนก่อน

    Разбор по взрослому! Только факты! Спасибо за труд и прошу продолжайте Ваше творчество! Очень сильно помогает понять материал.

  • @Rhf-y5i
    @Rhf-y5i 2 หลายเดือนก่อน

    Так а чему учиться? Что и на что переучивать? Было бы интересно посмотреть такой ролик, спасибо👍👍👍👍

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Попробую сделать и такое видео)

    • @Rhf-y5i
      @Rhf-y5i 2 หลายเดือนก่อน

      @@razinkov супер, с удовольствием купил бы такой обновленный курс😉

  • @irinakrivichenko7824
    @irinakrivichenko7824 2 หลายเดือนก่อน

    Папа периодически высказывал пессимистические мысли по поводу того, что искусственный интеллект отберёт рабочее места. Он устанавливал телефонные станции раньше. И я привела ему такой пример: если не будет хватать рабочих мест, то давайте просто отключим все телефонные станции и поставим опять телефонисток. Он согласился, что прогресс - это хорошо, и его просто нужно учитывать. По-моему самое слабое место у человечества сейчас - это образование, которое отбивает у детей стремление к учёбе (посмотрите как стремятся дети первый раз в первый класс, и с каким нежеланием идут во второй) и так мы получаем взрослых, которые боятся и не хотят переучиваться на новые специальности.

    • @razinkov
      @razinkov 2 หลายเดือนก่อน

      Честно говоря, у меня нет никаких идей, как сейчас должна быть выстроена система образования)

    • @irinakrivichenko7824
      @irinakrivichenko7824 2 หลายเดือนก่อน

      Одно из моих любимых выступлений на TED: th-cam.com/video/y3jYVe1RGaU/w-d-xo.htmlsi=tobFZT5bfvoWFi9N

  • @velocity-hz8en
    @velocity-hz8en 2 หลายเดือนก่อน

    так это все прогрев)

  • @Rfhbe1
    @Rfhbe1 2 หลายเดือนก่อน

    я только курс закончил на скилбоксе по нейросетям...опять переучиваться надо... меня это достало, возвращаюсь в продажи, они никогда не умрут

  • @kiryllshynharow9058
    @kiryllshynharow9058 2 หลายเดือนก่อน

    аналогия про электричество, кстати, в точку не забывайте, что помимо того что в розетке оно "уже готовое", повышение эффективности аккумуляторов это ключевая задача, от которой зависит весь Hi-Tech первой половины XXI века и накакой инженер-электронщик или даже продвинутый радиолюбитель не обходится без изучения основ физики электромагнетизма, хотя бы ради профессиональной интуиции впрочем это уже неоднократно пройденная история: "профессиональный пессимизм" фонарщиков конца XIX века был объективно обусловлен, но, кажется, спустя век мы имеем число электриков и энергетиков на порядки превосходящее тех самых фонарщиков (хотя как бы и да, действительно больше никто не изобретает динамомашины для личного пользования)

  • @alexandershershnew4178
    @alexandershershnew4178 2 หลายเดือนก่อน

    Стадия отрицания

  • @ПётрРокосов
    @ПётрРокосов 2 หลายเดือนก่อน

    Очень Глубокая мысль про расширение границ... Это результат каждой революции , как только будет прорыв, то затем идёт экспоненциальный рост задач, особенно на первом этапе

    • @Anton_Sh.
      @Anton_Sh. 2 หลายเดือนก่อน

      Границы расширялись потому, что человеческие когниции всегда имели на порядки больше степеней свободы и охвата, чем любой механизм. Тех. сингулярность в этом плане "съедает" этот момент, а мы сейчас уже подлетаем к её аккреационному диску.... впервые в истории. Проще говоря, настанет момент, когда человеку уже нечего будет привнести от себя в управление тех. процессами и он не будет нужен, чтобы хоть чем-то "рулить".

  • @ЕвгенийАндреевич-з5р
    @ЕвгенийАндреевич-з5р 2 หลายเดือนก่อน

    тренироваться и тренироваться в публичных выступлениях

    • @Anton_Sh.
      @Anton_Sh. 2 หลายเดือนก่อน

      наоборот, для интеллектуальных тем лучше именно так - натурально и в режиме реального времени, без какой-то постановки.

    • @Maraur-y9s
      @Maraur-y9s หลายเดือนก่อน

      А вот мне понравилось. Душевный разговор, как будто с другом пообщался

  • @Yetishkin_Pistolet
    @Yetishkin_Pistolet 2 หลายเดือนก่อน

    Если разбираешься в ML, то понимаешь, что всё ОК, никакие искусственные нейронки никогда не заменят реальный мозг человека. Если конечно нейронок не будут воспитывать как людей, с рождения и на протяжении всей жизни. У меня есть идея собрать глубокую архитектуру и передать её каким-нибудь "маме" и "папе", чтобы они обучали её ходить, говорить, совершать ошибки и исправлять их, рисовать фломастерами на обоях, объяснять что такое хорошо и что такое плохо итд. Тут скорее вопрос в том какая это должна быть архитектура (безусловно это должна быть смесь из reinforcement и classification, возможно что-то ещё) и самое главное какие вычислительные мощности нужны для этого, ведь там будут, вероятно триллионы фич. P.S. Меня всё больше пугает скорость разработок ультралайтиксов... Я ещё YOLO 8 нормально не пощупал, а на днях вышла YOLO 11. Так и хочется сказать "Горшочек, не вари ! Я не вывожу" )) P.P.S. тоже иногда приходят мысли о яхтинге, есть в Москве пара мест, где можно поучиться. Правда сейчас осень в разгаре и погода не слишком благоволит

    • @ostrov11
      @ostrov11 2 หลายเดือนก่อน

      ... "у самурая нет цели, есть только путь"

    • @Yetishkin_Pistolet
      @Yetishkin_Pistolet 2 หลายเดือนก่อน

      @@ostrov11 Сейчас в ML реально так

    • @Anton_Sh.
      @Anton_Sh. 2 หลายเดือนก่อน

      искусственные нейронки могут заменить десятки и сотни "частей" и ролей человека.. Не нужна человекоподобная нейросеть - нужны тысячи, миллионы, миллиарды узкоспециализированных....

    • @Yetishkin_Pistolet
      @Yetishkin_Pistolet 2 หลายเดือนก่อน

      @@Anton_Sh. Один из вариантов.

    • @Anton_Sh.
      @Anton_Sh. 2 หลายเดือนก่อน

      @@Yetishkin_Pistolet при этом варианте человек очень быстро станет не нужен для производства любых благ. Человек со своим мозгом останется нужен только самому себе как самоценный контейнер сознания.