- 193
- 302 961
Евгений Разинков
Serbia
เข้าร่วมเมื่อ 20 มี.ค. 2019
Лекции по машинному обучению и компьютерному зрению от Евгения Разинкова.
Евгений Разинков -- к.ф.-м.н., ко-фаундер и директор по науке компании Pr3vision Technologies, доцент кафедры мат. статистики мехмата КФУ.
Евгений Разинков -- к.ф.-м.н., ко-фаундер и директор по науке компании Pr3vision Technologies, доцент кафедры мат. статистики мехмата КФУ.
AI–стартапы: привлечь инвестиции в Долине. Максим Косенко и Игорь Зильберг
Пробую новый формат: беседы с фаундерами AI-стартапов :)
В первом выпуске фаундеры компании Askera.ai - Максим Косенко и Игорь Зильберг, которые находятся в Сан-Франциско и рассказывают, что собой представляет процесс поиска первых инвесторов.
А еще с 18.11.2024 у нас стартует очередной поток AI-школы! Информация здесь: t.me/razinkov_ai/653
Подробности об AI-школе расскажу на стриме 13 ноября в 13:00 по Москве:
th-cam.com/users/liveii4H-KZ1m3k?feature=share
Таймкоды:
00:00 Приветствие
01:56 Игорь о себе
02:52 Максим о себе
04:58 План на эту беседу
06:41 Об Askera.ai
10:38 Askera.ai - это ChatGPT-wrapper?
11:55 Питчи каких стартапов доводится слышать - только связанных с AI или и других тоже?
14:22 Какая доля стартапов использует AI?
16:20 Типичный фаундер AI-стартапа - кто он?
18:53 Насколько важно ехать в "долину" для привлечения инвестиций и почему?
25:58 Что должно быть готово к моменту привлечения первых инвестиций?
31:45 Какие примерно суммы рейзят на первом этапе и какую долю в компании получается инвестор?
34:35 Самые частые ошибки начинающих фаундеров
38:50 Самые "горячие" AI-темы
41:35 Примеры самых избитых идей
44:35 Как ChatGPT-wrapper-стартапу защититься от такого конкурента как OpenAI? Что устроит инвестора?
49:10 Какие самые интересные идеи довелось услышать?
51:41 Сколько в питчах правды, лукавства?
53:50 Какое соотношение между B2C/B2B/B2G-стартапами?
58:06 Как найти хорошую B2B-идею аутсайдеру?
01:01:10 Как аутсайдеру совершать первые B2B-продажи?
01:04:51 Хорошее ли сейчас время, чтобы делать AI-стартап?
01:06:50 Прочие интересные наблюдения
В первом выпуске фаундеры компании Askera.ai - Максим Косенко и Игорь Зильберг, которые находятся в Сан-Франциско и рассказывают, что собой представляет процесс поиска первых инвесторов.
А еще с 18.11.2024 у нас стартует очередной поток AI-школы! Информация здесь: t.me/razinkov_ai/653
Подробности об AI-школе расскажу на стриме 13 ноября в 13:00 по Москве:
th-cam.com/users/liveii4H-KZ1m3k?feature=share
Таймкоды:
00:00 Приветствие
01:56 Игорь о себе
02:52 Максим о себе
04:58 План на эту беседу
06:41 Об Askera.ai
10:38 Askera.ai - это ChatGPT-wrapper?
11:55 Питчи каких стартапов доводится слышать - только связанных с AI или и других тоже?
14:22 Какая доля стартапов использует AI?
16:20 Типичный фаундер AI-стартапа - кто он?
18:53 Насколько важно ехать в "долину" для привлечения инвестиций и почему?
25:58 Что должно быть готово к моменту привлечения первых инвестиций?
31:45 Какие примерно суммы рейзят на первом этапе и какую долю в компании получается инвестор?
34:35 Самые частые ошибки начинающих фаундеров
38:50 Самые "горячие" AI-темы
41:35 Примеры самых избитых идей
44:35 Как ChatGPT-wrapper-стартапу защититься от такого конкурента как OpenAI? Что устроит инвестора?
49:10 Какие самые интересные идеи довелось услышать?
51:41 Сколько в питчах правды, лукавства?
53:50 Какое соотношение между B2C/B2B/B2G-стартапами?
58:06 Как найти хорошую B2B-идею аутсайдеру?
01:01:10 Как аутсайдеру совершать первые B2B-продажи?
01:04:51 Хорошее ли сейчас время, чтобы делать AI-стартап?
01:06:50 Прочие интересные наблюдения
มุมมอง: 517
วีดีโอ
Llama 3.1: разбор статьи. Часть 10. Factuality & Steerability
มุมมอง 312หลายเดือนก่อน
Следующий поток AI-школы: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Информация о лекциях: razinkov.ai Телеграм-канал с анонсами лекций и материалами по машинному обучению: t.me/razinkov_ai
Оптимистичное послание AI-специалистам
มุมมอง 2.8K2 หลายเดือนก่อน
Я долго был пессимистом относительно последнего прогресса в AI. Чувствую, что появляется оптимизм. Хочу поделиться с вами) Следующий поток онлайн-школы по AI: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Мой маленький телеграм-канал о яхтинге: t.me/captain_razinkov Инстаграм (теперь о яхтинге): evgeny.razinkov Llama 3.1, разбор статьи: th-cam.com/play/PL6-BrcpR2C5QXuCa...
Llama 3.1: разбор статьи. Часть 9. Long context & Tool use
มุมมอง 2802 หลายเดือนก่อน
Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Информация о лекциях: razinkov.ai Телеграм-канал с анонсами лекций и материалами по машинному обучению: t.me/razinkov_ai
Llama 3.1: разбор статьи. Часть 8. Multilinguality & Reasoning
มุมมอง 2582 หลายเดือนก่อน
Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, разделы Multilinguality & Reasoning Таймкоды: 00:00 Приветствие Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/...
Llama 3.1: разбор статьи. Часть 7. Capabilities: code generation
มุมมอง 3162 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел Capabilities: code Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRs...
Llama 3.1: разбор статьи. Часть 6. Post-training data
มุมมอง 5383 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел 4.2 Post-training Data Следующий поток онлайн-школы по AI - ноябрь 2024. Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие 00:39 4.1.5 Model Averaging 03:05 4.1.6 Iterative Rounds 10:31 4.2 Post-training Data 11:43 4.2.1 Preference Data 25:23 4.2.2 SFT Data 35:14 4.2.3...
Llama 3.1: разбор статьи. Часть 5. DPO.
มุมมอง 4613 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы, раздел 4.1.4 Direct Preference Optimization. Таймкоды: 00:00 Приветствие 01:37 Direct Preference Optimization Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling l...
Llama 3.1: разбор статьи. Часть 4. Reward modeling & SFT
มุมมอง 3953 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Таймкоды: 00:00 Приветствие 01:13 4.1.2 Reward Modeling 34:28 4.1.3 Supervised Finetuning В следующий раз мы начнем с раздела 4.1.4 Direct Preference Optimization Плейлист с разбором Llama 3.1: th-cam.com/play/PL6-BrcpR2C5QXuCaev_DJ_o9lqYkAxSmo.html Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRs...
Llama 3.1: разбор статьи. Часть 3. Pre-training
มุมมอง 5593 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling laws: th-cam.com/video/fR8flHXcvLs/w-d-xo.html 3. Pre-training: th-cam.com/video/1Ut-3-Ost0w/w-d-xo.html 4. Reward modeling & Supervised Fine-tuning: th-cam.com/video/4aUYhAgW5h4/w-d-xo.html 5. DPO:...
Llama 3.1: разбор статьи. Часть 2. Architecture & Scaling laws.
มุมมอง 7963 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Предыдущее видео: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html Таймкоды: 00:00 Приветствие 03:54 3.2 Model Architecture 42:35 3.2.1 Scaling Laws Все видео плейлиста: 1. Intro & Data mix: th-cam.com/video/YoRsqImynUE/w-d-xo.html 2. Model Architecture & Scaling laws: th-cam.com/video/fR8flHXcvLs/w...
Llama 3.1: разбор статьи. Часть 1.Intro & Data mix
มุมมอง 2.4K4 หลายเดือนก่อน
Разбираем статью "The Llama 3 Herd of Models" (2024) со слушателями нашей AI-школы. Следующий поток онлайн-школы по AI: с 18 ноября 2024. Информация здесь: t.me/razinkov_ai/653 Как это было и как будет: th-cam.com/users/livev1TRbW0AizI Таймкоды: 00:00 Приветствие 03:07 Abstract 06:50 1 Introduction 20:30 2 General Overview 32:12 3 Pre-Training 33:07 3.1 Pre-Training Data 35:33 3.1.1 Web Data Cu...
Dropout: универсальный метод регуляризации
มุมมอง 7696 หลายเดือนก่อน
Dropout: универсальный метод регуляризации
Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалий
มุมมอง 710ปีที่แล้ว
Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалий
Обнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)
มุมมอง 672ปีที่แล้ว
Обнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)
Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)
มุมมอง 372ปีที่แล้ว
Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)
Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплением
มุมมอง 292ปีที่แล้ว
Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплением
Monte Carlo Learning. Off-Policy Evaluation and Control. Лекция 6 по обучению с подкреплением.
มุมมอง 232ปีที่แล้ว
Monte Carlo Learning. Off-Policy Evaluation and Control. Лекция 6 по обучению с подкреплением.
Евгений Разинков. Лекция 1 по машинному обучению. Введение. (2023)
มุมมอง 2.8Kปีที่แล้ว
Евгений Разинков. Лекция 1 по машинному обучению. Введение. (2023)
Методы Монте-Карло. Контроль: On-Policy. Лекция 5 по обучению с подкреплением
มุมมอง 480ปีที่แล้ว
Методы Монте-Карло. Контроль: On-Policy. Лекция 5 по обучению с подкреплением
Последние тренды в машинном обучении (и как мы к этому пришли). От AlexNet до DALL-E 2 и ChatGPT.
มุมมอง 2.5K2 ปีที่แล้ว
Последние тренды в машинном обучении (и как мы к этому пришли). От AlexNet до DALL-E 2 и ChatGPT.
Self-Supervised Learning. Часть 1. Лекция 5 по Advanced Computer Vision
มุมมอง 5622 ปีที่แล้ว
Self-Supervised Learning. Часть 1. Лекция 5 по Advanced Computer Vision
Метод Монте-Карло: оценка политики. Лекция 4 по обучению с подкреплением
มุมมอง 4802 ปีที่แล้ว
Метод Монте-Карло: оценка политики. Лекция 4 по обучению с подкреплением
Вредоносные примеры в компьютерном зрении. Лекция 4 по Advanced Computer Vision
มุมมอง 4062 ปีที่แล้ว
Вредоносные примеры в компьютерном зрении. Лекция 4 по Advanced Computer Vision
BERT - универсальный инструмент NLP. Лекция 6 по обработке естественного языка.
มุมมอง 1.7K2 ปีที่แล้ว
BERT - универсальный инструмент NLP. Лекция 6 по обработке естественного языка.
Генеративно-состязательные сети: GANs. Лекция 3 по Advanced Computer Vision.
มุมมอง 8182 ปีที่แล้ว
Генеративно-состязательные сети: GANs. Лекция 3 по Advanced Computer Vision.
Поиск оптимальной политики в марковском процессе принятия решений. Лекция 3 по RL.
มุมมอง 6262 ปีที่แล้ว
Поиск оптимальной политики в марковском процессе принятия решений. Лекция 3 по RL.
Трансформер, часть 2. Архитектура. Лекция 5 по NLP
มุมมอง 1K2 ปีที่แล้ว
Трансформер, часть 2. Архитектура. Лекция 5 по NLP
Марковский процесс принятия решений. Лекция 2 по обучению с подкреплением
มุมมอง 8802 ปีที่แล้ว
Марковский процесс принятия решений. Лекция 2 по обучению с подкреплением
Вопрос вызвал спойлер, где было сказано, что размерность модели и размерность векторов V по факту окажется одинаковой. Вопрос: почему бы сразу не искать скалярное QV? Зачем в «посредники» ввели матрицу К и потом взвешивают сумму векторов V по весам софтмакса QK? Зачем лишняя информация в виде матрицы К?
Я осознал с 3-го просмотра как эта штука работает :) Но это не значит, что автор плохо объясняет 😂
Вопрос- почему в блоке нет ни одного обучаемого параметра? Разве изначально матрици Q, K и V не обучаються? Спасибо
В SDPA не обучаются :) Следующая лекция всё расставит на свои места)
Как и всегда, лекции на шикарном уровне!
Очень интересная подача материала! Когда услышал про Фетхие, улыбнуло) Мы с семьей там как раз в одно и то же время с вами жили, два года. Как второй дом теперь)
Замечательное место) Вы на киноклуб в Гиппокампус не приходили случаем?)
35:40 если перенести в general capabilities то там это могло бы назваться language invariance в классическом NLP алгоритм существенно зависит от специфики языка, скажем, финты для "оцифровки" английского, русского, китайского и языка каких-нибудь папуасов Полинезии будут отличаться радикально быть может, я чего-то не знаю, но как мне видится, то что отличает LLM в разрезе NLP, так это то что многоязычность заложена в самой архитектуре и если какой-то язык не поддерживается то это скорее вопрос доступности обучающих данных или вычислительного бюджета разработчиков, а не алгоритмическая проблема
Спасибо большое за Ваш труд.
На самом деле это самая сложная лекция курса. Пересматривая эту лекцию с дистанцией в год понимаешь намного больше и извлекается намного больше смысла. Через год еще раз посмотрю. Вот точно - много новых смыслов увижу. Автору 🤝
Спасибо) Буду ждать!)
АИ для сурдоперевода? Это для глухих которые не умеют читать? Потому что автоматические субтитры выглядит задачей попроще )
Согласен, что выглядит попроще. Но нашел такое в интернете: "Sign language would be the preferred choice in general for pre-lingually deaf people. Post-lingually deaf people have become deaf later in life, so they are often more comfortable communicating in English". То есть иногда сурдоперевод предпочтительнее.
Спасибо за лекцию! Вот интересно, если при инициализации фильтров, их веса распределятся так, что при умножении на на входной тензор они дадут примерно равные значения, то дальше мы потеряем информационность тензоров. И обратное распространение не будет обучать эти фильтры. И если такое может случиться на разных слоях, то это не даст возможности обучать сеть в общем. И еще одно наблюдение. Мы ведь не можем быть уверенны, на каком уровне астракции остановилась сверточная сеть. То есть размеры обьектов в тензоре должны быть примерно одинаковые, ведь наш фильтр не сработает, если объекты будут кратно по размеру отличаться. А также мы не можем определить что признаки, которые нашла сеть перед полносвязным слоем, расположенны именно так как мы ожидаем.
Евгений, большое спасибо за проделанную работу. Было очень познавательно. Думаю есть смысл продолжать. Мне зашло)
Спасибо, Сергей!
... бухаешь?
... МММ современности )))
Еще захотелось добавить, что инди-хакерский подход у ребят мне видится очень, мега, трезвым - быстрые гипотезы, без влюбления и очарования. Они сейчас как серферы в лёгких нелипнущих ботинках. Задерживаться там однозначно. Всех благ им, и вам, Евгений, в вашей задумке - что конечно же читается!
Спасибо большое!
Клёво сказано: короткая дорожка для умников! Реально! Ситуация такая, что технологии развиваются настолько быстро, что большинство компаний просто не имеют возможности привлекать достаточное количество специалистов в теме AI. Поэтому скорее проектам на AI стоит думать в сторону работы с B2B сектором (даже наверное B2B2B - что еще мультипликатор). Не стоит заниматься конечным потребителем - все взаимоотношения с ним уже многократно отутюжены обычным бизнесом - нужно помочь компаниям. И взять свои деньги за момент - момент, когда большие компании из за бурного течения отстали. ЗЫ: Можно подробнее по сурдопереводчику? Можно стать тестером?
Спасибо! Уточню, запомнилось ли Игорю и Максиму название проекта по сурдопереводу)
Справа французик
Отличный формат! Надеюсь на его развитие 👍
Спасибо!
Формат класс! Нужно больше такого. Но ребята, без обид, какие-то невнятные. я попробовал зайти на сайт, но там пусто. Одно предложение. Поискал github - снова ничего. LinkedIn - мертвый. Так что же они продвигают? С чем идут к инвесторам? С идеей? Так это очень размытая идея. Все AI стартапы предлагают эту идею, поскольку это и есть идея AI
🔥🔥🔥
давно пора! очень рад появлению нового формата, надеюсь в будущем их будет больше . . . . . где комменты? 🤨
40 минут назад опубликовал, поэтому и нет комментариев) А за Ваш - спасибо :)
@@razinkov просто актив очень важен в первое время после залива видео
@@ilya_rekun я могу только надеяться :)
@jack j Вам хочется "настоящей" мультимодальности - ну так подождите несколько лет настоящую мультимодальность пока слишком дорого обучать "налево и направо" кроме того, учтите что текстовые даные для self-supervised learning гораздо более доступны (и в достаточном количестве) чем данные для других модальностей
Прежде, чем вещать, сам бы разобрался
Видно, что парень еще сам совсем не разобрался... Дизлайк
Потрясающие лекции и безумно красивая математика - как из довольно неприятной формулы выходит вполне себе понятная и красивая loss function. Спасибо, Евгений!
Спасибо большое за лестный отзыв!
Былр бы интересно послушать другие глубокие лекции на тему классического cv: shape analysis, texture analysis, eigen analysis, orb, image moments. Есть еще области где глубокие модели беспомощны.
Шикарное объяснение этой темы
Спасибо огромно за курс!!!!!
Что плохого в batchnorm? Я активно им пользуюсь, частенько помогает.
Приветствую, Учитель. Интерес у аудитории к тематике есть. Спасибо за контент!
Спасибо, что смотрите!
Спасибо за вебинары. Забрел сюда случайно, еще на первую сессию и дотянул то нынешнего момента)) Вопрос относительно галлюцинаций. Я понимаю, что таким образом, как описано в статье, мы можем найти области, где модель любит галлюцинировать. Но по описанию не совсем понял, что мы делаем далее, чтобы уменьшить этот эффект?
Мы определяем промпты, где модель галлюцинирует и через SFT обучаем ее вежливо отказываться отвечать.
Не понятно как на этапе тестирования они после замены слоев подобрали веса на новых слоях. По идее их надо тоже обучать, тогда это надо сделать на этапе обучения.
И не понятно почему сразу не обучить полносверточную версию vgg. Кажется что выкидывание линейных слрев это как выкинуть коныету и оставить фантик. Там куча связей, которые требовали много вычислений. А потом мы посто выкидываем их.
Спасибо за топ контент! Буду рад послушать про мультимодальность, тема тоже интересная.
Господи, где вам поставить памятник?)) Наконец-то все четко по полочкам разложено
Спасибо большое, очень приятно🤎
Благодарю, Евгений! Галлюцинации - важная тема. Думаю, что в последующих поколениях моделей найдут ещё способы, как с ними бороться, помимо фаинтьюнинга.
Спасибо, Ирина, что не сдаетесь)
круто, спасибо за разбор
Semantic deduplication напомнил NMS в object detection, только сравниваем не по IoU, а по CosSim
Нравится Ваша ассоциация)
Курсор там, где нужно)
Супер видео, очень рад, что есть такие выпуски! Наверное всё-таки mOdeling, а не modEling
Да, Вы правы, mOdeling) Спасибо)
Ну, а как момент с границами на AGI перенести?.. да, даже хотя бы proto-AGI...
Какое же крутое объяснение. Спасибо большое ❤❤❤
Очень рад, что объяснение понравилось)
Разбор по взрослому! Только факты! Спасибо за труд и прошу продолжайте Ваше творчество! Очень сильно помогает понять материал.
Так а чему учиться? Что и на что переучивать? Было бы интересно посмотреть такой ролик, спасибо👍👍👍👍
Попробую сделать и такое видео)
@@razinkov супер, с удовольствием купил бы такой обновленный курс😉
Папа периодически высказывал пессимистические мысли по поводу того, что искусственный интеллект отберёт рабочее места. Он устанавливал телефонные станции раньше. И я привела ему такой пример: если не будет хватать рабочих мест, то давайте просто отключим все телефонные станции и поставим опять телефонисток. Он согласился, что прогресс - это хорошо, и его просто нужно учитывать. По-моему самое слабое место у человечества сейчас - это образование, которое отбивает у детей стремление к учёбе (посмотрите как стремятся дети первый раз в первый класс, и с каким нежеланием идут во второй) и так мы получаем взрослых, которые боятся и не хотят переучиваться на новые специальности.
Честно говоря, у меня нет никаких идей, как сейчас должна быть выстроена система образования)
Одно из моих любимых выступлений на TED: th-cam.com/video/y3jYVe1RGaU/w-d-xo.htmlsi=tobFZT5bfvoWFi9N
так это все прогрев)
я только курс закончил на скилбоксе по нейросетям...опять переучиваться надо... меня это достало, возвращаюсь в продажи, они никогда не умрут
аналогия про электричество, кстати, в точку не забывайте, что помимо того что в розетке оно "уже готовое", повышение эффективности аккумуляторов это ключевая задача, от которой зависит весь Hi-Tech первой половины XXI века и накакой инженер-электронщик или даже продвинутый радиолюбитель не обходится без изучения основ физики электромагнетизма, хотя бы ради профессиональной интуиции впрочем это уже неоднократно пройденная история: "профессиональный пессимизм" фонарщиков конца XIX века был объективно обусловлен, но, кажется, спустя век мы имеем число электриков и энергетиков на порядки превосходящее тех самых фонарщиков (хотя как бы и да, действительно больше никто не изобретает динамомашины для личного пользования)
Стадия отрицания
Очень Глубокая мысль про расширение границ... Это результат каждой революции , как только будет прорыв, то затем идёт экспоненциальный рост задач, особенно на первом этапе
Границы расширялись потому, что человеческие когниции всегда имели на порядки больше степеней свободы и охвата, чем любой механизм. Тех. сингулярность в этом плане "съедает" этот момент, а мы сейчас уже подлетаем к её аккреационному диску.... впервые в истории. Проще говоря, настанет момент, когда человеку уже нечего будет привнести от себя в управление тех. процессами и он не будет нужен, чтобы хоть чем-то "рулить".
тренироваться и тренироваться в публичных выступлениях
наоборот, для интеллектуальных тем лучше именно так - натурально и в режиме реального времени, без какой-то постановки.
А вот мне понравилось. Душевный разговор, как будто с другом пообщался
Если разбираешься в ML, то понимаешь, что всё ОК, никакие искусственные нейронки никогда не заменят реальный мозг человека. Если конечно нейронок не будут воспитывать как людей, с рождения и на протяжении всей жизни. У меня есть идея собрать глубокую архитектуру и передать её каким-нибудь "маме" и "папе", чтобы они обучали её ходить, говорить, совершать ошибки и исправлять их, рисовать фломастерами на обоях, объяснять что такое хорошо и что такое плохо итд. Тут скорее вопрос в том какая это должна быть архитектура (безусловно это должна быть смесь из reinforcement и classification, возможно что-то ещё) и самое главное какие вычислительные мощности нужны для этого, ведь там будут, вероятно триллионы фич. P.S. Меня всё больше пугает скорость разработок ультралайтиксов... Я ещё YOLO 8 нормально не пощупал, а на днях вышла YOLO 11. Так и хочется сказать "Горшочек, не вари ! Я не вывожу" )) P.P.S. тоже иногда приходят мысли о яхтинге, есть в Москве пара мест, где можно поучиться. Правда сейчас осень в разгаре и погода не слишком благоволит
... "у самурая нет цели, есть только путь"
@@ostrov11 Сейчас в ML реально так
искусственные нейронки могут заменить десятки и сотни "частей" и ролей человека.. Не нужна человекоподобная нейросеть - нужны тысячи, миллионы, миллиарды узкоспециализированных....
@@Anton_Sh. Один из вариантов.
@@Yetishkin_Pistolet при этом варианте человек очень быстро станет не нужен для производства любых благ. Человек со своим мозгом останется нужен только самому себе как самоценный контейнер сознания.