Учусь на финансах в Нидерландах. Спасибо огромное, ваши объяснения очень помогают. У нас много линейной алгебры и статистики, а вы так доходчиво объясняете
Рома, спасибо РОМА!!! 4 суток на кофе, перечитанный Смирнов по дефурам, голова как арбуз, а понимания метода наименьших квадратов вообще небыло и тут ты!!!
так квадраты не совсем правильно нарисованы, квадрат там вылазит, потому что мы находим евклидово расстояние и соответственно там гипотенуза вылазит, ее по пифагору находим, а так как извлечение корня высислительно тоудоемкая операция берем квадрат расстояний, отсюда и название
Роман, в Ваши объяснения закралась некоторая недоговоренность. Для чего минимизируется сумма именно квадратов отклонений от искомой функции (их Гаусс - автор МНК - назвал невязками), а не, например, модулей или любых других четных степеней невязок? Ответ лежит в идее самого метода, которая состоит в том, что надо так построить итоговую (аппроксимирующую) функцию, чтобы рассеяние исходных данных вокруг нее было бы минимальным. Это соответствует минимуму случайной погрешности, с которой найден результат, т.е. построена искомая функция. Рассеяние количественно характеризуется значением дисперсии, величина которой как раз и зависит от этой суммы квадратов невязок. Остальные элементы дисперсии, т.е. число данных N и количество искомых коэффициентов M на сумму квадратов невязок после принятия априори вида искомой функции и постановки некоторого числа опытов уже влиять не будут, т.к. по существу становятся константами. Не могу точно утверждать, но на мой взгляд минимизация суммы квадратов ортогональных невязок в эту эту идею не вписывается, поскольку такие невязки не характеризуют отличие экспериментальных данных от данных, полученных после их аппроксимации искомой функцией.
Абсолютно неграмотный ответ. Использование квадратов разностей даёт НЕСМЕЩЕННЫЕ оценки параметров, то есть коэффициентов моделей. А в качестве примера, существует метод минимизации суммы модулей линейных невязок. Описан в монографии Хартмана и Бецкого.
И почему-то никто не спрашивает у автора ролика , почему этот анализ называется РЕГРЕССИОННЫМ? Слова РЕГРЕССИСИЯ означает падение, и что же в этом анализе падает? Только не отвечайте, что падает остаточная сумма квадратов!!! Она не падает , а уменьшается. 😂
Душкин, спасибо вам большое! Самое лучшее объяснение, которое я смог на найти на ютубе. Максимально доходчиво!!!
Благодарю. Такие комментарии прямо как елей на душу.
почему у него такая большая голова 😅
Учусь на финансах в Нидерландах. Спасибо огромное, ваши объяснения очень помогают. У нас много линейной алгебры и статистики, а вы так доходчиво объясняете
Раньше царь Пётр ездил в Голландию за корабельной наукой, теперь из Нидерландов ходят за линейной алгеброй к нам :)
@@dushkin_will_explainПозорство Петра тем не менее остаётся позором
Отличное объяснение
Мы старались
Рома, спасибо РОМА!!! 4 суток на кофе, перечитанный Смирнов по дефурам, голова как арбуз, а понимания метода наименьших квадратов вообще небыло и тут ты!!!
Вот так бывает.
спасибо большое! очень доходчиво объяснено
Благодарю. Такие комментарии нам очень дороги :)
Спасибо! Все по сути и ничего лишнего
Стараюсь.
Отличное видео, доступно объясняется суть. В других видео квадраты не рисовали, из-за не до конца было ясно почему все так. Спасибо!
Просто Душкин объяснит на пальцах всё что угодно :)
так квадраты не совсем правильно нарисованы, квадрат там вылазит, потому что мы находим евклидово расстояние и соответственно там гипотенуза вылазит, ее по пифагору находим, а так как извлечение корня высислительно тоудоемкая операция берем квадрат расстояний, отсюда и название
также есть и другие методы с другими формулами расстояний, например городским, или чебышева, методы соответственно МНМ, МАО
Огонь! Понял даже медик
Отлично!
Роман, ты - лучший
Благодарю.
понятно объясняешь, респект. что то просмотров нету, неужели ето менее интересно чем порнхаб
Благодарю.
Спасибо 🙏 Вам приятный мужчина, вы хорошо обьяснили суть !!!! Очень помогли!
Стараюсь.
спасибо, всё понятно)
Пожалуйста. Я очень рад :)
Роман, в Ваши объяснения закралась некоторая недоговоренность. Для чего минимизируется сумма именно квадратов отклонений от искомой функции (их Гаусс - автор МНК - назвал невязками), а не, например, модулей или любых других четных степеней невязок? Ответ лежит в идее самого метода, которая состоит в том, что надо так построить итоговую (аппроксимирующую) функцию, чтобы рассеяние исходных данных вокруг нее было бы минимальным. Это соответствует минимуму случайной погрешности, с которой найден результат, т.е. построена искомая функция. Рассеяние количественно характеризуется значением дисперсии, величина которой как раз и зависит от этой суммы квадратов невязок. Остальные элементы дисперсии, т.е. число данных N и количество искомых коэффициентов M на сумму квадратов невязок после принятия априори вида искомой функции и постановки некоторого числа опытов уже влиять не будут, т.к. по существу становятся константами. Не могу точно утверждать, но на мой взгляд минимизация суммы квадратов ортогональных невязок в эту эту идею не вписывается, поскольку такие невязки не характеризуют отличие экспериментальных данных от данных, полученных после их аппроксимации искомой функцией.
Спасибо. Интересно дополнение.
Почему разности возводят во вторую степень? почему нельзя суммировать разности в первой степени?
Потому что если бы мы не возводили бы их в квадрат, это был бы не метод наименьших квадратов.
Абсолютно неграмотный ответ. Использование квадратов разностей даёт НЕСМЕЩЕННЫЕ оценки параметров, то есть коэффициентов моделей. А в качестве примера, существует метод минимизации суммы модулей линейных невязок. Описан в монографии Хартмана и Бецкого.
Все видео канала по искусственному интеллекту: th-cam.com/video/n3wEM7P11kI/w-d-xo.html
Вы всегда можете обратиться к нам за консультациями.
И, кроме того, вы всегда можете написать мне в ТГ: @rdushkin
Лицо, которое вы делаете иногда во время решения - самое смешное что я видел..☻☻☻☻☻
извините
Прекрасно :)
Спасибо
Пользуйтесь, на здоровье!
На заставке написано -- Метод наименьших квадротов :-)
Вот о чём думала человек, которая это делала?
Исправил.
И почему-то никто не спрашивает у автора ролика , почему этот анализ называется РЕГРЕССИОННЫМ? Слова РЕГРЕССИСИЯ означает падение, и что же в этом анализе падает? Только не отвечайте, что падает остаточная сумма квадратов!!! Она не падает , а уменьшается. 😂
Спасибо за комментарий.