Учусь на финансах в Нидерландах. Спасибо огромное, ваши объяснения очень помогают. У нас много линейной алгебры и статистики, а вы так доходчиво объясняете
так квадраты не совсем правильно нарисованы, квадрат там вылазит, потому что мы находим евклидово расстояние и соответственно там гипотенуза вылазит, ее по пифагору находим, а так как извлечение корня высислительно тоудоемкая операция берем квадрат расстояний, отсюда и название
Рома, спасибо РОМА!!! 4 суток на кофе, перечитанный Смирнов по дефурам, голова как арбуз, а понимания метода наименьших квадратов вообще небыло и тут ты!!!
Роман, в Ваши объяснения закралась некоторая недоговоренность. Для чего минимизируется сумма именно квадратов отклонений от искомой функции (их Гаусс - автор МНК - назвал невязками), а не, например, модулей или любых других четных степеней невязок? Ответ лежит в идее самого метода, которая состоит в том, что надо так построить итоговую (аппроксимирующую) функцию, чтобы рассеяние исходных данных вокруг нее было бы минимальным. Это соответствует минимуму случайной погрешности, с которой найден результат, т.е. построена искомая функция. Рассеяние количественно характеризуется значением дисперсии, величина которой как раз и зависит от этой суммы квадратов невязок. Остальные элементы дисперсии, т.е. число данных N и количество искомых коэффициентов M на сумму квадратов невязок после принятия априори вида искомой функции и постановки некоторого числа опытов уже влиять не будут, т.к. по существу становятся константами. Не могу точно утверждать, но на мой взгляд минимизация суммы квадратов ортогональных невязок в эту эту идею не вписывается, поскольку такие невязки не характеризуют отличие экспериментальных данных от данных, полученных после их аппроксимации искомой функцией.
Абсолютно неграмотный ответ. Использование квадратов разностей даёт НЕСМЕЩЕННЫЕ оценки параметров, то есть коэффициентов моделей. А в качестве примера, существует метод минимизации суммы модулей линейных невязок. Описан в монографии Хартмана и Бецкого.
И почему-то никто не спрашивает у автора ролика , почему этот анализ называется РЕГРЕССИОННЫМ? Слова РЕГРЕССИСИЯ означает падение, и что же в этом анализе падает? Только не отвечайте, что падает остаточная сумма квадратов!!! Она не падает , а уменьшается. 😂
Душкин, спасибо вам большое! Самое лучшее объяснение, которое я смог на найти на ютубе. Максимально доходчиво!!!
Благодарю. Такие комментарии прямо как елей на душу.
почему у него такая большая голова 😅
Все видео канала по искусственному интеллекту: th-cam.com/video/n3wEM7P11kI/w-d-xo.html
Вы всегда можете обратиться к нам за консультациями.
И, кроме того, вы всегда можете написать мне в ТГ: @rdushkin
Потрясающее объяснение, премного благодарствую
Спасибо :)
Учусь на финансах в Нидерландах. Спасибо огромное, ваши объяснения очень помогают. У нас много линейной алгебры и статистики, а вы так доходчиво объясняете
Раньше царь Пётр ездил в Голландию за корабельной наукой, теперь из Нидерландов ходят за линейной алгеброй к нам :)
@@dushkin_will_explainПозорство Петра тем не менее остаётся позором
Отличное видео, доступно объясняется суть. В других видео квадраты не рисовали, из-за не до конца было ясно почему все так. Спасибо!
Просто Душкин объяснит на пальцах всё что угодно :)
так квадраты не совсем правильно нарисованы, квадрат там вылазит, потому что мы находим евклидово расстояние и соответственно там гипотенуза вылазит, ее по пифагору находим, а так как извлечение корня высислительно тоудоемкая операция берем квадрат расстояний, отсюда и название
также есть и другие методы с другими формулами расстояний, например городским, или чебышева, методы соответственно МНМ, МАО
спасибо большое! очень доходчиво объяснено
Благодарю. Такие комментарии нам очень дороги :)
Спасибо! Все по сути и ничего лишнего
Стараюсь.
Спасибо 🙏 Вам приятный мужчина, вы хорошо обьяснили суть !!!! Очень помогли!
Стараюсь.
Огонь! Понял даже медик
Отлично!
Рома, спасибо РОМА!!! 4 суток на кофе, перечитанный Смирнов по дефурам, голова как арбуз, а понимания метода наименьших квадратов вообще небыло и тут ты!!!
Вот так бывает.
Роман, ты - лучший
Благодарю.
понятно объясняешь, респект. что то просмотров нету, неужели ето менее интересно чем порнхаб
Благодарю.
Роман, в Ваши объяснения закралась некоторая недоговоренность. Для чего минимизируется сумма именно квадратов отклонений от искомой функции (их Гаусс - автор МНК - назвал невязками), а не, например, модулей или любых других четных степеней невязок? Ответ лежит в идее самого метода, которая состоит в том, что надо так построить итоговую (аппроксимирующую) функцию, чтобы рассеяние исходных данных вокруг нее было бы минимальным. Это соответствует минимуму случайной погрешности, с которой найден результат, т.е. построена искомая функция. Рассеяние количественно характеризуется значением дисперсии, величина которой как раз и зависит от этой суммы квадратов невязок. Остальные элементы дисперсии, т.е. число данных N и количество искомых коэффициентов M на сумму квадратов невязок после принятия априори вида искомой функции и постановки некоторого числа опытов уже влиять не будут, т.к. по существу становятся константами. Не могу точно утверждать, но на мой взгляд минимизация суммы квадратов ортогональных невязок в эту эту идею не вписывается, поскольку такие невязки не характеризуют отличие экспериментальных данных от данных, полученных после их аппроксимации искомой функцией.
Спасибо. Интересно дополнение.
Отличное объяснение
Мы старались
спасибо, всё понятно)
Пожалуйста. Я очень рад :)
Почему разности возводят во вторую степень? почему нельзя суммировать разности в первой степени?
Потому что если бы мы не возводили бы их в квадрат, это был бы не метод наименьших квадратов.
Абсолютно неграмотный ответ. Использование квадратов разностей даёт НЕСМЕЩЕННЫЕ оценки параметров, то есть коэффициентов моделей. А в качестве примера, существует метод минимизации суммы модулей линейных невязок. Описан в монографии Хартмана и Бецкого.
Как быть если искомая функция вертикальна? или почти верикальна?
Приходит идея повернуть график на 90 градусов, применить МНК и потом назад повернуть. Но я не уверен.
На заставке написано -- Метод наименьших квадротов :-)
Вот о чём думала человек, которая это делала?
Исправил.
Лицо, которое вы делаете иногда во время решения - самое смешное что я видел..☻☻☻☻☻
извините
Прекрасно :)
Спасибо
Пользуйтесь, на здоровье!
И почему-то никто не спрашивает у автора ролика , почему этот анализ называется РЕГРЕССИОННЫМ? Слова РЕГРЕССИСИЯ означает падение, и что же в этом анализе падает? Только не отвечайте, что падает остаточная сумма квадратов!!! Она не падает , а уменьшается. 😂
Спасибо за комментарий.