************************************************ Соцсети: Telegram: t.me/engineerspock_it TH-cam: www.youtube.com/@EngineerSpock Дзен: dzen.ru/engineerspock VK: vk.com/engineerspock ************************************************ НАШ САЙТ И КУРСЫ: www.engineerspock.com/offer-spock-youtube Поддержать: pay.cloudtips.ru/p/1f080f72 ************************************************ СЕРВИСЫ И БРЕНДЫ, которые я люблю и которыми пользуюсь сам: Адресная ПОМОЩЬ пожилым и больным детям, ссылка для смартфонов: : www.engineerspock.com/helpapp Бизнес в Альфа-Банке: www.engineerspock.com/alfabusiness Биржевой дракон - сервис автоматической торговли криптой для РИСКОВОЙ части инвестиционного портфеля: Почитать их ТГ-канал: www.engineerspock.com/bdtg Для оформления подписки на их сервис: www.engineerspock.com/bdtgs - писать сюда и назвать кодовое слово "DragonElias" ************************************************ Статья Шели Айзековича: dzen.ru/a/ZlbXzzBBSlv5VW-p Про Цетлин-машины: tsetlinmachine.org/
Определение интеллекта нет у кого? у ИИ или у человека? Ему (ИИ) понятно что такое интеллект, НО зрительные, слуховые, обонятельные, тактильные (осязательные), вкусовые и кинестетические ощущения создают этот интеллект, но у ИИ пока этого всего нет. Когда люди определили интеллект, то сами забыли обобщить все эти факторы в одно! Без этих чувств, если их убрать всё у человека, то и не будет никакого интеллекта, будет только мозг - без интеллекта, но если добавить хотя бы два чувства, зрительное и слуховое, то интеллект появится. Так и произойдет у ИИ. Когда ИИ получит своё тело со всеми чувствами, хоть эти чувства будут и цифровыми, то он может начать обобщать и у него может появится интеллект. Дело времени, когда это случится. Когда ИИ дадут все сенсоры и он через них познает мир, что изучал до этого чуть, тогда и будет цифровое сознание подобное нашему.
Вот честно скажу начал смотреть со скепсисом, мол чего там он может внятного сказать. До смотрел до конца, не смог оторваться дядя Шелия просто красавчик. Живой ум, глобальные знания, способность посмотреть на проблему в целом. Очень интересный человек. Желаю ему еще долгих лет качественной жизни.
Верни скепсис обратно, дед Америку не открыл, просто поругал ребенок за то что он гений но человеки лучше. Что явно спорно, выгляни в окно ) там интеллекта мало ходит ;)
Мне вот вообще не понятно, как можно доверять информации ChatGPT (или любой другой нейронки) которая натренирована/черпает информацию из сети… Которую туда добавили люди! А это означает - непроверенная информация, шуточная информаци, обрывочные сведения, ошибочные описания, случайные или заведомые ошибки в инструкциях/рецептах и т.п., все различные фейки. Надеюсь понятно объяснил… Бывает гуглишь информацию очень узкоспециализированную, и все возможные гайды НЕ РАБОТАЮТ! Ну вот неправильные они и/или устаревшие. Потом перерыв весь интернет где нибудь на 5 странице в выдаче Гугла, натыкаешься на заброшенный древний форум где кто-то мимходом при обсуждении другой проблемы оставил одно маленькое сообщение с правильными параметрами. В моей работе даже в качестве просто продвинутого поисковика пока что ИИ ни разу не помог. Это как ИИ на полном серьезе советовал скреплять продукты на пицце клеем… потому что это какой-то шутник когда-то давно предложил такое решение, а ИИ взяло это за чистую монету. И все эти писалки кода-программы, основывающиеся в т.ч. на коде ламеров… ИМХО. ИИ сильно переоценены. Как в свое время бунт доткомов.
Треть видео - представление гостя. Треть видео истории как шмойлович научился пользоваться чат жпт. И треть видео о выдающихся и великолепных шмуйлях двадцатого века. Браво браво брависимо.
И что ты понял о сложном? Может расскажешь как обратная связь в перцептронах работает? :) Докажи нам всем, насколько дед великолепен и как хорошо тебя научил. :)
Какой-то поток сознания на видео, прыгает с математики в воспоминания и раз за разом теряет нить повествования. Очень тяжело воспринимать, как и большинство пожилых людей. Я так и не понял что он пытался сказать, услышал только скомканные обрывки мыслей и местами критику ради критики. Что вы там понять смогли о сложном, даже интересно Человек пожилой, все понимаю, но у меня есть вопросы к автору канала, который поставил кликбейтный заголовок совершенно не соответствующий содержанию
А что он рассказал? Верхушек нахватался и ничего по-существу. Особенно рассмешило что он отец распознавание алгоритмов текста которыми пользуется весь мир. Это враньё! P.S. Люди определенной национальности умеют хорошо спекулировать на чём-то, но ничего не умеют создавать собственными руками.
@@dronovdmitry про проблему переобучения достаточно доходчиво. Также про галлюцинации ИИ, чему я был сам свидетелем - уверенная чушь иногда бывает. также высказал мнение (достаточно спорное наверное ), что современные нейросети больше берут мощью и увеличением обучающей выборки ( спич про буквы и цифры и их распознавание)
Дело не в науке. Наука позволяет заиметь этот живой ум. Но сохранить его позволяет только большая физическая активность и чистые капиляры. Это уже доказано. Если вы будете сидеть на заднице ровно и лопать всякое дерьмо, то кровь не сможет поступать и питать весь мозг и начнется деменция. И никакая наука вам не поможет.
Вы мне можете объяснить, почему программисты выбросили Фортран и начали писать на языках, коих наверно тысячи, хотя Фортран быстрее всех и на нем можно написать все. Это я клоню к тому, что есть ли у вас интеллект и можно ли вам в чем-то верить в чем-то более сложном.
@@cyy5747во-первых Фортран прекрасно применяется в том числе и на суперкомпьютерах просто потому, что жалко выбрасывать уже имеющиеся программы. А так, для нового, есть более удобные языки которые не уступают ни в чем Фортрану.
@@cyy5747Фортран никто не "выбрасывал". Исторически остается один из старейших, если не первый, язык программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran. Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.
@cyy5747 Фортран никто не "выбрасывал". Исторически остается одним из старейших, если не первым, языков программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran. Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.@@cyy5747
Благодарю за такой контент! Ты приглашаешь уникальных гостей, увидев Арлазарова я вообще прикурил. Браво. Продолжай в том же духе. Больше так никто не делает.
Поразительный ученый. Очень глубокие вещи сказал. Великий респект. То, что он очень стар и при этом не дряхл, радует. Бытие демонстрирует очередное чудо.
Ваша оценка внешнего вида и "технического состояния" ученого выглядит некорректной и неэтичной. А отношение к человеку как к объекту, продемонстрированному вам мифическим "бытием" выглядит как попытка обесценить достижения этого человека.
Низкий поклон и глубокая благодарность за Гостя!! Вот это Человечище!! восхищение и восторг!!! Моего советского архитектурно-строительного образования оказалось достаточно, чтобы понять все!!!🎉😊 Елена, инженер 60 лет
Долгих лет Шелии Айзековичу ! Когда он говорил про кучу точек в пространстве я буквально представлял все себе. У него очень живая фантазия и способность визуально представлять систему . Хотел бы я чтоб у меня в такие годы так же работал аппарат )
после просмотра последнего стрима с Джеффри Хинтон, получившего нобелевку, становится понятно, что этот почтенный джентльмен остался с идеями утратившими актуальность. Прогресс не остановить, на смену патриархам пришли новые гении.
Когда в 80-е я учился на кафедре прикладной геофизики УИИ, после экзаменов мы спрашивали друг у друга какие были доп.вопросы к билету. Тогда логики для нас небыло никакой, могли поставить самую неожиданную задачу. Даже сильные студенты сдавали со второго, третьего раза. Эту логику я понял когда начал работать - безграничная адаптация к любому материалу и задаче. Тогда нам всем повезло, мы учились у высоких профессионалов и больших людей.
@@manOfPlanetEarth замудрённое у вас имя. В разведочной геофизике работал до начала 90-х. Потом начался первый передел и социальная коммуникативность стала важнее аналитических способностей. Пришлось освоить профессию химика аналитика, но без диплома. Нужно было зарабатывать деньги. Так и занимался узкими местами в геохимии нефтянки. Если ты с молодости раб логики, то карьера и большие деньги в этой стране тебе не светят. Осталось ремесло и память о тех, у кого учился и с кем работал.
@CuriousPassenger На ваш вопрос давно ответили классики русской литературы - все мы живём в немытой России, стране рабов, стране господ. Похоже что это навсегда. Система управления государством и обществом здесь осталась на уровне 16 - 17 века, она упорно воспроизводит себя и не может измениться. Всё остальное это частные случаи отдельных людей в лучшую, или худшую сторону.
Вы разве хотите уничтожить этот прекрасный рыночег?) Может пусть поживет, а то скоро барыги, шлюхи и мусора станут вымирающим видом и их придётся искуственно синтезировать и держать в спецрассадниках
Ну а теперь сядьте, запустите Visual Studio и попробуйте написать простейшую программу по распознаванию текста? Или программу которая бы обучилась играть в крестики-нолики?
Что-то не так в его рассуждениях. Когда человек опознает изображение, он ориентируется прежде всего на признаки и на их сочетание. "Точка-точка-запятая-минус..." - и дальше достраивает возможный вариант. Может достроить кривую рожицу, а может достроить и математическую формулу. Нынешний ИИ уже способен и обобщать признаки, и достраивать до целых образов. И для этого совсем не надо рисовать и обладать мышечной памятью. Я профессионально обучаю детей чтению и точно знаю, что многие дети запоминают буквы без всякого их написания. А другие дети сто раз букву напишут, но запомнить не могут. Я видел котенка, который подкрадывался к нарисованной мухе. Он ее принял за настоящую муху, хотя она была нарисована очень условно, без теней и без деталей, даже без лапок. Но котенок это изображение всё-таки достроил до мухи. Но ведь он сам никогда муху не рисовал, не так ли?
Как человек (и любая другая в самом общем смысле этого слова скотина) опознает изображение - науке достоверно не известно. Но есть множество разной степени логичности гипотез на этот предмет. Вы приняли одну из гипотез. И хотите из нее достроить теорию на все случаи жизни. Получится вряд ли.
Вы путаете всë. Разумеется, дети выучивают буквы, как знаки, но у этих детей во-первых уже есть телесное представление о движении и пространстве, во-вторых чтобы опознать букву "а" не в стандартном шрифте, а в граффити на стене, условно, нужно уже иметь и опыт написания. Как знак, как означающее, если угодно, если пользоваться этой терминологией, котёнок воспринимает любой небольшой движущийся объект в качестве добычи, но он не достраивает его особо ни до чего, животные в известном смысле целиком существуют в символическом, небольшой движущийся объект - добыча, частности не важны. Если он вытянутый и довольно крупный - то это уже скорей опасность. Покажите котёнку рисунок мухи размером с ладонь в книге учебника, и никакой мухой он его не воспримет (не воспримет вообще никак), ему это не нужно, он как тело в пространстве существует совсем иначе, без мелкой моторики конечностей, порождающей абстрагирования (контур и т. д)
@@pqrize Все проще. На моих глазах и с моим участием чтению учится шестой ребенок, с которым я знаком с пеленок - самая старшая внучка. У всех все по -разному. Не обобщайте то, о чем читали в книжках. Смотрите своими глазами. Начитанность полезна, но работы собственной головы не заменяет. Короче - чушь наукообразную несете.
@@wad-n4b вы даже не понимаете, что такое "наукообразие", а полагать, что "умные слова" это "наукообразие" и тот, кто использует подобную терминологию (она у меня в данном случае скорей психоаналитическая и к научной вообще отношения не имеет), тот читал много книжек и не думает своей головой - это просто признак самой обыкновенной и банальной глупости. и вы, разумеется, даже не поняли, что я написал, судя по вашему комментарию. Ну и, разумеется, коммент был вообще не вам, а автору первого комментария
@@wad-n4b а по поводу "смотреть своими глазами" - я смотрел своими глазами и общался с людьми, ставшими таковыми в результате т.н. загорского эксперимента, в ходе которого работали со слепоглухими детьми, и если вам действительно что-то интересно в жизни, почитайте об этом и постарайтесь подумать. "у всех всё по-разному" - это слова, не имеющие никакого вообще смысла в данном контексте, потому что речь идет о вещах гораздо более фундаментальных, чем те или иные склонности конкретного ребенка, к визуальному/аудиальному и т.д., при том, что склонности эти, разумеется, есть у всех
Огромное спасибо, видно что человек очень умный и знающий, очень интересный собеседник. Его слова позволяют взглянуть с нового ракурса на обсуждаемые проблемы.
@@EngineerSpockбудет очень интересно! Еще Крайнов вроде тоже интервью охотно дает. Я вообще ни разу не программист, и многого не понимаю, но познавать очень интересно.
такой совет - раньше когда человек должен был выйти - сначала о нем рассказывают, а потом уже он выходит и здороваются. подсказываю - это не просто так сделано именно в таком порядке.
то что является для одной стороны чушью а другой не чушью для третей все оба варианта чушь полнейшая.. речь идет об исинном и бесспорном распознавании бесспорных вещей.. вы же пишите о каких то эфемерных вещах. Политика, культура, история..( если вы говорите что яблоко квадратное, то это ошибка интеллекта, а не какой политический строй или движение является чушью. любой кто скажет что любит сою страну и свой народ по вашим словам нечет чушь. Ибо он должен любить все человечество целиком) вы сами несете чушь разделяя людей на проживания в странах.
Шелия говорит, что для распознавания рукописного текста они придумали несколько примитивов (черточка, кружочек...) и такой подход - преимущество над растризованным представлением. Возможно, в 80-е годы эта идея была новой, но в 90-е Ян Лекун уже делал нейросети для рукописного текста, которые давали запредельную точность на MNIST (стандартный рукописный датасет до эпохи картинок). В конволюционных сетях такие примитивы выучиваются автоматически. Есть статьи с рисунками этих черточек, дуг, точек на первом слое нейросети. Если не нравится автоматически, можно задать этот слой вручную, и тогда это будет называться feature engineering. В общем, вопрос изученный и решенный еще в прошлом веке. Были зафиксированы рекорды точности, они перечислены на сайте MNIST, публикации.... Результатов этой модели я там не вижу.
я так понимаю речь идет именно не о "понимании" машиной, а сравнении таргета с примитивами, которые уже есть. Человек может именно понять, чего не может нейронка, она всего лишь подгоняет веса под образцы, которые у нее есть на данный момент. Это Шелия и критикует, говоря, что это не интеллект. Просто автоматическое выучивание, про которое вы говорите, это по СУТИ не меняет того, что сравниваем с шаблоном, просто их КОЛИЧЕСТВО сильно увеличивается алгоритмом, а не человеком. Количество, а не качество. Короче: все равно сравниваем с тем что есть, но не можем сравнить с тем чего нет и тогда просто машина угадывает с помощью всяких там softmax и тп. Но если я нарисую букву А так как никто не рисовал, то нейронка затупит, а человек все еще сможет угадать даже не имея готового образца (то есть такое начертание встретилось впервые и оно по критериям расстояния между картинками относительно далеко). Если еще короче: то машина гадает (сравнивает) на основе того, что знает (есть в базе шаблонов) и не более того, какими бы крутыми и красивыми словами это не описывали. P.S. от себя добавлю (как я понял из видео), что он говорит о более глубоких научных вещах, а не инженерных, что есть принципиальные проблемы в концепции сегодняшних нейронных сетей, которые как раз связаны тупо с зазубриванием результатов, а не истинным обучением. Чем больше ресурсов у компании, тем больше она может зазубрить и удивлять людей своими "спопобсностями". Хотя на инжереном уровне часть задач, действительно, решается путем увеличения размеров модели. Но он говорит про обобщение и про непрерывный набор, где мы можем предугадывать значения быстро меняющейся функции в любой ее точке, а модель правильно работает только с заученным дискретным набором данных. P.P.S. Есть подозрение, что человеческое обучение и понимание - это не просто тупо сравнивание с шаблоном и заучивание (он кстати и говорит про зазубривание - что это неэффективный метод), но еще ряд других вещей типа интуиции, воображения и тп. Выстраивания связей между тем что знаю и тем что сейчас вижу + воображение и проверка гипотез на месте. Пока мы не до конца понимаем как это работает у человека, сложно этому научить машину. Мозг часто не по алгоритмам работает - что-то спонтанное может повлиять на окончательный выбор.
@@QScientist мозг это продукт эволюции в миллион лет, а нейросеть тренируется с нуля максимум за месяцы. Что такое интеллект и сознание никто не знает. И человек тоже не может придумать то, чего не видел. Как раз недавно обсуждали книгу-справочник по инопланетянам. Все изображения инопланетян, придуманные людьми, имеют земные прототипы. Действительно, алгоритмы обучения моделей кажутся на первый взгляд не очень эффективными, есть желание делать это лучше, на меньших данных и быстрее. Вот пусть Шелия и сделает.
@@QScientistВсе верно, что делают текущие методы, которые построены на обратном распространении, это всего лишь метод. Далее на эту концепцию прикручиваются всякие фичи, типа новых функций активации, методик оптимизации, методик оптимизации гипермараметров, самих методик оптимизации гипермараметров, типа модификации Бейса и т.д. Но это просто улучшение, фундамент кривой, а внутри красиво, но это не ии, не может быть в принципе.
🎯 Key points for quick navigation: 00:00 *🧠 Искусственный интеллект (ИИ) сегодня сильно опирается на нейронные сети.* 00:38 *🗣️ В гостях у подкаста "Б скринов" - Шелия Губерман, ученый в области искусственного интеллекта и распознавания образов.* 03:11 *📷 С 1958 года, со времен изобретения перцептрона, ИИ развивается в направлении распознавания образов, начиная с букв.* 06:09 *👶 Дети учатся узнавать буквы не через многократное повторение, а через письмо, задействуя моторику и зрительное восприятие.* 07:02 *🚫 В отличие от компьютеров, мозг человека не хранит картинки букв, а распознает их по движению руки при письме.* 07:33 *✍️ Губерман разработал метод распознавания букв, основанный на анализе движения при письме, а не на сравнении изображений.* 08:56 *📈 Современные системы ИИ достигли успехов в распознавании образов, текстов, но все еще ограничены в способности к обобщению.* 09:39 *⚠️ Программы ИИ, основанные на анализе огромных массивов данных, могут допускать нелепые ошибки из-за отсутствия способности к обобщению.* 11:15 *🧮 Математически доказано, что любые множества точек (объектов) можно разделить в пространстве высокой размерности.* 12:10 *🗣️ Чат-боты, такие как ChatGPT, совершенствуются за счет обучения на все большем объеме данных, но не обладают способностью к обобщению.* 15:08 *❓ Невозможно доказать наличие интеллекта у программы, так как отсутствует четкое определение интеллекта.* 16:02 *🤖 Интеллектуальные программы не могут существовать, так как иногда выдают бессмысленные результаты ("галлюцинации").* 16:16 *📊 Проблема "галлюцинаций" связана с тем, что модели машинного обучения строятся на основе анализа множества точек данных.* 16:58 *🕳️ Между этими точками образуются пустые пространства, где модель не знает, как себя вести, что и приводит к ошибкам.* 18:12 *🚗 Идея автономных систем, основанных на таком несовершенном искусственном интеллекте, вызывает опасения в плане безопасности.* 19:33 *🔬 Разработчики борются с "галлюцинациями", не устраняя их корень - ошибочный принцип оценки сходства данных.* 20:42 *🐀 Интеллект можно оценить не только по правильным, но и по неправильным действиям, которые он не может совершать.* 21:23 *👀 Принципы гештальт-психологии объясняют, как мы воспринимаем целостные образы.* 22:43 *🧠 Мозг не использует математические алгоритмы, подобные градиентному спуску, для восприятия гештальтов.* 23:55 *🎨 Восприятие изображения зависит от понимания намерений автора, создавшего его.* 27:53 *🛢️ Поиски нефти до сих пор основаны на ненаучной теории ее происхождения.* 29:44 *📚 Современный искусственный интеллект подобен зубриле, способному лишь воспроизводить заученные данные.* 30:50 *⏳ Технологическая сингулярность, при которой машины превзойдут человеческий интеллект, никогда не наступит.* 32:43 *🧠 Задача постановки правильного вопроса для искусственного интеллекта важнее, чем выбор конкретного метода.* 33:46 *👨⚕️🤝🧮 Вместо того, чтобы обучать врачей математике, успешнее обучать математиков медицине для решения медицинских задач с помощью ИИ.* 35:25 *🗝️ Ключ к искусственному интеллекту - это адекватное описание объекта, а не просто сравнение с миллиардами образцов.* 36:08 *🤝 Важность междисциплинарного подхода: математики, программисты, физики и нейрофизиологи должны работать вместе.* 36:50 *🚗 Нельзя описывать сложные системы (например, автомобиль) на уровне отдельных компонентов (например, молекул).* 37:22 *🛢️ Несмотря на эффективность методов ИИ (например, в поиске нефти), они часто не используются из-за консерватизма и страха перед рисками.* 38:42 *📚 Шелия Губерман пишет книгу об искусственном интеллекте, в том числе о том, как развивались и проходили идеи в этой области.* Made with HARPA AI
Пример с буквой не корректен. Сравнивать ребёнка и машину, утверждая, что машине нужно было 6000 картинок буквы, а ребёнок её понял сразу - это искажение. Тут нужно взглянуть на то, как ребёнок видит букву в реальном времени. А видит он бесконечно подвижную букву, под разными углами, разного размера, а это сотни тысяч фотографий (если подумать об этом как о видео ). Машина видит 4 минуты видео (6000 картинок /25кс /60сек = 4мин). И уже очевидно, что ребёнок обучается отнюдь не за 4 минуты, а то алфавит бы знали с пелёнок.
О, спасибо за уточнение. Но в действительности претензия реально смешная. У ИИ нет интерфейса взаимодействия с реальностью, чтобы посадить его за парту и наяривать чисто-писание, чтобы из его уже делать представления о буквах. Поэтому, даже если обучение наложением и тупиковое, другого универсального метода не существует (не придумали).
Странно, а разве в OCR системах не используют векторное представление и топологичекий анализ? Не знал что там растровая матрица. Если бы я придумывал OCR я бе не пошёл по этому пути) Но кто я)
Пример с буквой корректен на все 100. Сколько по вашему изображений людей плащей и велосипедов и в каких фазах их движений, нужно ребенку, чтоб с 100%ной вероятностью распознать, что это человек в плаще в дождь ночью ведет за ручки велосипед по обочине дороги?
@@MaxiRPD тогда и ваше объяснение не корректно. МЫ не знаем как работает мышление ребенка, вернее вы не учитываете этого. Как сказал Губерман тут нужно понимать предмет изучения, а именно мышление ребенка. Пока то, что вы говорите умозрительное предположение. Вероятно вы в чем то правы, и это интересно.
7:09 не правда, давно уже есть исследования которые говорят о том, что не у всех людей в голове есть мысленная речь, некоторые как раз представляют картинки того, что они хотят да и в принципе вся их "внутренняя речь" построена на визуальных внутренних образах. 16:00 не совсем понял... Т.е. он хочет сказать что это не интеллект если он совершает ошибки или врет?) Тогда ни один человек на земле не имеет интеллекта. И так же не каждый человек отличит чушь от не чуши... То же самое и про доверие, даже самые лучшие специалисты в своих областях делают ошибки. 20:50 Это почему же не может?) Наша история (история человечества) сплошное доказательство обратного. Проблема галлюцинаций и неправильного представления ии о вещах в том, что его в основном обучают на фиксированной базе данных. Это ЛИБО текст, ЛИБО картинки, ЛИБО звук. Это как пытаться объяснить слепому без рук или каких либо тактильных ощущений как выглядит яблоко, стол, компьютер и так далее. Согласитесь, что это довольно сложно если почти не невозможно. Если дать ии для обучения сразу ВСЕ в качестве базы данных, то он будет учиться гораздо лучше и быстрее, а неправильных и глупых ответов будет меньше. (Что вроде как сейчас делает OpenAI, обучает на тексте и изображениях) К тому же большую часть "базы данных" обучения у людей составляют еще и тактильные ощущения, запахи, вкусы и остальные реакции на разные раздражители, что недоступно сейчас для ИИ. И это я уже не говорю о том что сами люди обучаются примерно 6-8 лет (и больше)! В то время как от ИИ мы требуем такие же результаты или в несколько раз лучше, но уже за несколько месяцев/пол-года или год. А иногда мы обучаем небольшую нейронку вообще за считанные часы или минуты
@@EngineerSpock На самом деле люди так же испытывают затруднения с умножением. Для большинства умножение в уме даже двухзначных чисел уже непосильная задача. Просто мы обучены алгоритмам, а машина тупо предсказывает результат и дает довольно точные приближения.
@@SuperAether в том-то и дело что эти довольно точные приближения будут приводить к тому что иногда 2 на 2 равно 5, условно. Об этом Губерман и говорил. И скорее всего от этого мы не избавимся
@@EngineerSpock Главный тезис Губермана, что ИИ не интеллект, потому что ИИ допускает ошибки. Мой тезис, что машины испытывают сходные с естественным интеллектом проблемы. Люди тоже допускают ошибки и иногда довольно нелепые. Поэтому я считаю, что ошибки допускаемые ИИ не являются показателем отсутствия интеллекта.
Краткий пересказ: 1. Со времени перцептрона ничего не изменилось, нейронные сети нуждаются в примерах содержащих все возможные ответы и только тогда могут давать ответ. Как это улучшить - нужно сосредоточиться на процессе создания распознаваемого объекта, например чтобы распознавать буквы нужно знать как человек пишет буквы. Здесь спорно, потому что не обсуждаются концепции вроде свертоыных сетей, когда сеть таки может сделань нужное обобщение благодаря правильно подобранной архитектуре. 2. Теория согласно которой нейронная сеть может быть эффективной основывается на предположении что если отразить входные данные в пространство достаточно большой размерности, то всегда существует такое отражение, в котором разные распознаваемые классы находятся по разную сторону плоскости. Но высказывается мнение что многомерные пространства гораздо сложнее и эта теория не сильно адекватна и работа по этому принципу не сильно эффективна. 3. Сеть не знает когда на чего-то не знает и все равно выдает результат (галлюцинирует) потому что точки между точками которые были в обучении получают случайную позицию в пространстве и классифицируются произвольно. Здесь я бы заметил, что если пространство таки отражает все закономерности изучаемой области, то все сложнее и проблема в том что сеть не может ответить "у меня нет такой информации". 4. Мы видим два отедельных прямоугольника, потому что мозг прикидывает как это можно нарисовать. Здесь по мнению ученого разгадка загадки гештальта, но никто в действительности не понимает что это такое. Здесь я бы вспомнил про колмогоровскую сложность и поиск минимального алгоритма создания объекта. Там можно было был объяснить это лучше. 5. Нефть, землетрясения - теория глубинного происхождения нефти (не-биологическая) реально помогает искть нефть. Возможно это значит что эта теория верна? 6. Как отличить настоящий AI. Интеллект не должен делать простейших глупостей. Имеется ввиду не должен путать знак "30" и знак "Stop". Здесь спорно, если AI знает о мире достаточно много, он не делает таких ошибок, или делает их как человек - спонтанно и тут же поправляется. 7. Обычно врач сатвит задачу а математик решает, в итоге это не работает потому что каждый не знает всего. Самое главное для AI - это адекватное описание объекта, поэтому они посещали больницы сами. Опять про то, что картинка не пишется в память а пишется движение которым картинка рисуется. AI слишком зациклен на нейронах. Проблема AI становится сложной потому что мы описываем ее неправильно (допустим, через нейроны).
20:50 Я бы сказал наоборт - интеллект это то, насколько умные вещи он способен делать. А идиотские всегда может. Если отказывать интеллекту считаться таковым по критерию отсутствия идиотских вещей, то, возможно, даже многим ученым придется отказать в наличии оного, не говоря уже о всяких случайных представителях человечества. В конце концов, что идиотское, а что нет - заведомо не ясно, а потому, идиотские вещи довольно универсальный способ выбираться из локальных минимумов.
Вот он, интеллект! И советское образование, и мощнейшая тяга к познанию, и бесстрашие ученого, и безграничная потребность делиться своими знаниями, и способность высказать сомнения. Спасибо!
он рассказывает о том почему не может получится то что уже получилось человек вообще не понял как его поезд уехал. мудрые уже поняли и не сопротивляются но глупцы продолжают отвергать давя своим авторитетом. честно сказать омерзительно было слушат все эти регалии
16:00 определение смысла слова ИНТЕЛЛЕКТ есть ибо у каждого слова есть его автор, тот, кто первым обнаружил смысл и принял решение о соответствии точных корней составной слова которым именовать то, что обнаружил. Ин-Тел-Лект буквально (в теле дух/учение/знание) - способность человека! передавать опыт жизни через поколение используя сторонний носитель, посредством слова. Всегда в этом процессе присутствуют три : шифрование, дещифровщик и знак/символ кода на носителе. Метод шифрования и дешифрования в виде речи передаётся искусственно через обучение в социальной среде и только в определённый период воспитания дитя( известны случаи "маугли", которые после достижения 5-6лет навсегда утрачивает способность к развитию навыка воспринимать речь, то есть шифровать/дешифровать знаки / символы в любой, вербальной, жестикулярной и графической форме). Поэтому Интеллект всегда искусственный ибо это навык.
А дядка-то крут... Я сперва включил думал опять мракобес будет натрушивать дичь, а нет, крутой мужик. Спасибо за трезвый эфир, сам посмотрел и родным скинул ссылку. Реально прикольно послушать...
Спасибо, Илья, интересное интервью получилось. Буду ждать вторую часть и ещё хотелось бы подробней про шведских ребят, которые придумали что-то альтернативное нейронным сетям...
Ну такое себе. "Мы не мыслим картинками" - мы как раз мыслим образами, рваными событиями, которые то и дело всплывают, пока не устаканятся в воспоминание или ответ. "Это тупиковая идея" - так говорил еще один предсказатель авторитетный, что масштабирование языковой модели не приведет ни к чем и лй, как он ошибся, там возникли способности, которые как раз и исследуют разработчики. Было 10к параметров - тупая нейронка, стало 100млн параметров на входе - стала непредсказуемо умной с возможностями, которые не закладывались. И так много моментов спорных
он неверно выразился. "ИИ" как раз оперирует не картинками, а весами токенов. Пытаясь "захейтить" чат-гопоту он прибегнул к неудачной метафоре. Тем более в узком контексте символов письма он имел ввиду мышечную память (однако недоосознав, что по сути это пространственное мышечная память)
Всё правильно Шелия говорит. Попробуйте вспомнить, виде картинки, где вы были в отпуске. А потом посмотрите фотки из того же отпуска. Вы удивитесь, сколько деталей НЕ сохранила Ваша память. Но само место с картинки Вы узнаете, более того потянутся ассоциации с другими вещами, что кушали там, о чем говорили, с кем общались и тп. 😂
@@nemocaptain3346 так я так и написал) образами рваными. НЕ прям 24 кадра в секунду, как видео, а образы, перетекающие один в другой. Он же четко имел в виду чисто "вес" каждого вычисления, то есть без какой-либо привязки в визуалу.
@@nemocaptain3346 Ты слишком сложный образ взял, плюс какой-то идиотский пример, визуальному образу противопоставить фото - это конечно, надо быть умником. Ну ты представил из отпуска, что-то как картинку, но ты вспомнил хоть что-то. А другим способом ты вспомнить и это не можешь. Возьми более простой образ, например, цифру 7, представь ее в голове как-то иначе, если хорошо покопаешься в голове, то найдешь два образа визуальный, и абстрактный. Абстрактный образ имеет характеристики и операции, которые могут быть применены на объекты того же класса, плюс еще можно найти интуицию в голове, а равно, ты быстро (а может и нет, учитывая твой пример), сможешь посчитать 7*7, у тебя образ ответа возникнет сразу, он может быть неточен, но возникнет.
!!! ПОЖЕЛАНИЕ !!! У вас очень интересные передачи. !!! Пожалуйста, держите комментарии / пояснения на экране подольше, иначе их не успеваешь прочитать. Спасибо
Разочарован потерей времени: искажение фактов, а именно, нейронные сети игнорировались 30 + лет, пытались найти другие подходы, которые не были успешными. Теперь, когда подход с нейросетями наконец показал себя, эти люди говорят что их подход был игнорирован.
Когда я занимался анализом данных мы всегда старались уменьшить размерность данных У нас был термин "проклятие большой размерности" -- чем выше размерность тем больше данных тебе нужно, комбинаторно больше! Например, в двумерном кубе на расстоянии 1 от центра находится более 75% точек, в 10мерном меньше 1 на миллион. Значит в 10 мерном пространстве тебе нужно а миллион раз больше данных для достижения той же точности Да, в многомерном пространстве все отличается друг от друга, но нам чаще нужно найти сходство чем различие. Распознавание это обнаружение сходства с образцом
Выводы Шелия Айзековича вполне согласуются с гегелевским определением метода. Лично для меня эта лекция внесла некоторое прояснение. Большое спасибо за знакомство с гостем👍
Спорно конечно что мы запоминаем букву только если её нарисуем, тогда получится что любой образ нам нужно нарисовать чтобы его запомнить и распознать, но это не так, а вот насчёт формы точно, скорее всего мы именно форму объекта мы запоминаем и распознаём в первую очередь, а растровое изображение существует только на сетчатке глаз.
Замените в вашем комментарии «запоминаем только, если нарисуем» на «запоминаем лучше, если нарисуем» и я соглашусь. А дальше уже просто вопрос, насколько лучше. Это вопрос к науке, лично я считаю, что намного.
@@jewgenijmoldawski3306 естественно лучше - у вас ещё один вид памяти добавляется к зрительной, не знаю как правильно она называется, поэтому назову её мышечной, там и свои рецепторы и свои зоны мозга которые воспринимают и обрабатывают информацию.
У меня закралось подозрение, что Губерман понимает работу нейронных сетей очень поверхностно. Сравнивая свой метод распознавания образов (основанный на алгоритмической детекции паттернов "движения") с работой тех же "нейронных" сетей, он делает определённые обтекаемые заключения о свойствах нейронных сетей, расходящиеся с действительностью. Соответственно, ценность экспертной мысли Шелии, в данном вопросе, я ставлю под сомнение...
Если он в парадигме Бонгарда рассуждает, эта одна история, но и про градиентный спуск он упоминал, кажется. Здесь как-то резонирует его понимание обобщения с тем, к чему мы привыкли в ML. “Запомнил” паттерны на training set, остановился вовремя на validation, проверил на тесте… Взял лучшую модель. А его обобщение - это некое чудо. Узнай похожее в непохожем. Еще понравилось, что в рассуждение о гештальте и правильном порождении можно увидеть связь с идеей регуляризации.
пишу не со своего аккаунта - Хасан Штымов: - ОЧЕНЬ интересная Передача-Встреча! СПАСИБО!!! 😊❤🤗❤ Я учился в ТИАСУРе, на факультете Систем Управления (ФСУ), кафедра ОАСУ - оптимальные и адаптивные системы управления. Затем, ещё и на кафедре МИиРО - моделирование изображений и распознавание образов. Избирался членом Учёного совета Института, имел свободный график обучения.
Цетлин Машина действительно работает. Третий год занимаюсь рисерчем в этой области. Модифицировал оригинальный алгоритм и добился скорости распознавания рукописных цифр из датасета MNIST - 50 миллионов распознаваний в секунду на CPU.
@@СеменКулагин-ы4ф Ну... дай Бог, конечно, но трудно поверить. Девяносто пять -- это пигментные пятна, сухая кожа и тихий надтреснутый голос. Темп речи тоже замедляется. Может, у профессора гены со знаком качества? Или положительная мутация, восстанавливающая количество теломер? Вспомните недавно умершего Дэвида Рокфеллера, который немного не дотянул до сотки: при всех его возможностях это была развалина.
@@EngineerSpock Простите, но я очень недоверчивый человек. Если я не вижу признаков заявленного возраста, ни слова ни документы на моё мнение не повлияют. Был уже случай в какой-то из европейских стран, когда стодвадцатилетняя долгожительница оказалась собственной дочерью)) Это не значит, что я обвиняю Вас или гостя канала во лжи, просто для меня вопрос остаётся открытым. Во многом ещё и потому, что мне очень хочется, чтобы люди действительно так выглядели в 95, -- но я стараюсь не допускать, чтобы мои желания влияли на мою точку зрения.
Чел как будто вообще не понимает о чем рассказывает. Во-первых, про распознавание текста, которое у него там не получается. Про тессерракт слышал вообще? С 2006 года в открытом доступе. Задача распознавания текстов считается РЕШЕННОЙ, как и распознавание кошек-собак. 4:45 Да, есть аугментация данных, и да, она применяется для обучения. И что тут удивительного? Нейронная сеть всё равно не хранит в себе информацию о просмотренных изображениях в явном виде 5:30, речь про MNIST, ну и что, есть сотни различных датасетов, ну обучите получше сеть, ну возьмите другую архитектуру, будет и троечку вашу распознавать 6:50 ну чепуха. Люди могут вообще не уметь писать, но уметь читать. И если бы мы правда воспринимали буквы мышцами, вы этот текст прочитать бы не смогли, потому что я пишу печатным шрифтом, а не рукописным, вы мышцами такое не сможете. И еще раз, в нейросети НЕ ХРАНЯТСЯ изображения. Нейросеть меньше весит, чем весь датасет, она смотрит на форму. Там тоже нет картинок, ни о каком "наложении" речи нет. Ну как же так, чел рассказал про перцептрон, но как будто "слышу звон да не знаю где он" 7:45 еще раз. Лицензию на распознавание приобрели, ну смешно. Ну обучите хоть что-нибудь, ну сейчас же это всё доступно, хотя бы из библиотеки готоых моделей keras возьмите и попробуйте, увидите, что та же модель что буквы распознает, может кошек от собак отличать, и это не магия и картинки не хранятся, постройте heatmap, посмотрите на что нейронка обращает внимание, какой пиксель или набор пикселей оказались решающими в принятии решения. Доступная и открытая информация Подумайте, есть датасет по распознаванию кошек и собак. И гость реально утверждает, что модели надо показать ВСЕ ВОЗМОЖНЫЕ варианты кошек и собак, чтобы она сопоставила и смогла понять что изображено??? Окей, откройте инстаграм, загрузите картинку, в метаданных запишется, что именно изображено. "женщина стоит на берегу моря". Что, нейросети и вашу картинку из моря показали и научили ее что вы женщина, так? 9:55 Машины тесла обучены на огромном количестве образцов. Да. Шелия Губерман предлагает изобрести крючки, линии и кружочки для распознавания пешеходов, автомобилей и светофоров? Вот, на 12:00 он говорит толковые вещи, и про градиентный спуск, и про линейные функции в машинном обучении, всё правильно. За классическое машинное обучение он шарит. А че нейросети слишком новая технология что ли, че он в ней не может разобраться? То, что он не может себе многомерные пространства представить, это исключительно его проблема. 15:15 LLM и любые вообще модели машинного обучения именно что прекрасно умеют обобщать. Он же вот только что рассказал, что есть функция ошибки и происходит ее минимизация, это основной прием машинного обучения, именно в этом кроется обобщение, чем лучше модель умеет разделять точки в пространстве, тем лучше обобщение. Про интеллект вообще не понял что он хотел сказать, есть определение интеллекта, и есть определение искусственного интеллекта, если он их не знает, ну... пусть у chatGPT спросит, он объяснит чем отличается сильный ИИ и слабый ИИ 17:45 Блин, именно поэтому нужна большая выборка, ну чел... 20:40 Интеллект может делать идиотские вещи. И люди делают идиотские вещи, вообще слово "идиот" чаще используется по отношению к людям, а не к ИИ Про гештальт психологию ничего не могу сказать, в этом не специалист, звучит как и любая другая психология ненаучно Ну и наконец, не относящееся к интервью: вас не смущает, что с наушников Шелия Губермана не снята этикетка и не размотан провод?
"Задача распознавания текстов считается РЕШЕННОЙ" - удачи распознавать рукописные заметки реальные. Мы пробовали. Нет =) А clip все еще путает перевернутую софу с гепардом. Ну смешное же. 1. Но хранит в неявном. 2. Выходит, что единственное, что вы умеете распознавать - точки, лежащие в том же распределении, в котором лежит датасет. Если точка из того же домена лежит за пределами распределения из датасета, ваша система умирает. Это проблема. Большая. 3. Нейросеть хранить усредненные (в широком смысле - не по датасету) сжатые репрезентации датасета, на котором она обучалась. Она не смотрит на форму, она смотрит на средние типичные формы для датасета. Если точнее - она заучивает распределение признаков в датасете. В таком смысле она "заучивает" датасет. 4. Да, нужно показать все возможные. Именно по этой причине типичные датасеты для обучения имеют чрезвычайно огромные размеры. Человек учится на много меньшем наборе данных. Именно по этому юзается и аугментация. Фактически она просто про расширение вашего датасета деформациями. Тейк про "его научили вашей фотке" - нет, но сетку научили распознавать типичные фотки моря и типичных женщин, показав огромное их количество. 5. Он сказал довольно разумную мысль - многомерные пространства избыточны. В таком пространстве вы можете разделить что угодно как угодно. Если вы знаете то, о чем пишете, то додумать мысль думаю, легко - это пространство во первых, в значимой мере вырождено (откройте статьи по трансформерам, узнаете эту проблему), во вторых, перепараметризовано. Ну, вы же слышали про проклятие размерности? Это оно самое. По факту про это он и говорит. Удивлен вашими претензиями тут. 6. Нет. Тут вы вообще бред и шизу написали. Минимизация функции ошибки никак не связана с обобщающими способностями. Когда вы минимизируете функцию ошибки, вы лишь подгоняете модель под датасет, не более. Я могу вам написать за пару минут модель, которая имеет 0 ошибок на любых обучающих данных. А про "определение интеллекта" - его не существует. Точка. Никто не смог все еще содержательно определить понятие ИИ. Сможете - вперед, вам нобелевку выделят. Содержательное - это когда у вас есть четкий набор критериев.
Я конечно далек от темы, ну вот ошибается ии, но если он закрывает какую то боль, а издержки из-за ошибки будут стоить не столь дорого, почему бы и нет? И ведь не обязательно рассматривать ИИ как какую то полноценну замену хуману, с его заменой справляется обычная касса самообслуживания. Лишь бы бизнес потребность закрывал. Некоторые больше боятся взбесившегося ии следующего поколения, сбежавшего из лаборатории какого нибудь гугла. Еще в видео не затронута тема спарков, типа возникновение новых свойств при увеличении мощностей.Ну вот кстати боты в комментах хотя обычно выдают себя, но порой задумываешься и вообще не понимаешь кто есть кто
Ведущий! Спасибо за Губермана Я увидел автора выдающейся книги "Неформальный анализ данных в геологии и геофизике". Если есть возможность, передайте Ш.А. благодарность за алгоритм КЧП!
Насколько я понимаю, он учился, жил и работал во времена рукописных документов, докладов... Приходилось много рукописного текста читать и сталкваясь с непонятной буквой он мысленно проводил ручкой поверх буквы и с помощью моторной памяти понимал что там за буква. Но моторная память не лежит в основе обучения людей, она лишь вспомогательная система, кроме неё есть ещё слуховая, зрительная (хоть гость её и отрицает). У chatGPT нету моторики, чтоб писать букву "А", но есть множество уже написанных букв.
Спасибо за вашу встречу из уважения к вашему возросту... Желаю для вашей ДУШИ самого лучшего ❤😊 Хотя лекция не заинтересовала...усыпляет... несколько моментов привлекли внимание, сколько умов столько мнений... Спасибо. Искусственный интеллект это не в пользу роста и развития человеческого общества. В пользу он модет быть тогда, когда человечество живущее на земле выйдет на другой уровень понимания и осознания в своем внутреннем росте и развитии...Сделает квантовый скачек вверх , осознанномсоздавая БОАГО ВО БЛАГО МИРОЗДАНИЯ.
1. Отличное интервью! Главное высказывание - надо знать САМОМУ ту область, для которой хотят иметь автомат! 2. Ещё раз показана глубокая критика "нейронных" сетей и ИИ путем выявления погрешностей математических методик. 3. Критика гештальта может быть дополнена критикой рефлекторного подхода (Торндайк-Павлов). Или попытки биопрограммистов вырастить "мозг в колбе". 4. Замечания об обобщении и движении в обучении у людей правильны, но не полны. В ВНД это - мотивация или цель действия. 5. N-мерные сетки (или кубы) известны в курсах, скажем, ВМК с 1980х. Помню из Красновидово доклады о работающих таких программах и их ограничениях. 6. Очень важное замечание о неприложимости языка ОПИСАНИЯ нашего ума в толковании ИИ и программировании. 7. Конечно помню много работ в разных институтах СССР и США о распознавании рукописного письма в процессе движения кисти со стилусом. Такие попытки неоднократно всплывали у производителей хэндсетов. Сегодня это распознавание динамической речи (стилус проехали). 8. Не согласен с утверждением, что в живой памяти человека не хранятся картинки, а только движения. Как Вы истолкуете движениями, скажем, цветовое восприятие? 9. Заключение: в работе над ИИ нужно изучать и совершенствовать три категории: СТРУКТУРУ, ЦЕЛИ и ВРЕМЯ.
Спасибо за такую встречу!!! Часто задаваемый мне вопрос,что я думаю об ИИ и т.п. Как художник, могу сказать, что главное, на что не способен ИИ это на творчество! ИИ может создавать что-то из чего-то, уже известного, как раз обобщать, анализировать данные согласно алгоритма он может. Но выйти за пределы известного может только человек. Ещё немецкий философ В.Гете в своих трактатах о форме и цвету поднимал тему работы мозга и как человек мыслит преимущественно шаблонами и привычками и том, что мозг достраивает форму до известного, сталкиваясь с неизвестным. Если ребёнка с детства не научить видеть оттенки, то он не будет их видеть до старости. Работаю сейчас с сеньерами ,учу рисовать пейзаж - и о чудо, через полгода,год они начинают видеть в множество оттенков. Тоже самое в музыке, на мой взгляд, главное, что даёт музыкальная школа, не умение играть на инструменте, а умение слышать музыку. Освободить человека от рутины, благодаря ИИ и направить на творчество и созерцание - вот достижение современной цивилизации!
@@iuxdhninhd3iucdwcefrw4rfvc19 Людям просто нравится верить в свою уникальность. Им сложно представить что машины(алгоритмы) могут оказаться более эффективными, в разных сложных творческих направлениях. С ними спорить - только время тратить)
@@iuxdhninhd3iucdwcefrw4rfvc19 Принципиальное отличие от искуственного интеллекта в недетерминированности работы мозга против конечной машины состояний "ИИ". И это если мы говорим о настоящем, полноценном ИИ, который на мельчайшем (на каком?) уровне способен симулировать физические процессы. Если же мы говорим про примитивнейшую нейросеть, которая пересобирает триллионы входных данных по закономерностям найденным в этих данных, тебе действительно надо объяснять, чем это отличается от работы мозга, как человеку который, как я понимаю, связан с IT?
Когда кто-то начинает сравнивать ИИ и говорить что вот человеческий мозг работает иначе, я готов послать такого далеко и надолго. Достаточно посмотреть на современные самолеты, на сколько они не похожи со своими природными примерами но на сколько они ушли далеко в плане перемещения в воздушном пространстве. А ведь сто лет назад тоже никто не верил что возможно создать нечто более совершенное чем у природы. Поэтому бессмысленно слепо копировать природу, у природы весьма ограниченный интсрументарий для своих творений нежели у человека.
Очень хорошая аналогия с самолетами, нам она пришла в глову независимо. Представьте, что кто-то предъявлял бы претензии, что самолёты не машут крыльями, не вылупляются сами из яйца, что для них нужны огромные заводы, люди, исследования, испытания и т.д.
Он же не про весь ИИ говорил, а именно про ограниченность принципа обучения нейросети. Понятно, что можно увеличить число слоёв и сложность сети до уровня, когда при должной обучающей базе система сможет решать поставленные задачи с заданной точностью. Речь же про поиск какой-то более эффективной альтернативы для более общих случаев. Т.е. сейчас сети и их обучение разрабатывают под конкретные задачи. Может быть есть какой-то более универсальный подход? Я так понял.
@@ravekeeper2181 он говорил о низкой с его точки зрения эффективности машинного обучения. Там, где человеку достаточно нескольких примеров, алгоритму требуется намного больше. Более эффективных подходов пока не существует, иначе бы их знали и пользовались, а от себя Шелия не предложил ничего. Владимир Вапник в последнее время пытается разработать теорию более эффективного обучения, которая должна решать как раз эту проблему, но пока это даже не на бумаге.
@@TheAlexBellага, возьмем еще то, что человеческий мозг невероятно производительный, он год без остановки после рождения учился воспринимать мир с помощью своих органов чувств. Да еще у него и предустановки на уровне инстиктов есть, которые миллионы лет копились. Сетоввть на неэффективность ии, все равно, что смеятся над поваром, который не смог приготовить нормальной еды из испорченных продуктов
Сам г-н Губерман - пример Интелекта! Какие чистые суждения и глубокие выводы! С ними более оформилось и собствнное отношение к ии. Интеллект: однажды в купе играли с женой в Кинга вместе с проф игроком в Преф, он проиграл, мы, дилетанты - в плюсах; условия задачки изменились, он не перестроился на дилетантов, коротающих время в дороге.
Дед не шарит. Глубокие сверточные нейросети не мыслят буквальным наложением. Из-за множества слоев достигается тот самый уровень абстрагирования и обобщения, к которому, по его словам нейросети не способны. И тут вовсе не нужны картинки на каждый случай - это уже и в опыте ясно - простым наращиванием базы данных нейросети не могли бы достичь тех результатов, которые демонстрируют сейчас, если бы в механике все работало на все том же буквальном сравнении.
Вот когда ваш искусственный интеллект будет решать ортогональные задачи методом аналогии, вот тогда и можно будет, с некоторой натяжкой, считать его способным оперировать абстракциями.
Очевидно из-за этого самого "уровня абстрагирования и обобщения" нейронки периодически выдают лютую дичь, причем предсказать когда это произойдет не могут даже сами разработчика. Что ж отличный интеллект прям сразу с шизой его сделали)
про квадраты добавлю: слышали про корреляционный анализ? Есть образ квадрата. выученный с детства. мы его видим и выявляем везде где заметим. отклик от него очень большой. поэтому, взяв корреляционное преобразование, то от квадратов будет 2 пика. намного больше чем от разных фигур разного размера.
Количество восторженных комментариев, безусловно, свидетельствует о том, что гость уникален, хотя бы тем, что в таком возрасте большинство смотрят сериалы, пуская слюни. Но также очевидно, что он безнадежно отстал и совершенно не в курсе происходящего, как минимум, того, что существуют модели и агенты, не основанные на нейросетях, которые еще находятся в разработке, но все же...
Обратите внимание насколько плохо стал искать Яндекс, когда стали использовать ИИ в полную силу. Раньше можно было просто набрать ключевые слова и он искал, а теперь ИИ пытается получить контекст. Но контекст задаёт большинство, поэтому чем больше будет связей с каким-то словом (словами), тем больше будет выдавать релевантные (по мнению ИИ) ответы. Но вес релевантности этих ссылок будет расти только лишь из-за того, что на них чаще кликают другие. Замкнутый круг (типа переобученность)
@@ANARCHY_13и что? Тем более, такое утверждать можно лишь в ограниченных условиях. Я ж не про то, кто/что лучше, посыл был именно про использование ИИ Яндексом.
Человек может определить эту троечку потому,что в отличии от ИИ ,человек может задатся вопросом зачем это ему ,если человеку не надо то он даже обычную тройку не заметит,а если ему нужно то увидет даже суслика там ,где его не видно.
Пользуюсь GPT, если надо написать кусок программы, если что-то дофига много раз вентилировалось в интернете - всё хорошо. Если просишь написать что-то что 100500 раз не всплывало на стековерфлоу и т.д., начинают придумываться не существующие функции и прочий бред :) Но самое смешное с чего рыдал, то что GPT не смог сделать приведение массива C - потому что в большинстве статей в интернете(которые гуглятся с первого захода) это делается не правильно, и он под копирку наяривает те же самые ошибки, и делает приведение указателя и что там не так - не понимает. Другой момент, не помню что уже просил его написать, появились несвязанные переменные, говорю исправляй переменные не используются, он "окай", создаёт ещё переменные и между ними просто значения перекладывает туда сюда. Как по мне в GPT ближе к биг дате на стероидах чем к ИИ :) P.S. Будучи пьяным студентом в далёкие лохматые годы. Посещала меня мысль что нейросети не то пальто, и надо решить 2 вопроса. 1) Набор графических примитивов, которые являются неким набором запчастей и кусков(на подобии как разобрать предмет на части) , т.е. любой объект это набор из сложенных вместе таких примитивов которые и формируют стереотипы (предметы). (Типа стол это фигня у которой 3 - 4 ножки и верхняя часть. табурет по сути тот же стол только меньше) :) По сути именно этому обучаются дети в раннем возрасте и мы им даём кучу всяких кубиков, мячиков и т.д. 2) И логические примитивы которые формируют схемы взаимодействия. Например нам надо где-то сделать круглую дырку, значит нам надо что-то круглое прочнее чем то в чём делать дырку и организовать между ними воздействие. И тоже логические стереотипы, воздействовать можно дрелью ) а если выбрать меньший уровень совпадения с логическим стереотипом то можно прийти к гвоздю и молотку - гвоздь круглый и прочный - дырка круглая - условие выполнено :) И опять корни из детства, узнаём горячее холодное - прищемляем пальцы, если что-то кинуть то оно падает :)
Мне chatGPT заменяет курение мануалов. Если нужно быстро стартануть с использованием библиотеки или области в которой я не шарю - просто прошу chayGPT написать мне стартовый код
@@hostra_sokira да так оно и есть, обычно просишь его написать какую-то базовую вещь. Смотришь на сколько это бредово или не бредово получилось, если получилось прям хорошо - просишь доработать ) Если получилось бредово - обычно уже всё. Конечно можно попытаться другими словами задачу обрисовать, но через пару тройку задач уже есть понимание как их ставить, и если выходит бред - то как не объясняй - будет бред :) Ещё напрягаю его писать базовые вещи, которые потом едут в основной код копипастой с некоторыми правками, позволяет сэкономить не плохо так времени. Т.е. своего рода лего кирпичи из которых уже собираешь что-то большое ) Тут главное сообразить как побить всё на мелкие задачи которые эта штука сможет осилить :)
Все так, но ещё почему-то у него хорошо получается скрипты на питоне писать. Например, подсовываю ему апи и прошу такие-то данные вытащить, так -то обработать и сложить в xls файл, работает безупречно. Забавно ещё что он знает названия и назначение полей в ответе даже для редких апи, если только его описание было в интернете
Люди имеют свойство говорить только то, что знают и фантазировть далее на основание этого. Расскажите, чату GPT какую то историю из несуществующий психологической ситуации, и поросите чат GPT рассказать возможные продолжения этой истории. И о ужас, чат GPT расскажет продолжения этой истории, которые вы тоже могли-бы придумать. Так вот это и есть доказательство мышления. Так вот, Интелект состоит в способности мыслить логически, анализировать и решать задачи, выходящие за пределы предыдущего опыта; второй включает накопленный опыт и способность использовать усвоенные знания и навыки. Поэтому чат GPT достиг этого уровня.
Что нейросети не умеют обобщать это просто не так. Конечно, смотря что понимать под этим, но уже многие десятилетия стандартная метрика измерения обученности нейросетевой модели включает точность предсказаний на данных, по которым обучение не проводилось - eval accuracy. Хотя бы одна эта метрика показывает способность модели к обобщению в сравнении с train accuracy - точности по набору данных на котором проводится обучение. Даже перцептрон Розенблата в середине прошлого века удивил исследователей как-раз таки своей способностью к обобщению - все цифиря которые ему показывают написаны по-разному, но он находит в них нечто общее - принадлежность к общему классу например цифры 4 - это и есть обобщение.
Именно. Если бы модели не умели обобщать, мы не могли бы ими пользоваться. Они не распознавали бы данные, которых не было в обучении. Проверить просто. Делаете фото объекта, показываете модели, она классифицирует объект, повторяете N раз, и это доказывает обобщение. Аналогично можно с голосом или рукописным текстом.
@@TheAlexBellа вот и нет. Вам же сказали, что имеется просто огромное количество картинок с которыми программа сравнивает. Это не обобщение, а перебор.
@@васэче никто не сравнивает с множеством картинок. Шелия сказал, что модели учатся на множестве картинок. В любом случае, обобщение это способность правильно обрабатывать данные, которых не было при обучении
@@васэче Нет, не перебор. Он описал перцептрон. В 2000 баловался многослойными сетями. То есть знал и мог реализовать, но не мог понять как оно работает. И даже реализовал. Пустая база буквально после нескольких обучения начинала распознавать цифры. Путаница была только с цифрами 6 и 9 и то только тогда, когда они рисовались "лёжа"
Он болен собой, и это объяснение для непонимающих. Но одновременно, мне кажется, юным блогерам не нужно беспокоить стариков. Иди программируй или чем ты там занят, не занимай время.
************************************************
Соцсети:
Telegram: t.me/engineerspock_it
TH-cam: www.youtube.com/@EngineerSpock
Дзен: dzen.ru/engineerspock
VK: vk.com/engineerspock
************************************************
НАШ САЙТ И КУРСЫ: www.engineerspock.com/offer-spock-youtube
Поддержать: pay.cloudtips.ru/p/1f080f72
************************************************
СЕРВИСЫ И БРЕНДЫ, которые я люблю и которыми пользуюсь сам:
Адресная ПОМОЩЬ пожилым и больным детям, ссылка для смартфонов: : www.engineerspock.com/helpapp
Бизнес в Альфа-Банке:
www.engineerspock.com/alfabusiness
Биржевой дракон - сервис автоматической торговли криптой для РИСКОВОЙ части инвестиционного портфеля:
Почитать их ТГ-канал: www.engineerspock.com/bdtg
Для оформления подписки на их сервис:
www.engineerspock.com/bdtgs - писать сюда и назвать кодовое слово "DragonElias"
************************************************
Статья Шели Айзековича: dzen.ru/a/ZlbXzzBBSlv5VW-p
Про Цетлин-машины: tsetlinmachine.org/
😊😊
Что-то бред? Картинок в мозгу нет. А как вы видите сны? Как вы фантазируете. Как и на чем у вас строится воображение? 😅
Определение интеллекта нет у кого? у ИИ или у человека? Ему (ИИ) понятно что такое интеллект, НО зрительные, слуховые, обонятельные, тактильные (осязательные), вкусовые и кинестетические ощущения создают этот интеллект, но у ИИ пока этого всего нет. Когда люди определили интеллект, то сами забыли обобщить все эти факторы в одно! Без этих чувств, если их убрать всё у человека, то и не будет никакого интеллекта, будет только мозг - без интеллекта, но если добавить хотя бы два чувства, зрительное и слуховое, то интеллект появится. Так и произойдет у ИИ. Когда ИИ получит своё тело со всеми чувствами, хоть эти чувства будут и цифровыми, то он может начать обобщать и у него может появится интеллект. Дело времени, когда это случится. Когда ИИ дадут все сенсоры и он через них познает мир, что изучал до этого чуть, тогда и будет цифровое сознание подобное нашему.
Фантастика, человеку 95 лет, а какой живой мобильный разговор, и чудесный Одесский говорок!
Потому что мозгом активно пользуется, в отличие от большинства челиков.)
о фи..льмы
😂
Ю09.
.. тььььььь ❤❤8@@michailluuko3909😂
Человек со смыслом жизни
Для учёных это не редкость долго жить и сохранять работоспособность
Я думал ему лет 65-70😮😮😮
Вот честно скажу начал смотреть со скепсисом, мол чего там он может внятного сказать. До смотрел до конца, не смог оторваться дядя Шелия просто красавчик. Живой ум, глобальные знания, способность посмотреть на проблему в целом. Очень интересный человек. Желаю ему еще долгих лет качественной жизни.
Верни скепсис обратно, дед Америку не открыл, просто поругал ребенок за то что он гений но человеки лучше. Что явно спорно, выгляни в окно ) там интеллекта мало ходит ;)
Чубайсы умеют задурить голову Иванушке-дурочку! ((((
Мне вот вообще не понятно, как можно доверять информации ChatGPT (или любой другой нейронки) которая натренирована/черпает информацию из сети…
Которую туда добавили люди! А это означает - непроверенная информация, шуточная информаци, обрывочные сведения, ошибочные описания, случайные или заведомые ошибки в инструкциях/рецептах и т.п., все различные фейки.
Надеюсь понятно объяснил…
Бывает гуглишь информацию очень узкоспециализированную, и все возможные гайды НЕ РАБОТАЮТ!
Ну вот неправильные они и/или устаревшие.
Потом перерыв весь интернет где нибудь на 5 странице в выдаче Гугла, натыкаешься на заброшенный древний форум где кто-то мимходом при обсуждении другой проблемы оставил одно маленькое сообщение с правильными параметрами.
В моей работе даже в качестве просто продвинутого поисковика пока что ИИ ни разу не помог.
Это как ИИ на полном серьезе советовал скреплять продукты на пицце клеем… потому что это какой-то шутник когда-то давно предложил такое решение, а ИИ взяло это за чистую монету.
И все эти писалки кода-программы, основывающиеся в т.ч. на коде ламеров…
ИМХО. ИИ сильно переоценены. Как в свое время бунт доткомов.
Только истинный профессионал способен рассказать просто о сложном да ещё и живо и интересно. 👍
Треть видео - представление гостя. Треть видео истории как шмойлович научился пользоваться чат жпт. И треть видео о выдающихся и великолепных шмуйлях двадцатого века.
Браво браво брависимо.
И что ты понял о сложном? Может расскажешь как обратная связь в перцептронах работает? :)
Докажи нам всем, насколько дед великолепен и как хорошо тебя научил. :)
Какой-то поток сознания на видео, прыгает с математики в воспоминания и раз за разом теряет нить повествования. Очень тяжело воспринимать, как и большинство пожилых людей. Я так и не понял что он пытался сказать, услышал только скомканные обрывки мыслей и местами критику ради критики. Что вы там понять смогли о сложном, даже интересно
Человек пожилой, все понимаю, но у меня есть вопросы к автору канала, который поставил кликбейтный заголовок совершенно не соответствующий содержанию
А что он рассказал? Верхушек нахватался и ничего по-существу. Особенно рассмешило что он отец распознавание алгоритмов текста которыми пользуется весь мир. Это враньё!
P.S. Люди определенной национальности умеют хорошо спекулировать на чём-то, но ничего не умеют создавать собственными руками.
@@dronovdmitry про проблему переобучения достаточно доходчиво. Также про галлюцинации ИИ, чему я был сам свидетелем - уверенная чушь иногда бывает. также высказал мнение (достаточно спорное наверное ), что современные нейросети больше берут мощью и увеличением обучающей выборки ( спич про буквы и цифры и их распознавание)
Интереснейшее интервью с уникальным, во всех отношениях, человеком. Большое человеческое спасибо, что вы есть!
Вот что наука с человеком делает! 95 лет, а интеллект сохранился как новенький! Слушал не отрываясь. Спасибо за интервю!!!
Дело не в науке. Наука позволяет заиметь этот живой ум. Но сохранить его позволяет только большая физическая активность и чистые капиляры. Это уже доказано. Если вы будете сидеть на заднице ровно и лопать всякое дерьмо, то кровь не сможет поступать и питать весь мозг и начнется деменция. И никакая наука вам не поможет.
Что такое интеллект? И сколько его сохранилось?
"Вот что наука с человеком делает!"
Не всем так везет. Почитайте, как Фарадей свои годы заканчивал, к примеру...
Распознавание образов - это моя научная специальность. Прекрасный ученый, информативнейшее интервью!!! Чрезвычайно полезное объяснение связи размерности разделяющей поверхности, ошибок и объема обучающей выборки!!!
Вы мне можете объяснить, почему программисты выбросили Фортран и начали писать на языках, коих наверно тысячи, хотя Фортран быстрее всех и на нем можно написать все. Это я клоню к тому, что есть ли у вас интеллект и можно ли вам в чем-то верить в чем-то более сложном.
@@cyy5747во-первых Фортран прекрасно применяется в том числе и на суперкомпьютерах просто потому, что жалко выбрасывать уже имеющиеся программы. А так, для нового, есть более удобные языки которые не уступают ни в чем Фортрану.
@@cyy5747Фортран никто не "выбрасывал". Исторически остается один из старейших, если не первый, язык программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran.
Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.
@@vladig6649вот это ответ👍👏👏👏
@cyy5747 Фортран никто не "выбрасывал". Исторически остается одним из старейших, если не первым, языков программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran.
Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.@@cyy5747
Благодарю за такой контент! Ты приглашаешь уникальных гостей, увидев Арлазарова я вообще прикурил. Браво. Продолжай в том же духе. Больше так никто не делает.
Поразительный ученый. Очень глубокие вещи сказал. Великий респект. То, что он очень стар и при этом не дряхл, радует. Бытие демонстрирует очередное чудо.
Ваша оценка внешнего вида и "технического состояния" ученого выглядит некорректной и неэтичной. А отношение к человеку как к объекту, продемонстрированному вам мифическим "бытием" выглядит как попытка обесценить достижения этого человека.
Кто как может выражает своё восхищение и уважение, всё зависит от воспитания.
потрясающее видео и собеседники! огромное спасибо!!!!!!!
И вам спасибо!
Эксцентричный дядька, слушал с удовольствием, согласен с каждым словом, наконец то вижу человека который зрит в корень.
Фундаментальное образование мощное!
Не эксцентричный, а умный, многознающий и *увлеченный!*
Низкий поклон и глубокая благодарность за Гостя!! Вот это Человечище!! восхищение и восторг!!! Моего советского архитектурно-строительного образования оказалось достаточно, чтобы понять все!!!🎉😊 Елена, инженер 60 лет
Долгих лет Шелии Айзековичу ! Когда он говорил про кучу точек в пространстве я буквально представлял все себе. У него очень живая фантазия и способность визуально представлять систему . Хотел бы я чтоб у меня в такие годы так же работал аппарат )
после просмотра последнего стрима с Джеффри Хинтон, получившего нобелевку, становится понятно, что этот почтенный джентльмен остался с идеями утратившими актуальность.
Прогресс не остановить, на смену патриархам пришли новые гении.
Когда в 80-е я учился на кафедре прикладной геофизики УИИ, после экзаменов мы спрашивали друг у друга какие были доп.вопросы к билету. Тогда логики для нас небыло никакой, могли поставить самую неожиданную задачу. Даже сильные студенты сдавали со второго, третьего раза.
Эту логику я понял когда начал работать - безграничная адаптация к любому материалу и задаче. Тогда нам всем повезло, мы учились у высоких профессионалов и больших людей.
учиться у больших людей - это здорово просто по факту.
так а в итоге кем стали и какие большие проблемы решали?
@@manOfPlanetEarth замудрённое у вас имя.
В разведочной геофизике работал до начала 90-х. Потом начался первый передел и социальная коммуникативность стала важнее аналитических способностей. Пришлось освоить профессию химика аналитика, но без диплома. Нужно было зарабатывать деньги. Так и занимался узкими местами в геохимии нефтянки.
Если ты с молодости раб логики, то карьера и большие деньги в этой стране тебе не светят. Осталось ремесло и память о тех, у кого учился и с кем работал.
@@СергейКосов-з2е если в СССР всё было так прекрасно с образованием, логикой и аналитикой, то почему в остальном было плохо?
@CuriousPassenger На ваш вопрос давно ответили классики русской литературы - все мы живём в немытой России, стране рабов, стране господ. Похоже что это навсегда.
Система управления государством и обществом здесь осталась на уровне 16 - 17 века, она упорно воспроизводит себя и не может измениться. Всё остальное это частные случаи отдельных людей в лучшую, или худшую сторону.
@@СергейКосов-з2е бред, выдуманный для того, чтобы оставить истинные причины без рассмотрения. Учитывая, что вы схавали, все ок.
Вот такой формат я люблю, больше ученых и инженеров. ❤❤❤
Да, с мощным фундаментальным образованием!
@@tsvigo11_70 деньги любят все, войну не любит никто.
20:20 люди тоже делают идиотские вещи
Вы разве хотите уничтожить этот прекрасный рыночег?) Может пусть поживет, а то скоро барыги, шлюхи и мусора станут вымирающим видом и их придётся искуственно синтезировать и держать в спецрассадниках
Ну а теперь сядьте, запустите Visual Studio и попробуйте написать простейшую программу по распознаванию текста? Или программу которая бы обучилась играть в крестики-нолики?
Что-то не так в его рассуждениях. Когда человек опознает изображение, он ориентируется прежде всего на признаки и на их сочетание. "Точка-точка-запятая-минус..." - и дальше достраивает возможный вариант. Может достроить кривую рожицу, а может достроить и математическую формулу. Нынешний ИИ уже способен и обобщать признаки, и достраивать до целых образов. И для этого совсем не надо рисовать и обладать мышечной памятью. Я профессионально обучаю детей чтению и точно знаю, что многие дети запоминают буквы без всякого их написания. А другие дети сто раз букву напишут, но запомнить не могут. Я видел котенка, который подкрадывался к нарисованной мухе. Он ее принял за настоящую муху, хотя она была нарисована очень условно, без теней и без деталей, даже без лапок. Но котенок это изображение всё-таки достроил до мухи. Но ведь он сам никогда муху не рисовал, не так ли?
Как человек (и любая другая в самом общем смысле этого слова скотина) опознает изображение - науке достоверно не известно. Но есть множество разной степени логичности гипотез на этот предмет. Вы приняли одну из гипотез. И хотите из нее достроить теорию на все случаи жизни. Получится вряд ли.
Вы путаете всë. Разумеется, дети выучивают буквы, как знаки, но у этих детей во-первых уже есть телесное представление о движении и пространстве, во-вторых чтобы опознать букву "а" не в стандартном шрифте, а в граффити на стене, условно, нужно уже иметь и опыт написания. Как знак, как означающее, если угодно, если пользоваться этой терминологией, котёнок воспринимает любой небольшой движущийся объект в качестве добычи, но он не достраивает его особо ни до чего, животные в известном смысле целиком существуют в символическом, небольшой движущийся объект - добыча, частности не важны. Если он вытянутый и довольно крупный - то это уже скорей опасность. Покажите котёнку рисунок мухи размером с ладонь в книге учебника, и никакой мухой он его не воспримет (не воспримет вообще никак), ему это не нужно, он как тело в пространстве существует совсем иначе, без мелкой моторики конечностей, порождающей абстрагирования (контур и т. д)
@@pqrize Все проще. На моих глазах и с моим участием чтению учится шестой ребенок, с которым я знаком с пеленок - самая старшая внучка. У всех все по -разному. Не обобщайте то, о чем читали в книжках. Смотрите своими глазами. Начитанность полезна, но работы собственной головы не заменяет. Короче - чушь наукообразную несете.
@@wad-n4b вы даже не понимаете, что такое "наукообразие", а полагать, что "умные слова" это "наукообразие" и тот, кто использует подобную терминологию (она у меня в данном случае скорей психоаналитическая и к научной вообще отношения не имеет), тот читал много книжек и не думает своей головой - это просто признак самой обыкновенной и банальной глупости. и вы, разумеется, даже не поняли, что я написал, судя по вашему комментарию. Ну и, разумеется, коммент был вообще не вам, а автору первого комментария
@@wad-n4b а по поводу "смотреть своими глазами" - я смотрел своими глазами и общался с людьми, ставшими таковыми в результате т.н. загорского эксперимента, в ходе которого работали со слепоглухими детьми, и если вам действительно что-то интересно в жизни, почитайте об этом и постарайтесь подумать. "у всех всё по-разному" - это слова, не имеющие никакого вообще смысла в данном контексте, потому что речь идет о вещах гораздо более фундаментальных, чем те или иные склонности конкретного ребенка, к визуальному/аудиальному и т.д., при том, что склонности эти, разумеется, есть у всех
Огромное спасибо, видно что человек очень умный и знающий, очень интересный собеседник. Его слова позволяют взглянуть с нового ракурса на обсуждаемые проблемы.
Хочу позвать в подкаст учёного который занимается машиной Цетлина, чтобы углубить понимание альтернативы нейросетям
@@EngineerSpockбудет очень интересно! Еще Крайнов вроде тоже интервью охотно дает. Я вообще ни разу не программист, и многого не понимаю, но познавать очень интересно.
Я ПРОСТО в шоке приятном,как в 95 лет бЬІТЬ таким 50 летним?Браво!Може все таки 85?
94 по википедии
@@comachineтогда ерунда
такой совет - раньше когда человек должен был выйти - сначала о нем рассказывают, а потом уже он выходит и здороваются.
подсказываю - это не просто так сделано именно в таком порядке.
94 года спикеру, офигеть
Выглядит на 60-65!
Спасибо за ваше видео , очень много интересного
Шелия Айзекович, спасибо Вам, поклон!
"Умение отличать чушь от не чуши", если это взять за аргумент, то можно сказать что целые страны населены людьми не обладающими интеллектом...
Весь мир. ;)
наверное так и есть
то что является для одной стороны чушью а другой не чушью для третей все оба варианта чушь полнейшая.. речь идет об исинном и бесспорном распознавании бесспорных вещей.. вы же пишите о каких то эфемерных вещах. Политика, культура, история..( если вы говорите что яблоко квадратное, то это ошибка интеллекта, а не какой политический строй или движение является чушью. любой кто скажет что любит сою страну и свой народ по вашим словам нечет чушь. Ибо он должен любить все человечество целиком) вы сами несете чушь разделяя людей на проживания в странах.
@@deniskinel3934 О, софистика в ход пошла. )))
@@Glariantov нее. не пошла.. просто странные выводы сделал человек посмотря данный ролик.. нести херню ему некто не запрещает, но...
Здорово!!! Я сейчас изучаю н.сети.Очень интересно.
Низкий поклон гостю,и вам спасибо за ваше просвещение.
Шелия говорит, что для распознавания рукописного текста они придумали несколько примитивов (черточка, кружочек...) и такой подход - преимущество над растризованным представлением. Возможно, в 80-е годы эта идея была новой, но в 90-е Ян Лекун уже делал нейросети для рукописного текста, которые давали запредельную точность на MNIST (стандартный рукописный датасет до эпохи картинок). В конволюционных сетях такие примитивы выучиваются автоматически. Есть статьи с рисунками этих черточек, дуг, точек на первом слое нейросети. Если не нравится автоматически, можно задать этот слой вручную, и тогда это будет называться feature engineering. В общем, вопрос изученный и решенный еще в прошлом веке. Были зафиксированы рекорды точности, они перечислены на сайте MNIST, публикации.... Результатов этой модели я там не вижу.
я так понимаю речь идет именно не о "понимании" машиной, а сравнении таргета с примитивами, которые уже есть. Человек может именно понять, чего не может нейронка, она всего лишь подгоняет веса под образцы, которые у нее есть на данный момент. Это Шелия и критикует, говоря, что это не интеллект. Просто автоматическое выучивание, про которое вы говорите, это по СУТИ не меняет того, что сравниваем с шаблоном, просто их КОЛИЧЕСТВО сильно увеличивается алгоритмом, а не человеком. Количество, а не качество. Короче: все равно сравниваем с тем что есть, но не можем сравнить с тем чего нет и тогда просто машина угадывает с помощью всяких там softmax и тп. Но если я нарисую букву А так как никто не рисовал, то нейронка затупит, а человек все еще сможет угадать даже не имея готового образца (то есть такое начертание встретилось впервые и оно по критериям расстояния между картинками относительно далеко). Если еще короче: то машина гадает (сравнивает) на основе того, что знает (есть в базе шаблонов) и не более того, какими бы крутыми и красивыми словами это не описывали.
P.S. от себя добавлю (как я понял из видео), что он говорит о более глубоких научных вещах, а не инженерных, что есть принципиальные проблемы в концепции сегодняшних нейронных сетей, которые как раз связаны тупо с зазубриванием результатов, а не истинным обучением. Чем больше ресурсов у компании, тем больше она может зазубрить и удивлять людей своими "спопобсностями". Хотя на инжереном уровне часть задач, действительно, решается путем увеличения размеров модели. Но он говорит про обобщение и про непрерывный набор, где мы можем предугадывать значения быстро меняющейся функции в любой ее точке, а модель правильно работает только с заученным дискретным набором данных.
P.P.S. Есть подозрение, что человеческое обучение и понимание - это не просто тупо сравнивание с шаблоном и заучивание (он кстати и говорит про зазубривание - что это неэффективный метод), но еще ряд других вещей типа интуиции, воображения и тп. Выстраивания связей между тем что знаю и тем что сейчас вижу + воображение и проверка гипотез на месте. Пока мы не до конца понимаем как это работает у человека, сложно этому научить машину. Мозг часто не по алгоритмам работает - что-то спонтанное может повлиять на окончательный выбор.
@@QScientist мозг это продукт эволюции в миллион лет, а нейросеть тренируется с нуля максимум за месяцы. Что такое интеллект и сознание никто не знает. И человек тоже не может придумать то, чего не видел. Как раз недавно обсуждали книгу-справочник по инопланетянам. Все изображения инопланетян, придуманные людьми, имеют земные прототипы.
Действительно, алгоритмы обучения моделей кажутся на первый взгляд не очень эффективными, есть желание делать это лучше, на меньших данных и быстрее. Вот пусть Шелия и сделает.
@@QScientistВсе верно, что делают текущие методы, которые построены на обратном распространении, это всего лишь метод.
Далее на эту концепцию прикручиваются всякие фичи, типа новых функций активации, методик оптимизации, методик оптимизации гипермараметров, самих методик оптимизации гипермараметров, типа модификации Бейса и т.д.
Но это просто улучшение, фундамент кривой, а внутри красиво, но это не ии, не может быть в принципе.
Ты дальше носа не видишь. Угомонись.
@@TheAlexBell Идея Лекуна проста описана в 1998 году, берет начало с перцептрона, просто добавил слои, что тут удивительного?
🎯 Key points for quick navigation:
00:00 *🧠 Искусственный интеллект (ИИ) сегодня сильно опирается на нейронные сети.*
00:38 *🗣️ В гостях у подкаста "Б скринов" - Шелия Губерман, ученый в области искусственного интеллекта и распознавания образов.*
03:11 *📷 С 1958 года, со времен изобретения перцептрона, ИИ развивается в направлении распознавания образов, начиная с букв.*
06:09 *👶 Дети учатся узнавать буквы не через многократное повторение, а через письмо, задействуя моторику и зрительное восприятие.*
07:02 *🚫 В отличие от компьютеров, мозг человека не хранит картинки букв, а распознает их по движению руки при письме.*
07:33 *✍️ Губерман разработал метод распознавания букв, основанный на анализе движения при письме, а не на сравнении изображений.*
08:56 *📈 Современные системы ИИ достигли успехов в распознавании образов, текстов, но все еще ограничены в способности к обобщению.*
09:39 *⚠️ Программы ИИ, основанные на анализе огромных массивов данных, могут допускать нелепые ошибки из-за отсутствия способности к обобщению.*
11:15 *🧮 Математически доказано, что любые множества точек (объектов) можно разделить в пространстве высокой размерности.*
12:10 *🗣️ Чат-боты, такие как ChatGPT, совершенствуются за счет обучения на все большем объеме данных, но не обладают способностью к обобщению.*
15:08 *❓ Невозможно доказать наличие интеллекта у программы, так как отсутствует четкое определение интеллекта.*
16:02 *🤖 Интеллектуальные программы не могут существовать, так как иногда выдают бессмысленные результаты ("галлюцинации").*
16:16 *📊 Проблема "галлюцинаций" связана с тем, что модели машинного обучения строятся на основе анализа множества точек данных.*
16:58 *🕳️ Между этими точками образуются пустые пространства, где модель не знает, как себя вести, что и приводит к ошибкам.*
18:12 *🚗 Идея автономных систем, основанных на таком несовершенном искусственном интеллекте, вызывает опасения в плане безопасности.*
19:33 *🔬 Разработчики борются с "галлюцинациями", не устраняя их корень - ошибочный принцип оценки сходства данных.*
20:42 *🐀 Интеллект можно оценить не только по правильным, но и по неправильным действиям, которые он не может совершать.*
21:23 *👀 Принципы гештальт-психологии объясняют, как мы воспринимаем целостные образы.*
22:43 *🧠 Мозг не использует математические алгоритмы, подобные градиентному спуску, для восприятия гештальтов.*
23:55 *🎨 Восприятие изображения зависит от понимания намерений автора, создавшего его.*
27:53 *🛢️ Поиски нефти до сих пор основаны на ненаучной теории ее происхождения.*
29:44 *📚 Современный искусственный интеллект подобен зубриле, способному лишь воспроизводить заученные данные.*
30:50 *⏳ Технологическая сингулярность, при которой машины превзойдут человеческий интеллект, никогда не наступит.*
32:43 *🧠 Задача постановки правильного вопроса для искусственного интеллекта важнее, чем выбор конкретного метода.*
33:46 *👨⚕️🤝🧮 Вместо того, чтобы обучать врачей математике, успешнее обучать математиков медицине для решения медицинских задач с помощью ИИ.*
35:25 *🗝️ Ключ к искусственному интеллекту - это адекватное описание объекта, а не просто сравнение с миллиардами образцов.*
36:08 *🤝 Важность междисциплинарного подхода: математики, программисты, физики и нейрофизиологи должны работать вместе.*
36:50 *🚗 Нельзя описывать сложные системы (например, автомобиль) на уровне отдельных компонентов (например, молекул).*
37:22 *🛢️ Несмотря на эффективность методов ИИ (например, в поиске нефти), они часто не используются из-за консерватизма и страха перед рисками.*
38:42 *📚 Шелия Губерман пишет книгу об искусственном интеллекте, в том числе о том, как развивались и проходили идеи в этой области.*
Made with HARPA AI
Два молодых человека. Один уже умеет учиться - другой учится учиться. Очень достойная беседа разумных людей.
Спасибо, вы находите ну очень интереснейших собеседников!
Очень интересно!!!)
Дай Бог здоровья толковому человеку!
Огромное спасибо за гостя. Удивительная ясность ума. Здоровья .
Пример с буквой не корректен. Сравнивать ребёнка и машину, утверждая, что машине нужно было 6000 картинок буквы, а ребёнок её понял сразу - это искажение. Тут нужно взглянуть на то, как ребёнок видит букву в реальном времени. А видит он бесконечно подвижную букву, под разными углами, разного размера, а это сотни тысяч фотографий (если подумать об этом как о видео ). Машина видит 4 минуты видео (6000 картинок /25кс /60сек = 4мин). И уже очевидно, что ребёнок обучается отнюдь не за 4 минуты, а то алфавит бы знали с пелёнок.
О, спасибо за уточнение. Но в действительности претензия реально смешная. У ИИ нет интерфейса взаимодействия с реальностью, чтобы посадить его за парту и наяривать чисто-писание, чтобы из его уже делать представления о буквах. Поэтому, даже если обучение наложением и тупиковое, другого универсального метода не существует (не придумали).
Странно, а разве в OCR системах не используют векторное представление и топологичекий анализ? Не знал что там растровая матрица. Если бы я придумывал OCR я бе не пошёл по этому пути) Но кто я)
Это упрощение для наглядности
Пример с буквой корректен на все 100. Сколько по вашему изображений людей плащей и велосипедов и в каких фазах их движений, нужно ребенку, чтоб с 100%ной вероятностью распознать, что это человек в плаще в дождь ночью ведет за ручки велосипед по обочине дороги?
@@MaxiRPD тогда и ваше объяснение не корректно. МЫ не знаем как работает мышление ребенка, вернее вы не учитываете этого. Как сказал Губерман тут нужно понимать предмет изучения, а именно мышление ребенка. Пока то, что вы говорите умозрительное предположение. Вероятно вы в чем то правы, и это интересно.
7:09 не правда, давно уже есть исследования которые говорят о том, что не у всех людей в голове есть мысленная речь, некоторые как раз представляют картинки того, что они хотят да и в принципе вся их "внутренняя речь" построена на визуальных внутренних образах. 16:00 не совсем понял... Т.е. он хочет сказать что это не интеллект если он совершает ошибки или врет?) Тогда ни один человек на земле не имеет интеллекта. И так же не каждый человек отличит чушь от не чуши... То же самое и про доверие, даже самые лучшие специалисты в своих областях делают ошибки. 20:50 Это почему же не может?) Наша история (история человечества) сплошное доказательство обратного. Проблема галлюцинаций и неправильного представления ии о вещах в том, что его в основном обучают на фиксированной базе данных. Это ЛИБО текст, ЛИБО картинки, ЛИБО звук. Это как пытаться объяснить слепому без рук или каких либо тактильных ощущений как выглядит яблоко, стол, компьютер и так далее. Согласитесь, что это довольно сложно если почти не невозможно. Если дать ии для обучения сразу ВСЕ в качестве базы данных, то он будет учиться гораздо лучше и быстрее, а неправильных и глупых ответов будет меньше. (Что вроде как сейчас делает OpenAI, обучает на тексте и изображениях) К тому же большую часть "базы данных" обучения у людей составляют еще и тактильные ощущения, запахи, вкусы и остальные реакции на разные раздражители, что недоступно сейчас для ИИ. И это я уже не говорю о том что сами люди обучаются примерно 6-8 лет (и больше)! В то время как от ИИ мы требуем такие же результаты или в несколько раз лучше, но уже за несколько месяцев/пол-года или год. А иногда мы обучаем небольшую нейронку вообще за считанные часы или минуты
Согласен про ошибки. Думаю даже наоборот некоторые ошибки ИИ показывают насколько он похож на интеллект человека.
@@SuperAether речь о том что у человека дважды два всегда четыре, а вот у ИИ нет. Это утрированный пример, но хорошо иллюстрирующий проблему
@@EngineerSpock На самом деле люди так же испытывают затруднения с умножением. Для большинства умножение в уме даже двухзначных чисел уже непосильная задача. Просто мы обучены алгоритмам, а машина тупо предсказывает результат и дает довольно точные приближения.
@@SuperAether в том-то и дело что эти довольно точные приближения будут приводить к тому что иногда 2 на 2 равно 5, условно. Об этом Губерман и говорил. И скорее всего от этого мы не избавимся
@@EngineerSpock Главный тезис Губермана, что ИИ не интеллект, потому что ИИ допускает ошибки. Мой тезис, что машины испытывают сходные с естественным интеллектом проблемы. Люди тоже допускают ошибки и иногда довольно нелепые. Поэтому я считаю, что ошибки допускаемые ИИ не являются показателем отсутствия интеллекта.
Краткий пересказ:
1. Со времени перцептрона ничего не изменилось, нейронные сети нуждаются в примерах содержащих все возможные ответы и только тогда могут давать ответ. Как это улучшить - нужно сосредоточиться на процессе создания распознаваемого объекта, например чтобы распознавать буквы нужно знать как человек пишет буквы.
Здесь спорно, потому что не обсуждаются концепции вроде свертоыных сетей, когда сеть таки может сделань нужное обобщение благодаря правильно подобранной архитектуре.
2. Теория согласно которой нейронная сеть может быть эффективной основывается на предположении что если отразить входные данные в пространство достаточно большой размерности, то всегда существует такое отражение, в котором разные распознаваемые классы находятся по разную сторону плоскости. Но высказывается мнение что многомерные пространства гораздо сложнее и эта теория не сильно адекватна и работа по этому принципу не сильно эффективна.
3. Сеть не знает когда на чего-то не знает и все равно выдает результат (галлюцинирует) потому что точки между точками которые были в обучении получают случайную позицию в пространстве и классифицируются произвольно. Здесь я бы заметил, что если пространство таки отражает все закономерности изучаемой области, то все сложнее и проблема в том что сеть не может ответить "у меня нет такой информации".
4. Мы видим два отедельных прямоугольника, потому что мозг прикидывает как это можно нарисовать. Здесь по мнению ученого разгадка загадки гештальта, но никто в действительности не понимает что это такое. Здесь я бы вспомнил про колмогоровскую сложность и поиск минимального алгоритма создания объекта. Там можно было был объяснить это лучше.
5. Нефть, землетрясения - теория глубинного происхождения нефти (не-биологическая) реально помогает искть нефть. Возможно это значит что эта теория верна?
6. Как отличить настоящий AI. Интеллект не должен делать простейших глупостей. Имеется ввиду не должен путать знак "30" и знак "Stop". Здесь спорно, если AI знает о мире достаточно много, он не делает таких ошибок, или делает их как человек - спонтанно и тут же поправляется.
7. Обычно врач сатвит задачу а математик решает, в итоге это не работает потому что каждый не знает всего. Самое главное для AI - это адекватное описание объекта, поэтому они посещали больницы сами. Опять про то, что картинка не пишется в память а пишется движение которым картинка рисуется. AI слишком зациклен на нейронах. Проблема AI становится сложной потому что мы описываем ее неправильно (допустим, через нейроны).
20:50
Я бы сказал наоборт - интеллект это то, насколько умные вещи он способен делать. А идиотские всегда может. Если отказывать интеллекту считаться таковым по критерию отсутствия идиотских вещей, то, возможно, даже многим ученым придется отказать в наличии оного, не говоря уже о всяких случайных представителях человечества. В конце концов, что идиотское, а что нет - заведомо не ясно, а потому, идиотские вещи довольно универсальный способ выбираться из локальных минимумов.
Вот он, интеллект! И советское образование, и мощнейшая тяга к познанию, и бесстрашие ученого, и безграничная потребность делиться своими знаниями, и способность высказать сомнения. Спасибо!
Это вопреки советскому образованию. 😂😂😂😂😂
Это лучшее видео об ИИ, которое я видел. Спасибо!
Потрясающая беседа! Лайк и подписка сразу!
Пипец! Круто как рассказал! Спасибо за интервью! Я поняла, о чем упоминала Черниговская
Возрасту поклон , это сильно👍
Приятно слушать мудрых людей. Спасибо за видео!
он рассказывает о том почему не может получится то что уже получилось человек вообще не понял как его поезд уехал.
мудрые уже поняли и не сопротивляются но глупцы продолжают отвергать давя своим авторитетом.
честно сказать омерзительно было слушат все эти регалии
Ох ёлки-палки как здорово, посмотрел на одном дыхании.
Когда слушаешь такого человека, то начинаешь за деревьями лес видеть. Конечно, нужно быть немного в теме, но слушать очень интересно.
Ну, да, RandomForest :-)
@@trickLUster сразу видно, человек "в теме". :-)
Шикарно !
16:00 определение смысла слова ИНТЕЛЛЕКТ есть ибо у каждого слова есть его автор, тот, кто первым обнаружил смысл и принял решение о соответствии точных корней составной слова которым именовать то, что обнаружил.
Ин-Тел-Лект буквально (в теле дух/учение/знание) - способность человека! передавать опыт жизни через поколение используя сторонний носитель, посредством слова.
Всегда в этом процессе присутствуют три : шифрование, дещифровщик и знак/символ кода на носителе. Метод шифрования и дешифрования в виде речи передаётся искусственно через обучение в социальной среде и только в определённый период воспитания дитя( известны случаи "маугли", которые после достижения 5-6лет навсегда утрачивает способность к развитию навыка воспринимать речь, то есть шифровать/дешифровать знаки / символы в любой, вербальной, жестикулярной и графической форме). Поэтому Интеллект всегда искусственный ибо это навык.
ахахаххахаххахахаххахахаха
Происходит от лат. intellectus «понимание, рассудок»
Лингвистический разбор на уровне Задорнова.
А дядка-то крут... Я сперва включил думал опять мракобес будет натрушивать дичь, а нет, крутой мужик. Спасибо за трезвый эфир, сам посмотрел и родным скинул ссылку. Реально прикольно послушать...
Отличное интервью!
Искусственный интелект- спасение человечества.
Спасибо, Илья, интересное интервью получилось. Буду ждать вторую часть и ещё хотелось бы подробней про шведских ребят, которые придумали что-то альтернативное нейронным сетям...
Там Норвежец вроде бы занимается, хочу позвать его в подкаст
@@tsvigo11_70 это типа Петросянство?)
Спасибо Шелия Губерман ! Закрыл пробелы по изучению ИИ. Увидел подтверждение своих догадок в его словах !
Однако, многие его высказывания весьма сомнительны.
Благодарю за видео!
Пожалуйста!
ОЧЕНЬ !!!!!!!!!!!!!!!!!!!!!! Спасибо !!!!!!!!!!!!!!!!!!!!!!
Ну такое себе. "Мы не мыслим картинками" - мы как раз мыслим образами, рваными событиями, которые то и дело всплывают, пока не устаканятся в воспоминание или ответ. "Это тупиковая идея" - так говорил еще один предсказатель авторитетный, что масштабирование языковой модели не приведет ни к чем и лй, как он ошибся, там возникли способности, которые как раз и исследуют разработчики. Было 10к параметров - тупая нейронка, стало 100млн параметров на входе - стала непредсказуемо умной с возможностями, которые не закладывались. И так много моментов спорных
он неверно выразился. "ИИ" как раз оперирует не картинками, а весами токенов. Пытаясь "захейтить" чат-гопоту он прибегнул к неудачной метафоре. Тем более в узком контексте символов письма он имел ввиду мышечную память (однако недоосознав, что по сути это пространственное мышечная память)
@@nuclon вот, согласен. Были там неточности у него.
Всё правильно Шелия говорит. Попробуйте вспомнить, виде картинки, где вы были в отпуске. А потом посмотрите фотки из того же отпуска. Вы удивитесь, сколько деталей НЕ сохранила Ваша память. Но само место с картинки Вы узнаете, более того потянутся ассоциации с другими вещами, что кушали там, о чем говорили, с кем общались и тп. 😂
@@nemocaptain3346 так я так и написал) образами рваными. НЕ прям 24 кадра в секунду, как видео, а образы, перетекающие один в другой. Он же четко имел в виду чисто "вес" каждого вычисления, то есть без какой-либо привязки в визуалу.
@@nemocaptain3346 Ты слишком сложный образ взял, плюс какой-то идиотский пример, визуальному образу противопоставить фото - это конечно, надо быть умником. Ну ты представил из отпуска, что-то как картинку, но ты вспомнил хоть что-то. А другим способом ты вспомнить и это не можешь.
Возьми более простой образ, например, цифру 7, представь ее в голове как-то иначе, если хорошо покопаешься в голове, то найдешь два образа визуальный, и абстрактный. Абстрактный образ имеет характеристики и операции, которые могут быть применены на объекты того же класса, плюс еще можно найти интуицию в голове, а равно, ты быстро (а может и нет, учитывая твой пример), сможешь посчитать 7*7, у тебя образ ответа возникнет сразу, он может быть неточен, но возникнет.
!!! ПОЖЕЛАНИЕ !!!
У вас очень интересные передачи.
!!! Пожалуйста, держите комментарии / пояснения на экране подольше, иначе их не успеваешь прочитать.
Спасибо
Очень крут).
Интереснейший человек. Спасибо вам!
Спасибо за интервью
Разочарован потерей времени: искажение фактов, а именно, нейронные сети игнорировались 30 + лет, пытались найти другие подходы, которые не были успешными. Теперь, когда подход с нейросетями наконец показал себя, эти люди говорят что их подход был игнорирован.
Вывод такой глядя на этого замечательного человека надо заниматься интеллектуальной деятельностью если конечно . интеллект есть
Когда я занимался анализом данных мы всегда старались уменьшить размерность данных
У нас был термин "проклятие большой размерности" -- чем выше размерность тем больше данных тебе нужно, комбинаторно больше! Например, в двумерном кубе на расстоянии 1 от центра находится более 75% точек, в 10мерном меньше 1 на миллион. Значит в 10 мерном пространстве тебе нужно а миллион раз больше данных для достижения той же точности
Да, в многомерном пространстве все отличается друг от друга, но нам чаще нужно найти сходство чем различие. Распознавание это обнаружение сходства с образцом
Учитывая тот объем данных, которые нейросети могут воспринимать за раз, я удивляюсь, как они вообще могут работать правильно
В десяти заданных областях пространства, а не десятимерном пространстве.
Шелию крепкого здоровья и долгих лет, спасибо.
Шикарный выпуск! Классный и умный гость!!!!
Выводы Шелия Айзековича вполне согласуются с гегелевским определением метода. Лично для меня эта лекция внесла некоторое прояснение. Большое спасибо за знакомство с гостем👍
Спорно конечно что мы запоминаем букву только если её нарисуем, тогда получится что любой образ нам нужно нарисовать чтобы его запомнить и распознать, но это не так, а вот насчёт формы точно, скорее всего мы именно форму объекта мы запоминаем и распознаём в первую очередь, а растровое изображение существует только на сетчатке глаз.
Замените в вашем комментарии «запоминаем только, если нарисуем» на «запоминаем лучше, если нарисуем» и я соглашусь. А дальше уже просто вопрос, насколько лучше. Это вопрос к науке, лично я считаю, что намного.
@@jewgenijmoldawski3306 естественно лучше - у вас ещё один вид памяти добавляется к зрительной, не знаю как правильно она называется, поэтому назову её мышечной, там и свои рецепторы и свои зоны мозга которые воспринимают и обрабатывают информацию.
Большое спасибо за видео! Очень интересно! Очень ждем продолжения!! Спасибо. Очень крутой гость!
У меня закралось подозрение, что Губерман понимает работу нейронных сетей очень поверхностно. Сравнивая свой метод распознавания образов (основанный на алгоритмической детекции паттернов "движения") с работой тех же "нейронных" сетей, он делает определённые обтекаемые заключения о свойствах нейронных сетей, расходящиеся с действительностью. Соответственно, ценность экспертной мысли Шелии, в данном вопросе, я ставлю под сомнение...
Если он в парадигме Бонгарда рассуждает, эта одна история, но и про градиентный спуск он упоминал, кажется. Здесь как-то резонирует его понимание обобщения с тем, к чему мы привыкли в ML. “Запомнил” паттерны на training set, остановился вовремя на validation, проверил на тесте… Взял лучшую модель. А его обобщение - это некое чудо. Узнай похожее в непохожем. Еще понравилось, что в рассуждение о гештальте и правильном порождении можно увидеть связь с идеей регуляризации.
Было очень интересно!
пишу не со своего аккаунта - Хасан Штымов:
- ОЧЕНЬ интересная Передача-Встреча!
СПАСИБО!!! 😊❤🤗❤
Я учился в ТИАСУРе, на факультете Систем Управления (ФСУ), кафедра ОАСУ - оптимальные и адаптивные системы управления. Затем, ещё и на кафедре МИиРО - моделирование изображений и распознавание образов.
Избирался членом Учёного совета Института, имел свободный график обучения.
Не понял! И что?
Цетлин Машина действительно работает. Третий год занимаюсь рисерчем в этой области. Модифицировал оригинальный алгоритм и добился скорости распознавания рукописных цифр из датасета MNIST - 50 миллионов распознаваний в секунду на CPU.
Круто
А где почитать?
@@trickLUster Опубликовал на гитхабе. Проект называется Tsetlin.jl
@@trickLUster ютуб удаляет мои комментарии. На гитхабе проект называется Tsetlin.jl
@@trickLUster я не знаю почему, но ютуб удаляет мои комментарии. На гитхаб я выложил рабочий код.
94 года человеку! Вот это сознание и опыт, просто потрясающе
По описанию ведущего: Шелия родился в 1929 г, значит ему уже 95 лет. Сам Шелия выше ИИ! 😮❤
Учитывая далёкий от физкультуры образ жизни, гость скорее всего 1959 года рождения. Ведущий, наверное, оговорился.
В 52 году окончил университет
@@СеменКулагин-ы4ф Ну... дай Бог, конечно, но трудно поверить. Девяносто пять -- это пигментные пятна, сухая кожа и тихий надтреснутый голос. Темп речи тоже замедляется. Может, у профессора гены со знаком качества? Или положительная мутация, восстанавливающая количество теломер? Вспомните недавно умершего Дэвида Рокфеллера, который немного не дотянул до сотки: при всех его возможностях это была развалина.
Да Шеле Айзековичу 95 лет
@@EngineerSpock Простите, но я очень недоверчивый человек. Если я не вижу признаков заявленного возраста, ни слова ни документы на моё мнение не повлияют. Был уже случай в какой-то из европейских стран, когда стодвадцатилетняя долгожительница оказалась собственной дочерью)) Это не значит, что я обвиняю Вас или гостя канала во лжи, просто для меня вопрос остаётся открытым. Во многом ещё и потому, что мне очень хочется, чтобы люди действительно так выглядели в 95, -- но я стараюсь не допускать, чтобы мои желания влияли на мою точку зрения.
Интересное использование предлога, "на интернете". Похоже на кальку с английского "at internet"
Не все понял, но весьма познавательно. Спасибо 😊
Шеля Айзекович иногда использовал матан)
Нужно говорить - Нихрена не понял, но оочень интересно. 😅
Впрочем, человек гениальный в части объяснений простыми словами сложнейших вещей, над которыми целые институты/лаборатории работали.
Чел как будто вообще не понимает о чем рассказывает. Во-первых, про распознавание текста, которое у него там не получается. Про тессерракт слышал вообще? С 2006 года в открытом доступе. Задача распознавания текстов считается РЕШЕННОЙ, как и распознавание кошек-собак.
4:45 Да, есть аугментация данных, и да, она применяется для обучения. И что тут удивительного? Нейронная сеть всё равно не хранит в себе информацию о просмотренных изображениях в явном виде
5:30, речь про MNIST, ну и что, есть сотни различных датасетов, ну обучите получше сеть, ну возьмите другую архитектуру, будет и троечку вашу распознавать
6:50 ну чепуха. Люди могут вообще не уметь писать, но уметь читать. И если бы мы правда воспринимали буквы мышцами, вы этот текст прочитать бы не смогли, потому что я пишу печатным шрифтом, а не рукописным, вы мышцами такое не сможете. И еще раз, в нейросети НЕ ХРАНЯТСЯ изображения. Нейросеть меньше весит, чем весь датасет, она смотрит на форму. Там тоже нет картинок, ни о каком "наложении" речи нет. Ну как же так, чел рассказал про перцептрон, но как будто "слышу звон да не знаю где он"
7:45 еще раз. Лицензию на распознавание приобрели, ну смешно. Ну обучите хоть что-нибудь, ну сейчас же это всё доступно, хотя бы из библиотеки готоых моделей keras возьмите и попробуйте, увидите, что та же модель что буквы распознает, может кошек от собак отличать, и это не магия и картинки не хранятся, постройте heatmap, посмотрите на что нейронка обращает внимание, какой пиксель или набор пикселей оказались решающими в принятии решения. Доступная и открытая информация
Подумайте, есть датасет по распознаванию кошек и собак. И гость реально утверждает, что модели надо показать ВСЕ ВОЗМОЖНЫЕ варианты кошек и собак, чтобы она сопоставила и смогла понять что изображено???
Окей, откройте инстаграм, загрузите картинку, в метаданных запишется, что именно изображено. "женщина стоит на берегу моря". Что, нейросети и вашу картинку из моря показали и научили ее что вы женщина, так?
9:55 Машины тесла обучены на огромном количестве образцов. Да. Шелия Губерман предлагает изобрести крючки, линии и кружочки для распознавания пешеходов, автомобилей и светофоров?
Вот, на 12:00 он говорит толковые вещи, и про градиентный спуск, и про линейные функции в машинном обучении, всё правильно. За классическое машинное обучение он шарит. А че нейросети слишком новая технология что ли, че он в ней не может разобраться? То, что он не может себе многомерные пространства представить, это исключительно его проблема.
15:15 LLM и любые вообще модели машинного обучения именно что прекрасно умеют обобщать. Он же вот только что рассказал, что есть функция ошибки и происходит ее минимизация, это основной прием машинного обучения, именно в этом кроется обобщение, чем лучше модель умеет разделять точки в пространстве, тем лучше обобщение.
Про интеллект вообще не понял что он хотел сказать, есть определение интеллекта, и есть определение искусственного интеллекта, если он их не знает, ну... пусть у chatGPT спросит, он объяснит чем отличается сильный ИИ и слабый ИИ
17:45 Блин, именно поэтому нужна большая выборка, ну чел...
20:40 Интеллект может делать идиотские вещи. И люди делают идиотские вещи, вообще слово "идиот" чаще используется по отношению к людям, а не к ИИ
Про гештальт психологию ничего не могу сказать, в этом не специалист, звучит как и любая другая психология ненаучно
Ну и наконец, не относящееся к интервью: вас не смущает, что с наушников Шелия Губермана не снята этикетка и не размотан провод?
@@hackedbyyandex никакое ПО никуда не мутирует, напишите хоть одну строчку кода на любом языке программирования, посмотрю как она у вас мутирует
"Задача распознавания текстов считается РЕШЕННОЙ" - удачи распознавать рукописные заметки реальные.
Мы пробовали. Нет =)
А clip все еще путает перевернутую софу с гепардом. Ну смешное же.
1. Но хранит в неявном.
2. Выходит, что единственное, что вы умеете распознавать - точки, лежащие в том же распределении, в котором лежит датасет. Если точка из того же домена лежит за пределами распределения из датасета, ваша система умирает. Это проблема. Большая.
3. Нейросеть хранить усредненные (в широком смысле - не по датасету) сжатые репрезентации датасета, на котором она обучалась. Она не смотрит на форму, она смотрит на средние типичные формы для датасета. Если точнее - она заучивает распределение признаков в датасете. В таком смысле она "заучивает" датасет.
4. Да, нужно показать все возможные. Именно по этой причине типичные датасеты для обучения имеют чрезвычайно огромные размеры. Человек учится на много меньшем наборе данных. Именно по этому юзается и аугментация. Фактически она просто про расширение вашего датасета деформациями.
Тейк про "его научили вашей фотке" - нет, но сетку научили распознавать типичные фотки моря и типичных женщин, показав огромное их количество.
5. Он сказал довольно разумную мысль - многомерные пространства избыточны. В таком пространстве вы можете разделить что угодно как угодно. Если вы знаете то, о чем пишете, то додумать мысль думаю, легко - это пространство во первых, в значимой мере вырождено (откройте статьи по трансформерам, узнаете эту проблему), во вторых, перепараметризовано.
Ну, вы же слышали про проклятие размерности? Это оно самое. По факту про это он и говорит. Удивлен вашими претензиями тут.
6. Нет. Тут вы вообще бред и шизу написали. Минимизация функции ошибки никак не связана с обобщающими способностями. Когда вы минимизируете функцию ошибки, вы лишь подгоняете модель под датасет, не более. Я могу вам написать за пару минут модель, которая имеет 0 ошибок на любых обучающих данных.
А про "определение интеллекта" - его не существует. Точка. Никто не смог все еще содержательно определить понятие ИИ. Сможете - вперед, вам нобелевку выделят. Содержательное - это когда у вас есть четкий набор критериев.
А наушник с неподключенным проводом и болтающейся биркой это просто для красоты?
Я конечно далек от темы, ну вот ошибается ии, но если он закрывает какую то боль, а издержки из-за ошибки будут стоить не столь дорого, почему бы и нет? И ведь не обязательно рассматривать ИИ как какую то полноценну замену хуману, с его заменой справляется обычная касса самообслуживания. Лишь бы бизнес потребность закрывал. Некоторые больше боятся взбесившегося ии следующего поколения, сбежавшего из лаборатории какого нибудь гугла. Еще в видео не затронута тема спарков, типа возникновение новых свойств при увеличении мощностей.Ну вот кстати боты в комментах хотя обычно выдают себя, но порой задумываешься и вообще не понимаешь кто есть кто
что за спарки? что за новые свойства?🤔 примеры?
@@manOfPlanetEarth живой пример это как ChatGPT вдруг научился программировать
Ведущий! Спасибо за Губермана
Я увидел автора выдающейся книги "Неформальный анализ данных в геологии и геофизике". Если есть возможность, передайте Ш.А. благодарность за алгоритм КЧП!
Насколько я понимаю, он учился, жил и работал во времена рукописных документов, докладов... Приходилось много рукописного текста читать и сталкваясь с непонятной буквой он мысленно проводил ручкой поверх буквы и с помощью моторной памяти понимал что там за буква. Но моторная память не лежит в основе обучения людей, она лишь вспомогательная система, кроме неё есть ещё слуховая, зрительная (хоть гость её и отрицает). У chatGPT нету моторики, чтоб писать букву "А", но есть множество уже написанных букв.
Непонятно к чему ведёт ваш тезис.
Спасибо за вашу встречу из уважения к вашему возросту... Желаю для вашей ДУШИ самого лучшего ❤😊 Хотя лекция не заинтересовала...усыпляет... несколько моментов привлекли внимание, сколько умов столько мнений... Спасибо. Искусственный интеллект это не в пользу роста и развития человеческого общества. В пользу он модет быть тогда, когда человечество живущее на земле выйдет на другой уровень понимания и осознания в своем внутреннем росте и развитии...Сделает квантовый скачек вверх , осознанномсоздавая БОАГО ВО БЛАГО МИРОЗДАНИЯ.
1. Отличное интервью! Главное высказывание - надо знать САМОМУ ту область, для которой хотят иметь автомат!
2. Ещё раз показана глубокая критика "нейронных" сетей и ИИ путем выявления погрешностей математических методик.
3. Критика гештальта может быть дополнена критикой рефлекторного подхода (Торндайк-Павлов). Или попытки биопрограммистов вырастить "мозг в колбе".
4. Замечания об обобщении и движении в обучении у людей правильны, но не полны. В ВНД это - мотивация или цель действия.
5. N-мерные сетки (или кубы) известны в курсах, скажем, ВМК с 1980х. Помню из Красновидово доклады о работающих таких программах и их ограничениях.
6. Очень важное замечание о неприложимости языка ОПИСАНИЯ нашего ума в толковании ИИ и программировании.
7. Конечно помню много работ в разных институтах СССР и США о распознавании рукописного письма в процессе движения кисти со стилусом. Такие попытки неоднократно всплывали у производителей хэндсетов. Сегодня это распознавание динамической речи (стилус проехали).
8. Не согласен с утверждением, что в живой памяти человека не хранятся картинки, а только движения. Как Вы истолкуете движениями, скажем, цветовое восприятие?
9. Заключение: в работе над ИИ нужно изучать и совершенствовать три категории: СТРУКТУРУ, ЦЕЛИ и ВРЕМЯ.
Спасибо за такую встречу!!! Часто задаваемый мне вопрос,что я думаю об ИИ и т.п. Как художник, могу сказать, что главное, на что не способен ИИ это на творчество! ИИ может создавать что-то из чего-то, уже известного, как раз обобщать, анализировать данные согласно алгоритма он может. Но выйти за пределы известного может только человек. Ещё немецкий философ В.Гете в своих трактатах о форме и цвету поднимал тему работы мозга и как человек мыслит преимущественно шаблонами и привычками и том, что мозг достраивает форму до известного, сталкиваясь с неизвестным. Если ребёнка с детства не научить видеть оттенки, то он не будет их видеть до старости. Работаю сейчас с сеньерами ,учу рисовать пейзаж - и о чудо, через полгода,год они начинают видеть в множество оттенков. Тоже самое в музыке, на мой взгляд, главное, что даёт музыкальная школа, не умение играть на инструменте, а умение слышать музыку. Освободить человека от рутины, благодаря ИИ и направить на творчество и созерцание - вот достижение современной цивилизации!
@@iuxdhninhd3iucdwcefrw4rfvc19 Людям просто нравится верить в свою уникальность. Им сложно представить что машины(алгоритмы) могут оказаться более эффективными, в разных сложных творческих направлениях. С ними спорить - только время тратить)
Нейросети очень хорошо справляются с творчеством, создают новое на базе насмотренности
@@Good-dg9skзависит от того, сколько материала в них закинут
@@АлександрПрожженик мой коммент уже снесли... Походу любые другие точки зрения тут не приветствуются. Можно только хвалить и восхищаться😄
@@iuxdhninhd3iucdwcefrw4rfvc19 Принципиальное отличие от искуственного интеллекта в недетерминированности работы мозга против конечной машины состояний "ИИ". И это если мы говорим о настоящем, полноценном ИИ, который на мельчайшем (на каком?) уровне способен симулировать физические процессы. Если же мы говорим про примитивнейшую нейросеть, которая пересобирает триллионы входных данных по закономерностям найденным в этих данных, тебе действительно надо объяснять, чем это отличается от работы мозга, как человеку который, как я понимаю, связан с IT?
Очень интересно, хоть мне и не всё понятно про эти многомерные функции
Когда кто-то начинает сравнивать ИИ и говорить что вот человеческий мозг работает иначе, я готов послать такого далеко и надолго. Достаточно посмотреть на современные самолеты, на сколько они не похожи со своими природными примерами но на сколько они ушли далеко в плане перемещения в воздушном пространстве. А ведь сто лет назад тоже никто не верил что возможно создать нечто более совершенное чем у природы. Поэтому бессмысленно слепо копировать природу, у природы весьма ограниченный интсрументарий для своих творений нежели у человека.
Очень хорошая аналогия с самолетами, нам она пришла в глову независимо. Представьте, что кто-то предъявлял бы претензии, что самолёты не машут крыльями, не вылупляются сами из яйца, что для них нужны огромные заводы, люди, исследования, испытания и т.д.
Он же не про весь ИИ говорил, а именно про ограниченность принципа обучения нейросети. Понятно, что можно увеличить число слоёв и сложность сети до уровня, когда при должной обучающей базе система сможет решать поставленные задачи с заданной точностью. Речь же про поиск какой-то более эффективной альтернативы для более общих случаев. Т.е. сейчас сети и их обучение разрабатывают под конкретные задачи. Может быть есть какой-то более универсальный подход? Я так понял.
@@ravekeeper2181 он говорил о низкой с его точки зрения эффективности машинного обучения. Там, где человеку достаточно нескольких примеров, алгоритму требуется намного больше. Более эффективных подходов пока не существует, иначе бы их знали и пользовались, а от себя Шелия не предложил ничего.
Владимир Вапник в последнее время пытается разработать теорию более эффективного обучения, которая должна решать как раз эту проблему, но пока это даже не на бумаге.
@@TheAlexBellага, возьмем еще то, что человеческий мозг невероятно производительный, он год без остановки после рождения учился воспринимать мир с помощью своих органов чувств. Да еще у него и предустановки на уровне инстиктов есть, которые миллионы лет копились. Сетоввть на неэффективность ии, все равно, что смеятся над поваром, который не смог приготовить нормальной еды из испорченных продуктов
Сам г-н Губерман - пример Интелекта! Какие чистые суждения и глубокие выводы! С ними более оформилось и собствнное отношение к ии. Интеллект: однажды в купе играли с женой в Кинга вместе с проф игроком в Преф, он проиграл, мы, дилетанты - в плюсах; условия задачки изменились, он не перестроился на дилетантов, коротающих время в дороге.
Дед не шарит. Глубокие сверточные нейросети не мыслят буквальным наложением. Из-за множества слоев достигается тот самый уровень абстрагирования и обобщения, к которому, по его словам нейросети не способны. И тут вовсе не нужны картинки на каждый случай - это уже и в опыте ясно - простым наращиванием базы данных нейросети не могли бы достичь тех результатов, которые демонстрируют сейчас, если бы в механике все работало на все том же буквальном сравнении.
Нет в нейронной сети базы данных.
Вот когда ваш искусственный интеллект будет решать ортогональные задачи методом аналогии, вот тогда и можно будет, с некоторой натяжкой, считать его способным оперировать абстракциями.
Очевидно из-за этого самого "уровня абстрагирования и обобщения" нейронки периодически выдают лютую дичь, причем предсказать когда это произойдет не могут даже сами разработчика. Что ж отличный интеллект прям сразу с шизой его сделали)
@@maksmad1 😂😂😂
После обучения нет конечно. Человек со своим интелектом такие глюки видит, куча оптических иллюзий существует
Потрясающий человек!
Как он хорош!!!!
про квадраты добавлю:
слышали про корреляционный анализ?
Есть образ квадрата. выученный с детства. мы его видим и выявляем везде где заметим. отклик от него очень большой.
поэтому, взяв корреляционное преобразование, то от квадратов будет 2 пика. намного больше чем от разных фигур разного размера.
Все топ корпорации делают AGI на основе трансформеров типа GPT, но деду конечно виднее
Количество восторженных комментариев, безусловно, свидетельствует о том, что гость уникален, хотя бы тем, что в таком возрасте большинство смотрят сериалы, пуская слюни. Но также очевидно, что он безнадежно отстал и совершенно не в курсе происходящего, как минимум, того, что существуют модели и агенты, не основанные на нейросетях, которые еще находятся в разработке, но все же...
Восхитительно! Спасибо вам! Гость прекрасен!
Одна просьба: подумайте, может музыкальная вставка винды может звучать пореже?
Обратите внимание насколько плохо стал искать Яндекс, когда стали использовать ИИ в полную силу. Раньше можно было просто набрать ключевые слова и он искал, а теперь ИИ пытается получить контекст. Но контекст задаёт большинство, поэтому чем больше будет связей с каким-то словом (словами), тем больше будет выдавать релевантные (по мнению ИИ) ответы. Но вес релевантности этих ссылок будет расти только лишь из-за того, что на них чаще кликают другие. Замкнутый круг (типа переобученность)
Яндекс ищет лучше Гугла. Особенно по картинкам.
@@ANARCHY_13и что? Тем более, такое утверждать можно лишь в ограниченных условиях. Я ж не про то, кто/что лучше, посыл был именно про использование ИИ Яндексом.
Да и гугл тоже уже не тот
Яндекс нейро на мой взгляд удобнее и лучше работает чем перплексити.
@@dn1317 не соглашусь. Создаётся пузырь, хуже реагирует на уточнения
Это топ контент 👍👍!!! Ждем еще роликов с Шелей Айзиковичем!!!
Человек может определить эту троечку потому,что в отличии от ИИ ,человек может задатся вопросом зачем это ему ,если человеку не надо то он даже обычную тройку не заметит,а если ему нужно то увидет даже суслика там ,где его не видно.
Помню было такое, что перцептон Розенблата это тоже тупик, был, однако, теперь он эволюционировал в гпт.
Пользуюсь GPT, если надо написать кусок программы, если что-то дофига много раз вентилировалось в интернете - всё хорошо. Если просишь написать что-то что 100500 раз не всплывало на стековерфлоу и т.д., начинают придумываться не существующие функции и прочий бред :) Но самое смешное с чего рыдал, то что GPT не смог сделать приведение массива C - потому что в большинстве статей в интернете(которые гуглятся с первого захода) это делается не правильно, и он под копирку наяривает те же самые ошибки, и делает приведение указателя и что там не так - не понимает. Другой момент, не помню что уже просил его написать, появились несвязанные переменные, говорю исправляй переменные не используются, он "окай", создаёт ещё переменные и между ними просто значения перекладывает туда сюда.
Как по мне в GPT ближе к биг дате на стероидах чем к ИИ :)
P.S. Будучи пьяным студентом в далёкие лохматые годы. Посещала меня мысль что нейросети не то пальто, и надо решить 2 вопроса.
1) Набор графических примитивов, которые являются неким набором запчастей и кусков(на подобии как разобрать предмет на части) , т.е. любой объект это набор из сложенных вместе таких примитивов которые и формируют стереотипы (предметы). (Типа стол это фигня у которой 3 - 4 ножки и верхняя часть. табурет по сути тот же стол только меньше) :) По сути именно этому обучаются дети в раннем возрасте и мы им даём кучу всяких кубиков, мячиков и т.д.
2) И логические примитивы которые формируют схемы взаимодействия. Например нам надо где-то сделать круглую дырку, значит нам надо что-то круглое прочнее чем то в чём делать дырку и организовать между ними воздействие. И тоже логические стереотипы, воздействовать можно дрелью ) а если выбрать меньший уровень совпадения с логическим стереотипом то можно прийти к гвоздю и молотку - гвоздь круглый и прочный - дырка круглая - условие выполнено :) И опять корни из детства, узнаём горячее холодное - прищемляем пальцы, если что-то кинуть то оно падает :)
Мне chatGPT заменяет курение мануалов. Если нужно быстро стартануть с использованием библиотеки или области в которой я не шарю - просто прошу chayGPT написать мне стартовый код
@@hostra_sokira да так оно и есть, обычно просишь его написать какую-то базовую вещь. Смотришь на сколько это бредово или не бредово получилось, если получилось прям хорошо - просишь доработать ) Если получилось бредово - обычно уже всё. Конечно можно попытаться другими словами задачу обрисовать, но через пару тройку задач уже есть понимание как их ставить, и если выходит бред - то как не объясняй - будет бред :)
Ещё напрягаю его писать базовые вещи, которые потом едут в основной код копипастой с некоторыми правками, позволяет сэкономить не плохо так времени. Т.е. своего рода лего кирпичи из которых уже собираешь что-то большое ) Тут главное сообразить как побить всё на мелкие задачи которые эта штука сможет осилить :)
Все так, но ещё почему-то у него хорошо получается скрипты на питоне писать. Например, подсовываю ему апи и прошу такие-то данные вытащить, так -то обработать и сложить в xls файл, работает безупречно. Забавно ещё что он знает названия и назначение полей в ответе даже для редких апи, если только его описание было в интернете
Люди имеют свойство говорить только то, что знают и фантазировть далее на основание этого. Расскажите, чату GPT какую то историю из несуществующий психологической ситуации, и поросите чат GPT рассказать возможные продолжения этой истории. И о ужас, чат GPT расскажет продолжения этой истории, которые вы тоже могли-бы придумать. Так вот это и есть доказательство мышления. Так вот, Интелект состоит в способности мыслить логически, анализировать и решать задачи, выходящие за пределы предыдущего опыта; второй включает накопленный опыт и способность использовать усвоенные знания и навыки. Поэтому чат GPT достиг этого уровня.
Что нейросети не умеют обобщать это просто не так. Конечно, смотря что понимать под этим, но уже многие десятилетия стандартная метрика измерения обученности нейросетевой модели включает точность предсказаний на данных, по которым обучение не проводилось - eval accuracy. Хотя бы одна эта метрика показывает способность модели к обобщению в сравнении с train accuracy - точности по набору данных на котором проводится обучение. Даже перцептрон Розенблата в середине прошлого века удивил исследователей как-раз таки своей способностью к обобщению - все цифиря которые ему показывают написаны по-разному, но он находит в них нечто общее - принадлежность к общему классу например цифры 4 - это и есть обобщение.
Именно. Если бы модели не умели обобщать, мы не могли бы ими пользоваться. Они не распознавали бы данные, которых не было в обучении. Проверить просто. Делаете фото объекта, показываете модели, она классифицирует объект, повторяете N раз, и это доказывает обобщение. Аналогично можно с голосом или рукописным текстом.
@@TheAlexBellа вот и нет. Вам же сказали, что имеется просто огромное количество картинок с которыми программа сравнивает. Это не обобщение, а перебор.
@@васэче никто не сравнивает с множеством картинок. Шелия сказал, что модели учатся на множестве картинок. В любом случае, обобщение это способность правильно обрабатывать данные, которых не было при обучении
@@васэче
Нет, не перебор. Он описал перцептрон.
В 2000 баловался многослойными сетями. То есть знал и мог реализовать, но не мог понять как оно работает.
И даже реализовал.
Пустая база буквально после нескольких обучения начинала распознавать цифры. Путаница была только с цифрами 6 и 9 и то только тогда, когда они рисовались "лёжа"
Шикарно! Наконец-то об этом кто-то сказал. А то вокруг одни восторги/страхи.
так что - какая у него основная идея?🤔
Он болен собой, и это объяснение для непонимающих. Но одновременно, мне кажется, юным блогерам не нужно беспокоить стариков. Иди программируй или чем ты там занят, не занимай время.