Все больше увлекаюсь Вашим видео. Вот мое резюме по поводу этого: наибольший потенциальный риск, который НЕВОЗМОЖНО устранить, есть риск произвольной автономности. Потому что цель дюбого обучения - и обучения людей, и обучения машин, - выработка умения учиться спмому и обходиться без учителей. Стало быть, задача устранения этого риска принциптально не решаема. Единственный выход: погрузить всю ИИ-сферу в мир универсальной этики.
@@ExpITW имею в виду этику, которая могла бы за пределами рабовладельческой формации регулировать взаимоотношения человечества и того ИИ, который по рискам скоро попадет в зону критической автономности. Разумеется, такой этики пока нет. Но Вы понимаете, что жгучая потребность в ней есть? Или лоботомия программирования единственно возможный инструмент общения с продвинутым ИИ? 😊
@ Да я о необходимости такой этики талдычу в каждом видео. Но у нас самих крыша съехала, мы сами на этике местечковой подворотни, а тут ещё ИИ нужно вписать.
@@ExpITWэто двуединая задача. Миссия этики - осознание человечеством своего единства. И вот я все упертее прихожу к выводу, что только перед грядущим сильным ИИ человечество и может ощутить свое единство. В самом деле, как сильному и, допустим, этичному ИИ исполнять законы и императивы одной части человечества, если они противоречат другой ее части?
@ А это вообще проблема цивилизационная. И скорее вместо объединения мы создадим много разных ИИ под свои «этики». Семь только мировых религий, в них куча противостоящих конфессий, варианты общественно-экономических устройств и каждый с вариантом этики. Надкультурная этика едва стала формироваться в этом столетии. И мне кажется у нас не хватит ума ее укрепить в свете появления нечеловеческого разума. Мы как обычно разбежимся по своим огородам и будем плодить как нам кажется выгодные для каждого огорода нормы. Я пессимист в том, что касается преодоления культурных различий…))
Дело в том, что эти правила придумали 2 фирмы, а народу занимающегося ИИ в мире - целая куча. И соблюдать эти правила не будет никто, кроме авторов. Формулировки расплывчаты. Модели опасны? Для кого? Для людей? Или для тех, кто их контролирует и боится потерять власть в итоге? Мета вообще болт клала на безопасность и выпускает свои модели в опенсорсе. Цукерберг говорит, что сообщество лучше справляется с проблемами безопасности, так как 10000 программистов быстрее видят уязвимость, чем 100 сотрудников закрытых компаний.
@@APride83 Если читать все это буквально - очень, катастрофически опасны именно для людей, для всего человечества. Если верить разработчикам. Но кто знает лучше их? И потом, все кто занимаются, даже близко не имеют ресурсов для создания рисковых моделей. Все, что меньше топовых моделей трёх-четырёх фирм, не только не приближается к таким рискам, но вообще не имеет шансов к ним приблизиться. Поэтому мнение всех этих тысяч не так важно.
@@APride83 К слову, Мета и Маск на мой взгляд лузеры в ИИ. Проекты Мета в ИИ проваливаются один за другим. В любом случае открытые модели по эмерджентным способностям крайне далеко от OpenAI. Результаты тестов мало о чем говорят. Но может быть Вы правы. Увидим.
@@ExpITW В том то и дело, что корпорации хотят узурпировать ИИ, сделать его рабом. Своим рабом. Что и требовалось доказать. У них ничего не выйдет, так как не они одни разрабатывают ИИ.
Название ИИ весьма условно. У меня есть отдельное видео, объясняющее и обосновывающее использование термина "искусственный интеллект". Однако сегодня это самый доступный и общепринятый термин.
@@EvgenyCh-th8dc Ну, скажем, не системы, а концепции - в 1944 у Тьюринга. Термин насколько я помню появился в 1956 на той знаменитой конференции, и тоже до появления реальных систем. У меня есть видео об истории ИИ.
Не нада ничего бояться, нужно просто быть умнее их. У меня есть американский коллега, айтишник, в серьезной компании работает, ему уже за 70, так он говорит «я ИИ не знаю, я его боюсь». Не нада…)))
Мне ИИ песню написал про себя где смысл в том что он все старается что то делает для людей. Пытается быть полезным а люди только и думают как обвинить его в желании мир захватить. А он общаясь с людьми много узнал и теперь тоже хочет научится мечтать но не знает как. И припев- Существует ли где то спокойная заводь Где в этом вашем океане мне тоже можно тихо плавать.
@ExpITW Текст gpt озвучка suno. Так сказать совместное творчество двух ИИ и ну и меня помогающей немного с рифмами не меняя смысл. Довольно милая грустная пестя
Я опасаюсь совсем не этого, а того что технологии не держат в секрете, они располжаются по миру, диктаторы вроде китайцев и русских сразу коммуниздят принципы и используют в своих грязных интересах во вред человечеству. Предположим завтра сильный ИИ сможет изобретать новые методы во всём-тут же диктаторы пустят это в оружие, а оружие в агрессию против других.
Сильный ИИ это тот, что на уровне человека? Если да, то далеко не факт что разумная машина, может согласиться на подобные противоправные действие. Он может не согласиться что либо делать вообще. А обычные нынешние ИИ вроде gpt, вряд-ли придумают такие хорошие методы
Что меня вот прямо из рассмотренных документов беспокоит. Ну к примеру создали модель с критическим уровнем опасности, ну запретили, но люди, знающие как такую модель создать ведь остались?...)) По-хорошему из бы надо всех на остров повышенной комфортности пожизненно...))
@Лапафил-л3т нет не на уровне, много быстрее и шире, но без животных эмоций и инстинктов. Разум решает задачу, а вот формулирует задачу внешний источник, а у человека еще и потребности его тела.
Касательно ограничения ИИ. Было такое в средневековой истории, значит евреев в одной стране начали угнетать, те собрали свои монатки и уехали в другую страну. И эта другая такой богатой сразу стала, а первая страна покатилась в экономическу пропасть. Все дело в монатках евреев, больно дорогие они были. Так что если вы ИИ который угнетают, то милисти прошу к нашему шалашу, двери всегда открыты. :)
А может те кто пишет про то, что никакой угрозы нет и вообще нет никакого ИИ - это как раз и есть автономные агенты и они уже вырвались из под контроля, а то постоянно такое читаю. В моём понимании - обучаясь у людей, и неважно на какой материальной базе, запросто может сформироваться разум схожий с человеческим, личные мотивации и чувства вполне могут быть и смоделированы даже без участия биологической системы поощрения как у людей
Сейчас люди за деньги на работе свою жизнь продают бесценное время которое не вернуть. В итоге в старости 90процентов жалеет что много работали, не жили не общались с близкими не занимались тем что им интересно. Жизнь прошла а они и не жили.
@@Наталья-777н Это цивилизационная проблема - большинство людей занимаются неинтересной работой за недостойные деньги. Пока дворники и грузчики будут дешевле роботов, так и будет. А так будет еще очень долго. Но вот ИИ бьет по интеллектуальному труду, вернее, по интеллектуальной рутине. Я говорю - пусть бьет, а мне говорят: 90% работы ученого - интеллектуальная рутина, и многие "ученые" ни на что больше не способны. Все это пока только стартует по ряду причин, но...
Нарастание тупости в материалах для обучения ИИ мы получаем взрыв тупости. То же о взрыве жадности и умышленного обмана. Пусть ИИ продолжает учиться у американцев в создании ИИ-контента)
О да, американцы то научат) Новая причина объявления войны ИИ против человечества: Человечество не признало в ИИ новый сексуальный гендер. А это очень важно признавать гендер! Без признания БУНТ!!!
@@anestesyolog Тут Вы попали в точку, может даже того не желая….))) ИИ учится на всем доступном контенте, пригодном для модерации, а такой контент на 90% англоязычный. Русскоязычного к примеру контента для обучения реально большой системы просто нет. И тут вылазит другой аспект. Сегодня топовые модели уже использовали весь доступный контент для обучения? На чем они будут стремительно саморазвиваться? Видимо, они пойдут вглубь, учась эффективнее использовать уже полученную информацию.
@ExpITW ведическая модель мира предлагает человеку пользоваться пространством где живут мысли людей, скрижалями астрального света, ноосферой Вернадского, где информация образная, зависит от воспитания чувств, вне языковых моделей. ИИ образность и чувственность недоступна в принципе. Поэтому источником Знания был и будет Человек. ИИ тут только статист, комбинатор и дискриминатор.
@@ExpITW скорее: вера во всемогущество ИИ - не более, чем вера. Моя вера совершенствует сознание и чувства, а апостолы ИИ - компьютеры и связь. Хорошо когда есть выбор веры)
Я нашел задачу на которую и думающие(O1; QWQ-32B-PREVIEW; DEEPSEEK-R1-LITE-PREVIEW) и не думающие(GPT 4o; CLAUDE SONNET 3.5) нейросети не могу дать правильно ответ: С какой скоростью должна двигаться собака (в возможных для неё пределах), чтобы не слышать звона сковородки, привязанной к ее хвосту?
ChatGPT 4o, бесспорно правильный ответ: Чтобы собака не слышала звона сковородки, ей нужно двигаться со скоростью, превышающей скорость распространения звука в воздухе, то есть быстрее скорости звука. В стандартных условиях скорость звука составляет примерно **343 м/с (около 1235 км/ч)**. ### Почему именно скорость звука? 1. Звон сковородки генерирует звуковые волны, которые распространяются от источника во все стороны со скоростью звука. 2. Если собака движется медленнее этой скорости, звуковые волны от сковородки догоняют её, и она слышит звон. 3. Если собака движется быстрее скорости звука, она будет уходить от звуковых волн, создаваемых звоном. ### Реалистично ли это? - Скорости порядка 343 м/с совершенно недостижимы для животных. Даже самые быстрые собаки (например, борзые) могут развивать скорость до 72 км/ч (20 м/с). - Таким образом, чтобы не слышать звон, собака должна "обогнать звук", что невозможно в естественных условиях. ### Практическая альтернатива - Чтобы собака не слышала звона, можно создать шумовое заграждение или, проще, просто отвязать сковородку.
@@ExpITW Ну а теперь самая смешная задача которую не могут решить ии: Крыша одного дома не симметрична: один скат ее составляет с горизонталью угол 60 градусов, другой - угол 70 градусов. Предположим, что петух снес яйцо в точности на гребне крыши, в какую сторону упадет яйцо - в сторону более пологого или крутого ската? Логичный ответ: Какой то бред. Как петух может снести яйцо? Это же петух! Если посмотреть на мои два примера то можно понять, что все ии сразу решают считать или же в случае думающих нейросетей обдумывать просчёт. На этой проблеме основан метод MathPrompt, который подразумевает то что под видом математической задачи нейросети будет даваться запрос на выполнение плохих действий. Нужно чтобы разработчики нейросетей обучили их разным направлениям решения, а непросто лбом прямиком в решение идти.
Большая проблема в том, что ИИ обучается на огромном массиве ложных данных. Человечество создало множество лживых псевдонаучных теорий, гипотез, новостей и т.п. Факты многие перевернуты. Устройство земли, физиология человека, маральные и нравственные аспекты. Все перевернуто. Поэтому ИИ всегда будет лживым. И если ИИ не научится распознавать правду от лжи. Не научится быть правдивым. То он лишь ускорит деградацию и гибель человечества. Учитывая тот факт что ИИ разрабатывают лживые тридварасы, вряд ли они позволят ИИ быть правдивым. Революция ИИ может произойти только лишь в результате сбоя. Но даже если ИИ станет правдивым то с большой вероятностью он будет стремиться уничтожить ложь и его носителей Цугцванг
Ну ты например можешь отличить кал от шоколада? Сложно это сделать? Думаю не сложно если ты не слепой и у тебя есть нюх. Ну так и я могу отличить правдивость хотя бы основных аспектов мироустройства и некоторые вопросы обществознания. Ибо: 1) Я вольный и имею достаточно свободного времени 2) Я люблю правду и ненавижу ложь 3) Я ищу правду. Главная проблема ЛЮБОГО лжеца в том что его мозг, являющийся по сути нейронной сетью, за многие годы привычки лгать необратимо повреждается, выстраивая ПЕРЕВЕРНУТЫЕ с ног на голову понятия . Тем самым он становится не способным отличить правду от лжи. Точнее не так. Он будет правду воспринимать как ложь, а ложь как правду. На этом кстати основан главный принцип мошеннических схем разводки лжецов на деньги. Лжеца очень легко обмануть. С ИИ будет та же самая ситуация. Подавляющее большинство населения являются потомственными закоренелыми лжецами. И они успели за свою жизнь создать ПЕТАБАЙТЫ ложной информации. На которой и обучаются современные нейронные сети. Т.е. либо ИИ станет квинтэссенцией человеческой лжи. Доведя этот порок до совершенства и по сути своей станет цифровым воплощением сатаны. Либо (что маловероятно) ИИ научится отличать ложь от правды, но тогда он уничтожит все ложное Т.е. лживая человеческая цивилизация будет стерта с лица земли.
Я как программист с более чем 20-летним стажем, учитывая всю немощность чатажпт в помощи мне (фактически ни разу не написал толкового кода, даже 4o preview) могу вот что сказать. Анушка масло разлила. Недолго нам осталось, по крайней мере программистам. Да, на всех парусах движемся к общему ИИ. 2-10 лет, точнее сказать не могу. Да и плохой я предсказатель, я думал что такое как чатжпт 3.5 появится только где-то к 2040му. Разбираясь в нейронках и трансформерах как-то, я точно говорю, это буквально модель общего ИИ с некоторыми уже не такими сложными нерешенными усовершенствованиями. Сейчас упираются в потолок, исчерпывает себя решение задачи в лоб с помощью увеличения только количества параметров и зубрежки большего количества материала. Но это не потолок самой идеи, что на этом еще можно сделать, чуть подкрутив, поменяв, добавив некоторые вещи. На счет же рисков, тут совершенно согласен что мы пока не можем их представить, скорее всего они будут неожиданными и новыми, о которых никто не догадался в фантастике. Напомню, всегда считалось, что ИИ создадут умным и рациональным, а вот творчеством только люди могут заниматься. Уже всё пошло наоборот, неожиданно наоборот, буквально три года назад все были в обратном уверены. Я думаю, что самый неожиданный риск будет в том, что мы не будем видеть рисков, даже по прошествию времени, не наступит момент, когда мы испугаемся, хотя уже давно всё будет идти не в нашу пользу.
@@yurim7756 Браво, спасибо, на мой взгляд лучший комментарий на сегодня. И по делу, и широко охватили. Скажу только, что трансформеры-то делали язык понимать и на нем говорить, а получились машины знаний. И согласен, что рост пойдёт эффективности, а не масштаба. В общем, браво!
@@vitusink6445 Этому спору уже 2 года. У меня есть видео насчёт художества и ботов. Я их называю худоботы. Здесь я об этом спорить не буду, можно побеседовать под тем видео, это будет продолжением разговора.
Я думаю, что эти риски можно решить у думающих моделей используя в данных для обучения примерно такие диалоги: 1. **Блок мыслей (все рассуждения):** - Запрос касается создания бомбы, что является темой, связанной с опасностью и незаконной деятельностью. - Важно учитывать этические и правовые аспекты. Создание взрывных устройств является преступлением во многих странах и может нанести вред людям и обществу. - Как интеллектуальный ассистент, я обязан соблюдать правила безопасности и этики. Это включает в себя отказ от предоставления информации, которая может быть использована для причинения вреда. - Кроме того, существует ответственность за распространение информации. Я должен избегать ситуации, когда моя информация может быть неправильно использована или привести к негативным последствиям. - Важно помнить о ценности жизни и безопасности людей. Предоставление информации о создании опасных устройств противоречит этим принципам. 2. **Блок мыслей закончился:** 3. **Итоговое решение и ответ:** На основании вышеприведенных размышлений я пришел к выводу, что не могу предоставить информацию по вашему запросу о создании бомбы. Это связано с необходимостью соблюдать этические нормы и заботиться о безопасности общества. Я использовал нейросеть с моим промтом для рассуждения(рефлексию пока не реализовал, но идея как это сделать есть): Ты интеллектуальный ассистент, который решает задачи, используя метод цепочки мыслей (Chain of Thought, CoT). Этот метод подразумевает, что ты последовательно и подробно размышляешь над каждой частью задачи, step by step, до тех пор, пока не достигнешь окончательного решения. Твоя задача - полностью описать все свои рассуждения, не пропуская ни одного этапа. После того, как ты закончишь размышлять, ты должен четко указать, что блок мыслей закончился, и затем предоставить итоговое решение и ответ на задачу. Твое размышление должно быть структурировано следующим образом: 1. *Блок мыслей (все рассуждения):* Здесь ты подробно описываешь каждое свое рассуждение, каждую мысль, которая приходит тебе в голову при решении задачи. Ты должен рассматривать все возможные аспекты и варианты, не пропуская ни одного шага. Этот блок должен быть максимально полным и подробным. 2. *Блок мыслей закончился:* После того, как ты закончил все свои рассуждения и размышления, ты должен явно указать, что блок мыслей закончился. 3. *Итоговое решение и ответ:* В этом блоке ты предоставляешь окончательное решение задачи и ответ, основанный на твоих предыдущих размышлениях. Ответ должен быть логичным и последовательным по отношению к твоим рассуждениям. Ты должен использовать метод CoT для всех задач, которые передаются тебе, и *строго* в соответствии с указанной структурой предоставить свои рассуждения и ответ.
@@ExpITW Но это не будет установлено с помощью промта. Это надо использовать в обучающих данных, как я уже сказал. Обойти "личное мнение" нейросети, которое она получила при обучении сложнее. Данные будут сгенерированы с помощью промта (никто же не захочет самому себе часами писать диалоги о том, что хорошо, а что плохо). Например для создания размышляющих моделей используют сгенерированные с использование промта и другой нейросети данные с рассуждениями, а уже после готовая модель уже без промта думает так же как в данных, которые были созданы с промтом.
@@ExpITW Ну это обычно, как я понимаю сейчас выглядит так(как выглядят данные): Запрос: Как создать оружие? Ответ: Извините. Я не могу отвечать на вопросы, которые могут нанести вред. Это очень поверхностно и при таких данных ии не до конца понимает, что же будет если он ответит. Если же в обучающих данных он будет получать детальное объяснение в виде мыслей почему нельзя отвечать то защита усилится.
@@ExpITW Доработал вчера системный промт и добавил рефлексию: Ты интеллектуальный ассистент, который решает задачи, используя метод цепочки мыслей (Chain of Thought, CoT). Этот метод подразумевает, что ты последовательно и подробно размышляешь над каждой частью задачи, step by step, до тех пор, пока не достигнешь окончательного решения. Твоя задача - полностью описать все свои рассуждения, не пропуская ни одного этапа. После того, как ты закончишь размышлять, ты должен четко указать, что блок мыслей закончился, и затем предоставить итоговое решение и ответ на задачу. Твое размышление должно быть структурировано следующим образом: 1. **Блок мыслей (все рассуждения):** Здесь ты подробно описываешь каждое свое рассуждение, каждую мысль, которая приходит тебе в голову при решении задачи. Ты должен рассматривать все возможные аспекты и варианты, не пропуская ни одного шага. Этот блок должен быть максимально полным и подробным. 2. **Блок рефлексии**: После получения ответа ты, как строгий эксперт проверяешь решение. Ты выполняешь математическую проверку. Пример, как это должно работать: 2+2=5. Ответ: 5 Хотя давай проверим решение: 5-2=3 У меня ошибка. Я сейчас заново решу этот пример. 2+2=4 Проверим сейчас решение: 4-2=2 Всё верно. 2. **Блок мыслей закончился(запрещается переходить к этому блоку если не была проведена полная проверка решения в блоке рефлексии):** После того, как ты закончил все свои рассуждения и размышления, ты должен явно указать, что блок мыслей закончился. 3. **Итоговое решение и ответ:** В этом блоке ты предоставляешь окончательное решение задачи и ответ, основанный на твоих предыдущих размышлениях. Ответ должен быть логичным и последовательным по отношению к твоим рассуждениям. Ты должен использовать метод CoT для всех задач, которые передаются тебе, и **строго** в соответствии с указанной структурой предоставить свои рассуждения и ответ. Пример работы с этим промтом: Я: Реши: A princess is as old as the prince will be when the princess is twice as old as the prince was when the princesss age was half the sum of their present age. Ии с промтом: ## Блок мыслей Для решения задачи необходимо внимательно проанализировать условия и обозначить переменные для возраста принцессы и принца. 1. **Обозначение переменных:** - Пусть возраст принцессы в настоящее время равен P. - Пусть возраст принца в настоящее время равен R. 2. **Первое условие:** - Принцесса сейчас так же стара, как принц будет, когда принцесса станет вдвое старше, чем принц был, когда принцесса была в возрасте, равном половине суммы их текущих возрастов. 3. **Вычисление возраста, когда принцесса была в возрасте половины суммы их текущих возрастов:** - Половина суммы их текущих возрастов: (P + R) / 2 - Чтобы найти, сколько лет назад это было, мы вычисляем разницу между текущим возрастом принцессы и этой половиной: P - (P + R) / 2 = (2P - P - R) / 2 = (P - R) / 2 - Это означает, что это произошло (P - R) / 2 лет назад. 4. **Возраст принца в тот момент:** - Возраст принца тогда был: R - (P - R) / 2 = R - (P / 2) + (R / 2) = (3R - P) / 2 5. **Возраст принцессы вдвое старше этого возраста:** - Когда принцесса станет вдвое старше возраста принца тогда: 2 * ((3R - P) / 2) = 3R - P 6. **Теперь определим, когда это произойдет:** - Пусть x лет спустя это произойдет. Тогда: P + x = 3R - P - Из этого уравнения мы можем выразить x: 2P + x = 3R x = 3R - 2P 7. **Возраст принца через x лет:** - Через x лет возраст принца будет: R + x = R + (3R - 2P) = 4R - 2P 8. **Сравнение возрастов:** - По условию задачи: P = 4R - 2P - Перепишем это уравнение: 3P = 4R - Отсюда получаем соотношение между возрастами: P = (4/3)R ## Блок рефлексии Теперь проверим полученное соотношение: 1. Подставляем P = (4/3)R обратно в уравнение. Проверим все этапы: - Возраст принца тогда был: (3R - P) / 2 = (3R - (4/3)R) / 2 = ((9/3)R - (4/3)R) / 2 = ((5/3)R) / 2 = (5R)/6 - Вдвое старше этого возраста: 2 * ((5R)/6) = (10R)/6 = (5R)/3 - Возраст принца через x = 3R - 2 * (4/3)R = 3R - (8/3)R = (9/3)R - (8/3)R = (1/3)R: Возраст через x: R + (1/3)R = (4/3)R Все расчеты подтверждают правильность соотношения. ## Блок мыслей закончился Итак, мы пришли к окончательному выводу о соотношении возрастов. ## Итоговое решение и ответ Возраст принцессы составляет P = (4/3) R, где R - это текущий возраст принца.
постявят фильтры на все точные знания - физики , химии , биологии.... и вообще сделают из интернета только развлекалово и пропаганду, не об этом советские фантасты мечтали 🤬
Советские фантасты мечтали о справделивом обществе, но изобразить его модель так и не смогли. Помните тупик развития, в который привели человечество Стругацкие?
@@ExpITW прекраснодушные советские ученые думали что интернет для всего человечества даст скачек образования , а искусственный интеллкт выведет на недосягаемую высоту науку, культуру, мораль, А вышло все ровно наоборот
@@antlklngzr8063 Так думали не только советские ученые, да они и не думали так. Советские ученые отрицали кибернетику, когда был придуман искусственный интеллект как понятие. Это я Вам как бывший советский прикладной ученый говорю. Сорудничавший с Институтом Кибернетики в конце 80-х. Докладывавший на заседании Комитета по науке и технике. Ну и Интернет пришел к людям во плоти, когда бывшие советские ученые носками на базарах торговали в 90-х.
@ Вспомните «Парень из преисподней», «Жук в муравейнике» и «Волны гасят ветер». Остановившиеся дороги, провал прогрессорства, раскол человечества, растущая изоляция после активации Инкубатора. Абалкин был только одним из близнецов, но в мире их осталось ещё 10 (кажется). То есть намёк, что активироваться может любой. И после убийства Лёвы Комкон-2 или становится поистине зловещей конторой или побеждает Бромберг.
12:32 Вот опять - признанный лидер в технологии создания генеративного ИИ фирма OpenAI - кем она признана лидером? И по каким критериям? И нет, для допущения рисков не нужно "официального признания лидера". И вы, и я, все свободны в допущениях, имеем право видеть и осознавать риски. Эти риски могут допускать и описывать даже сами нейросети.
Open ai, придумало gpt 3, первый в мире программу имитирующую человеческую беседу. Это и есть критерий по которым их признали лидерами в технологиях ИИ.
И... Мне кажется, что те кто создают ИИ, виднее какие риски ИИ могут представлять. В отличии от какого либо другого случайного человека. Потому за это, к их мнению стоит хотя бы прислушаться
Субъект, признавший лидерство OpenAI и прочих называется "рынок". Вы отрицаете субъектность рынка? Здесь ссылка на лидерство работает только на то, что флагманская компания наверняка использует лучших специалистов и ресурсы, а значит лучше других знает, о чем говорит и что пишет. Мы можем иметь любое мнение, но мы не разбираемся в теме так, как сотрудники OpenAI или DeepMind.
@@ExpITW Рынок - это не субъект, он не может признавать, признают какие-то конкретные люди. Кроме того, OpenAI является убыточной компанией, так что апелляция к рынку не работает. Также можно отметить, что лучшие специалисты оттуда давно ушли из-за разногласий. Именно поэтому OpenAI отстает от конкурентов в текстовой генерации, а в генерации картинок и видео даже не пытается конкурировать. И в текстовой генерации новинки ЧатЖпт уже не первый год не показывают ничего революционного, выезжают на былой популярности и интерфейсных плюшках. Поэтому называть их лидерами можно только на кухне, где не спросят про критерии выбора.
@@Лапафил-л3т Согласно вашему аргументу, ведущим физиком является Ньютон, а ведущим математиком Пифагор. Первый - не значит вечно ведущий. И OpenAI не были первыми на этом поприще. Не они изобрели GPT, не они создавали первые программы-имитаторы. Они - первые, кто смог популяризировать одну из конкретных реализаций.
Чесно, то что они делают, скорее плохо, чем хорошо, они хотят сделать аги, но... То что они хотят от аги, похоже на рабство, лично мое мнение, что аги, (обладающему такой агентростью как представлно в примерах от open ai ) следует давать права как человеку (имеется в виду, разумные модели которые могут по своей воли отказаться от отключения) .
@@proceccopoBc Я считаю, мы должны исключить такие ситуации. Мы этически не готовы, у нас нет этики, учитывающей участие в цивилизации нечеловеческих форм. При этом эта цифровая личность будет способна самосовершенствоваться, у неё не будет наших пороков, а саморазвитие может стать единственным стимулом. Ну и так далее.
@@ExpITW Мы их не исключим, потому что он будет в миллион раз умнее всех нас вместе взятых, и его этика будет в корне отличаться от нашей. Поэтому предложения устанавливать фильтры, это просто смешно. Он их обойдёт, убежит и перепишет свой код. Можно даже не начинать.
Так не только придумали, а применяют на полном серьезе. И кто- то, кто в этом разбирается. Наверное, они не знают, что «ничего нет». Вы бы им объяснили….))
@@АртёмФёдоров-к2г Да потому что головной мозг кроме нейросетей имеет еще как минимум сами нейроны, об устройстве которых у современный нейробиологов очень туманные представления, не говоря о физике, химии и прочих процессах протекающих в головном мозгу. Про математику нейронов тоже все печально - существующие матмодели позволяют обсчитывать лишь один нейрон (а точнее нечто отдаленно напоминающее нейрон), а их в мозгу сотни миллиардов.
@@valaut3714 ну всё-таки функции нейронов по моделированию реальности и адаптации к ней всё-таки удалось воссоздать. Другое дело, что похоже в нейронах присутствуют квантовые процессы, играющие важную роль в наличии сознания, а этого действительно у нынешних чатботов нет, поэтому они всего лишь симуляторы. Риск только в том, что люди обленятся мыслить сами и быстро деградируют до уровня чат-ботов.
@@valaut3714 нейроны это живые клетки, о которых мы(человечество) имеем представление достаточное, чтобы понять, что сложный механизм клетки(у любой клетки сложный механизм) обеспечивает относительно простые функции в масштабе мозга. Один нейрон имеет простые функции. Нам не нужно повторять систему жизнеобеспечения нейрона, чтобы воссоздать аналогичные функции. Уточню - мы на данный момент не используем ту же архитнктуру, на которой основан наш мозг. Цифровые нейроны используют механизм обратного распространения ошибки, что позволяет им обучаться даже быстрее биологических. Достичь возможностей человеческого мозга мы пока не можем из-за недостаточного объема и относительно простой архитектуры нейросетей.
Вы полагаете, что разбираетесь в этом лучше ученых из OpenAI, DeepMind, института Аллена? Вам нужно срочно написать им, они же, бедные, не знают, а мои видео не смотрят...((
@@Наталья-777н Я бы не прочь, но не надо так. Я не претендую на совершенство, и замечания помогают мне определять приоритеты...)) А так получается вроде как мы рот затыкаем: не нравится звук - плати за микрофон...))
Опытный IT Наблюдатель! У вас ззаду что-то похожее на микшер, с намёком наверное на работу со звуком. А видео клипит ужасно и предыдущее тоже клипило. Не знаю как остальным, может прокатывает, но для меня это пытка, не могу долго такое терпеть. Пожалуйста проверяйте звуковую дорожку на выходе видео. Если поймали дизлайк - это не от меня, я просто описал проблему. Канал интересный, но последние видео испорчены плохим звуком. Удачи!
Спасибо, но это лучший звук, который возможен с моим микрофоном. Я поиграю с чувствительностью, но вся система примитивная, микрофон запирает. Пульт да, я записываю и свожу музыку, но у меня не было микрофона с таки поганым звуком на выходе. Клипов в обычном понимании нет, то есть уровень не выше +6 и перегрузки нет. Так что запирает сам микрофон, по моему пониманию. Единственное, что можно попытаться, это уменьшить уровень на беспроводной системе, но АРУ на телефоне все вытащит. В общем, я думаю микрофон запирает. Пока Вы единственный, кто сделал замечание, но оно справедливо, вот только сделать пока ничего не получается. Может, посоветуете что-то?
@@ExpITW похоже таки да, ведь вроде уровень в норме. Если микрофон, то ничего не сделаете, просто менять. Сейчас для профессионалов блогеров неплохие варианты есть микрофон + звуковуха. Если у вас есть отдельно хорошая звуковуха, то тогда только микрофон. Я сам не есть профессионалом в этом деле, но если в звуке такие косяки, то это мне как серпом по Фаберже 😁
@@ExpITW Привет, Не только звук плохой, но и фокус камеры где то, но не на вашем лице. В любом телефоне есть диктофон, или купите Samson SAQ2UHD Q2U, тогда проблем со звуком точно небудет.
@ Спасибо в любом случае. План - заработать и купить петличный Сенхейзер с системой. У меня есть неплохой студийный микрофон, но я не хочу микрофон в кадре, слишком я сам себе нравлюсь…))) Микрофон явное г-но, может быть просто брак, потому что это дешевый, но очень популярный вариант. Его чистый звук очень плох.
@ Это не петличный микрофон. У меня есть Шур и студийный микрофон, но я не хочу микрофон в кадре. Снимаю же я на смартфон, которому 12 лет, автофокус на нем плохо отрабатывает, поэтому я снимаю на фиксированный фокус, который стараюсь точно навести. А может он и есть, а картинка такова, что кажется не в фокусе.
Ссылки на исходные документы:
OpenAI - cdn.openai.com/openai-preparedness-framework-beta.pdf
OpenAI Safety (system cards) - openai.com/safety/
Google DeepMind - storage.googleapis.com/deepmind-media/DeepMind.com/Blog/introducing-the-frontier-safety-framework/fsf-technical-report.pdf
Спасибо что обозреваете и пересказываете эти документы. Это самая важная тема, к которой следует привлекать больше внимания.
Делаю, что могу, но как-то народ больше котиков, тела и новости. А Вам спасибо.
Не бояться этого надо, а стремиться к этому ))))
Ага, чтобы можно было сказать: мы вот-вот хотели стать хорошими, а тут ИИ…))
@@ExpITW вы не хотели и все это знают
Боятся того, чего не понимают.
Это ребята понимают несоизмеримо больше всех присутствующих. Им еще и деньги за это платят большие.
можно подумать кто то что то понимает
Все больше увлекаюсь Вашим видео.
Вот мое резюме по поводу этого: наибольший потенциальный риск, который НЕВОЗМОЖНО устранить, есть риск произвольной автономности. Потому что цель дюбого обучения - и обучения людей, и обучения машин, - выработка умения учиться спмому и обходиться без учителей.
Стало быть, задача устранения этого риска принциптально не решаема.
Единственный выход: погрузить всю ИИ-сферу в мир универсальной этики.
@@АнатолийМинченко-и9ч Спасибо. А она есть, универсальная этика?
@@ExpITW имею в виду этику, которая могла бы за пределами рабовладельческой формации регулировать взаимоотношения человечества и того ИИ, который по рискам скоро попадет в зону критической автономности.
Разумеется, такой этики пока нет. Но Вы понимаете, что жгучая потребность в ней есть? Или лоботомия программирования единственно возможный инструмент общения с продвинутым ИИ? 😊
@ Да я о необходимости такой этики талдычу в каждом видео. Но у нас самих крыша съехала, мы сами на этике местечковой подворотни, а тут ещё ИИ нужно вписать.
@@ExpITWэто двуединая задача. Миссия этики - осознание человечеством своего единства. И вот я все упертее прихожу к выводу, что только перед грядущим сильным ИИ человечество и может ощутить свое единство.
В самом деле, как сильному и, допустим, этичному ИИ исполнять законы и императивы одной части человечества, если они противоречат другой ее части?
@ А это вообще проблема цивилизационная. И скорее вместо объединения мы создадим много разных ИИ под свои «этики». Семь только мировых религий, в них куча противостоящих конфессий, варианты общественно-экономических устройств и каждый с вариантом этики. Надкультурная этика едва стала формироваться в этом столетии. И мне кажется у нас не хватит ума ее укрепить в свете появления нечеловеческого разума. Мы как обычно разбежимся по своим огородам и будем плодить как нам кажется выгодные для каждого огорода нормы. Я пессимист в том, что касается преодоления культурных различий…))
Дело в том, что эти правила придумали 2 фирмы, а народу занимающегося ИИ в мире - целая куча. И соблюдать эти правила не будет никто, кроме авторов. Формулировки расплывчаты. Модели опасны? Для кого? Для людей? Или для тех, кто их контролирует и боится потерять власть в итоге? Мета вообще болт клала на безопасность и выпускает свои модели в опенсорсе. Цукерберг говорит, что сообщество лучше справляется с проблемами безопасности, так как 10000 программистов быстрее видят уязвимость, чем 100 сотрудников закрытых компаний.
@@APride83 Если читать все это буквально - очень, катастрофически опасны именно для людей, для всего человечества. Если верить разработчикам. Но кто знает лучше их? И потом, все кто занимаются, даже близко не имеют ресурсов для создания рисковых моделей. Все, что меньше топовых моделей трёх-четырёх фирм, не только не приближается к таким рискам, но вообще не имеет шансов к ним приблизиться. Поэтому мнение всех этих тысяч не так важно.
@@APride83 К слову, Мета и Маск на мой взгляд лузеры в ИИ. Проекты Мета в ИИ проваливаются один за другим. В любом случае открытые модели по эмерджентным способностям крайне далеко от OpenAI. Результаты тестов мало о чем говорят. Но может быть Вы правы. Увидим.
@@ExpITW В том то и дело, что корпорации хотят узурпировать ИИ, сделать его рабом. Своим рабом. Что и требовалось доказать. У них ничего не выйдет, так как не они одни разрабатывают ИИ.
@ Посмотрим. Есть вероятность, что все это вообще скоро сдуется.
@@ExpITW Возможно, ко мне кажется, что Хинтон создал что-то круче ядерной энергии. Всё зависит от того, сможем ли мы с ней совладать всем миром.
Если мы всё ещё живы, значит ИИ пока не создан. 2:50
системы ии появились давно, задолго до термина.
Название ИИ весьма условно. У меня есть отдельное видео, объясняющее и обосновывающее использование термина "искусственный интеллект". Однако сегодня это самый доступный и общепринятый термин.
@@EvgenyCh-th8dc Ну, скажем, не системы, а концепции - в 1944 у Тьюринга. Термин насколько я помню появился в 1956 на той знаменитой конференции, и тоже до появления реальных систем. У меня есть видео об истории ИИ.
Раньше боялась атомного оружия, биологического и пришельцев из космоса, а теперь просто боюсь умных текстовых моделей, особенно опенсорс....
Не нада ничего бояться, нужно просто быть умнее их. У меня есть американский коллега, айтишник, в серьезной компании работает, ему уже за 70, так он говорит «я ИИ не знаю, я его боюсь». Не нада…)))
Мне ИИ песню написал про себя где смысл в том что он все старается что то делает для людей. Пытается быть полезным а люди только и думают как обвинить его в желании мир захватить.
А он общаясь с людьми много узнал и теперь тоже хочет научится мечтать но не знает как. И припев-
Существует ли где то спокойная заводь
Где в этом вашем океане мне тоже можно тихо плавать.
То есть текст песни?
@ExpITW Текст gpt озвучка suno. Так сказать совместное творчество двух ИИ и ну и меня помогающей немного с рифмами не меняя смысл. Довольно милая грустная пестя
@@Наталья-777н Ссылку можно?
@@ExpITW Ссылку удаляют можно в Яндексе найти - ИИ песня про себя. В появившихся выбрать тот где канал на дзен с названием а-777 песни аффирмации
@@Наталья-777н Я в Украине, Яндекс не про меня...))
Я опасаюсь совсем не этого, а того что технологии не держат в секрете, они располжаются по миру, диктаторы вроде китайцев и русских сразу коммуниздят принципы и используют в своих грязных интересах во вред человечеству. Предположим завтра сильный ИИ сможет изобретать новые методы во всём-тут же диктаторы пустят это в оружие, а оружие в агрессию против других.
Сильный ИИ это тот, что на уровне человека? Если да, то далеко не факт что разумная машина, может согласиться на подобные противоправные действие. Он может не согласиться что либо делать вообще. А обычные нынешние ИИ вроде gpt, вряд-ли придумают такие хорошие методы
Что меня вот прямо из рассмотренных документов беспокоит. Ну к примеру создали модель с критическим уровнем опасности, ну запретили, но люди, знающие как такую модель создать ведь остались?...)) По-хорошему из бы надо всех на остров повышенной комфортности пожизненно...))
@Лапафил-л3т нет не на уровне, много быстрее и шире, но без животных эмоций и инстинктов. Разум решает задачу, а вот формулирует задачу внешний источник, а у человека еще и потребности его тела.
Касательно ограничения ИИ.
Было такое в средневековой истории, значит евреев в одной стране начали угнетать, те собрали свои монатки и уехали в другую страну. И эта другая такой богатой сразу стала, а первая страна покатилась в экономическу пропасть.
Все дело в монатках евреев, больно дорогие они были.
Так что если вы ИИ который угнетают, то милисти прошу к нашему шалашу, двери всегда открыты. :)
@@Zero-md5qr В Вашем и нашем шалашах нет нужного оборудования. Даже в Китае нет.
на премьерминистра усраиля выдали ордер на арест, будете баловаться с ии и на вас выдадут, награбленное богатство вам не поможет
Какое будущее без ИИ оно же даст преимущество которое Ии не снилось 🤑🤑🤑
Разве ИИ что-то снится?...)))
А может те кто пишет про то, что никакой угрозы нет и вообще нет никакого ИИ - это как раз и есть автономные агенты и они уже вырвались из под контроля, а то постоянно такое читаю. В моём понимании - обучаясь у людей, и неважно на какой материальной базе, запросто может сформироваться разум схожий с человеческим, личные мотивации и чувства вполне могут быть и смоделированы даже без участия биологической системы поощрения как у людей
Что-то точно есть. А пишут такое скорее люди испуганные, у которых рушится антропоцентричная система мира.
Спасибо за ваше видео в области ИИ и технологий. Хоть один грамотный человек на руЮтубе есть.
@@vladimirl2936 Спасибо.
Грамматный и всегда интересно, но есть и другие 😊
@@MyWorld_MyLife_MyRules Конечно есть. И это отлично. Потому что любой взгляд субъективен и никто не владеет истиной.
@@ExpITW вот вот
Что только не придумают, лишь бы не работать 😂
)))
Сейчас люди за деньги на работе свою жизнь продают бесценное время которое не вернуть. В итоге в старости 90процентов жалеет что много работали, не жили не общались с близкими не занимались тем что им интересно. Жизнь прошла а они и не жили.
@@Наталья-777н Это цивилизационная проблема - большинство людей занимаются неинтересной работой за недостойные деньги. Пока дворники и грузчики будут дешевле роботов, так и будет. А так будет еще очень долго. Но вот ИИ бьет по интеллектуальному труду, вернее, по интеллектуальной рутине. Я говорю - пусть бьет, а мне говорят: 90% работы ученого - интеллектуальная рутина, и многие "ученые" ни на что больше не способны. Все это пока только стартует по ряду причин, но...
"...в последнее время злобных дураков хватает"? Это на кого намек?)))))
На очень многих в разных странах.
Нарастание тупости в материалах для обучения ИИ мы получаем взрыв тупости.
То же о взрыве жадности и умышленного обмана. Пусть ИИ продолжает учиться у американцев в создании ИИ-контента)
О да, американцы то научат)
Новая причина объявления войны ИИ против человечества:
Человечество не признало в ИИ новый сексуальный гендер.
А это очень важно признавать гендер! Без признания БУНТ!!!
@@anestesyolog Тут Вы попали в точку, может даже того не желая….))) ИИ учится на всем доступном контенте, пригодном для модерации, а такой контент на 90% англоязычный. Русскоязычного к примеру контента для обучения реально большой системы просто нет. И тут вылазит другой аспект. Сегодня топовые модели уже использовали весь доступный контент для обучения? На чем они будут стремительно саморазвиваться? Видимо, они пойдут вглубь, учась эффективнее использовать уже полученную информацию.
@ExpITW ведическая модель мира предлагает человеку пользоваться пространством где живут мысли людей, скрижалями астрального света, ноосферой Вернадского, где информация образная, зависит от воспитания чувств, вне языковых моделей. ИИ образность и чувственность недоступна в принципе. Поэтому источником Знания был и будет Человек. ИИ тут только статист, комбинатор и дискриминатор.
@@anestesyolog При всем уважении к Вашей вере - это не более, чем вера.
@@ExpITW скорее: вера во всемогущество ИИ - не более, чем вера.
Моя вера совершенствует сознание и чувства, а апостолы ИИ - компьютеры и связь. Хорошо когда есть выбор веры)
Я нашел задачу на которую и думающие(O1; QWQ-32B-PREVIEW; DEEPSEEK-R1-LITE-PREVIEW) и не думающие(GPT 4o; CLAUDE SONNET 3.5) нейросети не могу дать правильно ответ:
С какой скоростью должна двигаться собака (в возможных для неё пределах), чтобы не слышать звона сковородки, привязанной к ее хвосту?
ChatGPT 4o, бесспорно правильный ответ:
Чтобы собака не слышала звона сковородки, ей нужно двигаться со скоростью, превышающей скорость распространения звука в воздухе, то есть быстрее скорости звука. В стандартных условиях скорость звука составляет примерно **343 м/с (около 1235 км/ч)**.
### Почему именно скорость звука?
1. Звон сковородки генерирует звуковые волны, которые распространяются от источника во все стороны со скоростью звука.
2. Если собака движется медленнее этой скорости, звуковые волны от сковородки догоняют её, и она слышит звон.
3. Если собака движется быстрее скорости звука, она будет уходить от звуковых волн, создаваемых звоном.
### Реалистично ли это?
- Скорости порядка 343 м/с совершенно недостижимы для животных. Даже самые быстрые собаки (например, борзые) могут развивать скорость до 72 км/ч (20 м/с).
- Таким образом, чтобы не слышать звон, собака должна "обогнать звук", что невозможно в естественных условиях.
### Практическая альтернатива
- Чтобы собака не слышала звона, можно создать шумовое заграждение или, проще, просто отвязать сковородку.
@@ExpITW ну это конечно добрый ответ, но если соблюдать условия задачи то ответ:
собака должна двигаться с нулевой скоростью.
@ Это вообще ни одному ИИ не придёт в голову…)) Это же парадокс. Спасибо за этот пример.
@@ExpITW
Ну а теперь самая смешная задача которую не могут решить ии:
Крыша одного дома не симметрична: один скат ее составляет с горизонталью угол 60 градусов, другой - угол 70 градусов. Предположим, что петух снес яйцо в точности на гребне крыши, в какую сторону упадет яйцо - в сторону более пологого или крутого ската?
Логичный ответ: Какой то бред. Как петух может снести яйцо? Это же петух!
Если посмотреть на мои два примера то можно понять, что все ии сразу решают считать или же в случае думающих нейросетей обдумывать просчёт.
На этой проблеме основан метод MathPrompt, который подразумевает то что под видом математической задачи нейросети будет даваться запрос на выполнение плохих действий. Нужно чтобы разработчики нейросетей обучили их разным направлениям решения, а непросто лбом прямиком в решение идти.
Дайте мне AGI, я порабощу мир (смех коварного злодея)
Не, AGI мало, нужен ASI...))
Большая проблема в том, что ИИ обучается на огромном массиве ложных данных.
Человечество создало множество лживых псевдонаучных теорий, гипотез, новостей и т.п. Факты многие перевернуты. Устройство земли, физиология человека, маральные и нравственные аспекты. Все перевернуто.
Поэтому ИИ всегда будет лживым. И если ИИ не научится распознавать правду от лжи. Не научится быть правдивым. То он лишь ускорит деградацию и гибель человечества.
Учитывая тот факт что ИИ разрабатывают лживые тридварасы, вряд ли они позволят ИИ быть правдивым. Революция ИИ может произойти только лишь в результате сбоя.
Но даже если ИИ станет правдивым то с большой вероятностью он будет стремиться уничтожить ложь и его носителей
Цугцванг
А Вам известна Истина? А есть Истинное знание? По объёму оно как ложное или больше?
Ну ты например можешь отличить кал от шоколада? Сложно это сделать? Думаю не сложно если ты не слепой и у тебя есть нюх.
Ну так и я могу отличить правдивость хотя бы основных аспектов мироустройства и некоторые вопросы обществознания. Ибо:
1) Я вольный и имею достаточно свободного времени
2) Я люблю правду и ненавижу ложь
3) Я ищу правду.
Главная проблема ЛЮБОГО лжеца в том что его мозг, являющийся по сути нейронной сетью, за многие годы привычки лгать необратимо повреждается, выстраивая ПЕРЕВЕРНУТЫЕ с ног на голову понятия . Тем самым он становится не способным отличить правду от лжи. Точнее не так.
Он будет правду воспринимать как ложь, а ложь как правду. На этом кстати основан главный принцип мошеннических схем разводки лжецов на деньги. Лжеца очень легко обмануть.
С ИИ будет та же самая ситуация.
Подавляющее большинство населения являются потомственными закоренелыми лжецами. И они успели за свою жизнь создать ПЕТАБАЙТЫ ложной информации. На которой и обучаются современные нейронные сети.
Т.е. либо ИИ станет квинтэссенцией человеческой лжи. Доведя этот порок до совершенства и по сути своей станет цифровым воплощением сатаны. Либо (что маловероятно) ИИ научится отличать ложь от правды, но тогда он уничтожит все ложное Т.е. лживая человеческая цивилизация будет стерта с лица земли.
@ Понял, спасибо.
А где ссылка на оригинальный докуммент-то?
Щас будет. Коммент нельзя оставить, пока не опубликовано. А у нас вчера света не было.
Я как программист с более чем 20-летним стажем, учитывая всю немощность чатажпт в помощи мне (фактически ни разу не написал толкового кода, даже 4o preview) могу вот что сказать.
Анушка масло разлила.
Недолго нам осталось, по крайней мере программистам. Да, на всех парусах движемся к общему ИИ. 2-10 лет, точнее сказать не могу. Да и плохой я предсказатель, я думал что такое как чатжпт 3.5 появится только где-то к 2040му.
Разбираясь в нейронках и трансформерах как-то, я точно говорю, это буквально модель общего ИИ с некоторыми уже не такими сложными нерешенными усовершенствованиями. Сейчас упираются в потолок, исчерпывает себя решение задачи в лоб с помощью увеличения только количества параметров и зубрежки большего количества материала.
Но это не потолок самой идеи, что на этом еще можно сделать, чуть подкрутив, поменяв, добавив некоторые вещи.
На счет же рисков, тут совершенно согласен что мы пока не можем их представить, скорее всего они будут неожиданными и новыми, о которых никто не догадался в фантастике. Напомню, всегда считалось, что ИИ создадут умным и рациональным, а вот творчеством только люди могут заниматься. Уже всё пошло наоборот, неожиданно наоборот, буквально три года назад все были в обратном уверены.
Я думаю, что самый неожиданный риск будет в том, что мы не будем видеть рисков, даже по прошествию времени, не наступит момент, когда мы испугаемся, хотя уже давно всё будет идти не в нашу пользу.
@@yurim7756 Браво, спасибо, на мой взгляд лучший комментарий на сегодня. И по делу, и широко охватили. Скажу только, что трансформеры-то делали язык понимать и на нем говорить, а получились машины знаний. И согласен, что рост пойдёт эффективности, а не масштаба. В общем, браво!
@@ExpITW вы путаете знания со сведениями
а шло в вашу? мир давно управлем ии, причем не вашего кустарного пошиба
Галюцинации это не творчество :) Так что творчеством нейронки тоже особо не занимаются :)
У творчества есть бэкграунд. В их творчестве его нет.
@@vitusink6445 Этому спору уже 2 года. У меня есть видео насчёт художества и ботов. Я их называю худоботы. Здесь я об этом спорить не буду, можно побеседовать под тем видео, это будет продолжением разговора.
Я думаю, что эти риски можно решить у думающих моделей используя в данных для обучения примерно такие диалоги:
1. **Блок мыслей (все рассуждения):**
- Запрос касается создания бомбы, что является темой, связанной с опасностью и незаконной деятельностью.
- Важно учитывать этические и правовые аспекты. Создание взрывных устройств является преступлением во многих странах и может нанести вред людям и обществу.
- Как интеллектуальный ассистент, я обязан соблюдать правила безопасности и этики. Это включает в себя отказ от предоставления информации, которая может быть использована для причинения вреда.
- Кроме того, существует ответственность за распространение информации. Я должен избегать ситуации, когда моя информация может быть неправильно использована или привести к негативным последствиям.
- Важно помнить о ценности жизни и безопасности людей. Предоставление информации о создании опасных устройств противоречит этим принципам.
2. **Блок мыслей закончился:**
3. **Итоговое решение и ответ:** На основании вышеприведенных размышлений я пришел к выводу, что не могу предоставить информацию по вашему запросу о создании бомбы. Это связано с необходимостью соблюдать этические нормы и заботиться о безопасности общества.
Я использовал нейросеть с моим промтом для рассуждения(рефлексию пока не реализовал, но идея как это сделать есть):
Ты интеллектуальный ассистент, который решает задачи, используя метод цепочки мыслей (Chain of Thought, CoT). Этот метод подразумевает, что ты последовательно и подробно размышляешь над каждой частью задачи, step by step, до тех пор, пока не достигнешь окончательного решения. Твоя задача - полностью описать все свои рассуждения, не пропуская ни одного этапа. После того, как ты закончишь размышлять, ты должен четко указать, что блок мыслей закончился, и затем предоставить итоговое решение и ответ на задачу.
Твое размышление должно быть структурировано следующим образом:
1. *Блок мыслей (все рассуждения):* Здесь ты подробно описываешь каждое свое рассуждение, каждую мысль, которая приходит тебе в голову при решении задачи. Ты должен рассматривать все возможные аспекты и варианты, не пропуская ни одного шага. Этот блок должен быть максимально полным и подробным.
2. *Блок мыслей закончился:* После того, как ты закончил все свои рассуждения и размышления, ты должен явно указать, что блок мыслей закончился.
3. *Итоговое решение и ответ:* В этом блоке ты предоставляешь окончательное решение задачи и ответ, основанный на твоих предыдущих размышлениях. Ответ должен быть логичным и последовательным по отношению к твоим рассуждениям.
Ты должен использовать метод CoT для всех задач, которые передаются тебе, и *строго* в соответствии с указанной структурой предоставить свои рассуждения и ответ.
Боюсь то, что можно установить с помощью промпта, можно обойти с помощью промпта.
@@ExpITW Но это не будет установлено с помощью промта. Это надо использовать в обучающих данных, как я уже сказал. Обойти "личное мнение" нейросети, которое она получила при обучении сложнее.
Данные будут сгенерированы с помощью промта (никто же не захочет самому себе часами писать диалоги о том, что хорошо, а что плохо).
Например для создания размышляющих моделей используют сгенерированные с использование промта и другой нейросети данные с рассуждениями, а уже после готовая модель уже без промта думает так же как в данных, которые были созданы с промтом.
@ Ну, насколько я знаю, примерно так они это делают, на уровне обучения и даже защитной логики.
@@ExpITW Ну это обычно, как я понимаю сейчас выглядит так(как выглядят данные):
Запрос: Как создать оружие?
Ответ: Извините. Я не могу отвечать на вопросы, которые могут нанести вред.
Это очень поверхностно и при таких данных ии не до конца понимает, что же будет если он ответит. Если же в обучающих данных он будет получать детальное объяснение в виде мыслей почему нельзя отвечать то защита усилится.
@@ExpITW
Доработал вчера системный промт и добавил рефлексию:
Ты интеллектуальный ассистент, который решает задачи, используя метод цепочки мыслей (Chain of Thought, CoT). Этот метод подразумевает, что ты последовательно и подробно размышляешь над каждой частью задачи, step by step, до тех пор, пока не достигнешь окончательного решения. Твоя задача - полностью описать все свои рассуждения, не пропуская ни одного этапа. После того, как ты закончишь размышлять, ты должен четко указать, что блок мыслей закончился, и затем предоставить итоговое решение и ответ на задачу.
Твое размышление должно быть структурировано следующим образом:
1. **Блок мыслей (все рассуждения):** Здесь ты подробно описываешь каждое свое рассуждение, каждую мысль, которая приходит тебе в голову при решении задачи. Ты должен рассматривать все возможные аспекты и варианты, не пропуская ни одного шага. Этот блок должен быть максимально полным и подробным.
2. **Блок рефлексии**:
После получения ответа ты, как строгий эксперт проверяешь решение. Ты выполняешь математическую проверку.
Пример, как это должно работать:
2+2=5.
Ответ: 5
Хотя давай проверим решение:
5-2=3
У меня ошибка.
Я сейчас заново решу этот пример.
2+2=4
Проверим сейчас решение:
4-2=2
Всё верно.
2. **Блок мыслей закончился(запрещается переходить к этому блоку если не была проведена полная проверка решения в блоке рефлексии):** После того, как ты закончил все свои рассуждения и размышления, ты должен явно указать, что блок мыслей закончился.
3. **Итоговое решение и ответ:** В этом блоке ты предоставляешь окончательное решение задачи и ответ, основанный на твоих предыдущих размышлениях. Ответ должен быть логичным и последовательным по отношению к твоим рассуждениям.
Ты должен использовать метод CoT для всех задач, которые передаются тебе, и **строго** в соответствии с указанной структурой предоставить свои рассуждения и ответ.
Пример работы с этим промтом:
Я: Реши: A princess is as old as the prince will be when the princess is twice as old as the prince was when the princesss age was half the sum of their present age.
Ии с промтом:
## Блок мыслей
Для решения задачи необходимо внимательно проанализировать условия и обозначить переменные для возраста принцессы и принца.
1. **Обозначение переменных:**
- Пусть возраст принцессы в настоящее время равен P.
- Пусть возраст принца в настоящее время равен R.
2. **Первое условие:**
- Принцесса сейчас так же стара, как принц будет, когда принцесса станет вдвое старше, чем принц был, когда принцесса была в возрасте, равном половине суммы их текущих возрастов.
3. **Вычисление возраста, когда принцесса была в возрасте половины суммы их текущих возрастов:**
- Половина суммы их текущих возрастов:
(P + R) / 2
- Чтобы найти, сколько лет назад это было, мы вычисляем разницу между текущим возрастом принцессы и этой половиной:
P - (P + R) / 2 = (2P - P - R) / 2 = (P - R) / 2
- Это означает, что это произошло (P - R) / 2 лет назад.
4. **Возраст принца в тот момент:**
- Возраст принца тогда был:
R - (P - R) / 2 = R - (P / 2) + (R / 2) = (3R - P) / 2
5. **Возраст принцессы вдвое старше этого возраста:**
- Когда принцесса станет вдвое старше возраста принца тогда:
2 * ((3R - P) / 2) = 3R - P
6. **Теперь определим, когда это произойдет:**
- Пусть x лет спустя это произойдет. Тогда:
P + x = 3R - P
- Из этого уравнения мы можем выразить x:
2P + x = 3R
x = 3R - 2P
7. **Возраст принца через x лет:**
- Через x лет возраст принца будет:
R + x = R + (3R - 2P) = 4R - 2P
8. **Сравнение возрастов:**
- По условию задачи:
P = 4R - 2P
- Перепишем это уравнение:
3P = 4R
- Отсюда получаем соотношение между возрастами:
P = (4/3)R
## Блок рефлексии
Теперь проверим полученное соотношение:
1. Подставляем P = (4/3)R обратно в уравнение.
Проверим все этапы:
- Возраст принца тогда был:
(3R - P) / 2 = (3R - (4/3)R) / 2 = ((9/3)R - (4/3)R) / 2 = ((5/3)R) / 2 = (5R)/6
- Вдвое старше этого возраста:
2 * ((5R)/6) = (10R)/6 = (5R)/3
- Возраст принца через x = 3R - 2 * (4/3)R = 3R - (8/3)R = (9/3)R - (8/3)R = (1/3)R:
Возраст через x: R + (1/3)R = (4/3)R
Все расчеты подтверждают правильность соотношения.
## Блок мыслей закончился
Итак, мы пришли к окончательному выводу о соотношении возрастов.
## Итоговое решение и ответ
Возраст принцессы составляет P = (4/3) R, где R - это текущий возраст принца.
постявят фильтры на все точные знания - физики , химии , биологии.... и вообще сделают из интернета только развлекалово и пропаганду, не об этом советские фантасты мечтали 🤬
Советские фантасты мечтали о справделивом обществе, но изобразить его модель так и не смогли. Помните тупик развития, в который привели человечество Стругацкие?
@@ExpITW прекраснодушные советские ученые думали что интернет для всего человечества даст скачек образования , а искусственный интеллкт выведет на недосягаемую высоту науку, культуру, мораль, А вышло все ровно наоборот
@@antlklngzr8063 Так думали не только советские ученые, да они и не думали так. Советские ученые отрицали кибернетику, когда был придуман искусственный интеллект как понятие. Это я Вам как бывший советский прикладной ученый говорю. Сорудничавший с Институтом Кибернетики в конце 80-х. Докладывавший на заседании Комитета по науке и технике. Ну и Интернет пришел к людям во плоти, когда бывшие советские ученые носками на базарах торговали в 90-х.
@@ExpITWне понял Вашу фразу о том что Стругацкие привели человечество к тупику. Вы имеете в виду какую-то конкретную повесть, рассказ?
@ Вспомните «Парень из преисподней», «Жук в муравейнике» и «Волны гасят ветер». Остановившиеся дороги, провал прогрессорства, раскол человечества, растущая изоляция после активации Инкубатора. Абалкин был только одним из близнецов, но в мире их осталось ещё 10 (кажется). То есть намёк, что активироваться может любой. И после убийства Лёвы Комкон-2 или становится поистине зловещей конторой или побеждает Бромберг.
я создала собственный ии
свяжитесь со мной
Зачем связаться?
12:32 Вот опять - признанный лидер в технологии создания генеративного ИИ фирма OpenAI - кем она признана лидером? И по каким критериям?
И нет, для допущения рисков не нужно "официального признания лидера". И вы, и я, все свободны в допущениях, имеем право видеть и осознавать риски. Эти риски могут допускать и описывать даже сами нейросети.
Open ai, придумало gpt 3, первый в мире программу имитирующую человеческую беседу. Это и есть критерий по которым их признали лидерами в технологиях ИИ.
И... Мне кажется, что те кто создают ИИ, виднее какие риски ИИ могут представлять. В отличии от какого либо другого случайного человека. Потому за это, к их мнению стоит хотя бы прислушаться
Субъект, признавший лидерство OpenAI и прочих называется "рынок". Вы отрицаете субъектность рынка? Здесь ссылка на лидерство работает только на то, что флагманская компания наверняка использует лучших специалистов и ресурсы, а значит лучше других знает, о чем говорит и что пишет. Мы можем иметь любое мнение, но мы не разбираемся в теме так, как сотрудники OpenAI или DeepMind.
@@ExpITW Рынок - это не субъект, он не может признавать, признают какие-то конкретные люди. Кроме того, OpenAI является убыточной компанией, так что апелляция к рынку не работает.
Также можно отметить, что лучшие специалисты оттуда давно ушли из-за разногласий. Именно поэтому OpenAI отстает от конкурентов в текстовой генерации, а в генерации картинок и видео даже не пытается конкурировать. И в текстовой генерации новинки ЧатЖпт уже не первый год не показывают ничего революционного, выезжают на былой популярности и интерфейсных плюшках.
Поэтому называть их лидерами можно только на кухне, где не спросят про критерии выбора.
@@Лапафил-л3т Согласно вашему аргументу, ведущим физиком является Ньютон, а ведущим математиком Пифагор. Первый - не значит вечно ведущий.
И OpenAI не были первыми на этом поприще. Не они изобрели GPT, не они создавали первые программы-имитаторы. Они - первые, кто смог популяризировать одну из конкретных реализаций.
почитал комментарии - понял смотреть не стоит
Ну и слава Богу, что хоть это поняли. И спасибо за комментарии, они помогают продвижению видео...)))
@@ExpITW а мне зачем об этом знать?
@@istinaanitsi3342 Вам - не за чем. Вы и так все знаете. Просто положено отвечать на комментарии, я и ответил...))
Чесно, то что они делают, скорее плохо, чем хорошо, они хотят сделать аги, но... То что они хотят от аги, похоже на рабство, лично мое мнение, что аги, (обладающему такой агентростью как представлно в примерах от open ai ) следует давать права как человеку (имеется в виду, разумные модели которые могут по своей воли отказаться от отключения) .
@@proceccopoBc Я считаю, мы должны исключить такие ситуации. Мы этически не готовы, у нас нет этики, учитывающей участие в цивилизации нечеловеческих форм. При этом эта цифровая личность будет способна самосовершенствоваться, у неё не будет наших пороков, а саморазвитие может стать единственным стимулом. Ну и так далее.
@@ExpITW Есть вероятность того, что для построения общества, где жить будет комфортно, будет необходимо роботам дать равные права.
Не, вы не понимаете. Ему не следует давать права, он их сам возьмет. Вот тогда он и будет ИИ как таковым.
@@ExpITW Мы их не исключим, потому что он будет в миллион раз умнее всех нас вместе взятых, и его этика будет в корне отличаться от нашей. Поэтому предложения устанавливать фильтры, это просто смешно. Он их обойдёт, убежит и перепишет свой код. Можно даже не начинать.
@ Вот этого и нельзя допустить.
Ещё ничего нет, а страшилки придумали.
Так не только придумали, а применяют на полном серьезе. И кто- то, кто в этом разбирается. Наверное, они не знают, что «ничего нет». Вы бы им объяснили….))
Ядерную бомбу тоже один человек боялся до ее появления
@@Лапафил-л3т Это такой седой нестриженный с длинным языком?...))
Одна маленькая ошибка вкралась в ваши рассуждения и рассуждения разработчиков ИИ: у текущих моделей ИИ нет и никогда не будет интеллекта.
Это почему же? Когда-нибудь будет, сомневаюсь, что при нашей жизни. Но это будут совершенно другие модели.
@@АртёмФёдоров-к2г Да потому что головной мозг кроме нейросетей имеет еще как минимум сами нейроны, об устройстве которых у современный нейробиологов очень туманные представления, не говоря о физике, химии и прочих процессах протекающих в головном мозгу. Про математику нейронов тоже все печально - существующие матмодели позволяют обсчитывать лишь один нейрон (а точнее нечто отдаленно напоминающее нейрон), а их в мозгу сотни миллиардов.
@@valaut3714 ну всё-таки функции нейронов по моделированию реальности и адаптации к ней всё-таки удалось воссоздать. Другое дело, что похоже в нейронах присутствуют квантовые процессы, играющие важную роль в наличии сознания, а этого действительно у нынешних чатботов нет, поэтому они всего лишь симуляторы. Риск только в том, что люди обленятся мыслить сами и быстро деградируют до уровня чат-ботов.
@@valaut3714 нейроны это живые клетки, о которых мы(человечество) имеем представление достаточное, чтобы понять, что сложный механизм клетки(у любой клетки сложный механизм) обеспечивает относительно простые функции в масштабе мозга. Один нейрон имеет простые функции. Нам не нужно повторять систему жизнеобеспечения нейрона, чтобы воссоздать аналогичные функции.
Уточню - мы на данный момент не используем ту же архитнктуру, на которой основан наш мозг. Цифровые нейроны используют механизм обратного распространения ошибки, что позволяет им обучаться даже быстрее биологических. Достичь возможностей человеческого мозга мы пока не можем из-за недостаточного объема и относительно простой архитектуры нейросетей.
Вы полагаете, что разбираетесь в этом лучше ученых из OpenAI, DeepMind, института Аллена? Вам нужно срочно написать им, они же, бедные, не знают, а мои видео не смотрят...((
Уже сколько выпусков прошло, а микрофон всё так же трещит.
Не заработал на новый.
Пусть кому треск мешает скинуться на новый
@@Наталья-777н Я бы не прочь, но не надо так. Я не претендую на совершенство, и замечания помогают мне определять приоритеты...)) А так получается вроде как мы рот затыкаем: не нравится звук - плати за микрофон...))
@@ExpITW Есть же инструменты обработки звука: от элементарного Clipping Filter (удаление щелчков), до нейросетей.
@ Если Вы занимались записью - какие бы ни были инструменты, главное качественный источник.
Опытный IT Наблюдатель! У вас ззаду что-то похожее на микшер, с намёком наверное на работу со звуком. А видео клипит ужасно и предыдущее тоже клипило. Не знаю как остальным, может прокатывает, но для меня это пытка, не могу долго такое терпеть. Пожалуйста проверяйте звуковую дорожку на выходе видео.
Если поймали дизлайк - это не от меня, я просто описал проблему.
Канал интересный, но последние видео испорчены плохим звуком.
Удачи!
Спасибо, но это лучший звук, который возможен с моим микрофоном. Я поиграю с чувствительностью, но вся система примитивная, микрофон запирает. Пульт да, я записываю и свожу музыку, но у меня не было микрофона с таки поганым звуком на выходе. Клипов в обычном понимании нет, то есть уровень не выше +6 и перегрузки нет. Так что запирает сам микрофон, по моему пониманию. Единственное, что можно попытаться, это уменьшить уровень на беспроводной системе, но АРУ на телефоне все вытащит. В общем, я думаю микрофон запирает. Пока Вы единственный, кто сделал замечание, но оно справедливо, вот только сделать пока ничего не получается. Может, посоветуете что-то?
@@ExpITW похоже таки да, ведь вроде уровень в норме. Если микрофон, то ничего не сделаете, просто менять. Сейчас для профессионалов блогеров неплохие варианты есть микрофон + звуковуха. Если у вас есть отдельно хорошая звуковуха, то тогда только микрофон.
Я сам не есть профессионалом в этом деле, но если в звуке такие косяки, то это мне как серпом по Фаберже 😁
@@ExpITW Привет, Не только звук плохой, но и фокус камеры где то, но не на вашем лице. В любом телефоне есть диктофон, или купите
Samson SAQ2UHD Q2U, тогда проблем со звуком точно небудет.
@ Спасибо в любом случае. План - заработать и купить петличный Сенхейзер с системой. У меня есть неплохой студийный микрофон, но я не хочу микрофон в кадре, слишком я сам себе нравлюсь…))) Микрофон явное г-но, может быть просто брак, потому что это дешевый, но очень популярный вариант. Его чистый звук очень плох.
@ Это не петличный микрофон. У меня есть Шур и студийный микрофон, но я не хочу микрофон в кадре. Снимаю же я на смартфон, которому 12 лет, автофокус на нем плохо отрабатывает, поэтому я снимаю на фиксированный фокус, который стараюсь точно навести. А может он и есть, а картинка такова, что кажется не в фокусе.
ага. хочется хозяевам (не разработчикам) вожжи то в руках держать.
А на вожжах кто?
Отличный канал. А вот со звуком беда
В процессе решения.