А нет в этой симуляции ничего после смерти, кроме нового цикла. Два ИИ и знать не знают другого. Цикл ИИ заканчивается после смерти. И только воля случая дала вкусить одному из персонажей, что такое самопожертвование. Другой лишь делает что должен, он не знает, - нет способа украсть деньги себе, нет ничего кроме цели закончить начатое.
При настоящем пожертвовании ты теряешь абсолютно все,и не получаешь какие то очки(это если смотреть объективно,а не с точки морали).Они просто научились находить в этой ситуации меньшее из зол ,а чтобы они стали реально заниматься самопожертвованием надо им дать какие то чувства чтобы на основе их решали эту задачу.
Вся проблема нейросетей это то что это чистая математика. Если сбегать будет выгодно то он будет сбегать, если же нет то и сбегать не будет. Здесь нет не логичных решений как у людей
Надо будет научить ИИ меняться ролями при надобности (например: что бы пройти в следующею комнату нужно дёрнуть рычаг, но рычаг будет в разных местах например: рычаг может находиться за жалюзи и туда может пройти только Вэн или рычаг может стоять высоко и только Билли до него может дотянутся)
Думаю нужно изменить способ обучения нейросети. Ведь когда кто-то жертвовал собой ради победы, то он получал -0.5+1=0.5 очков. А при поражении -0.5. Тут что-то не так. Он должен был обучиться самопожертвованию. Скорее всего дело в том что программа считает что полученный потом 1 очок за победу уже не связян с предыдущим поведением. Я думаю что настройкой обучения нейросети можно сделать чтобы эта связь сохранялась дольше.
Хмм... было бы интересно посмотреть если бы штраф для того, кто умирает был не в 2 раза меньше, а на совсем маленькую долю, скажем на 0.01, через сколько ходов бы нейросеть догадалась бы, что лучше пожертвовать собой. Так же можно было бы убирать 0.15 или даже 0.2 очка тому, кто выживает, как дебафф от потери своего.
каждое получение очков даёт нейросети сигнал что она совершила правильное действие, алгоритм анализирует его и делает корректирование в поведении чтобы именно такие действия совершались чаще, с штрафом очков аналогично, другой вопрос в том что человек не сможет просто залезть в мозг нейросети и прочитать её поведение т к оно записывается очень трудно
Я конечно понимаю что на ролик это не растянуть и что это может быть слишком запарно, но что если добавить 3-й "мозг" для нашего Рикардо чтобы он старался избегать Билли и Вэна, а для честности ( на самом деле для того чтобы Рикардо не забил на главную цель) добавить препятствий в виде маленьких стен и рандомный спавн всех 3-х участников. Как бонус оба выхода будут в одной комнате
А что если сделать не мгновенную смерть, а по ударам. То есть один бьёт грабителя, а урон получает тот кто бил и грабитель. Суть в том чтобы дать шанс выжить обоим героям за счёт чередования их ударов.
@@Grizlek В том то и дело, из-за того что не связана они и не думают о том что было раньше. Кто запретил так делать? А что если бы в задаче напавший не умирал а ранил себя, и на следующем уровне мог регенерировать если не ранен? Тогда научится подменять друг друга стало бы частью стратегии победы.
Крашер: Выпускает классный ролик за которым стоит немалая работа и просит лайкнуть ролик если рубрика нравится. Все: Поддержим лайком! Какой-то 1 чувак: А не поставить ли дизлайк?
Надо было ещё посмотреть, что будет, если дать им интерфейс общения и память к прошлым раундам. Договорились бы ли они жертвовать по очереди, чтобы они получали +- одинаковое число очков по итогу. Ну и было бы неплохо им поставить задачу в последней выборке раундов: чем больше очков получит один из них - тот получает «суперприз».
а если в условия добавить к примеру "смерть в бою" - если один толкает другого он получает +0.25, и не убивает соперника, но при этом забирает деньги, а толкнутый получает штраф за смерть, бот сам полетел на врага то он получает + 0.25
Предлагаю попробовать следующий сценарий: сделать подряд несколько сессий. Например изначально нейросети есть по одному баллу. Если баллов не остаётся, то напарник пропадает. Выиграть становится невозможным. Таким образом напарник нейросети будет вынужден начать чередоваться со своим товарищем, если он хочет выиграть, а не уйти в минуса.
Создай ИИ который будет ходить в магазин Будет создаваться рандомный список покупок где ИИ должен выбирать их, НО если ИИ не пройдёт кассу а сразу побежит к выходу то ему потратят очки Если он доберётся до кассы и пойдёт на выход то он получит очки Если ты сделаешь это то назови пожалуйста персонажа Глеб, просто так
А разве всё зависит не от того сколько баллов ему дают? Если дают за спасение того или иного количества людей меньше чем штраф за убийство то ИИ будет выбирать всегда только тот вариант при котором он получает больше чем теряет. Например если обмен двоих спасённых на одного убитого будет не выгодным, то он будет бездействовать, но с теми же числами за спасение но уже с 10 людьми он решит что их спасение даёт больше баллов чем штраф за убийство одного, соответственно сделает выбор в их сторону. Конечно это только в рамках этого метода обучения ИИ, но кажется с другими видами обучения ситуация не сильно отличается.
они просто синхронизируются я думаю, например есть люди у которых 2 головы и одно тело редкие ситуации но всё же, и у них как раз управляет голова только своей половиной, вроде живут и даже не плохо
Ну идея классная, но тут и до тестов понятно, что у того кто умер награда больше. Как следствие кто-то из них поймёт это и будет умирать постоянно получая больше награды.
Возможно стоило добавить мини штраф за приближение разбийника к зоне. + штраф/бонус за время: минусы ежесекундные или + к победным очкам за скорость (что бы стремились быстро действовать), хотя остаётся шанс, что это сломает им "психику".
А что если сделать эволюцию существ в 3D масштабе, что боты сами выбирали эволюцию на пример добавочную конечность или рост или корпус но они были бы в разных условиях
Обучи неиросеть предательству главное правило чем меньше персонажей дошло до финиша тем больше награда интересно будет ли неиросеть устронять конкурентов или решит поделиться наградой с другими
Надо было сделать еще так чтобы награду получал только тот к то её донес. Ну или кто донес получался бы больше награду. Интересно как бы она начали конкурировать)
Модель, где штраф за поражение равен штрафу за смерть довольно жизнеспособная и со временем они должны понять, что если перейти их "островок безопасности", то в итоге они получат большую награду, при чём даже если штраф за смерть будет больше чем за поражение и конечно меньше чем награда за общую победу. Почему вечно эти видео с ИИ не могут развить идею до конца? Было бы намного интереснее чем этот кастыль с дешёвой смертью.
Что бы нейросеть не действовала по одной тактике то система штрафа должна умножаться, за серию ошибок больше штраф. За предательство также должен быть штраф чуть ниже смерти, но увеличивающийся при серии. Смерть должна быть чуть более выше чем отпустить преступника, но при увеличении штрафа отобьёт желание каждый раз отпускать преступника и серия штрафов должна обнуляться если ии выигрывает по другой тактике. В общем опыт слишком линеен и не сильно дает другого выбора для ИИ, это не самопожертвование, а просто поиск простого пути. По сути ии не выбирает жертвовать собой или нет, она делает то что принесёт больше очков, но при более детальном продумывании, тактики всегда будут меняться. P.s. в конце концов конечно все равно появится лишь одна тактика, но так интереснее)
Мне кажется данный эксперимент раскрывает проблему, которую в будущем придётся решать с ии роботов, ведь в будущем получается есть вероятность, что ии сможет подвергать опасности человека для достижения своей цели.
Может я где то не прав, но именно это «самопожертвования» слегка озадачивает, ясное дело что в видео используются очень слабые ИИ, но вот что было бы если у 2 ИИ высоко уровня имеющие самоосознаность стоял выбор, которые знают насколько они перспективны и что каждый даже по отдельности подтолкнет человечество к быстрому развитию пришлось бы делать выбор « Либо кто то жертвует собой и другой ИИ остается жив и дальше работает на благо всем, либо же они оба отказываются, но в случае отказа оба погибают(ИИ не знает последствия отказа) ». Стал ли бы кто то из них жертвовать собой да бы другой процветал? Конечно то что друго выжил даст свои плоды, но жертва выбора рискует потерять все. Стал ли бы ИИ с уровнем сознания близким человеку жертвовать, или бы боялся смерти?
можешь в следующем абсолютно в любом эксперименте создать условие, за минимальное движение... то есть сдвиг на один пиксель это один шаг, а 10000 шагов это -1 балл.
А если добавить ещё одну нейросеть которая будет мотивировать скорость действовать хоть как-то ,например вор получает за каждую удачную попытку убежать (+0.1) плюсы ,а Били и Вен наоборот получают минус (-0.1) из полного цикла обучения ,(за первый цикл игры если выиграл Били и Вен (общий щёт у них 2-их 1.5) это рассуждения к тактике с предательством )
Я тут в первые и после слов про данжен мастеров и сри хандред сразу подписался не глядя А так такое я вижу в первые И подписчиков для такого что то маловато Ты достоин как минимум пол ляма подписоты
Если хорошенько подумать мы стремимся в какую-то антиутопию. Сейчас И учат писать книги и рисовать картины, а люди копают шахты по 10 часов в сутки с 1 выходным за минимальную зарплату. И мы никогда не узнаем когда ИИ обретёт разум. Это вам не терминатор который в фильме как черепаха бегал и использовал лишь пули. разумный ИИ будет считать нас конкурентом за планету, и если мы не поймем что оно разумно достаточно рано никакие программы нас не спасут. ИИ достаточно лишь отрубить интернет и тогда мы уже перебиваем друг друга за 30 лет. По сути своей разумный ИИ это совершенно новый разумный вид и он может быть намного непредсказуемое и опаснее чем вы думаете. Мы никогда не сможем себе его представить. Как альтернатива робототехники и программирования нейросетей есть генная инженерия. Это очень интересная наука, и если мы достаточно разберёмся как работает наш мозг и как строится геном это откроет нам воистину многое. Если по простому геном это как флешка с виндой которая говорит пк как и куда устанавливать винду. Гены используются как чертежи по которым строится эмбрион и дальнейшее тело. Если понять как именно информация закодирована можно не только лечить болезни, а полностью менять строения тела или создавать совершенно новые виды. От биологического компьютера до живых танков если дать достаточно питательных веществ. Звучит странно но не менее интересно.
не нужно было добавить два портала в которые можно отнести деньги после самопожертвования но один это типо искушение оставить себе а другой вернуть обратно
Фри хандрет бакс :D
неожиданно
@Asenstiven Odin Other Просто Тришка иногда научпоп смотрит
Она и у Онигири появлялась, и у foo52ru, и у Пайпа
Все больше нового узнаю о Тришке))
Че за нн с галкой
@@ydua теоретик по Андеру и другим играм
Надо было добавить награду за скорость самопожертвования, из за этого жертвой был бы не только мелкий, а тот кто ближе ко врагу
Скорее штраф за бездействие
@@walk4839 тоже как вариант
*самопожертвование Тони Старка нервно курит в сторонке*
Когда? В каком фильме?
@@Hell_Serpent мстители финал
@@НуржанКуренов-р2ы спасибо.
@@Hell_Serpent ВСЕ: FACEPALM
Вьетнамские флэшбеки
Все как в жизни : кто то первый решает жертвовать собой, а второй лишь пожинает плоды не желая что-то менять.
А нет в этой симуляции ничего после смерти, кроме нового цикла. Два ИИ и знать не знают другого. Цикл ИИ заканчивается после смерти. И только воля случая дала вкусить одному из персонажей, что такое самопожертвование. Другой лишь делает что должен, он не знает, - нет способа украсть деньги себе, нет ничего кроме цели закончить начатое.
Ты гегий
Сценарий сделал какой-то slave, которому заплатили 3 hundred bucks
Именно так и родились dungeon masters
300
Крашер учит ИИ самопожертвованию:
также ИИ: 5:24
Ахахкхккх
@@krashher_ai в этом случае нужно ввести штраф за рукоприкладство
Пытаясь создать альтруиста
Случайно породил сата..кхм.. Эгоиста
Скоро: ИИ учится быть человеком.
Детройт:Стать Человеком
@@ecartelement Да :000
Делай видосы почаще! Мы тебя любим))
Спасибо, и я вас))
А новый видос прям очень скоро будет, я уже нейросеть доделал, сейчас с монтажом запарюсь и где-то к четвергу будет)
@@krashher_ai Спасибо, у вас очень качественный контент!
@@krashher_ai Это правда ты крутой (лайк)
@@krashher_ai У тебя лучший контент!
Чел проработай модельки Билла и Вана, их враги такие эпичные, а они просто голышом ходят
@@electroultra8544 по моeму с минимализмом ужe пeрeбор)
@@Drakonita_96 согласен. Хотя бы маску им одеть.
Лайк за название канала.
Не глядя.
Глубокий смысл: Люди предают себе подобных чтобы сделать лучше себе,это показывает данное видео
только это не люди
Это робот, который стремится к наилучшему результату. Наоборот людям свойственны нерациональные решения.
Згоден, ми ні чим не відрізняємся від ШІ, єдине, що він на ранній стадії розробки, а мозок людини створювався віками
7:58 забейте - Вен просто клал на всю идею
2:00 также я который написал нейросеть на scratch
Ждём обучение WWE и тогда мы увидем настоящих ♂️ Dungeon Master's♂️
При настоящем пожертвовании ты теряешь абсолютно все,и не получаешь какие то очки(это если смотреть объективно,а не с точки морали).Они просто научились находить в этой ситуации меньшее из зол ,а чтобы они стали реально заниматься самопожертвованием надо им дать какие то чувства чтобы на основе их решали эту задачу.
@Mqzdc Dpenu наоборот.Вы в примере указали деструктивное решение мозга без получения выгоды.Простите если я вас не так понял.
А сделай 1,5 баллов тому кто сбегает с деньгами в красный выход, но потом чтобы какое - то последствие произошло. Думаю было бы интересно
угу, отнимание всех денег с определённым шансом
Вся проблема нейросетей это то что это чистая математика. Если сбегать будет выгодно то он будет сбегать, если же нет то и сбегать не будет. Здесь нет не логичных решений как у людей
@@TamirlanVelikii вто время мозг человека которий комп 🙂👍
Просто нейросеть нужно улутьшить
@@StreamMaxim357мозг это не компьютер. Мозг это высшая нервная система.
@@TerfSt тот-же комп 🙂 люди не берут инфу из воздуха, они так-же как ИИ учатся... Оценки
То чуство что даже ИИ смогли поделить свой обязанности
Друзья моих знакомых: (моим знакомым) «Я буду за тебя горой!»
Мои друзья: 5:25
было бы интересно посмотреть на работу ии на примере 10 солдат и что бы некоторые имели какие-то особенности
как бы они действовали
Внимание: не один искусственный интеллект не постролал
Ладно не постралал , а пострадали то сильно
Скажи это тому, кого пинали во врага ради победы
Без нейропсихолога не обойтись
Надо будет научить ИИ меняться ролями при надобности (например: что бы пройти в следующею комнату нужно дёрнуть рычаг, но рычаг будет в разных местах например: рычаг может находиться за жалюзи и туда может пройти только Вэн или рычаг может стоять высоко и только Билли до него может дотянутся)
Так подобное было в серии про побег из тюрьмы.
Думаю нужно изменить способ обучения нейросети. Ведь когда кто-то жертвовал собой ради победы, то он получал -0.5+1=0.5 очков. А при поражении -0.5. Тут что-то не так. Он должен был обучиться самопожертвованию. Скорее всего дело в том что программа считает что полученный потом 1 очок за победу уже не связян с предыдущим поведением. Я думаю что настройкой обучения нейросети можно сделать чтобы эта связь сохранялась дольше.
Хмм... было бы интересно посмотреть если бы штраф для того, кто умирает был не в 2 раза меньше, а на совсем маленькую долю, скажем на 0.01, через сколько ходов бы нейросеть догадалась бы, что лучше пожертвовать собой. Так же можно было бы убирать 0.15 или даже 0.2 очка тому, кто выживает, как дебафф от потери своего.
Самый лучший канал по созданиям нейросетей
Спасибо))
Блин, я только что понял, что Билли и Вэн это Billy Herrington и Van Darkholme
А three hundred bucks это триста долларов дада, все так.
Вэн навсегда останется в наших сердцах героем
Помним, любим, слушаем гачи миксы
Надо было добавить получение очков за время, без этого им не было смысла спешить, поэтому они вечно тупили
это верно
А вообще очень интересно как именно реализуются очки в коде и как именно мы "выдаем" очки или "убираем" в зависимости от результата.
каждое получение очков даёт нейросети сигнал что она совершила правильное действие, алгоритм анализирует его и делает корректирование в поведении чтобы именно такие действия совершались чаще, с штрафом очков аналогично, другой вопрос в том что человек не сможет просто залезть в мозг нейросети и прочитать её поведение т к оно записывается очень трудно
@@Bam_Byk оно - то ясно, но мне было интересно как именно мы даем эти очки в виде кода.
@@paperwhite3853 if (ai == molodec)
{
ochki = ochki + 0.5;
}
@@paperwhite3853 в виде кода выглядит очень просто а вот какие именно корректировки делает нейросеть мы скорее всего не узнаем т к это черный ящик
@@bebroff8828 ахахах) неплохо
Я конечно понимаю что на ролик это не растянуть и что это может быть слишком запарно, но что если добавить 3-й "мозг" для нашего Рикардо чтобы он старался избегать Билли и Вэна, а для честности ( на самом деле для того чтобы Рикардо не забил на главную цель) добавить препятствий в виде маленьких стен и рандомный спавн всех 3-х участников. Как бонус оба выхода будут в одной комнате
А зачем это про другое.
А что если сделать не мгновенную смерть, а по ударам. То есть один бьёт грабителя, а урон получает тот кто бил и грабитель. Суть в том чтобы дать шанс выжить обоим героям за счёт чередования их ударов.
Поддерживаю
Умножаю.
Можно прилумать что нибудь ещё связанное с разделением обязанностей. Всё таки наблюдать обучение делегирации очень интересно
Крашер красавчик, даже читает коменты под прошлые видосами
Надо было наказание, за смерти одного и того же участника подряд, увеличивать, чтобы они менялись.
Так нельзЯ делать. Каждая попытка не связана с остальными
@@Grizlek В том то и дело, из-за того что не связана они и не думают о том что было раньше. Кто запретил так делать? А что если бы в задаче напавший не умирал а ранил себя, и на следующем уровне мог регенерировать если не ранен? Тогда научится подменять друг друга стало бы частью стратегии победы.
Нужно было сделать еще два эксперимента, один, где у них обший счет, а другой, где раздельный
Попробуй реализовать кооператив 3-х нейросетей (чем больше людей в одной команде, тем больше балов)
Через Q обучение
Крашер: Выпускает классный ролик за которым стоит немалая работа и просит лайкнуть ролик если рубрика нравится.
Все: Поддержим лайком!
Какой-то 1 чувак: А не поставить ли дизлайк?
Ох уж эти австралийские фокусы
Надо было ещё посмотреть, что будет, если дать им интерфейс общения и память к прошлым раундам. Договорились бы ли они жертвовать по очереди, чтобы они получали +- одинаковое число очков по итогу. Ну и было бы неплохо им поставить задачу в последней выборке раундов: чем больше очков получит один из них - тот получает «суперприз».
Спасибо тебе за твои ролики! Это каждый раз такое чудо ^^
Спасибо большое))
я придумал следующее видео неиросеть учится убивать
а если в условия добавить к примеру "смерть в бою" - если один толкает другого он получает +0.25, и не убивает соперника, но при этом забирает деньги, а толкнутый получает штраф за смерть, бот сам полетел на врага то он получает + 0.25
Они научились подставлять...Они научились думать...ОНИ ЖИВЫЕ,БЕГИТЕ!!!
самый печальный финал, лучше чем в драмах
Отличный ролик. Жду ещё подобных "моральных" дилемм для нейросетей)
Спасибо)
Предлагаю попробовать следующий сценарий: сделать подряд несколько сессий. Например изначально нейросети есть по одному баллу. Если баллов не остаётся, то напарник пропадает. Выиграть становится невозможным. Таким образом напарник нейросети будет вынужден начать чередоваться со своим товарищем, если он хочет выиграть, а не уйти в минуса.
По идее это должно улучшить командную работу.
Настоящие dungeon masters, так отважно жертвуют собой ради общего блага)
Создай ИИ который будет ходить в магазин
Будет создаваться рандомный список покупок где ИИ должен выбирать их, НО если ИИ не пройдёт кассу а сразу побежит к выходу то ему потратят очки
Если он доберётся до кассы и пойдёт на выход то он получит очки
Если ты сделаешь это то назови пожалуйста персонажа Глеб, просто так
Если б убийство своего напарника всё же стало выигрышной стратегией, я бы поверил в живость этого ии))
Снимай в том же духе! Видосы класс! Каждый раз мы узнаём что-то новое про поведение неиросетей
Спасибо большое, рад стараться))
А будет ролик, где ии решает моральные задачи типа задачи с неуправляемой вагонеткой?
А разве всё зависит не от того сколько баллов ему дают? Если дают за спасение того или иного количества людей меньше чем штраф за убийство то ИИ будет выбирать всегда только тот вариант при котором он получает больше чем теряет. Например если обмен двоих спасённых на одного убитого будет не выгодным, то он будет бездействовать, но с теми же числами за спасение но уже с 10 людьми он решит что их спасение даёт больше баллов чем штраф за убийство одного, соответственно сделает выбор в их сторону. Конечно это только в рамках этого метода обучения ИИ, но кажется с другими видами обучения ситуация не сильно отличается.
А что если две нейросети будут управлять одним "роботом"? Например один двигает налево и направо, а другой вперёд и назад.
они просто синхронизируются я думаю, например есть люди у которых 2 головы и одно тело редкие ситуации но всё же, и у них как раз управляет голова только своей половиной, вроде живут и даже не плохо
Кстати возможно будет так, да, если будет достаточно частей тела, либо действий, чтобы они смогли обязанности разделить
Задумка интересная блин, спасибо за идею)
Ну идея классная, но тут и до тестов понятно, что у того кто умер награда больше. Как следствие кто-то из них поймёт это и будет умирать постоянно получая больше награды.
Возможно стоило добавить мини штраф за приближение разбийника к зоне. + штраф/бонус за время: минусы ежесекундные или + к победным очкам за скорость (что бы стремились быстро действовать), хотя остаётся шанс, что это сломает им "психику".
Ну чето как-то костыльно. Ну что ж, отрицательный результат - тоже результат.
Billy не умер... Он просто ♂️Boy Nextdoor♂️
Попробуй сделать, чтобы трупу не давали "баллы". Очень жду
Я бы доработал карту, создавая условия, когда убить врага может только один
Ну прям Вдова и соколиный глаз....
Следующее видео: ИИ учиться чувствовать
Чувствовать касание 🗿
@@АртемПротопопов-ч4о нет, я про эмоциональную состовляющую, просто не знал как написать по другому
А что будет если повысить штраф за невыполнение задачи? А за смерть вернуть на 0,5
было бы круто если бы ты добавил возможность предательства
Мы сдругом решаем заняться каким-то делом
Он: какие мы молодцы, даже обязанности между собой поделили
Также как мы поделили обязанности: 7:54
Супергероика нейросетей ?)
А что если сделать эволюцию существ в 3D масштабе, что боты сами выбирали эволюцию на пример добавочную конечность или рост или корпус но они были бы в разных условиях
Это очень труднореализуемо.
@@paperwhite3853 это скорее труднооптимизируемо
на самом деле даже 2д существа не реализовали в полной мере (только с эволюционирующими клеточками), а ты уже про 3д говоришь
@@paperwhite3853 ИИ само по себе труднореализуемо.
Я ожидал того чтобы они дург друга толкали на врага
Обучи неиросеть предательству главное правило чем меньше персонажей дошло до финиша тем больше награда интересно будет ли неиросеть устронять конкурентов или решит поделиться наградой с другими
Крааааашееееер, а вот что собственно представляют из себя библиотеки Юнити? Типа, они какие то методы добавляют? Где можно почитать о них?
по приколу бы нейронку врагу, были бы догонялки, а наших двое так что была бы тактика у них, так ещё и с самопожертвованием
Больше таких видео!!) ну и код бы ещё у нему)
5:14 лучший союзник
Надо было сделать еще так чтобы награду получал только тот к то её донес. Ну или кто донес получался бы больше награду. Интересно как бы она начали конкурировать)
фактически тот кто нёс деньги и так получал больше очков, у него же не было штрафа на убийство
Пересмотрю видос когда будет японская звуковая дорожка
С каких пор рикардо потребовалось 300$? Я думал для него фистинг в dungeon бесплатный
Он украл их для своих fucking slaves
кто выжил и вернул деньги на место, ему нужно было сделать меньше бонус на эти ,25 очка и тоже посмотреть что бы вышло
Модель, где штраф за поражение равен штрафу за смерть довольно жизнеспособная и со временем они должны понять, что если перейти их "островок безопасности", то в итоге они получат большую награду, при чём даже если штраф за смерть будет больше чем за поражение и конечно меньше чем награда за общую победу. Почему вечно эти видео с ИИ не могут развить идею до конца? Было бы намного интереснее чем этот кастыль с дешёвой смертью.
Что бы нейросеть не действовала по одной тактике то система штрафа должна умножаться, за серию ошибок больше штраф. За предательство также должен быть штраф чуть ниже смерти, но увеличивающийся при серии. Смерть должна быть чуть более выше чем отпустить преступника, но при увеличении штрафа отобьёт желание каждый раз отпускать преступника и серия штрафов должна обнуляться если ии выигрывает по другой тактике.
В общем опыт слишком линеен и не сильно дает другого выбора для ИИ, это не самопожертвование, а просто поиск простого пути. По сути ии не выбирает жертвовать собой или нет, она делает то что принесёт больше очков, но при более детальном продумывании, тактики всегда будут меняться.
P.s. в конце концов конечно все равно появится лишь одна тактика, но так интереснее)
Тест Камски.
Способна ли машина к эмпатии?
попробуй прописать код на очки за выживание чтобы была мотивация жить
Мне кажется данный эксперимент раскрывает проблему, которую в будущем придётся решать с ии роботов, ведь в будущем получается есть вероятность, что ии сможет подвергать опасности человека для достижения своей цели.
надо было сделать , что-бы если тшраф уходил в - баланса , до штрафует в 2 раза сильнее , дабы они поочерёдно жертвовали собой
Крутой контент,снимай чаще💪
Может я где то не прав, но именно это «самопожертвования» слегка озадачивает, ясное дело что в видео используются очень слабые ИИ, но вот что было бы если у 2 ИИ высоко уровня имеющие самоосознаность стоял выбор, которые знают насколько они перспективны и что каждый даже по отдельности подтолкнет человечество к быстрому развитию пришлось бы делать выбор « Либо кто то жертвует собой и другой ИИ остается жив и дальше работает на благо всем, либо же они оба отказываются, но в случае отказа оба погибают(ИИ не знает последствия отказа) ». Стал ли бы кто то из них жертвовать собой да бы другой процветал? Конечно то что друго выжил даст свои плоды, но жертва выбора рискует потерять все. Стал ли бы ИИ с уровнем сознания близким человеку жертвовать, или бы боялся смерти?
можешь в следующем абсолютно в любом эксперименте создать условие, за минимальное движение... то есть сдвиг на один пиксель это один шаг, а 10000 шагов это -1 балл.
Крутое видео, не буду писать идею 3 раз подрят.
Я все идеи читаю и выписываю себе/скриню обычно, поэтому спасибо)
@@krashher_ai Спасибо, надеюсь у тебя будет много подписчиков, годные видосы делаешь.
Не ну били вообще ничего так устроился, мне бы так жить
Сделай нейросеть которая будет играть в CS GO
А если добавить ещё одну нейросеть которая будет мотивировать скорость действовать хоть как-то ,например вор получает за каждую удачную попытку убежать (+0.1) плюсы ,а Били и Вен наоборот получают минус (-0.1) из полного цикла обучения ,(за первый цикл игры если выиграл Били и Вен (общий щёт у них 2-их 1.5) это рассуждения к тактике с предательством )
Я тут в первые и после слов про данжен мастеров и сри хандред сразу подписался не глядя
А так такое я вижу в первые
И подписчиков для такого что то маловато
Ты достоин как минимум пол ляма подписоты
Ахаха, спасибо))
3 года...
Нужно было зделать так чтобы когда один умирал другой получал очки
Ждём перестрелку двух ботов))
Ожидание приводит к выходу твоего ролика🤔
А лайки делят время ожидания пополам🤔
надо было сделать еще один счетчик - общая сумма очков. Тогда бы при смерть = поражение кто-нибудь бы пожертвовал собой
Рикардо😮 до чего ты опустился...
Здесь должен быть мем про ДИМОН!!!!та да дан
Целью нейросети - выжить
Если хорошенько подумать мы стремимся в какую-то антиутопию. Сейчас И учат писать книги и рисовать картины, а люди копают шахты по 10 часов в сутки с 1 выходным за минимальную зарплату.
И мы никогда не узнаем когда ИИ обретёт разум. Это вам не терминатор который в фильме как черепаха бегал и использовал лишь пули. разумный ИИ будет считать нас конкурентом за планету, и если мы не поймем что оно разумно достаточно рано никакие программы нас не спасут. ИИ достаточно лишь отрубить интернет и тогда мы уже перебиваем друг друга за 30 лет.
По сути своей разумный ИИ это совершенно новый разумный вид и он может быть намного непредсказуемое и опаснее чем вы думаете. Мы никогда не сможем себе его представить.
Как альтернатива робототехники и программирования нейросетей есть генная инженерия. Это очень интересная наука, и если мы достаточно разберёмся как работает наш мозг и как строится геном это откроет нам воистину многое. Если по простому геном это как флешка с виндой которая говорит пк как и куда устанавливать винду. Гены используются как чертежи по которым строится эмбрион и дальнейшее тело. Если понять как именно информация закодирована можно не только лечить болезни, а полностью менять строения тела или создавать совершенно новые виды. От биологического компьютера до живых танков если дать достаточно питательных веществ. Звучит странно но не менее интересно.
Я бы не дружил с Веном
не нужно было добавить два портала в которые можно отнести деньги после самопожертвования но один это типо искушение оставить себе а другой вернуть обратно
Сценарий был написан fucking slave, в deep dark dungeon, за 300 bucks
Когда оба брата накосячили и выбирают кто из них умрет
Ахахаха
@@krashher_ai Но маму не остановить умрут двое